Está en la página 1de 13

PROBABLILIDAD Y ESTADISTICA.

UNIDAD III
3.1. DEFINICIN DE PROBABILIDAD.
Los conocimientos adquiridos son de dos formas: descripcin de lo que ha sido
observado y pasar del pasado al futuro y de lo particular a lo general por inferencia
inductiva.
La forma general para expresar una inferencia es la siguiente.
Si el conjunto de condiciones C es satisfecho, entonces el evento A es inevitable.
Eventos certeros, aleatorios y simples.
1.- un evento A es certero si es inevitable su ocurrencia.
2.- un evento A es aleatorio si su realizacin es incierta aun cuando el conjunto de
condiciones C es satisfecho.
Otra definicin de probabilidad de un evento puede ser el lmite de su frecuencia
relativa obtenida a partir de repeticiones independientes del evento.
P = lim fn
. n
Donde fn=m/n es la frecuencia relativa del nmero de realizaciones (m) del evento
entre n repeticiones.

3.2. VARIABLES ALEATORIAS DISCRETAS.
LEY DE PROBABILIDAD DE UNA VARIABLE ALEATORIA DISCRETA.
Considerando el experimento de lanzar tres veces una moneda, teniendo en
cuenta todos los resultados posibles (sol, guila).
Y=y Resultados posibles
Y=0 (A,A,A)
Y=1 (A,A,S), (A,S,A), (S,A,A)
Y=2 (A,S,S), (S,A,S), (S,S,A)
Y=3 (S,S,S)


Y 0 1 2 3 Total
n(Y) 1 3 3 1 8
fy(Y) 1/8 3/8 3/8 1/8 1

fy(y) representa la probabilidad relativa.
Muestra (caractersticas) Poblacin (parmetros)
X Media


Varianza


S Desviacin estndar
P Proporcin

De manera general, una ley de una variable aleatoria discreta es conocida si, si
para cada uno de los valores posibles de esta variable, se conoce la probabilidad.
Estas probabilidades son escritas de manera exhaustiva.

Y 0 1 2 3 Total
fy(Y) 0.064 0.288 0.432 0.216 1

La funcin masa de probabilidad se escribe fy(Y).
fy(Y) = Pr({Y=y}) y Dy. Donde Dy es el dominio de las funciones de la variable
aleatoria Y. Esta funcin masa de probabilidad tiene dos propiedades.
1.- fy(Y) . 2.-

MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DISCRETA.
Sea una variable aleatoria discreta Y donde la funcin masa es denotada como
fy(Y). La esperanza matemtica de Y ser la media ponderada de Y.

y
Ejemplo.
Considere la variable aleatoria discreta Y donde la funcin masa es la siguiente.
fy(Y) = (

) (

para y = 0,1,2,3
Considere ahora la variables discreta Y donde su funcin masa es fy(Y) y donde
su media es . La varianza de Y ser la media de los cuadrados de las
desviaciones de Y con respecto a su media .





MEDIA DE UNA FUNCION CUALQUIERA DE Y, g(y).


La esperanza matemtica de g(y) denotada E(g(y)). Est definida por:


Y=Dy
Ejemplo.
Dado que = 1.8 se tiene que



3.3. PRINCIPALES FUNCIUONES DE DISTRIBUCION DE PROBABILIDAD DE
VARIABLES DISCRETAS.
Las funciones ms usadas y ms tiles son las siguientes:
1.- LEY DE BERNOULLI: Y B(I, ).
Se denomina experimento de Bernoulli a un experimento que no tiene sino dos
posibles resultados distintos generalmente llamados xito (E) y fracaso (F) con
Pr(xito)
A partir de este experimento se define la variable obtenida Y como sigue:
y=0 si es un fracaso.
y=1 si es un xito.
La variable de Bernoulli no toma ms de dos valores, 0 y 1 con las probabilidades
respectivas (1-) y (. Por lo tanto se escribe
Y 0 1 Total
fy(Y)
y-
1

2. LEY BINOMIAL: Y B(n, ).
La variable discreta Y sigue una Ley Binomial si Y es el nmero de xitos en n
experimentos de tipo Bernoulli, donde cada experimento tiene la misma
probabilidad de xito.
Ejemplo. Cuando se saca tres veces, son remplazo, una bola de una urna que
contiene N y N(I- ) bolas negras.
De forma general: (


Para Y= 0,1,n.
Para la ley de esperanza y la varianza de Y:

( )



3.- LEY DE POISSON: Y P().
Aproximacin de la ley Binomial para una de ley Poisson cuando n (nmero de
experimentos de Bernoulli) es grande, tcnicamente es difcil de calcular la
probabilidad normalmente, obtenida por una Ley Binomial. As la probabilidad
(


Cundo n es grande, es pequeo y que moderada, se puede encontrar
que: (


B(n, .

Y
(


Error
0 0.3660 0.3679 0.0019
1 0.3687 0.3679 0.0018
2 0.1839 0.1849 0.0010
Y
(


Error
0 0.0000 0.0000 0.0000
1 0.0003 0.0005 0.0002
2 0.0016 0.0030 0.0014
3 0.0059 0.0076 0.0017
4 0.0059 0.0189 0.0030
5 0.0339 0.0378 0.0039

La ley de Poisson se utiliza cuando la media y varianza de la muestra son del
mismo orden de magnitud.
Como la ley Poisson es una Ley Binomial donde n , ) 1 y
n entonces:
En general cuando:
Y
()



4.- LEY HIPERGEOMTRICA.
La Ley Hipergeomtrica es utilizada cuando el muestreo de tamao n es realizado
sin remplazo de una poblacin finita de tamao N.
Hay entonces (

maneras de escoger sin remplazo n


individuos entre N (nmero de casos posibles)
En la poblacin hay, al igual que en la Ley binomial, dos tipos de individuos: N
que representa los xitos y N que representan los fracasos.
Para obtener y xitos en n intentos, ser necesario escoger individuos entre los
individuos xito y individuos entre los individuos fracasos. Esto
representa:
(

) (

)
(

)

La funcin masa de probabilidad de la variable aleatoria numero de xitos en n
intentos ser entonces:

(

)(

)
(

)
Para Y= 0,1,2,...,n



el trmino

es el factor de
correccin de una poblacin finita.
En resumen:
Si

(

)(

)
(

)
para








Ejemplo.
En un grupo de 20 personas, 8 son alcohlicos. Se seleccionara al azar 5
personas. Cul es la posibilidad de haber seleccionado 3 alcohlicos si:
a) La seleccin es hecha con remplazo.
b) La seleccin es hecha sin remplazo.

Para el primer caso:

P(5, 0.4)
(

= 0.230
Para el segundo caso:

(

)(

)
(

)
= 0.2384

3.4. VARIABLES ALEATORIAS CONTINUAS.
1.- Densidad de probabilidad de una variable aleatoria continua.
Cuando la variable aleatoria observada es continua, conjunto de valores tomados
para esta variable no es numerable y, generalmente, es dada por intervalo finito o
infinito [a,b].
Son generalmente consideradas como variables aleatorias continuas las variables
del siguiente tipo:
I) La duracin de vida II) La distancia III) La temperatura IV) La velocidad.
La funcin de densidad de probabilidad (fdp) de una variable aleatoria continua
posee las dos propiedades siguientes:
I) II)


Ejemplo.

en c.o.p

.
La probabilidad de que la variable aleatoria X tome un valor comprendido en el
intervalo [c,d] se calcula como sigue.



2.- MEDIA Y VARIANZA DE UNA VARABLE ALEATORIA CONTINUA.
Al igual que para la variable aleatoria discreta, se hablar indistintamente de la
media y la varianza de la variable aleatoria X y de la media y la varianza de la
poblacin modelada por su ley.
Se define la media de X denotada como , por

, es
conocida tambin como la Esperanza Matemtica y tambin se escribe como E(x).
Ejemplo.

en c.o.p

.
Considrese la variable aleatoria continua X donde fdp es denotada como y
la media, define la varianza de X, denotada como


Esta integral tambin se escribe como


Otra notacin de

), por lo que:




3.5. PRINCIPALES FUNCIONES DE DISTRIBUCIN DE VARIABLES
ALEATORIAS CONTINUAS.
1.- FUNCION UNIFORME:


La media y la varianza de esta funcin son:
Media:

) (

) (

)
(

) .
Varianza:
(

) (

) (

) (

* (

)
De tal manera que:
(

) y

)

2.- FUNCION EXPONENCIAL:
Est asociada al estudio de la duracin de vida, al tiempo de espera para la
primera observacin de un evento aleatorio A.
La variable aleatoria T (tiempo) puede tomar (al menos conceptualmente) todoslos
valores reales positivos de la recta numrica y su densidad de probabilidad deber
disminuir por los valores grandes de T.
La variable aleatoria continua T sigue una funcin de Laplace de parmetro ,
denotado como L(, si su funcin de densidad de probabilidad tiene la siguiente
expresin.
La media es:

)=
Varianza (T) =

var(T)= (

)=


Pt(T)=


3.- FUNCIN NORMAL: (

)
La funcin de densidad es:

)
donde y

son
respectivamente la media y la varianza de la variable aleatoria X.
La funcin de densidad de probabilidades de la ley normal es simtrica con
respecto al eje x= y posee dos puntos de inflexin cuando las abscisas son igual
con y .
As pues se puede demostrar que:

=
Var(X)=


Tambin es posible calcular:
x



3,5.1. FUNCIN NORMAL CENTRADA Y REDUCIDA.
Si se considera que Z =

con = y Var(X)=

entonces
= E(

-
(

( )



La variable Z ( ) y su densidad es:

)
con
.

3.6. INDEPENDENCIA DE VARIABLES ALEATORIAS.
Dos eventos A y B se dicen independientes en probabilidad si y solamente si:

Si dos variables aleatorias (x) y (y) (discretas o continuas) son independientes si y
solamente si:
.

Es decir:






PROBABILIDAD CONDICIONADA TEOREMA DE BAYES.
El Teorema de Bayes se utiliza para revisar probabilidades previamente
calculadas, cuando se posee nueva informacin.
Comnmente se inicia un anlisis de probabilidades con una asignacin inicial,
probabilidad a priori. Cuando se tiene alguna informacin adicional se procede a
calcular las probabilidades revisadas o a posteriori. El Teorema de Bayes permite
calcular las probabilidades a posteriori y es:
(

)
Dnde:

Probabilidad a priori.
Probabilidad condicional.
Probabilidad total.
Probabilidad a posteriori.

Ejemplo.
Una compaa de transporte pblico tiene tres lneas en una ciudad, de forma que
el 45% de los autobuses cubre el servicio de la lnea 1, el 25% cubre el servicio de
la lnea 2 y el 30% cubre el servicio de la lnea 3. Se sabe que la probabilidad de
que diariamente, un autobs se avere es del 2%, 3% y 1% respectivamente, para
cada lnea.

a) Calcular la probabilidad de que, en un dia, un autobs sufra una avera.

A1= cubre el servicio de la lnea 1.

Datos:




Las probabilidades de no sufrir una avera para la lnea es:


Lo que se pide es:
Calcular la probabilidad de que, en un da, un autobs sufra una avera.
Empleando la frmula de probabilidad total se obtiene:




La probabilidad de que sea la lnea 1, sabiendo que sufre una avera es:

(
()

) (

)


















Universidad Autnoma del Estado de Mxico
Facultad de Ingeniera.
Marcos Garca Hernndez.

Fecha de entrega 09/05/2014

También podría gustarte