Está en la página 1de 39

1

MAPA DE IDEAS
PROBABILIDADES
HERNANDO MORENO






UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD
CEAD SOGAMOSO
2013
2
CONTENIDO
UNIDAD UNO
PRINCIPIOS DE PROBABILIDAD

EXPERIMENTO ALEATORIO, ESPACIOS MUESTRALES Y EVENTOS
ESPACIO MUESTRAL SUCESOS O EVENTOS.
OPERACIONES CON EVENTOS
DIGRAMA DE ARBOL

TCNICAS DE CONTEO
PRINCIPIO FUNDAMENTAL DEL CONTEO PRINCIPIO MULTIPLICATIVO
PRINCIPIO ADITIVO
FACTORIAL DE UN NMERO
PERMUTACIONES Y VARIACIONES
COMBINACIONES
REGLA DEL EXPONENTE

PROPIEDADES BSICAS DE LA PROBABILIDAD
INTERPRETACIONES DE LA PROBABILIDAD
AXIOMAS DE PROBABILIDAD
REGLA DE ADICION
REGLA DE MULTIPLICACION
PROBABILIDAD TOTAL Y TEOREMA DE BAYES
3
UNIDAD DOS
VARIABLES ALEATORIAS
DISTRIBUCIONES DE PROBABILIDAD

VARIABLES ALEATORIAS

VARIABLE ALEATORIA DISCRETA
VARIABLE ALEATORIA CONTINUA
TEOREMA DE CHBYSHEV


DISTRIBUCIONES DE PROBABILIDAD DISCRETA
DISTRIBUCIN UNIFORME DISCRETA
DISTRIBUCIN BINOMIAL
DISTRIBUCIN GEOMTRICA
DISTRIBUCIN BINOMIAL NEGATIVA
DISTRIBUCIN HIPERGEOMTRICA
DISTRIBUCIN POISSON


DISTRIBUCIONES DE PROBABILIDAD CONTINUA
DISTRIBUCIN UNIFORME CONTINUA
DISTRIBUCIN NORMAL
4
UNIDAD 1
PRINCIPIOS DE PROBABILIDAD


EXPERIMENTO ALEATORIO

La palabra aleatorio proviene del vocablo latino alea, lo cual significa
suerte o azar. Pueden dar lugar a varios resultados Si echamos un dado
sobre una mesa, ignoramos qu cara quedar arriba. El resultado
depende del azar. Esto es una experiencia aleatoria.


Suceso aleatorio es un acontecimiento que ocurrir o no, dependiendo del azar


MENU SIGUIENTE ATRAS

5
ESPACIO MUESTRAL SUCESOS O EVENTOS
Espacio muestral es el conjunto
formado por todos los posibles
resultados de un experimento
aleatorio

Este lo designamos por la letra
S

Tomemos el siguiente ejemplo:
En un dado,
S={1,2,3,4,5,6},posibles
resultados o suma de los
resultados



SIGUIENTE ATRAS
Un suceso o evento son todos
aquellos subconjuntos de S

Ya que los eventos son
subconjuntos es posible usar las
operaciones bsicas de conjuntos,
tales como uniones, intersecciones
y complementos

Los elementos de S se llaman
sucesos individuales o sucesos
elementales.
Dos sucesos A y B, se llaman
incompatibles cuando no tienen
ningn elemento comn. Es decir,
cuando A B =
Tambin son sucesos el suceso
vaco o suceso imposible , , y el
propio S, suceso seguro.
MENU
6
OPERACIONES CON EVENTOS






Para describir las relaciones entre eventos se usan los diagramas de Venn o
los diagramas de rbol.
1 2 3
1. A B =
2. A B
3. A
4. (A B) C
5. (A C ) .

MENU SIGUIENTE ATRAS 4 5
7
DIAGRAMAS DE ARBOL
Cuando un espacio muestral puede construirse en varios pasos o etapas suele
ser ms til hacer uso de los diagramas de rbol.








Un diagrama de rbol es una especie de mapa de acontecimientos en donde se
describen los eventos bsicos que ocurren en un experimento aleatorio.

Este tipo de diagramas es muy usual no slo para describir un espacio
muestral, sino cualquier situacin de probabilidad
MENU SIGUIENTE ATRAS
8
TCNICAS DE CONTEO O ANLISIS COMBINATORIO

Para determinar a veces la ocurrencia de un evento resulta un poco
complicado y es casi imposible contar fsicamente los sucesos, de all naci la
necesidad de utilizar un mtodo eficaz, confiable y sobre todo corto.



TCNICAS DE CONTEO O ANLISIS COMBINATORIO, entre estas se tienen: el
principio fundamental del conteo, permutaciones, variaciones, combinaciones,
la regla del exponente y el diagrama de rbol.

MENU SIGUIENTE ATRAS
9
PRINCIPIOS FUNDAMENTALES DEL CONTEO
SE TIENEN DOS PRINCIPIOS BSICOS
PRINCIPIO DE MULTIPLICACIN O MULTIPLICATIVO
Si un evento determinado puede realizarse de n1 maneras diferentes, y si
un segundo evento puede realizarse de n2 maneras diferentes, y si,
adems, un tercer evento puede realizarse de n3 maneras diferentes y as
sucesivamente, y si al mismo tiempo cada evento es independiente del
otro, entonces el nmero de maneras en que los eventos pueden realizarse
en el orden indicado es el producto:
n1 x n2 x n3 x ...
un buen ejemplo de este principio es De cuantas maneras podemos hacer
este almuerzo?





En total se tienen 12 maneras diferentes de preparar un delicioso
almuerzo.
Aplicando el principio de multiplicacin se tiene:
2 x 3 x 2 = 12
MENU
SIGUIENTE ATRAS
10
PRINCIPIO ADITIVO


Este principio tiene las mismas premisas del principio multiplicativo, pero con
la
condicin no de que los eventos sean independientes sino de que sean
mutuamente excluyentes, es decir que cada uno ocurra sin la necesidad de que
otro lo haga.


El nmero total de maneras en las que pueden realizarse los eventos en la
adicin estn dados por:
n1 + n2 + n3 +
MENU
SIGUIENTE ATRAS
11
FACTORIAL DE UN NMERO

El concepto de factorial es muy comn en los anlisis combinatorios.
Este se denota por el smbolo n! y se define como el producto de n
por todos los enteros que le preceden hasta llegar al uno.


Simblicamente queda expresado como:

n! = n ( n-1)( n-2 ).1 n s 1


La excepcin es el caso de 0! El cual conviene definirlo como igual a 1

ejemplo: 6!= 6 5 4 3 2 1= 720
MENU
SIGUIENTE ATRAS
12
PERMUTACIONES Y VARIACIONES

Una permutacin de los elementos es un acomodo u ORDENAMIENTO de ellos.
Una ordenacin de un nmero r de elementos del conjunto de n elementos, r s n
, es denominada variacin.
Son permutaciones en las que implica un orden en la colocacin de los
elementos, tomando nicamente una parte de ellos.
El nmero de permutaciones de n elementos tomados r a la vez se denota como
nPr o nVr y se define como:

nPr =n ( n 1) * ( n 2 ) ( n r +1 ) = n!
( n r )!
Cuando uno o varios elementos estn repetidos, el clculo de las permutaciones
vara; en este caso se habla de permutaciones con repeticin.
El nmero de permutaciones de n objetos de los cuales n1 son iguales, n2 son
iguales, ., nr son iguales, es:

n!
n1! n2!... nr!
MENU


SIGUIENTE ATRAS
13
COMBINACIONES
Una combinacin de n elementos, tomados r a la vez, es un subconjunto de r
elementos donde el orden no se tiene en cuenta.

El nmero de combinaciones de n elementos tomados r a la vez, r s n , sin
tener en cuenta el orden, es:

n C r = n!
( n r ) ! * r !

El uso de combinaciones es ms usual cuando se trata de contar las
posibilidades
de ordenar un conjunto de elementos independientemente de su colocacin o
posicin.

MENU
SIGUIENTE ATRAS
14
REGLA DEL EXPONENTE

Tipo de combinacin o arreglo ordenado en donde siempre hay reemplazo del
elemento que se toma.

Si se tienen un conjunto de N elementos y se construye con estos elementos
un conjunto de a elementos, con la condicin de que cada vez que se tome un
elemento del conjunto de N elementos este sea nuevamente reemplazado,
entonces el nmero de posibles arreglos o acomodos del conjunto de a
elementos es:
N

Un ejemplo muy sencillo sera lanzar una moneda 1 vez, 2 veces, 3 veces etc.

un lanzamiento =2 =2 posibilidades
dos lanzamientos =2 =4 posibilidades
tres lanzamientos =2 =8 posibilidades
MENU SIGUIENTE ATRAS
15
PROPIEDADES BSICAS DE LAS
PROBABILIDADES

Se puede definir la probabilidad como un nmero de 0 a 1, que le asignamos a
suceso para indicar su posibilidad de ocurrir.


Las probabilidades se expresan como fracciones o como decimales que estn
entre uno y cero o tambin en valor porcentual entre 0 y 100.


Tener una probabilidad de cero significa que algo nuca va a suceder.


Una probabilidad de uno indica que algo va a suceder siempre.


MENU SIGUIENTE ATRAS
16
INTERPRETACIONES DE LA PROBABILIDAD
Existen tres diferentes formas de definir la probabilidad de un evento la
clsica, la de frecuencias relativas y la subjetiva o a priori.

Los eventos sern enunciados en letras maysculas as: A, B, C,.; la letra
mayscula P denotar una probabilidad y P (A) indicar, entonces, la
probabilidad de que ocurra el evento A.

DEFINICIN CLSICA DE PROBABILIDAD O A PRIORI

Cuando un experimento aleatorio tiene n resultados, y todos ellos con igual
posibilidad de ocurrencia, entonces se emplea el mtodo clsico esto es igual
a 1/n.
P (A)=1 / n

La probabilidad clsica supone tambin una especie de simetra en el mundo.
MENU SIGUIENTE ATRAS
17
DEFINICIN DE PROBABILIDAD SEGN EL
CONCEPTO DE FRECUENCIA
RELATIVA O PROBABILIDAD FRECUENTISTA
Se define la probabilidad como:
La frecuencia relativa observada de un evento durante un gran
nmero de intentos, o la fraccin de veces que un evento se presenta
a la larga, cuando las condiciones son estables.
Esta se basa en la recoleccin de datos y sirve para determinar qu
tan frecuente ha sucedido algo en el pasado y usamos esa cifra para
predecir la probabilidad de que suceda de nuevo en el futuro.

La frecuencia relativa del suceso A: fr = numero de veces que aparece A
numero de veces que se realiza un experimento

Para un espacio muestral de tamao n y para un evento cualquiera A
con frecuencia f, se tiene que su probabilidad de ocurrencia es:
P ( A ) = f / n
MENU
SIGUIENTE ATRAS
18
Ejemplo de frecuencia
En una urna se tienen 9 bolitas de diferentes colores: 4 blancas, 3 grises y 2
negras. Si se selecciona de la urna una bolita, sean:

B: Evento para el cual la bolita seleccionada es blanca.
G: Evento para el cual la bolita seleccionada es gris.
N: Evento para el cual la bolita seleccionada es negra.
Determinar la probabilidad de ocurrencia de cada evento.


Tamao de la muestra: n =9
Frecuencia de B: f B = 4 P (B) = f B / n = 4 / 9 = 0.44 = 44%
Frecuencia de G: f G = 3 P (G) = f G / n = 3 / 9 = 0.333 = 33.33%
Frecuencia de N: f n =2 P (N) = f n / n = 2 / 9 = 0.222 = 22.2%
Con esto se puede concluir que al calcular probabilidades con el mtodo de
frecuencias relativas, se obtiene un estimado y no un valor exacto.


MENU SIGUIENTE ATRAS
19
PROBABILIDADES SUBJETIVAS.
Se puede definir como la probabilidad asignada a un evento por parte de un
individuo, basada en la evidencia que se tenga disponible.

Las valoraciones subjetivas de la probabilidad permiten una ms amplia
flexibilidad que los otros dos planteamientos.

ejemplo, una mujer en embarazo asegura que el beb que tendr ser varn
por la cantidad de pataditas recibidas en el vientre, mientras que su cuada le
refuta este argumento, pues afirma que la forma de su barriga le asegura que
tendr una nia.

Ambas mujeres parten de una experiencia o una prctica personal para
atreverse a asegurar el sexo del ser que viene en camino. Sin embargo, la
probabilidad de que sea nio es igual a la probabilidad de que sea nia, y eso
es igual a 0.5 ( 50%).

Es importante entender que el mtodo de la probabilidad a priori o subjetiva no
debe menospreciarse frente a los otros mtodos (frecuencia relativa y clsica),
ya que es frecuente no tener registros del comportamiento de cierta variable.
MENU
SIGUIENTE ATRAS
20
AXIOMAS DE PROBABILIDAD
Conocida la probabilidad de un evento, se pueden reunir ciertas caractersticas
conocidas como axiomas de probabilidad que satisfacen la probabilidad de
cualquier experimento aleatorio.
Estos axiomas no determinan las probabilidades, lo que hacen es facilitar el
clculo de las probabilidades de algunos eventos a partir del conocimiento de
las probabilidades de otros.
Si S es el espacio muestral y A es cualquier evento del experimento aleatorio,
entonces: 1. P (S) = 1
2. 0 s P (A) s 1

La probabilidad de un evento imposible es 0 P ()=0.
La probabilidad de que un evento ocurra con certeza es 1.
Para cualquier evento A, P (A ') = 1 P (A)
Si el evento A1 est contenido en el evento A2, entonces: P ( A1 ) s P ( A2 )
Las operaciones bsicas de los conjuntos tambin son tiles para determinar
la probabilidad de un evento compuesto ( unin, interseccin, complemento )
MENU SIGUIENTE ATRAS
21
REGLA DE ADICION
a.- Regla de la adicin para eventos mutuamente excluyentes.
La probabilidad de que una cosa u otra suceda; es decir nos interesa la
probabilidad de la unin de dos eventos. Si estos dos eventos son mutuamente
excluyentes, podemos expresar esta probabilidad haciendo uso de la regla de
adicin para eventos mutuamente excluyentes:

P (A U B) = P (A) + P (B)
P (A) = 1 P (A)
b.- Regla de adicin para eventos que no son mutuamente excluyentes.
Si dos eventos no son mutuamente excluyentes, es posible que ambos se
presenten al mismo tiempo. En tales casos, debemos modificar la regla de la
adicin para evitar el conteo doble:
P (A B) = P (A) + P (B) P (A B)


MENU
SIGUIENTE ATRAS
22
REGLAS DE MULTIPLICACIN
La probabilidad de que el evento A ocurra en un primer experimento y el evento B
ocurra en un segundo experimento. P (A B)
a.- Probabilidades bajo condiciones de independencia estadstica
Cuando se presentan dos eventos, el resultado del primero puede tener un efecto en
el resultado del segundo, o puede no tenerlo.
Esto es, los eventos pueden ser dependientes o independientes.

Existen tres tipos de probabilidades que se presentan bajo independencia
estadstica:
- Marginal: Una probabilidad marginal o incondicional es la probabilidad simple de
presentacin de un evento.
- Conjunta: Probabilidades conjuntas bajo condiciones de independencia estadstica.
- Condicional. se escribe P (B/A) y se lee "la probabilidad de que se presente el evento
B, dado que el evento A se ha presentado".
La probabilidad de dos o ms eventos independientes que se presentan juntos o en
sucesin es el producto de sus probabilidades marginales:
P (A B) = P (A) X P (B)
MENU SIGUIENTE ATRAS
23
b.- Probabilidades bajo condiciones de dependencia estadstica.
La dependencia estadstica existe cuando la probabilidad de que se presente algn
suceso depende o se ve afectada por la presentacin de algn otro evento.

Probabilidad condicional bajo dependencia estadstica.
P (B / A) = P ( B A ) / P (A)
Probabilidades conjuntas bajo condiciones de dependencia estadstica.
P( B A) = P (B / A) x P (A)
O
P( B A) = P (A / B) x P (B)

RECOMENDACIONES PRCTICAS:
- Cuando se aplica la regla de la adicin de probabilidades, determinar previamente si
los eventos son excluyentes o no.
- Cuando se usa la regla de la multiplicacin, determinar si los eventos son
dependientes o independientes.
- Siempre que sea posible, apoyar la interpretacin del problema mediante el empleo de
diagramas de Venn.
- La probabilidad es un nmero que nunca puede tener valor negativo, ni ser mayor que
1.


MENU SIGUIENTE ATRAS
24
PROBABILIDAD TOTAL Y TEOREMA DE
BAYES.
Otro modo de calcular la probabilidad de un evento considerando a este como el
resultado de la unin de otros eventos. Para esto es necesario definir el concepto de
particin.
Se llama particin al conjunto de eventos mutuamente excluyentes y que componen
todo el espacio muestral S.
La probabilidad total de un evento es la suma exhaustiva de las probabilidades de
todos los casos mutuamente excluyentes que conducen a dicho evento.

La regla de probabilidad total afirma:




Algunos autores resumen esta definicin como una sumatoria, as:
MENU SIGUIENTE ATRAS
25
TEOREMA DE BAYES



Sea A1, A2, ...,An un sistema completo de sucesos, tales que la probabilidad de
cada uno de ellos es distinta de cero, y sea B un suceso cualquiera del que se
conocen las probabilidades condicionales P( B/A1 ). Entonces la probabilidad
P( A1/B ) viene dada por la expresin:







Donde el denominador corresponde a encontrar la Probabilidad Total de B.


MENU SIGUIENTE ATRAS
26
UNIDAD DOS
VARIABLES ALEATORIAS
DISTRIBUCIONES DE PROBABILIDAD



En todo fenmeno, los datos obtenidos tienen un comportamiento
especfico, es as como el anlisis de las distribuciones de
probabilidad permite determinar que distribucin de probabilidad
es la pertinente para un conjunto de datos.




Las distribuciones de probabilidad son de tipo discreto y continuo,
segn la variable aleatoria que este en cuestin.


MENU SIGUIENTE ATRAS

27
VARIABLES ALEATORIAS
En un experimento aleatorio lo que ms interesa es conocer el
nmero total de veces que se obtiene un mismo resultado en un
determinado nmero de ejecuciones (es decir, cuantificar) y no en
cul ejecucin se obtiene un determinado resultado.






Se dice que X es aleatoria porque involucra la probabilidad de los
resultados del espacio muestral, y se define X como una funcin
porque transforma todos los posibles resultados del espacio
muestral en cantidades numricas reales.

Se pueden definir variables aleatorias cuyos valores sean
contables o no, y al ser una caracterizacin cuantitativa de los
resultados de un espacio muestral, ellas pueden ser discretas o
continuas.

MENU SIGUIENTE ATRAS
28
VARIABLE ALEATORIA DISCRETA
Se dice que una variable aleatoria X es discreta si el nmero de valores
que puede tomar es finito (o infinito contable).
La distribucin de probabilidad de una variable aleatoria X es una descripcin
del conjunto de posibles valores de X, junto con la probabilidad asociada
con cada uno de estos valores.
Toda distribucin de probabilidad debe satisfacer cada uno de los dos
requisitos siguientes: P (X = x) = 1
0 s P (X = x) s 1
La funcin de distribucin acumulada de una variable aleatoria discreta X,
denotada por F (x) es:


El valor esperado (tambin llamado media o esperanza matemtica) de una
variable aleatoria discreta X es una medida de posicin para la distribucin
de X.
Se simboliza con y se calcula al sumar el producto de cada valor de X
con su
probabilidad correspondiente.

MENU SIGUIENTE ATRAS


29
VARIABLE ALEATORIA CONTINUA
Se dice que una variable aleatoria X es continua si el nmero de
valores que puede tomar estn contenidos en un intervalo (finito
o infinito) de nmeros reales.
La distribucin de probabilidad de una variable aleatoria continua
X est caracterizada por una funcin f (x) que recibe el nombre de
funcin de densidad de probabilidad. Esta funcin f x) no es la
misma funcin de probabilidad de una variable aleatoria discreta.
La grfica de la funcin f (x) es una curva que se obtiene para un
nmero muy grande de observaciones y para una amplitud de
intervalo muy pequea.






la desviacin estndar de X es:
MENU SIGUIENTE ATRAS



30
TEOREMA DE CHBYSHEV
Para cualquier variable aleatoria X con media y desviacin
estndar , la probabilidad de que X tome un valor contenido en k
desviaciones estndar de la media, siendo k una constante
positiva cualquiera, es cuando menos



Simblicamente, el teorema se expresa de cualquiera de las
siguientes maneras:





La desigualdad de Chbyshev es muy importante, ya que permite
determinar los lmites de las probabilidades de variables aleatorias
discretas o continuas sin tener que especificar sus funciones de
probabilidad.

MENU SIGUIENTE ATRAS
31
DISTRIBUCIONES DE PROBABILIDAD
DISCRETA

Hay seis tipos de distribuciones Estas son: las distribuciones uniforme
discreta, binomial, geomtrica, binomial negativa, hipergeomtrica y
Poisson.

DISTRIBUCIN UNIFORME DISCRETA
La variable aleatoria discreta ms sencilla es aquella que toma slo un
nmero finito de valores posibles n, cada uno con la misma probabilidad.
Ella se denomina entonces variable aleatoria discreta uniforme y su
distribucin uniforme discreta est dada por:



Y su desviacin estndar es:



MENU SIGUIENTE ATRAS
32
DISTRIBUCIN BINOMIAL
Las distribuciones binomiales son las ms tiles dentro de las
distribuciones de probabilidad discretas.
Estas distribuciones permiten enfrentar circunstancias en las que los
resultados pertenecen a dos categoras relevantes: que ocurra un evento
determinado o que no lo haga. Este tipo de experimento aleatorio
particular es denominado ensayo de Bernoulli.
Sus dos resultados posibles son denotados por .xito. y .fracaso. Y se
define por p la probabilidad de un xito y 1-p la probabilidad de un fracaso.
En general, un experimento aleatorio que consiste de n ensayos repetidos
tales que:
Los ensayos son independientes
Cada ensayo es de tipo Bernoulli. Esto es, tiene slo dos resultados
posibles: xito o fracaso.
La probabilidad de xito de cada ensayo, denotada por p, permanece
constante.
Recibe el nombre de experimento binomial.
Probabilidad de xito


Probabilidad de fracaso
MENU SIGUIENTE ATRAS

33
DISTRIBUCIN GEOMTRICA


Se trabaja en base una serie de ensayos Bernoulli con una probabilidad
constante de xitos p, en la que el nmero de ensayos no es fijo como en
la distribucin binomial si no que stos se realizan hasta que se obtiene el
primer xito.




La funcin de distribucin geomtrica acumulada se expresa como:




MENU SIGUIENTE ATRAS




34
DISTRIBUCIN BINOMIAL NEGATIVA
Ahora se desea conocer el nmero de ensayos hasta obtener r xitos; en
este caso la variable aleatoria es denominada binomial negativa.
La distribucin binomial negativa o distribucin de Pascal es una
generalizacin de la distribucin geomtrica donde la variable aleatoria X
es el nmero de ensayos Bernoulli efectuados hasta que se tienen r xitos,
con una probabilidad constante de xito p.



En el caso especial donde r = 1, la variable aleatoria binomial negativa se
convierte en una variable aleatoria geomtrica.

La variable aleatoria binomial negativa se considera como el
opuesto, o el negativo, de una variable aleatoria binomial.
La funcin de distribucin binomial negativa acumulada se expresa
como:

MENU SIGUIENTE ATRAS


35
DISTRIBUCIN HIPERGEOMTRICA
Distribucin hipergeomtrica y su funcin de distribucin de
probabilidad est dada por:




La expresin mn ( k, n ) corresponde al valor menor entre el tamao de la
muestra k y el nmero mximo de xitos que puede presentarse en la
muestra n. La distribucin hipergeomtrica suele expresarse como h ( x ; N,
k, n ) .

La funcin de distribucin hipergeomtrica acumulada se expresa como:







MENU SIGUIENTE ATRAS
36
DISTRIBUCIN POISSON
Esta es otra distribucin de probabilidad discreta til en la que la variable
aleatoria representa el nmero de eventos independientes que ocurren a
una velocidad constante.
Este tipo de distribucin es empleado para analizar problemas de lneas de
espera, confiabilidad y control de calidad
EJEMPLOS:
El nmero de goles anotados en un partido de ftbol.
El nmero de fallas de una mquina en una hora o en un da.
El nmero de bacterias en un cultivo
El experimento aleatorio recibe el nombre de proceso Poisson o flujo de
procesos de Poisson.
Un proceso Poisson constituye un mecanismo fsico aleatorio en el cual los
eventos ocurren al azar en una escala de tiempo (o de distancia).
La variable aleatoria X correspondiente al nmero de ocurrencias en el
intervalo es llamada variable aleatoria Poisson y su funcin de probabilidad
est dada por:




MENU SIGUIENTE ATRAS
37
DISTRIBUCIONES DE PROBABILIDAD CONTINUA
DISTRIBUCION UNIFORME
Se dice que una variable X posee una distribucin uniforme en el intervalo
[a, b] si su funcin de densidad es la siguiente:



Con esta ley de probabilidad, la probabilidad de que al hacer un
experimento aleatorio, el valor de X este comprendido en cierto
subintervalo de [a, b] depende nicamente de la longitud del mismo, no
de su posicin.








MENU SIGUIENTE ATRAS
38
DISTRIBUCION NORMAL O GAUSSIANA
Es el modelo de distribucin ms utilizado en la prctica, ya que multitud de
fenmenos se comportan segn una distribucin normal.

Esta distribucin de caracteriza porque los valores se distribuyen
formando una campana de Gauss,








: es el valor medio de la distribucin y es precisamente donde se sita el
centro de la curva (de la campana de Gauss).
o2 : es la varianza. Indica si los valores estn ms o menos alejados del
valor central: si la varianza es baja los valores estn prximos a la media;
si es alta, entonces los valores estn muy alejados de ella.

MENU SIGUIENTE ATRAS
39
La distribucin normal tipificada tiene la ventaja, como ya hemos indicado, de que las
probabilidades para cada valor de la curva se encuentran recogidas en una tabla.




La columna de la
izquierda indica el
valor cuya
probabilidad
acumulada
queremos
conocer, La
primera fila nos
indica el segundo
decimal del valor
que estamos
consultando


MENU ATRAS