Está en la página 1de 21

REPASO DE LOS CONCEPTOS DE PROBABILIDAD; VARIABLES ALEATORIAS Y FUNCIONES DE PROBABILIDAD. CONCEPTO DE PROBABILIDAD I. de la Fuente y C.

San Luis

INTRODUCCION: Definiciones previas Experimento Aleatorio: Aquel en el que sus resultados no se pueden establecer con certeza. Espacio Muestral: Es el conjunto de todos los resultados posibles de un experimento aleatorio. Se representa por E. Sucesos Elementales: Son los resultados posibles de un experimento aleatorio, constituyen el espacio muestral asociado al experimento. Pueden ser: o ciertos o seguros o posibles : o imposibles La combinacin de dos a ms los sucesos elementales (pertenecientes a un Experimento) da lugar a un suceso compuesto. Ejemplo 1 En el experimento aleatorio lanzar un dado al aire, el espacio muestral asociado sera el conjunto: E ={ 1, 2, 3, 4, 5, 6 }; sus elementos sin los encerrados entre corchetes. Un suceso cierto o seguro en este espacio muestral es sacar en el lanzamiento un nmero menor que el 7. Un suceso imposible en este espacio muestral es sacar un nmero mayor que 6. Un suceso posible en este espacio muestral es por ejemplo sacar un 4 o sacar un nmero impar (el trmino posible, en este contexto, se refiere a aquellos casos que no estn claramente determinados como verdaderos o falsos).

Por tanto un espacio m uestral es un conjunto constituido por elementos (que hemos llamado sucesos), entre los que se pueden establecer idnticas relaciones y se

pueden efectuar las mismas operaciones que las que se establecen entre cualesquiera conjuntos que se estudian en la Teora de Conjuntos, es decir: Unin; interseccin; complementariedad; exclusin

Si A y B son dos sucesos cualesquiera, la unin de A y B, AB se define como el suceso que contiene todos los resultados que pertenecen slo a A, slo a B o a ambos. Esta operacin entre sucesos tiene las siguientes propiedades: 1. AB=BA 2. AA=A 3. A=A 4. AE=E 5. Si AB entonces AB = B

Si A y B son dos sucesos cualesquiera, la interseccin de ambos, AB, se define como el suceso que contiene todos los resultados que pertenecen a ambos sucesos. La interseccin as definida tiene las siguientes propiedades: 1. AB = BA 2. AA = A 3. A = 4. AE = A 5. Si AB entonces, AB = A

Se define el suceso complementario de un suceso dado A, como aquel suceso que contiene todos los resultados del espacio muestral que no pertenecen a A. El suceso complementario tiene las siguientes propiedades: 1. A = A 2. A A = E 3. = E 4. A A = 5. E =

Dados dos sucesos A y B, se dicen disjuntos, mutuamente excluyentes o incompatibles si A y B no tienen resultados en comn, es decir, si no se pueden verificar simultneamente.

Es decir, cuando se plantea una situacin de investigacin en la que se calculan probabilidades, siempre se manejan los siguientes elementos: un conjunto E, sus resultados elementales o subconjuntos unitarios y todas las combinaciones de dichos subconjuntos elementales. Se trabaja pues, con el conjunto de las partes de E, que se representa por: (E)= {, E, {1}, {2},...,{6},{1,2},...,{1,2,3},...,{1,2,3,4},...{1,2,3,4,5}} En ocasiones, necesitamos saber contar cuntos elementos contiene el conjunto (), para lo cual tenemos que conocer las reglas de contar (Teora de los nmeros combinatorios).

CONCEPTO DE PROBABILIDAD

A comienzos del s.XIX Pierre Simon Laplace public la obra Ensayo filosfico sobre las probabilidades, en la que defina la probabilidad del modo siguiente: La teora del azar consiste en reducir todos los acontecimientos del mismo gnero a un cierto nmero de casos igualmente posibles, es decir, tales que estemos igualmente inseguros sobre su existencia, y en determinar el nmero de casos favorables al acontecimiento cuya probabilidad se busca. La relacin de este nmero con el de todos los casos posibles es la medida de esa probabilidad, que no es as ms que una fraccin cuyo numerador es el nmero de casos favorables y cuyo denominador es el nmero de casos posibles. (Tomado de Pulido y Santos, 1998)

La probabilidad, se define actualmente a partir del concepto de frecuencia.

La probabilidad de un suceso es el valor en que tiende a estabilizarse la frecuencia relativa del mismo, cuando el nmero de veces que se ha repetido el fenmeno es suficientemente grande

Veamos un sencillo ejemplo para dejar claro el concepto. Aplicando la regla de Laplace, sabemos que la probabilidad de salir cara en el lanzamiento de una moneda es de un caso favorable dividido por dos casos posibles, es decir, 1/2. Suponga mos que hacemos esta experiencia 20 veces, es decir tiramos una moneda 20 veces y vamos anotando los resultados: NLanzamiento 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Resultado Ca Ca Cr Ca Cr Cr Ca Cr Cr Ca Ca Cr Ca Cr Cr Cr Ca Cr Ca Ca N caras (ni) 1 2 2 3 3 3 4 4 4 5 6 6 7 7 7 7 8 8 9 10 Frec.relativa 1/1=1 2/2=1 2/3 3/ 4 3/5 3/6 4/7 4/8 4/9 5/10 6/11 6/12 7/13 7/14 7/15 7/16 8/17 8/18 9/19 10/20

Si se representan grficamente los datos del ejemplo (figura 1), se observa que segn aumenta el nmero de casos, la lnea quebrada que une las frecuencias se ajusta ms a la horizontal trazada en la ordenada 1/ 2, valor terico de la probabilidad definida por Laplace, con el que la frecuencia tiende a igualarse cuando el nmero de repeticiones de la experiencia es muy elevado. A este fenmeno de estabilizacin de las frecuencias se le conoce como Ley del azar o ley de regularidad estadstica. Figura 1
1,2

0,8

0,6

Serie1

0,4

0,2

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Aplicar las concepciones de la probabilidad introducidas anteriormente no siempre es fcil, sobre todo si salimos del contexto de los juegos de azar. Supngamos, por ejemplo, que estamos interesados en la incidencia que tiene determinada enfermedad en la poblacin espaola. Contabilizar el nmero de casos totales en la poblacin puede ser muy difcil, pero si adems lo que buscamos es contabilizar el nmero de sujetos con rasgos esquizoides, la cuestin se complica ms. Suponga mos que existen investigaciones previas en el tema que nos llevan a pensar que el nmero de casos con las circunstancias que nos interesan es una determinado y nuestra creencia, por tanto, es que la incidencia real del trastorno toma aproximadamente ese valor. En este caso no podemos utilizar el concepto de probabilidad como se ha introducido anteriormente, hay que introducirlo desde una ptica diferente a las anteriores, desde la perspectiva subjetiva o personalista segn la cual, la probabilidad se define del modo siguiente:

La probabilidad de un suceso es el grado de creencia que se tiene en su ocurrencia. Dichas creencias se basan en la informacin que cada persona tiene del suceso y pueden ser revisadas cuando se recoge nueva informacin al respecto de la temtica de inters

Sea cual sea la concepcin de la probabilidad que se utilice, la probabilidad de un suceso es un nmero que ha de cumplir una serie de condiciones.

AXIOMAS Y TEOREMAS BASICOS DE LA PROBABILIDAD

Axiomtica de la probabilidad Suponga que en un experimento aleatorio se necesita asignar a un suceso A, del conjunto (E), su probabilidad. Dicha probabilidad, P(A), ser un nmero que debe cumplir tres condiciones o axiomas. La primera se refiere a que dicha probabilidad siempre ha de ser positiva, la segunda indica que si el citado suceso ocurrir con certeza, su probabilidad vale 1, y la tercera indica que la probabilidad que calculemos de la unin de dos sucesos disjuntos se puede obtener como la suma de las probabilidades

individuales de los sucesos. Axioma 1. Para cualquier suceso A(E), P(A)0 Axioma 2. P(E)=1 Axioma 3. Dados Ai (i=1,...,n) dos o ms sucesos disjuntos, P (i Ai)=iP(Ai )

PROPIEDADES DE LA PROBABILIDAD

Propiedades de la probabilidad 1. La probabilidad de un suceso cualquiera A, es un nmero menor que 1 2. La probabilidad del suceso complementario de un suceso dado, es igual a P(A)=1-P(A) 3. Si un suceso A est incluido en otro B, entonces P(A)<P(B) 4. La suma de las probabilidades de todos los sucesos elementales de un experimento aleatorio vale 1 5. Si A y B son dos sucesos compatibles, P(AB)=P(A)+P(B)-P(AB) 6. Si A, B y C son tres sucesos comp atibles, P(ABC)=P(A)+P(B)+P(C)-P(AB)P(AC)-P(BC)+P(ABC)

Para una mejor comprensin de estos conceptos, aplicacin prctica y ejercicios de autoevalucin ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS Ms para entender la probabilidad

PROBABILIDAD CONDICIONADA SUCESOS CONDICIONADOS Y SUCESOS INDEPENDIENTES Un suceso A est condicionado por otro B, si la ocurrencia de B puede hacer cambiar el valor de probabilidad de ocurrencia de A. Dos sucesos A y B, por el contrario, se dicen independientes, si la ocurrencia de uno cualquiera de ellos no afecta a la ocurrencia del otro.

Probabilidad condicionada
P( A B) P( B)

Teorema producto

Sucesos independientes.
P( A B ) = P( A).P( B)

P( A / B) =

P(A B) = P(A)P(B/ A) =
P( B ) P( A / B)

Suponga que en una determinada poblacin estudiantil hemos recogido la siguiente informacin, de una parte, el nmero de horas de estudio de los estudiantes (bajo, alto) de otra, sus calificaciones en una determinada materia, es decir, su rendimiento (suspenso, aprobado). El suceso A, estar aprobado, y el suceso B, dedicar un alto nmero de horas al estudio corresponde al suceso AB o BA estudiar un n de horas alto y estar aprobado, son los tipos de sucesos que hemos visto hasta ahora. El suceso estar aprobado, sabiendo que se ha estudiado un nmero alto de horas representa dependencia entre los dos sucesos a los que se refiere, es decir, la calificacin de aprobado aparece condicionada al hecho de dedicar un alto nmero de horas al estudio. Se trata del suceso A condicionado por B, es decir, ocurrencia de A supuesto que ha ocurrido B, que notaremos A/B y cuya probabilidad puede ser calculada. La tabla siguiente muestra los datos recogidos para 600 estudiantes

N horas estudio Bajo 250 Suspenso 50 Aprobado Total 300

N horas estudio Alto 40

Total

290

260

310

300

600

Se puede calcular la probabilidad de cualquier suceso de la tabla anterior sin ms que utilizar la frmula de Laplace, como cociente entre los casos favorables a la ocurrencia del suceso de que se trate y los casos posibles o totales. De este modo tendramos que:
7

P(A)=310/600 P(B)=300/600 P(AB)=260/600 P(A/B)=260/300

La probabilidad del suceso A/B se puede calcular tambin utilizando la expresin analtica correspondiente definida anteriormente.

P (A / B) =

P( A B) 260 / 600 260 = = P( B) 300 / 600 300

Para una mejor comprensin de estos conceptos, aplicacin prctica y ejercicios de autoevalucin ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS Ms para entender la probabilidad (Ejercicio 2)

REPRESENTACIN GRFICA Y DESCRIPCIN DE DISTRIBUCIONES DE PROBABILIDAD

Las distribuciones de frecuencias que corresponden a experiencias reales, pueden ser comparadas con distribuciones tericas de probabilidad (modelos de probabilidad), que son en realidad esquemas ideales del comportamiento de las variables. Resulta de gran inters la comparacin de modelos ideales de comportamiento de las variables, con los datos que realmente se consiguen para las mismas en una investigacin, de este modo se puede intentar predecir la evolucin de su comportamiento. En los apartados siguientes vamos a presentar conceptos ms bsicos que posteriormente permitirn introducir los modelos tericos con los que se compararn los datos recogidos en una investigacin.

VARIABLE ALEATORIA

Consideremos un experimento con espacio muestral asociado E. Una funcin X, que asigna un nmero real a cada resultado posible sobre el espacio E, recibe el nombre de variable aleatoria.

Suponga que se lanza una moneda al aire cuatro veces consecutivas y se anota el resultado. El espacio muestral asociado al experimento sera:

E={CaCaCaCa, CaCaCaCr, CaCaCrCa, CaCrCaCa, CrCaCaCa, CaCaCrCr, CaCrCaCr, CaCrCrCa, CrCaCaCr, CrCaCrCa, CrCrCaCa, CaCrCrCr, CrCaCrCr, CrCrCaCr, CrCrCrCa, CrCrCrCr } Se pueden definir diferentes variables aleatorias sobre el espacio muestral anterior. Por ejemplo, sea X la variable cuyos valores coinciden con el nmero de caras obtenidas en los cuatro lanzamientos, la variable as definida toma los valores siguientes:

Tabla 1 E CaCaCaCa CaCaCaCr CaCaCrCa CaCrCaCa CrCaCaCa CaCaCrCr CaCrCaCr CaCrCrCa CrCaCaCr CrCaCrCa CrCrCaCa CaCrCrCr CrCaCrCr CrCrCaCr CrCrCrCa CrCrCrCr 0 1 2 3 X 4

Si se considera un estudio en que tras una seleccin al azar de personas, se mide su estatura, su capacidad intelectual o su presin arterial, cada una de dichas

caractersticas constituyen una variable aleatoria.

Una variable se dice discreta si puede tomar un nmero finito o infinito numerable de valores. Una variable se dice continua si puede tomar un nmero infinito no numerable de valores. En el primer caso se tiene un espacio muestral discreto, finito o infinito, y en el segundo caso se trata de un espacio muestral continuo.

Consideremos el experimento del lanzamiento cuatro veces consecutivas de una moneda (tabla 1), el espacio muestral asociado al mismo es un espacio discreto y la variable aleatoria definida anteriormente sobre dicho espacio, es una variable discreta. Consideremos el experimento que consiste en lanzar una moneda al aire hasta que sale cara, su espacio muestral asociado es el siguiente (Amn, 19 ):

E={Cr, CrCa, CrCrCa, CrCrCrCa, CrCrCrCrCa, ............}

Si se define sobre dicho espacio la variable X cuyos valores posibles son el nmero de caras vueltas hacia arriba en el experimento anterior, dicha variable puede tomar una cantidad infinita numerable de valores, es una variable discreta infinita y su espacio muestral asociado es un espacio discreto infinito. Si consideramos el lanzamiento de un dardo a una diana, los resultados posibles, y elementos del espacio muestral asociado a dicho experimento, son infinitos y no hay forma de establecer una regla que nos permita enumerarlos, es un espacio muestral infinito y la variable aleatoria definida sobre l, sera continua.

DISTRIBUCION DE PROBABILIDAD Y PARAMETROS DE UNA VARIABLE ALEATORIA DISCRETA Ya se ha indicado que una variable aleatoria X tiene una distribucin discreta si X slo puede tomar un nmero finito k de valores o, a lo sumo, una sucesin infinita

10

numerable de valores distintos. Si X tiene una distribuci n discreta, se pueden definir los siguientes tipos de funciones en X:

Funcin de probabilidad y distribucin. Variable discreta FUNCION DE PROBABILIDAD Dada una variable aleatoria discreta X, su funcin de probabilidad es una funcin f que para cualquier nmero real x cumple: f(x)=P(X=x) para cualquier x que es un valor posible de X f(x)=0 para cualquier x que no es valor posible de X

FUNCIN DE DISTRIBUCION La funcin de distribucin F de una variable aleatoria X es una funcin definida para cada nmero real x, del modo siguiente: F(x) = P(Xx) para -<x<

Las funciones de probabilidad y distribucin as definidas, en realidad no son otra cosa que probabilidades de sucesos, es por ello que algunas de sus propiedades ms importantes se deducen de forma inmediata de la axiomtica probabilistica. Son de especial inters las propiedades siguientes:

Propiedades de las funciones de probabilidad y distribucin

FUNCION DE PROBABILIDAD 1. Si X toma valores x1 , x2 , ... , xn , entonces

f (x
i =1

i= n

) =1

2. Si a<b<c, entonces P(aXc)=P(aXb)+P(b<Xc)

FUNCION DE DISTRIBUCION 1. F(x) es no decreciente a medida que x crece, es decir, x1 <x2 F(x1 )F(x2 ). 2. limx-F(x)=0 y limxF(x)=1 3. F(x) siempre es continua por la derecha, es decir, F(x)=F(x+) en todo punto x. 4. P(a<x<b)=F(b) F(a)

11

Parmetros que definen una variable aleatoria discreta

La media , esperanza matemtica o valor esperado de una variable aleatoria discreta E[X]=ipi xi La mediana de una variable aleatoria discreta ser el valor x en el que se cumple que F(x)=0,5

La moda en dicha variable ser el valor de x en el que la funcin de probabilidad de la misma alcanza un mximo absoluto o relativo La varianza de una variable aleatoria discreta es: V(X)=E{(X-)2 }

VARIABLES ALEATORIAS CONTINUAS. DENSIDAD DE PROBABILIDAD Y PARAMETROS

Una variable aleatoria representa el conjunto de valores que se pueden observar en un fenmeno aleatorio (Ruiz-Maya, Martn, Montero y Uriz, 1995), valores que dependen del azar y sobre los cuales se puede definir una medida de probabilidad. La variable es continua cuando puede tomar los infinitos valores de un intervalo.

Se conoce como densidad al cociente entre la masa y el volumen de un slido, es decir, el cociente entre dos magnitudes que se refieren a un mismo objeto. Cuando se realiza una medicin y se obtiene un valor de puntuacin para determinado sujeto, el significado del dato depende de la precisin de la medida. Ms concretamente, si se obtiene una puntuacin de 54 y la herramienta utilizada para realizar la medicin slo facilita valores enteros, si se trata de una variable continua, 54 est realmente representando a todo el intervalo 53,5 54,5. Si la precisin de la herramienta es del orden de las dcimas, el valor 54,0 representa todo el intervalo contenido entre 53,95 y 54,05. En general, si la anchura de los intervalos a los que se refiere la medida utilizada es , se puede definir la densidad de probabilidad del modo siguiente:

12

Funciones de densidad de probabilidad y distribucin de una variable aleatoria continua FUNCION DE DENSIDAD DE PROBABILIDAD El cociente entre la masa de probabilidad de un intervalo dado y su amplitud, se llama densidad de probabilidad. La funcin de densidad de una variable aleatoria X, es aquella funcin f que se obtiene como lmite de la densidad de probabilidad, cuando el intervalo en que se define tiende a cero. La funcin de densidad as definida, tiene dos propiedades:

1. f(x) es una funcin no negativa.


+

2.

f (x )dx = 1

La funcin de densidad permite el clculo de probabilidades en un intervalo de valores de la variable, as, P(aXb) =

f (x)dx
a

FUNCION DE DISTRIBUCION

La funcin de distribucin de una variable aleatoria continua X es aquella funcin F que asigna a cada valor xX la probabilidad de que la variable tome valores menores o iguales a x.
F( x ) = P( X x ) =

f (x)dx

La funcin de distribucin tiene las siguientes propiedades:

1. F(x) es una funcin montona no decreciente 2. Limx-F(x) = 0 3. Limx F(x) = 1 4. P (a X b) = P (X b) P( X a ) = F( b) F( a )

13

Segn lo anterior, f(x), en el caso de una variable continua no es P(X=x), dado que P(X=x) = P(xXx) =

f ( x)dx = 0, sino que es una medida de cmo de probable


x

es un valor prximo a x, en un pequeo intervalo alrededor de x.

Parmetros de una variable aleatoria continua La media, esperanza matemtica o valor esperado de una variable aleatoria continua se define como E[X]= xf ( x ) dx
+

La varianza de una variable aleatoria continua X, se define como:


V( X) =
+

(x E[X ])

f ( x )dx

Las propiedades del valor esperado y varianza, siguen siendo las que se estudiaron en el caso de una variable aleatoria discreta.

Para una mejor comprensin de estos conceptos, aplicacin prctica y ejercicios de autoevalucin ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS Ms para entender la probabilidad (Ejercicio 3) MODELOS PROBABILSTICOS PARA UNA VARIABLE ALEATORIA

En este apartado vamos a tratar la maquinaria probabilstica con la que se trata de dibujar o representar la realidad. Presentaremos aquellas distribuciones concretas que permiten representar situaciones con determinadas caractersticas, con la ventaja de que tienen un manejo fcil para el clculo de probabilidades; siempre bajo el supuesto de que realmente las variables que manejamos pueden ser representadas por ellas. En realidad, no hablaremos de una distribucin concreta sino de una familia de distribuciones, esto quiere decir que tienen en comn: su representacin expresada como modelo matemtico, tienen la misma a muy similar, pero se diferencian en los valores de los parmetros que las caracterizan.

14

Habitualmente queremos saber cosas de una poblacin que es para nosotros inaccesible. Dada una situacin real deberemos elegir uno de los elementos de una familia de distribuciones, aquel que sea el mejor modelo representativo de la realidad que estamos estudiando. Una vez elegida la distribucin a la que mejor se ajustan nuestros datos, sta, permitir que calculemos cualquier probabilidad relativa a los mismos, slo tenemos que traducir lo que necesitamos conocer de la poblacin, en un clculo dentro de la distribucin elegida (Llopis, 1996).

Aqu presentaremos algunas familias de distribuciones especiales que son muy utilizadas en aplicaciones. Se introducen la funcin de probabilidad y de distribucin, as como algunas propiedades y aplicaciones de las distribuciones de Bernoulli, Binomial, Poisson, para el caso de variables aleatorias discretas y las familias de distribucin Normal, Ji-cuadrado, t de Student y F de Fisher-Snedecor, para variables aleatorias continuas.

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS UNIVARIANTES

Posiblemente, la familia de distribuciones discretas univariantes ms sencilla, y que destaca por la cantidad de situaciones que representa, es la familia de distribuciones de Bernoulli. Las caractersticas principales de dicha familia son las siguientes:

Familia de distribuciones de Bernoulli DISTRIBUCION DE BERNOULLI Suponga un experimento en el que slo hay dos posibles resultados, como cara o cruz, xito o fracaso, presencia o ausencia, defectuoso o no defectuoso, que se pueden designar como 0 o 1. Una variable aleatoria X que toma los valores 1 y 0, con probabilidades p y q (1-p=q), y que representan cada uno de los dos posibles resultados del experimento aleatorio citado anteriormente, se dice que tiene una distribucin de Bernoulli con parmetro p. XB(p)

As, el lanzamiento de una moneda al aire es una prueba de Bernoulli, donde los dos

15

resultados posibles son salir cara y salir cruz, y cuyas probabilidades de ocurrencia son p=1/2=q. La funcin de probabilidad de una variable de Bernoulli, tiene la forma siguiente: f(x)=px .q1-x

La funcin de distribucin de la variable X, tiene la forma siguiente: F(x)=P(Xx)=x px q1-x

Los parmetros esperanza matemtica y varianza de X toman los valores siguientes:

E[X]=p

Var(X)=p.q

Hay muchas situaciones en las que se manejan variables para las que slo son posibles dos resultados.. Es decir, si se estudian sujetos que son varones o mujeres en un estudio sociolgico , que poseen o no determinado trastorno , que presentan o no movimientos oculares rpidos en un experimento sobre el sueo, dichas variables tienen un comportamiento que puede ser modelizado por una distribucin Bernoulli. Habitualmente, cuando se manejan proporciones de individuos que poseen cierta caracterstica dicotmica, es decir, con dos valores posibles, se consideran ms de una prueba de Bernoulli, lo que significa la utilizacin del modelo de probabilidad Binomial, que introducimos seguidamente.

Distribucin Binomial DISTRIBUCION BINOMIAL Suponga que se realizan n pruebas independientes de Bernoulli en las que la probabilidad de xito, p, se mantiene constante. Es decir, considere la variable X

definida como el nmero de xitos en las n pruebas de Bernoulli, X=X1 +...+Xn . La variable as definida sigue una distribucin binomial de parmetros n y p. XB(n,p) La funcin de probabilidad de una variable binomial, tiene la forma siguiente: f(x)=Cn,xpx qn-x La funcin de distribucin de una variable binomial, se calcula a partir de la funcin de probabilidad, como sigue:

16

F(k)=P(Xk)=xk Cn,xpx qn-x

Los parmetros valor esperado y varianza de la variable X, tienen los valores siguientes: E[X]=np V(X)=npq

Si se manejan variables Binomiales en que la probabilidad de xito es muy pequea, y el nmero de pruebas n, es muy grande, el modelo de probabilidad que permite estudiar el comportamiento de dichas variables es el modelo de Poisson o ley de los sucesos raros. En estos casos, se ha de seleccionar un elemento de la familia de distribuciones de Poisson, cuyas caractersticas se presentan a continuacin.

Familia de distribuciones de Poisson DISTRIBUCION DE POISSON Una variable aleatoria X, que tiene una distribucin binomial con parmetros n y p, en la que n y p0, es decir, en la que n es muy grande y p muy pequea, se dice que tiene una distribucin de Poisson de parmetro =np. XP() La funcin de probabilidad de una variable que sigue una ley de Poisson de parmetro , tiene la forma siguiente: f (x ) = e x x!

La funcin de distribucin de una variable de Poisson, se obtiene como se indica seguidamente:

F (k ) =

e x x! xk

Los parmetros esperanza matemtica y varianza para la variable X, son los siguientes: E[X]= V(X)=

DISTRIBUCIONES DE PROBABILIDAD CONTINUAS UNIVARIANTES

17

Muchas situaciones reales estn caracterizadas porque en ellas se manejan variables continuas. Las distribuciones que se presentan en este apartado son modelos para utilizar en el clculo de probabilidades en estos casos.

En primer lugar se estudia la distribucin Normal, la distribucin ms importante en Estadstica. Esto es as por las propiedades matemticas que tiene. As, si se selecciona una muestra de una distribucin Normal, estaremos en las condiciones de aplicacin de casi todas las tcnicas de Inferencia Estadstica; adems se ha observado con frecuencia en diferentes experimentos que las variables que se manejan tienen distribuciones aproximadamente Normales; veremos que cuando se selecciona una muestra grande, aunque su distribucin no sea Normal, en el lmite, lo es.

Familia de distribuciones Normales DISTRIBUCION NORMAL Una variable continua X sigue una distribucin N(, 2 ) , una distribucin Normal con media y varianza 2 , si su funcin de densidad de probabilidad es la siguiente:
f () = 1 2 e
1 x 2
2

para

< x <

Propiedades: La distribucin Normal es simtrica respecto al punto x= Alcanza su mximo en x= Tiene dos puntos de inflexin en x= + y x=- Tiene forma de campana Si una variable aleatoria X tiene una distribucin Normal, cualquier combinacin de X tiene una distribucin Normal DISTRIBUCIN NORMAL TIPIFICADA S X N(, 2 ) y se realiza una tipificacin de la variable, la variable Z = una distribucin tipificada, es decir, ZN(0,1) Si las variables aleatorias X1 , ..., Xk son independientes y cada Xi N( i , 2 ) la suma i X1 +...+Xk sigue una distribucin Normal con media 1 +2 +...+k y varianza 12 +2 2 +...+k2
X sigue

18

Hemos de hacer notar lo siguiente, en ocasiones no se dispone de la tabulacin completa de los modelos de probabilidad expuestos hasta el momento o, sencillamente, se trabaja de forma ms cmoda con unos modelos que con otros. Esto es posible si se dan las condiciones que posibilitan tal accin, algunas de las cuales son:

19

Aproximacin entre distribuciones de probabilidad DISTRIBUCION BINOMIAL, POISSON Y NORMAL () (a)

(a) n.p=

n20

p0,01

B(n,p)

(c) N(, 2 )

(b) n.p>5 (c) >10 = 2 =

(b)

Tambin resulta conveniente conocer algunos modelos de probabilidad que resultan como combinacin de variables normales, o de otras distribuciones de probabilidad. A continuacin se introducen tres familias de distribuciones que cumplen con todas las condiciones que se reflejaron al inicio de este apartado, son modelos para variables aleatorias continuas. No obstante, las vamos a presentar como modelos algo distintos a los anteriores. Se trata de distribuciones derivadas de la Normal, es decir, son variables que resultan de realizar ciertas operaciones efectuadas entre variables Normales. Estos tres modelos tienen un papel destacado en Inferencia Estadstica, ms concretamente, en el proceso de muestreo.

Distribuciones asociadas al proceso de muestreo. DISTRIBUCIN Ji-Cuadrado Una variable continua X sigue una distribucin Ji-Cuadrado con n grados de libertad, y se nota 2 si se obtiene del modo siguiente: n X 2 n Sus parmetros son: si X = Z12 + Z 2 + ... + Z 2 t.q. Z i N(0,1) 2 n

E[X] = n

V(X ) = 2n

20

DISTRIBUCIN t-Student Una variable continua X sigue una distribucin t con n grados de libertad, y se nota tn , si se obtiene del modo siguiente: X tn si
X= Z t.q. W 2 y n W n Z N ( 0,1)

Sus parmetros son: E[tn ]=0 y


V( tn ) = n n 2

DISTRIBUCIN F DE FISHER-SNDECOR Una variable continua X sigue una distribucin F, con n1 y n2 grados de libertad, y se nota Fn1 , n 2 , si se obtiene del modo siguiente:

W1
X Fn 1 , n 2 Sus parmetros son:
n2 E[X ] = n2 2

si

X=

n1 n2

W2

t .q. Wi 2 i n

2n 2 (n1 + n 2 2) 2 V(X ) = n1 ( n 2 4)( n 2 2) 2

Para una mejor comprensin de estos conceptos, aplicacin prctica y ejercicios de autoevalucin ver el archivo CARPETA COMPLEMENTOS TEMAS PREVIOS Ms para entender la probabilidad (Ejercicio 4)

21

También podría gustarte