Está en la página 1de 16

_____________________________________________________________________________________

REPASO DE LOS CONCEPTOS DE PROBABILIDAD; VARIABLES


ALEATORIAS Y FUNCIONES DE PROBABILIDAD.

CONCEPTO DE PROBABILIDAD
I. de la Fuente y C. San Luis
INTRODUCCION: Definiciones previas
• Experimento Aleatorio: Aquel en el que sus resultados no se pueden establecer
con certeza.
• Espacio Muestral: Es el conjunto de todos los resultados posibles de un
experimento aleatorio. Se representa por E.
• Sucesos Elementales: Son los resultados posibles de un experimento aleatorio,
constituyen el espacio muestral asociado al experimento. Pueden ser:
o ciertos o seguros
o posibles :
o imposibles
La combinación de dos a más los sucesos elementales (pertenecientes a un
Experimento) da lugar a un suceso compuesto.

Ejemplo 1

En el experimento aleatorio “lanzar un dado al aire”, el espacio muestral asociado sería


el conjunto: E ={ 1, 2, 3, 4, 5, 6 }; sus elementos son los encerrados entre corchetes.
Un suceso cierto o seguro en este espacio muestral es sacar en el lanzamiento
un número menor que el 7.
Un suceso imposible en este espacio muestral es sacar un número mayor que 6.
Un suceso posible en este espacio muestral es por ejemplo sacar un 4 o sacar un
número impar (el término posible, en este contexto, se refiere a aquellos casos que no
están claramente determinados como verdaderos o falsos).

Por tanto un espacio muestral es un conjunto constituido por elementos (que


hemos llamado sucesos), entre los que se pueden establecer idénticas relaciones y se
pueden efectuar las mismas operaciones que las que se establecen entre cualesquiera
conjuntos que se estudian en la “Teoría de Conjuntos”, es decir: Unión; intersección;
complementariedad; exclusión

Si A y B son dos sucesos cualesquiera, la unión de A y B, A∪B se define como el


suceso que contiene todos los resultados que pertenecen sólo a A, sólo a B o a ambos.
Esta operación entre sucesos tiene las siguientes propiedades:
1. A∪B=B∪A
2. A∪A=A
3. A∪φ=A
4. A∪E=E
5. Si A⊂B entonces A∪B = B

1
_____________________________________________________________________________________

Si A y B son dos sucesos cualesquiera, la intersección de ambos, A∩B, se define como


el suceso que contiene todos los resultados que pertenecen a ambos sucesos. La
intersección así definida tiene las siguientes propiedades:
1. A∩B = B∩A
2. A∩A = A
3. A∩φ =φ
4. A∩E = A
5. Si A⊂B entonces, A∩B = A

Se define el suceso complementario de un suceso dado A, como aquel suceso que


contiene todos los resultados del espacio muestral que no pertenecen a A. El suceso
complementario tiene las siguientes propiedades:
1. A = A
2. A ∪ A = E
3. φ = E
4. A ∩ A = φ
5. E = φ

Dados dos sucesos A y B, se dicen disjuntos, mutuamente excluyentes o


incompatibles si A y B no tienen resultados en común, es decir, si no se pueden
verificar simultáneamente.

Es decir, cuando se plantea una situación de investigación en la que se calculan


probabilidades, siempre se manejan los siguientes elementos: un conjunto E, sus
resultados elementales o subconjuntos unitarios y todas las combinaciones de dichos
subconjuntos elementales. Se trabaja pues, con el conjunto de las partes de E, que se
representa por:
℘(E)= {φ, E, {1}, {2},...,{6},{1,2},...,{1,2,3},...,{1,2,3,4},...{1,2,3,4,5}}
En ocasiones, necesitamos saber contar cuántos elementos contiene el conjunto
℘(Ω), para lo cual tenemos que conocer las reglas de contar (Teoría de los números
combinatorios).

CONCEPTO DE PROBABILIDAD
La probabilidad se define a partir del concepto de frecuencia.

La probabilidad de un suceso es el valor en que tiende a estabilizarse la frecuencia


relativa del mismo, cuando el número de veces que se ha repetido el fenómeno es
suficientemente grande

Veamos un sencillo ejemplo para dejar claro el concepto. Aplicando la regla de


Laplace,1 sabemos que la probabilidad de salir cara en el lanzamiento de una moneda es
1
Regla de Laplace
Realizamos un experimento aleatorío.
Su espacio muestral E tiene todos los sucesos elementales S equiprobables.
La probabilidad de un suceso S es:
Número de casos favorables al suceso S.
P(S) =
Número de casos posibles del experimento

2
_____________________________________________________________________________________

de un caso favorable dividido por dos casos posibles, es decir, 1/2. Supongamos que
hacemos esta experiencia 20 veces, es decir tiramos una moneda 20 veces y vamos
anotando los resultados:

NºLanzamiento Resultado Nº caras (ni) Frec.relativa


1 Ca 1 1/1=1
2 Ca 2 2/2=1
3 Cr 2 2/3
4 Ca 3 3/ 4
5 Cr 3 3/5
6 Cr 3 3/6
7 Ca 4 4/7
8 Cr 4 4/8
9 Cr 4 4/9
10 Ca 5 5/10
11 Ca 6 6/11
12 Cr 6 6/12
13 Ca 7 7/13
14 Cr 7 7/14
15 Cr 7 7/15
16 Cr 7 7/16
17 Ca 8 8/17
18 Cr 8 8/18
19 Ca 9 9/19
20 Ca 10 10/20

Si se representan gráficamente los datos del ejemplo (figura 1), se observa que
según aumenta el número de casos (lanzamientos), la línea quebrada que une las
frecuencias se ajusta más a la horizontal trazada en la ordenada 1/ 2, valor teórico de la
probabilidad definida por Laplace, con el que la frecuencia tiende a igualarse cuando el
número de repeticiones de la experiencia es muy elevado. A este fenómeno de
estabilización de las frecuencias se le conoce como “Ley del azar o ley de regularidad
estadística” o “Ley débil de los grandes números”.

Figura 1
1 ,2

0 ,8

0 ,6 S e rie 1

0 ,4

0 ,2

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

3
_____________________________________________________________________________________

Aplicar las concepciones de la probabilidad introducidas anteriormente no


siempre es fácil, sobre todo si salimos del contexto de los juegos de azar. Supongamos,
por ejemplo, que estamos interesados en la incidencia que tiene determinada
enfermedad en la población española. Contabilizar el número de casos totales en la
población puede ser muy difícil, pero si además lo que buscamos es contabilizar el
número de sujetos con rasgos esquizoides, la cuestión se complica más. Imaginemos
que existen investigaciones previas sobre esta cuestión que nos llevan a pensar que el
número de casos con las características que nos interesan es uno determinado y,
nuestra creencia, es que la incidencia real del trastorno toma aproximadamente ese
valor. En este caso no podemos utilizar el concepto de probabilidad como se ha
introducido anteriormente, hay que introducirlo desde una óptica diferente a las
anteriores, desde la perspectiva subjetiva o personalista según la cual, la probabilidad se
define del modo siguiente:

La probabilidad de un suceso es el grado de creencia que se tiene en su ocurrencia.


Dichas creencias se basan en la información que cada persona tiene del suceso y pueden
ser revisadas cuando se recoge nueva información al respecto de la temática de interés

Sea cual sea la concepción de la probabilidad que se utilice, la probabilidad de


un suceso es un número que ha de cumplir una serie de condiciones.

AXIOMAS Y TEOREMAS BASICOS DE LA PROBABILIDAD

Axiomática de la probabilidad
Suponga que en un experimento aleatorio se necesita asignar a un suceso A, del
conjunto ℘(E)2, su probabilidad. Dicha probabilidad, P(A), será un número que debe
cumplir tres condiciones o axiomas. La primera se refiere a que dicha probabilidad
siempre ha de ser positiva, la segunda indica que si el citado suceso ocurrirá con
certeza, su probabilidad vale 1, y la tercera indica que la probabilidad que calculemos de
la unión de dos sucesos disjuntos se puede obtener como la suma de las probabilidades
individuales de los sucesos.
Axioma 1. Para cualquier suceso A∈℘(E), P(A)≥0
Axioma 2. P(E)=1
Axioma 3. Dados Ai (i=1,...,n) dos o más sucesos disjuntos, P (∪iAi)=∑iP(Ai)

PROPIEDADES DE LA PROBABILIDAD

Propiedades de la probabilidad
1. La probabilidad de un suceso cualquiera A, es un número menor que 1
2. La probabilidad del suceso complementario de un suceso dado, es igual a
P(A’)=1-P(A)
3. Si un suceso A está incluido en otro B, entonces P(A)<P(B)
4. La suma de las probabilidades de todos los sucesos elementales de un experimento
aleatorio vale 1
5. Si A y B son dos sucesos compatibles, P(A∪B)=P(A)+P(B)-P(A∩B)

2
Recuélese que ℘(E) representa la conjunto de las partes de E (espacio muestral)

4
_____________________________________________________________________________________

6. Si A, B y C son tres sucesos compatibles, P(A∪B∪C)=P(A)+P(B)+P(C)-P(A∩B)-


P(A∩C)-P(B∩C)+P(A∩B∩C)

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de


autoevalución ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS “Más para
entender la probabilidad”.

PROBABILIDAD CONDICIONADA

SUCESOS CONDICIONADOS Y SUCESOS INDEPENDIENTES

Un suceso A está condicionado por otro B, si la ocurrencia de B puede hacer cambiar el


valor de probabilidad de ocurrencia de A.
Dos sucesos A y B, por el contrario, se dicen independientes, si la ocurrencia de uno
cualquiera de ellos no afecta a la ocurrencia del otro.

Probabilidad condicionada Teorema producto Sucesos independientes.

P(A ∩ B) P(A ∩ B) = P(A)P(B/ A) = P( A ∩ B ) = P( A).P ( B)


P(A / B) =
P(B) P( B) P( A / B)

Suponga que en una determinada población estudiantil hemos recogido la


siguiente información, de una parte, el número de horas de estudio de los estudiantes
(bajo, alto) de otra, sus calificaciones en una determinada materia, es decir, su
rendimiento (suspenso, aprobado).
El suceso “estudiar un nº de horas alto y estar aprobado” se corresponde (según
lo visto hasta ahora) con el suceso A∩B o B∩A, donde el suceso A es “estar
aprobado”, y el suceso B, dedicar un “alto” número de horas al estudio”.
Si planteamos la cuestión como el suceso “estar aprobado, sabiendo que se ha
estudiado un número alto de horas” estamos hablando de dependencia entre los dos
sucesos, es decir, en el ejemplo “la calificación de aprobado aparece condicionada al
hecho de dedicar un alto número de horas al estudio”. Se trata del suceso A
condicionado por B, o lo que es lo mismo, la ocurrencia de A supuesto que ha ocurrido
B. Este tipo de sucesos (condicionados) la representamos por A/B y su probabilidad
puede ser calculada. Siguiendo con el ejemplo:

La tabla siguiente muestra los datos recogidos para 600 estudiantes

Nº horas estudio Nº horas estudio Total


Bajo Alto
250 40 290
Suspenso
50 260 310
Aprobado
Total 300 300 600

5
_____________________________________________________________________________________

Se puede calcular la probabilidad de cualquier suceso de la tabla anterior sin más


que utilizar la fórmula de Laplace, como cociente entre los casos favorables a la
ocurrencia del suceso de que se trate y los casos posibles o totales. De este modo
tendríamos que:

P(A)=310/600 (probabilidad de haber aprobado)


P(B)=300/600 (probabilidad de haber dedicado un número alto de horas la estudio)
P(A∩B)=260/600 (probabilidad de haber aprobado y haber dedicado un número alto de
horas al estudio)
P(A/B)=260/300 (probabilidad de aprobar habiendo dedicado un número alto de horas
al estudio). 3

DISTRIBUCIONES DE PROBABILIDAD

Las distribuciones de frecuencias que corresponden a experiencias reales,


pueden ser comparadas con distribuciones teóricas de probabilidad (modelos de
probabilidad conocidos), que son en realidad esquemas ideales del comportamiento de
las variables. Resulta de gran interés la comparación de modelos ideales de
comportamiento de las variables, con los datos que realmente se consiguen de ellas (las
variables) en una investigación, ya que de este modo se puede intentar predecir la
evolución de su comportamiento.
En los apartados siguientes vamos a presentar aquellos conceptos más básicos
imprescindibles para introducir y comprender los modelos teóricos de probabilidad con
los que se compararán los datos recogidos en una investigación.

VARIABLE ALEATORIA

Consideremos un experimento con espacio muestral asociado E. Una función X, que


asigna un número real a cada resultado posible sobre el espacio E, recibe el nombre de
variable aleatoria.

Suponga que se lanza una moneda al aire cuatro veces consecutivas y se anota el
resultado. El espacio muestral asociado al experimento sería:

E={CaCaCaCa, CaCaCaCr, CaCaCrCa, CaCrCaCa, CrCaCaCa, CaCaCrCr, CaCrCaCr,


CaCrCrCa, CrCaCaCr, CrCaCrCa, CrCrCaCa, CaCrCrCr, CrCaCrCr, CrCrCaCr,
CrCrCrCa, CrCrCrCr }

Se pueden definir diferentes variables aleatorias sobre el espacio muestral


anterior. Por ejemplo, sea X la variable cuyos valores coinciden con el número de caras
obtenidas en los cuatro lanzamientos, la variable así definida toma los valores
siguientes:

3
La probabilidad del suceso A/B se puede calcular también utilizando la expresión analítica correspondiente definida
anteriormente.

P(A ∩ B) 260 / 600 260


P(A / B) = = =
P(B) 300 / 600 300
Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de autoevalución ver LA CARPETA
COMPLEMENTOS TEMAS PREVIOS “Más para entender la probabilidad” (Ejercicio 2)

6
_____________________________________________________________________________________

Tabla 1
E X
CaCaCaCa 4
CaCaCaCr
CaCaCrCa 3
CaCrCaCa
CrCaCaCa
CaCaCrCr
CaCrCaCr
CaCrCrCa 2
CrCaCaCr
CrCaCrCa
CrCrCaCa
CaCrCrCr
CrCaCrCr
CrCrCaCr 1
CrCrCrCa
CrCrCrCr 0

Si se considera un estudio en que tras una selección al azar de personas, se mide


su estatura, su capacidad intelectual o su presión arterial, cada una de dichas
características constituyen una variable aleatoria.

Una variable se dice discreta si puede tomar un número finito o infinito numerable de
valores. Una variable se dice continua si puede tomar un número infinito no
numerable de valores. En el primer caso se tiene un espacio muestral discreto, finito o
infinito, y en el segundo caso se trata de un espacio muestral continuo.

Consideremos el experimento del lanzamiento cuatro veces consecutivas de una


moneda (tabla 1), el espacio muestral asociado al mismo es un espacio discreto y la
variable aleatoria definida anteriormente sobre dicho espacio, es una variable discreta.

Consideremos el experimento que consiste en lanzar una moneda al aire hasta


que sale cara, su espacio muestral asociado es el siguiente (Amón, 19 ):

E={Cr, CrCa, CrCrCa, CrCrCrCa, CrCrCrCrCa, ............}

Si se define sobre dicho espacio la variable X cuyos valores posibles son el


número de caras vueltas hacia arriba en el experimento anterior, dicha variable puede
tomar una cantidad infinita numerable de valores, es una variable discreta infinita y
su espacio muestral asociado es un espacio discreto infinito.

Si consideramos el lanzamiento de un dardo a una diana, los resultados posibles,


y elementos del espacio muestral asociado a dicho experimento, son infinitos y no hay
forma de establecer una regla que nos permita enumerarlos, es un espacio muestral
infinito y la variable aleatoria definida sobre él, sería continua.

7
_____________________________________________________________________________________

DISTRIBUCION DE PROBABILIDAD Y PARAMETROS DE UNA VARIABLE


ALEATORIA DISCRETA

Ya se ha indicado que una variable aleatoria X tiene una distribución discreta si


X sólo puede tomar un número finito k de valores o, a lo sumo, una sucesión infinita
numerable de valores distintos. Si X tiene una distribución discreta, se pueden definir
los siguientes tipos de funciones en X:

Función de probabilidad y distribución. Variable discreta


FUNCION DE PROBABILIDAD
Dada una variable aleatoria discreta X, su función de probabilidad es una función f
que para cualquier número real x cumple:
f(x)=P(X=x) para cualquier x que es un valor posible de X
f(x)=0 para cualquier x que no es valor posible de X

FUNCIÓN DE DISTRIBUCION
La función de distribución F de una variable aleatoria X es una función definida para
cada número real x, del modo siguiente:
F(x) = P(X≤x) para -∞<x<∞

Las funciones de probabilidad y distribución así definidas, en realidad no son


otra cosa que probabilidades de sucesos, es por ello que algunas de sus propiedades más
importantes se deducen de forma inmediata de la axiomática probabilistica. Son de
especial interés las propiedades siguientes:

Propiedades de las funciones de probabilidad y distribución

FUNCION DE PROBABILIDAD
i=n
1. Si X toma valores x1, x2, ... , xn, entonces ∑ f (x ) = 1
i =1
i

2. Si a<b<c, entonces P(a≤X≤c)=P(a≤X≤b)+P(b<X≤c)

FUNCION DE DISTRIBUCION
1. F(x) es no decreciente a medida que x crece, es decir, x1<x2 ⇒ F(x1)≤F(x2).
2. limx→-∞F(x)=0 y limx→∞F(x)=1
3. F(x) siempre es continua por la derecha, es decir, F(x)=F(x+) en todo punto x.
4. P(a<x<b)=F(b) – F(a)

Parámetros que definen una variable aleatoria discreta

La media , esperanza matemática o valor esperado de una variable aleatoria discreta


E[X]=∑ipixi
La mediana de una variable aleatoria discreta será el valor x en el que se cumple que
F(x)=0,5

La moda en dicha variable será el valor de x en el que la función de probabilidad


alcanza un máximo absoluto o relativo
La varianza de una variable aleatoria discreta es:
V(X)=E{(X-µ)2}

8
_____________________________________________________________________________________

VARIABLES ALEATORIAS CONTINUAS. DENSIDAD DE


PROBABILIDAD Y PARAMETROS

Una variable aleatoria representa el conjunto de valores que se pueden observar


en un fenómeno aleatorio (Ruiz-Maya, Martín, Montero y Uriz, 1995), valores que
dependen del azar y sobre los cuales se puede definir una medida de probabilidad. La
variable es continua cuando puede tomar los infinitos valores de un intervalo.

Se conoce como densidad al cociente entre la masa y el volumen de un sólido, es


decir, el cociente entre dos magnitudes que se refieren a un mismo objeto. Cuando se
realiza una medición y se obtiene un valor de puntuación para determinado sujeto, el
significado del dato depende de la precisión de la medida. Más concretamente, si se
obtiene una puntuación de 54 y la herramienta utilizada para realizar la medición sólo
facilita valores enteros, si se trata de una variable continua, 54 está realmente
representando a todo el intervalo 53,5 – 54,5. Si la precisión de la herramienta es del
orden de las décimas, el valor 54,0 representa todo el intervalo contenido entre 53,95 y
54,05. En general, si la anchura de los intervalos a los que se refiere la medida utilizada
es ∆, se puede definir la densidad de probabilidad del modo siguiente:

Funciones de densidad de probabilidad y distribución de una variable aleatoria


continua
FUNCION DE DENSIDAD DE PROBABILIDAD
El cociente entre la masa de probabilidad de un intervalo dado y su amplitud, se llama
densidad de probabilidad. La función de densidad de una variable aleatoria X, es aquella
función f que se obtiene como límite de la densidad de probabilidad, cuando el intervalo
en que se define tiende a cero. La función de densidad así definida, tiene dos
propiedades:

1. f(x) es una función no negativa.


+∞
2. ∫ f (x )dx = 1
−∞
La función de densidad permite el cálculo de probabilidades en un intervalo de valores
b
de la variable, así, P(a≤X≤b) = ∫ f ( x )dx
a

FUNCION DE DISTRIBUCION
La función de distribución de una variable aleatoria continua X es aquella función F que
asigna a cada valor x∈X la probabilidad de que la variable tome valores menores o
iguales a x.
x
F( x ) = P(X ≤ x ) = ∫ f ( x )dx
−∞
La función de distribución tiene las siguientes propiedades:

1. F(x) es una función monótona no decreciente


2. Limx→-∞F(x) = 0
3. Limx→ ∞F(x) = 1
4. P(a ≤ X ≤ b) = P(X ≤ b) − P(X ≤ a ) = F(b) − F(a )

9
_____________________________________________________________________________________

Según lo anterior, f(x), en el caso de una variable continua no es P(X=x), dado


x
que P(X=x) = P(x≤X≤x) = ∫ f ( x)dx = 0, sino que es una medida de cómo de probable
x
es un valor próximo a x, en un pequeño intervalo alrededor de x.

Parámetros de una variable aleatoria continua


La media, esperanza matemática o valor esperado de una variable aleatoria continua se
+∞
define como E[X]= ∫ xf ( x )dx
−∞

La varianza de una variable aleatoria continua X, se define como:


+∞
V(X) = ∫ ( x − E[X ]) 2 f ( x )dx
−∞

Las propiedades del valor esperado y varianza, siguen siendo las que se
estudiaron en el caso de una variable aleatoria discreta.

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de


autoevalución ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS “Más para
entender la probabilidad” (Ejercicio 3)

MODELOS PROBABILÍSTICOS PARA UNA VARIABLE ALEATORIA

En este apartado vamos a tratar la maquinaria probabilística con la que se trata


de dibujar o representar la realidad. Presentaremos aquellas distribuciones concretas que
permiten representar situaciones con determinadas características, con la ventaja de
que tienen un manejo fácil para el cálculo de probabilidades; siempre bajo el supuesto
de que realmente las variables que manejamos pueden ser representadas por ellas. En
realidad, no hablaremos de una distribución concreta sino de una familia de
distribuciones, esto quiere decir que tienen en común: su representación expresada
como modelo matemático, tienen la misma a muy similar, pero se diferencian en los
valores de los parámetros que las caracterizan.

Habitualmente queremos saber cosas de una población que es para nosotros


inaccesible. Dada una situación real deberemos elegir uno de los elementos de una
familia de distribuciones, aquel que sea el mejor modelo representativo de la realidad
que estamos estudiando. Una vez elegida la distribución a la que mejor se ajustan
nuestros datos, ésta, permitirá que calculemos cualquier probabilidad relativa a los
mismos, sólo tenemos que traducir lo que necesitamos conocer de la población, en un
cálculo dentro de la distribución elegida (Llopis, 1996).

Aquí presentaremos algunas familias de distribuciones especiales que son muy


utilizadas en aplicaciones. Se introducen la función de probabilidad y de distribución,
así como algunas propiedades y aplicaciones de las distribuciones de Bernoulli,
Binomial, Poisson, para el caso de variables aleatorias discretas y las familias de

10
_____________________________________________________________________________________

distribución Normal, Ji-cuadrado, t de Student y F de Fisher-Snedecor, para variables


aleatorias continuas.

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS UNIVARIANTES

Posiblemente, la familia de distribuciones discretas univariantes más sencilla, y


que destaca por la cantidad de situaciones que representa, es la familia de distribuciones
de Bernoulli. Las características principales de dicha familia son las siguientes:

Familia de distribuciones de Bernoulli


DISTRIBUCION DE BERNOULLI
Suponga un experimento en el que sólo hay dos posibles resultados, como cara o cruz,
éxito o fracaso, presencia o ausencia, defectuoso o no defectuoso, que se pueden
designar como 0 o 1.
Una variable aleatoria X que toma los valores 1 y 0, con probabilidades p y q (1-p=q), y
que representan cada uno de los dos posibles resultados del experimento aleatorio citado
anteriormente, se dice que tiene una distribución de Bernoulli con parámetro p.
X→B(p)

Así, el lanzamiento de una moneda al aire es una prueba de Bernoulli, donde los dos
resultados posibles son “salir cara” y “salir cruz”, y cuyas probabilidades de ocurrencia
son p=1/2=q.
La función de probabilidad de una variable de Bernoulli, tiene la forma siguiente:

f(x)=px.q1-x

La función de distribución de la variable X, tiene la forma siguiente:


F(x)=P(X≤x)=∑xpxq1-x

Los parámetros que definen esta familia de distribuciones son:


• Esperanza matemática: E[X]=p
• Varianza de X Var(X)=p.q

Hay muchas situaciones en las que se manejan variables para las que sólo son
posibles dos resultados. Es decir, si se estudian sujetos que son varones o mujeres en un
estudio sociológico, que poseen o no determinado trastorno, que presentan o no
movimientos oculares rápidos en un experimento sobre el sueño, dichas variables
tienen un comportamiento que puede ser modelizado por una distribución Bernoulli.
Habitualmente, cuando se manejan proporciones de individuos que poseen cierta
característica dicotómica, es decir, con dos valores posibles, se consideran más de una
prueba de Bernoulli, lo que significa la utilización del modelo de probabilidad
Binomial, que introducimos seguidamente.

Distribución Binomial
DISTRIBUCION BINOMIAL
Supongamos que se realizan n pruebas independientes de Bernoulli en las que la
probabilidad de éxito, p, se mantiene constante. Es decir, considere la variable X
definida como el número de éxitos en las n pruebas de Bernoulli, X=X1+...+Xn. La
variable así definida sigue una distribución binomial de parámetros n y p.
X→B(n,p)

11
_____________________________________________________________________________________

La función de probabilidad de una variable binomial, tiene la forma siguiente:


f(x)=Cn,xpxqn-x
La función de distribución de una variable binomial, se calcula a partir de la función de
probabilidad, como sigue:
F(k)=P(X≤k)=∑x≤kCn,xpxqn-x

Las que definen esta distribución son:


• Valor esperado: E[X]=np
• Varianza de la variable X, V(X)=npq

Si se manejan variables Binomiales en que la probabilidad de éxito es muy


pequeña, y el número de pruebas n, es muy grande, el modelo de probabilidad que
permite estudiar el comportamiento de dichas variables es el modelo de Poisson o ley de
los sucesos raros. En estos casos, se ha de seleccionar un elemento de la familia de
distribuciones de Poisson, cuyas características se presentan a continuación.

Familia de distribuciones de Poisson

DISTRIBUCION DE POISSON

Una variable aleatoria X, que tiene una distribución binomial con parámetros n y p, en
la que n→∞ y p→0, es decir, en la que n es muy grande y p muy pequeña, se dice que
tiene una distribución de Poisson de parámetro λ=np.
X→P(λ)
La función de probabilidad de una variable que sigue una ley de Poisson de parámetro
λ, tiene la forma siguiente:
e − λ λx
f ( x) =
x!

La función de distribución de una variable de Poisson, se obtiene como se indica


seguidamente:
e −λ λ x
F (k ) = ∑
x≤k x!
Los parámetros y para la variable X:
• Esperanza matemática E[X]=λ
• Varianza V(X)=λ

DISTRIBUCIONES DE PROBABILIDAD CONTINUAS UNIVARIANTES

Muchas situaciones reales están caracterizadas porque en ellas se manejan


variables continuas. Las distribuciones que se presentan en este apartado son modelos
para utilizar en el cálculo de probabilidades en estos casos.
En primer lugar se estudia la distribución Normal, la distribución más
importante en Estadística. Esto es así por las propiedades matemáticas que tiene. Así, si
se selecciona una muestra de una distribución Normal, estaremos en las condiciones de
aplicación de casi todas las técnicas de Inferencia Estadística; además se ha observado
con frecuencia en diferentes experimentos que las variables que se manejan tienen

12
_____________________________________________________________________________________

distribuciones aproximadamente Normales; veremos que cuando se selecciona una


muestra grande, aunque su distribución no sea Normal, en el límite, lo es.

Familia de distribuciones Normales

DISTRIBUCION NORMAL
Una variable continua X sigue una distribución N(µ, σ 2 ) , una distribución Normal con
media µ y varianza σ2, si su función de densidad de probabilidad es la siguiente:
2
1  x −µ 
1 −  
σ 
f () = e 2 para − ∞ < x < ∞
2 πσ
Propiedades:
- La distribución Normal es simétrica respecto al punto x=µ
- Alcanza su máximo en x=µ
- Tiene dos puntos de inflexión en x=µ+σ y x=µ-σ
- Tiene forma de campana
- Si una variable aleatoria X tiene una distribución Normal, cualquier combinación de
X tiene una distribución Normal

DISTRIBUCIÓN NORMAL TIPIFICADA


X −µ
S X→ N(µ, σ 2 ) y se realiza una tipificación de la variable, la variable Z = sigue
σ
una distribución tipificada, es decir, Z→N(0,1)
Si las variables aleatorias X1, ..., Xk son independientes y cada Xi→ N(µ i , σ i2 ) la suma
X1+...+Xk sigue una distribución Normal con media µ1+µ2+...+µk y varianza
σ12+σ22+...+σk2

Hemos de hacer notar lo siguiente, en ocasiones no se dispone de la tabulación


completa de los modelos de probabilidad expuestos hasta el momento o, sencillamente,
se trabaja de forma más cómoda con unos modelos que con otros. Esto es posible si se
dan las condiciones que posibilitan tal acción, algunas de las cuales son:

Aproximación entre distribuciones de probabilidad


DISTRIBUCION BINOMIAL, POISSON Y NORMAL

℘(λ) (a) n.p=λ n≥20 p≤0,01


(a)

B(n,p) (c) (b) n.p>5

(b) N(µ, σ 2 ) (c) λ>10 µ = σ2 = λ

13
_____________________________________________________________________________________

También resulta conveniente conocer algunos modelos de probabilidad que


resultan como combinación de variables normales, o de otras distribuciones de
probabilidad.
A continuación se introducen tres familias de distribuciones que cumplen con
todas las condiciones que se reflejaron al inicio de este apartado, son modelos para
variables aleatorias continuas. No obstante, las vamos a presentar como modelos algo
distintos a los anteriores. Se trata de distribuciones derivadas de la Normal, es decir, son
variables que resultan de realizar ciertas operaciones entre variables Normales.
Estos tres modelos tienen un papel destacado en Inferencia Estadística, más
concretamente, en el proceso de muestreo.

Distribuciones asociadas al proceso de muestreo.

DISTRIBUCIÓN Ji-Cuadrado

Una variable continua X sigue una distribución Ji-Cuadrado con n grados de libertad, y
se nota χ 2n si se obtiene del modo siguiente:
X → χ 2n si X = Z12 + Z 22 + ... + Z 2n t.q. Z i → N(0,1)
Sus parámetros son:
E[X ] = n y V(X ) = 2n

DISTRIBUCIÓN t-Student

Una variable continua X sigue una distribución t con n grados de libertad, y se nota tn, si
se obtiene del modo siguiente:
Z
X → tn si X = t.q. W → χ 2n y Z → N(0,1)
W
n
Sus parámetros son:
E[tn]=0 y V(t n ) =
n
n−2
DISTRIBUCIÓN F DE FISHER-SNÉDECOR

Una variable continua X sigue una distribución F, con n1 y n2 grados de libertad, y se


nota Fn1 , n 2 , si se obtiene del modo siguiente:
W1
n1
X → Fn1 , n 2 si X= t.q. Wi → χ 2n i
W2
n2
Sus parámetros son:
2n 22 (n1 + n 2 − 2)
E[X ] = V(X ) =
n2
y
n2 − 2 n1 (n 2 − 4)(n 2 − 2) 2

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de


autoevalución ver el archivo CARPETA COMPLEMENTOS TEMAS PREVIOS “Más
para entender la probabilidad” (Ejercicio 4)

14
_____________________________________________________________________________________

15
_____________________________________________________________________________________

16

También podría gustarte