Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estadistica ADE Parte2 PDF
Estadistica ADE Parte2 PDF
Estadística I
UNIVERSIDAD DE VALLADOLID
Bibliografía …………………………………………………………………………………... 78
Ejercicios …………………………………………………………………………………….. 79
Ejercicios complementarios ……………………………………………………………….. 87
Exámenes de años anteriores …………………………………………………………….. 91
Anexo……..…………………………………………………………………………………... 95
Estadística I (2019-2020) Probabilidad y Distribuciones
Ejemplo 1. Lanzamos un dado no trucado. El espacio muestral que describe los posibles resultados es
1,2,3, 4,5,6 .
Ejemplo 2. En el caso del experimento consistente en medir el tiempo de espera hasta que llega un
autobús urbano cuya frecuencia es 15 minutos, será el intervalo (0,15).
Ejemplo 3. Lanzamos una moneda normal de 1 euro hasta que sale por primera vez una cara, momento
en el que se acaba el experimento. En este caso, el espacio muestral es c , xc , xxc , xxxc , .
Llamamos sucesos elementales a los sucesos que tienen un único resultado de .
Suceso imposible
1, 2, 3, 4, 5, 6 Sucesos elementales
1,2,3, 4,5,6 Suceso seguro
2, 4,6 Sacar par
1,3,5 Sacar impar
A | A .
Unión de sucesos: La unión de dos sucesos A y B es el suceso A B que ocurre cuando ocurre
uno de los dos,
A B | A o B .
A B | A y B .
A B | A y B .
Por tanto,
AB AB .
AB AB .
Complementario de la unión = Intersección de complementarios
AB AB .
Complementario de la intersección = Unión de complementarios
4. B B A B A .
Ejemplo 1 (continuación). En el experimento del lanzamiento del dado, consideremos los sucesos
A=sacar impar y B 2,3,4,6 . Su unión, A B 1,2,3,4,5,6 , es el suceso seguro y su intersección,
ocurre cuando no ocurre B . El suceso B está incluido en A ; siempre que ocurre B , ocurre A . Por
otro lado, los sucesos B 1,5 y A B 3 son disjuntos.
Un material introductorio más sencillo que lo aquí expuesto, con las nociones básicas sobre
experimentos aleatorios y sucesos, se encuentra en el enlace:
http://www.ite.educacion.es/w3/recursos/bachillerato/matematicas/probabilidad/actividades/
sucesos/sucesos.htm
En el siguiente enlace se recogen ideas y ejemplos sencillos sobre operaciones con sucesos:
http://www.ite.educacion.es/w3/recursos/bachillerato/matematicas/probabilidad/actividades/
operaciones/operaciones.htm
Una lectura de algo más de nivel está disponible en los enlaces “Experimentos aleatorios” y
“Sucesos” de la web:
http://www2.eco.uva.es/estadmed/probvar/probabilidad/probabilidad.htm
También se puede consultar una ilustración relacionada con las operaciones con sucesos
en el Libro de Excel 1_OperacionesConSucesos.xls.
lim fA p A .
N
Esta definición es muy poco práctica, como se puede ver con los siguientes comentarios: ¿cómo de
grande debe ser N ?, ¿si en 1.000.000 tiradas de una moneda, la proporción de caras es del 50.01%,
aceptaremos que dicha probabilidad es del 50%?, ¿y por qué no del 50.1%?, ¿o del 50.11%?
A2: p 1 .
A3: p Ai p Ai para toda colección infinita numerable de sucesos Ai , i 1,2,, ,
i 1 i 1
disjuntos dos a dos.
Se denomina espacio probabilístico a un espacio muestral a cuyos sucesos se les ha asignado
una probabilidad.
Observaciones:
O1. Cualquier asignación que verifique la definición anterior es una probabilidad. Por ejemplo, si
lanzamos una moneda, c , x , podríamos definir p c p c 0.2 y p x p x 0.8
(evidentemente, una moneda muy cargada hacia las cruces). Formalmente, definiríamos también
p 0 y p( ) 1 . Sin embargo, entre todas las posibles asignaciones hay algunas que son
mejores que otras (así, esta asignación no sería apropiada para describir el lanzamiento de una
moneda perfecta): encontrarlas es uno de los objetivos de la Inferencia Estadística.
O2. El axioma A3 también se verifica para una colección finita de sucesos disjuntos dos a dos.
O3. Adviértase que estos axiomas (y las propiedades que demostraremos a continuación) de la
probabilidad, medida relativa y teórica de la ocurrencia de un suceso, también se cumplían en la
frecuencia, medida relativa y empírica de la ocurrencia de un suceso.
P1: p A 1 p A para todo suceso A .
Demostración: Como A A , p A p A p 1 , sin más que tener en cuenta los
axiomas A2 y A3 de la definición de probabilidad.
P2: p 0 .
1
Véase su tratado fundamental, Foundations of the Theory of Probability, en http://www.kolmogorov.com/Foundations.html.
Demostración: Si A B , se tiene que B A B A , siendo A y B A disjuntos.
A1, p A p B .
P4: 0 p A 1 .
p B p B A p B A ,
y, por tanto, dado que B A B A ,
p B A p B A p B p B A .
p A B p A p B A p A p B p A B .
Esta propiedad se extiende a más de dos sucesos. Por ejemplo, si tenemos tres sucesos, A,
B, y C,
p A B C p A p B p C p A B p A C p B C p A B C .
P7: A partir del axioma A1 y la propiedad P6, se deduce que, para toda pareja de sucesos A y B,
p A B p A p B ,
Un espacio muestral discreto es aquel cuyo conjunto de resultados posibles es finito o infinito
numerable. En esta sección sólo trataremos la asignación de probabilidades en espacios muestrales
finitos.
Si el espacio muestral es finito, 1, , n , basta con asignar probabilidades a todos y cada
uno de los sucesos elementales. En concreto, se define p i , i 1,, n , cumpliendo:
2) p 1 p n 1 .
A 1, , k 1 k ,
como los sucesos elementales son disjuntos dos a dos, podemos calcular su probabilidad como
p A p 1 p k .
Ejemplo 4. Se lanza un dado tal que p 1 p 5 1 3 y el resto de las caras tienen probabilidad 1 12.
Tendremos definida la probabilidad de cualquier otro suceso. Por ejemplo,
Un caso especial de espacio muestral finito es el espacio muestral finito y equiprobable, en el cual
todos los sucesos elementales tienen la misma probabilidad. Es decir, si 1, , n entonces
1
p 1 p n . En este caso, si A es un suceso cualquiera con k elementos, su probabilidad
n
1 k
es entonces p A . Este resultado constituye la denominada Regla de Laplace:
A n n
i
Observaciones:
O1. La Regla de Laplace sólo es aplicable a espacios muestrales finitos y equiprobables. En otros
casos ya iremos viendo cómo asignar probabilidades a los sucesos.
O2. Su aplicación requiere “contar” el número de casos posibles y favorables al suceso cuya
probabilidad se quiere obtener, para lo cual se debe recurrir al Análisis Combinatorio.
Ejemplo 5. Elijamos al azar una carta de una baraja española no trucada. Cada uno de estos cuarenta
naipes tendrá la misma probabilidad de ser elegido, 1 40 . ¿Cuál es la probabilidad de elegir una carta
de oros?, ¿y de elegir un rey?
Podemos aplicar la Regla de Laplace, contabilizando el número de casos favorables para cada suceso.
Así, si llamamos O al suceso elegir una carta de oros y R a elegir un rey,
Ejemplo 6. Lanzamos dos dados normales. El espacio muestral asociado 1 tiene por elementos los
36 pares de valores:
p A B
p A | B .
p B
La probabilidad condicionada por un suceso B es realmente una probabilidad, pues cumple todos
los axiomas (y las propiedades) de una probabilidad que vimos en los epígrafes 4.2 y 4.3.
A partir de la definición de probabilidad condicionada se obtiene una regla para calcular la
probabilidad del suceso A B :
p A B p B p A | B p A p B | A ,
Observaciones:
O1. La probabilidad condicionada tiene sus antecedentes en la frecuencia relativa condicionada:
f
fA AB .
B fB
O2. Si B A p( A | B) 1 .
O3. Si A B p( A | B ) 0 .
p A1 A2 p A1 p A2 | A1 .
A partir de este resultado se obtiene otro similar para tres sucesos, agrupando convenientemente
los sucesos y teniendo en cuenta la definición de probabilidad condicionada:
p A1 A2 A3 p A1 A2 A3 p A1 A2 p A3 | A1 A2 p A1 p A2 | A1 p A3 | A1 A2
p A1 An p A1 p A2 | A1 p An | A1 An 1 .
B B B Ai B Ai ,
i 1 i 1
Aplicando el axioma A3 de la definición de probabilidad,
p B p B Ai .
i 1
Teorema de Bayes. Sea el espacio muestral de un experimento aleatorio y sea Ai i1 una
partición de , formada por sucesos de probabilidad distinta de cero. Sea B un suceso tal que
p B 0 ; entonces,
2
Una partición de es una colección de subconjuntos (sucesos) disjuntos dos a dos cuya unión es el total, Ai .
i 1
p Aj p B | Aj
p Aj |B
j 1,, n,
p Ai p B | Ai
i 1
p( A j B ) p( A j ) p(B | A j )
p( A j | B ) ,
p(B )
p( Ai ) p(B | Ai )
i 1
A partir del teorema de probabilidades totales y designando por P al suceso estar parado, se obtiene:
p P p A p P | A p C p P |C p I p P | I p S p P | S
0.10 0.06 0.12 0.20 0.35 0.15 0.43 0.18 0.16
p C p P | C 0.12 0.20
P C | P 0.15 .
p P 0.16
p A B p A p B .
p B | A p B .
Según esta propiedad, la más interesante desde el punto de vista intuitivo, A y B son
estadísticamente independientes si la ocurrencia de uno de ellos ( A en nuestro caso) no modifica la
probabilidad del otro (de B ), probabilidad que sigue valiendo lo mismo que cuando no había ocurrido
el suceso A .
fAB fA fB
Ejemplo 5 (continuación). Se elige una carta al azar de una baraja española no trucada. Sean los
sucesos E , sacar espadas, R , sacar rey, F , sacar figura, y O , sacar oros. Estudiemos la
independencia entre R y E , entre R y F , y entre E y O .
4 10 1
p R p E p R E
40 40 40
4 12 4
p R p F p R F
40 40 40
10 10
p E p O 0 p E O
40 40
Utilizando la propiedad 1:
1 4
p R | E p R
10 40
4 4
p R | F p R
12 40
10
p E | O 0 p E
40
Sólo son independientes R y E . La ocurrencia de rey resulta favorecida por la de figura, en cambio,
la ocurrencia de espada resulta perjudicada por la de oros (aún más, la hace imposible).
Observación:
No hay que confundir sucesos independientes y sucesos disjuntos. De hecho, dos sucesos disjuntos
no pueden ser independientes, salvo que uno de ellos tenga probabilidad nula. Así, si A y B son
incompatibles ( A B ) y p A 0 y p B 0 ,
p A B 0 pero p A p B 0
La independencia de sucesos no está ligada a su naturaleza, sino a las probabilidades que dichos
sucesos tienen asignadas. Veámoslo con el siguiente ejemplo.
4 10 1
p R , p E y p R E ,
41 41 41
Si el resultado se cumple sólo para k 2 , diremos que los n sucesos son independientes dos a
dos. Concretemos estas definiciones para tres sucesos. Sea el espacio muestral ligado a un
experimento aleatorio y sean A , B y C tres sucesos. Diremos que A, B y C son mutuamente
independientes si
p A B p A p B
p A C p A p C
p B C p B p C
p A B C p A p B p C
Si sólo se cumplen las tres primeras igualdades, A , B y C son independientes dos a dos, pero no
son mutuamente independientes.
A B A C B C A B C 1 ,
1
p A p B p C
2
1
p A B p A C p B C
4
1
pA B C
4
Se concluye, entonces, que A , B , y C son independientes dos a dos, pues
1
p A B p A p B
4
1
p A C p A p C
4
1
p B C p B p C
4
Pero no son mutuamente independientes, ya que
1 1
pA B C p A p B p C .
4 8
Ejemplo 10. Tenemos una urna con dos bolas blancas y tres negras y realizamos dos extracciones
con reemplazamiento. El experimento se puede descomponer en dos etapas:
El espacio muestral será 1 b1, n1 ( b1 indica bola blanca en la primera extracción y n1 , negra en la
primera extracción). La probabilidad para este primer experimento es,
2 3
p b1 y p n1 .
5 5
En este caso, 2 b2 , n2 , con el mismo significado que en la primera extracción. La probabilidad
para esta extracción es,
2 3
p b2 y p n2 .
5 5
2 2 4 2 3 6
p b1, b2 p b1 p b2 p b1, n2 p b1 p n2
5 5 25 5 5 25
3 2 6 3 3 9
p n1, b2 p n1 p b2 p n1, n2 p n1 p n2
5 5 25 5 5 25
Ejemplo 11. De nuevo, tenemos una urna con dos bolas blancas y tres negras y realizamos dos
extracciones sin reemplazamiento. El experimento se puede descomponer en dos etapas:
El espacio muestral, 1 b1, n1 , y la probabilidad son los mismos que en el ejemplo anterior:
2 3
p b1 y p n1 .
5 5
Ahora, el espacio muestral es el mismo que antes, 2 b2 , n2 , pero sólo conocemos, por ahora, la
probabilidad sobre 2 , dependiendo del resultado de la primera extracción.
1 3
Si ha salido b1 p b2 | b1 , p n2 | b1
4 4
2 2
Si ha salido n1 p b2 | n1 , p n2 | n1
4 4
El espacio muestral del experimento compuesto es el mismo que cuando las extracciones se hacían
con reemplazamiento, 1 2 b1, b2 , b1, n2 , n1, b2 , n1, n2 , pero ahora debemos construir
la probabilidad conjunta de acuerdo con las reglas de las probabilidades condicionadas:
2 1 2 2 3 6
p b1, b2 p b1 p b2 | b1 p b1, n2 p b1 p n2 | b1
5 4 20 5 4 20
3 2 6 3 2 6
p n1, b2 p n1 p b2 | n1 p n1, n2 p n1 p n2 | n1
5 4 20 5 4 20
Podemos ahora, una vez construidas las probabilidades para el experimento compuesto, calcular la
probabilidad marginal para el segundo experimento,
8 2
p b2 p b1, b2 , n1, b2 p b1, b2 p n1, b2
20 5
12 3
p n2 p b1, n2 , n1, n2 p b1, n2 p n1, n2
20 5
Obsérvese que la probabilidad marginal del segundo experimento es la misma que obtuvimos en el
ejemplo anterior.
Ejemplo 12. Un consumidor de detergente para lavadora puede elegir entre dos marcas, A y B . En
la primera compra, cada una de ellas tiene la misma probabilidad de ser elegida; en las posteriores
compras, la marca elegida en la anterior tiene el doble de probabilidad de ser elegida. ¿Cuál es la
probabilidad de que en la tercera compra se elija la marca A ?
Consideraremos que este experimento se compone de 3 experimentos más sencillos, que son las
sucesivas compras. Construimos el correspondiente árbol en el que se describen estos experimentos
concatenados.
Las probabilidades que acompañan a cada rama del árbol son las probabilidades condicionadas
(excepto las del primer experimento). Una vez construido el árbol, se pueden calcular con cierta
comodidad todas las probabilidades para el experimento compuesto, utilizando la Regla del producto y
el Teorema de la probabilidad total. Por ejemplo, la probabilidad de adquirir la marca A en las tres
compras (suceso recogido en la rama superior del árbol) será:
1 2 2 2
p A1 A2 A3 p A1 p A2 | A1 p A3 | A1 A2 .
2 3 3 9
Para obtener la probabilidad de elegir la marca A en la tercera compra sumaríamos las probabilidades
de todas las ramas que terminan con el suceso A :
4 1 2 2 9
p A3 p A1 A2 A3 p A1 B2 A3 p B1 A2 A3 p B1 B2 A3 0.5 .
18 18 18 18 18
c, c , c, x , x, c , x, x ,
siendo los resultados equiprobables, cada uno con probabilidad 1 4 . Si definimos ahora la variable
aleatoria X número de caras obtenidas, X toma los valores 0,1,2 con las siguientes probabilidades:
X 0 p x, x 1 4
1 p c, x , x, c 2 4
2 p c, c 1 4
Es importante distinguir entre variable estadística (las estudiadas en la Estadística Descriptiva), que
recoge la distribución observada o empírica de una característica numérica de los individuos, y variable
aleatoria, que recoge la distribución esperada o teórica de una característica numérica de los individuos.
Ejemplo 2. Si tenemos un dado normal y lo lanzamos 120 veces apuntando el resultado obtenido, la
variable estadística X , puntuación obtenida, viene descrita en los siguientes términos:
Por otro lado, sin realizar experimentación alguna y suponiendo que todas las caras del dado tienen la
misma probabilidad de salir, un caso favorable entre seis posibles, pueden describirse los resultados
del lanzamiento del dado mediante la variable aleatoria X , puntuación del dado:
X p X x
1 16
2 16
3 16
4 16
5 16
6 16
En la segunda columna, la probabilidad de los distintos resultados posibles mide el grado de confianza
en la ocurrencia de los mismos (en este caso, igual para todos).
p X xi para i 1,2,3,4, .
xi 0 1 2
p X xi 1/ 4 2 / 4 1/ 4
Ejemplo 2 (continuación). Sea X la variable aleatoria puntuación obtenida al lanzar un dado una vez.
Su función de probabilidad, como vimos en el apartado anterior, será:
xi 1 2 3 4 5 6
p X xi 1/ 6 1/ 6 1/ 6 1/ 6 1/ 6 1/ 6
Función de probabilidad
0,20
0,15
0,10
0,05
0,00
0 1 2 3 4 5 6
1.- p X xi 0 .
2.- p X xi 1.
i 1
Por tanto, la función de probabilidad siempre toma valores no negativos y la suma de la probabilidad
de todos los puntos es igual a 1. Estas propiedades caracterizan a la función de probabilidad, es decir,
una función es función de probabilidad de una variable aleatoria discreta si y sólo si cumple estas dos
propiedades.
A partir de la función de probabilidad se puede obtener, por suma, la probabilidad de cualquier conjunto
de valores:
p X B p X xi .
xi B
Ejemplo 2 (continuación). La probabilidad de obtener una puntuación impar al lanzar un dado normal
será:
3 1
p impar p X 1 p X 3 p X 5 .
6 2
FX x p X x p X xi para todo x R .
xi x
En este caso, y dado que la probabilidad en las variables discretas sólo reside en unos puntos aislados,
la acumulación de probabilidad se produce a saltos, resultando la función de distribución escalonada, con
rupturas en los valores que toma la variable.
Ejemplo 1 (continuación). Para la variable aleatoria X , número de caras al lanzar las dos monedas,
del ejemplo anterior, la función de distribución será:
0 x0
1/ 4 0 x 1
FX x
3 / 4 1 x 2
1 x2
Obsérvese que, aunque la variable sólo toma los valores 0, 1 y 2, la función de distribución está definida
para todo valor real x :
3
La designaremos por F x si no se presta a confusión.
0 x 1
1
1 x 2
6
2
2x3
FX x 6
5
6 5x6
1 x6
Obsérvese que, por construcción, el tamaño del salto de la función de distribución en un punto es
igual a la probabilidad en dicho punto, por tanto, la probabilidad en un punto xi se puede obtener restando
la función de distribución en ese punto, xi , y en el anterior, xi 1 , es decir:
p X x i F X x i FX x i 1 .
p a X b FX b FX a .
Ejemplo 2 (continuación). En el lanzamiento del dado podríamos calcular las siguientes probabilidades:
5 2 3
p 2 X 5 FX 5 FX 2 ;
6 6 6
3 3
p X 3 1 p X 3 1 FX 3 1 ;
6 6
p X 5 p X 4 FX 4 .
1.- 0 FX x 1 .
FX x p X x para todo x R ,
En este caso la función FX x verifica las propiedades 1, 2, 3 y 4 vistas anteriormente, pero además
es una función continua (continua por la derecha y por la izquierda) y su derivada existe y es continua
salvo, a lo sumo, en un número finito de puntos. A esta derivada se la denomina función de densidad
y se denota por f X x , es decir,
d
fX x FX x .
dx
Por tanto, dado que FX es una primitiva de f X , utilizando el teorema fundamental del cálculo, la
función de distribución se calcula, en este caso, integrando la función de densidad de la siguiente
forma:
x
FX x p X x fX t dt x R .
La función de densidad4 es a las variables continuas lo que la función de probabilidad a las variables
discretas y entre ella y la función de distribución existe una relación similar a la que existía en el caso
discreto. Así, de la misma forma que entonces la función de probabilidad se obtenía a partir de la función
de distribución restando, aquí la función de densidad se obtiene a partir de la de distribución derivando;
y viceversa, la función de distribución que, en caso discreto, se obtenía sumando a partir de la función
de probabilidad, ahora se obtendrá a partir de la densidad integrando.
1.- f X x 0 .
2.- fX x dx 1.
Por tanto, la función de densidad siempre toma valores no negativos, por ser la derivada de una
función no decreciente, y la integral en todo el campo de variación de la variable es igual a 1. Estas
propiedades caracterizan a la función de densidad, es decir, una función fX es función de densidad de
una variable aleatoria continua si y sólo si cumple estas dos propiedades.
Obsérvese que la función de densidad no es una probabilidad (de hecho puede tomar valores
superiores a 1), sino la densidad de probabilidad en un intervalo infinitesimal alrededor de x,
entendiendo la densidad como el cociente entre la probabilidad del intervalo y su longitud.
El siguiente gráfico muestra una función de densidad y su correspondiente función de distribución. La
función de densidad está siempre por encima del eje de abscisas y el área que hay debajo de la función
es igual a 1, como ocurría con los histogramas. Por otra parte, la función de distribución es continua y
creciente y en ella la acumulación de probabilidad se hace suavemente, sin haber rupturas, como ocurría
en las variables discretas. Las zonas de rápido crecimiento de FX x se corresponden con valores altos
de f X x (zonas muy probables), mientras que las de suave crecimiento se corresponden con valores
bajos de f X x (zonas poco probables). A modo ilustrativo en la función de distribución aparece señalado
el valor FX 2.5 p X 2.5 .
Función de densidad Función de distribución
0,7
0,6 1,0
0,5
0,8
0,4
0,6
0,3
0,4
0,2
0,1 0,2
0,0 0,0
0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7
4
La designaremos por f x si no se presta a confusión.
Otro ejemplo de función de densidad y de distribución de una variable continua es el que se muestra a
continuación. Esta variable se denomina Uniforme continua y la estudiaremos en detalle en el epígrafe
5.6.2
Función de densidad Función de distribución
1,0 1,00
0,8 0,80
0,6 0,60
0,4 0,40
0,2 0,20
0,0 0,00
0 1 2 3 4 5 6 0 1 2 3 4 5 6
Para calcular probabilidades de intervalos con la función de densidad hay que integrar dicha función
en el intervalo correspondiente (Regla de Barrow), es decir,
b
p a X b FX b FX a f X x dx .
a
Por tanto, el área que hay por debajo de la función f X entre dos puntos a y b es precisamente la
probabilidad del intervalo a, b . Así por ejemplo, el área señalada en la figura siguiente es la
probabilidad de que la variable X tome valores entre 1 y 2.5, es decir,
p 1 X 2.5 0.476 .
En este sentido, las zonas de valores para las que la función de densidad es "alta" son zonas muy
probables, mientras que las zonas de valores en las que la función de densidad es "baja" son zonas poco
probables. En todo caso, y dada la cantidad (infinita no numerable) de valores posibles en una variable
continua, la probabilidad de un valor concreto es cero5 ( p X x 0 para todo x ). Por tanto, en las
variables continuas, a diferencia de lo que ocurría en las discretas, como los puntos tienen probabilidad
nula, incluir o no los valores extremos de un intervalo no cambia la probabilidad. En consecuencia,
p a X b p a X b p a X b p a X b FX b FX a .
5
Esto no significa que el valor X x no pueda ocurrir. X si puede tomar el valor x , sí lo podemos observar, pero ocurre con
una probabilidad tan baja que es igual a cero. Pensemos además que si en un valor la probabilidad fuera mayor que cero, la
función de distribución debiera tener una discontinuidad en lugar de ser continua.
Ejemplo 3. Sea X una variable aleatoria que representa los beneficios de una empresa cuya función
de densidad es:
e x x 0
fX x
0 x0
Función de densidad
1,2
1,0
0,8
0,6
0,4
0,2
0,0
0 1 2 3 4 5 6 7
Efectivamente, dicha función es función de densidad, ya que toma valores mayores o iguales que cero
y la integral en todo el campo es uno,
f X x dx e
x
dx e x e e0 0 1 1 .
x 0
0
1 1
p X 1 e x dx e x e 1 e0 1 e 1 0.632
0
0
p X 10 e
x
dx e x e e 10 e 10 0.000045
10
10
6 6
p 2 X 6 e x dx e x e 6 e 2 0.133
2
2
x x
FX x p X x e t dt e t e x 1 1 e x si x 0.
0
0
Por tanto,
0 si x0
FX x x
1 e si x0
Función de distribución
1,0
0,8
0,6
0,4
0,2
0,0
0 1 2 3 4 5 6 7
Entonces, las probabilidades anteriores también se pueden calcular con la función de distribución.
Por ejemplo se puede calcular la probabilidad de que los beneficios estén entre 2 y 6 minutos como:
p 2 X 6 FX 6 FX 2 1 e 6 1 e 2 0.133 .
En cualquiera de los dos ejemplos estamos ante un cambio de variable: tanto Y como Z son
transformaciones de X . En estos casos es posible conocer sus distribuciones a partir de la distribución
de X .
p Y 0 p X 3 1/ 6
p Y 1 p X 2 p X 4 1/ 6 1/ 6 1/ 3
p Y 4 p X 1 p X 5 1/ 6 1/ 6 1/ 3
p Y 9 p X 6 1/ 6
Y p Y y
0 1/ 6
1 1/ 3
4 1/ 3
9 1/ 6
De manera general, si Y g X ,
p Y yj p X xi .
x i tal que g x i y j
y y
FY ( y ) p Y y p 40 X y p X FX
40 40
Ahora derivando esta función con respecto a y se obtiene la función de densidad de Y como:
d d y 1 y
fY ( y ) FY ( y ) FX fX
dy dy 40 40 40
k
x x1 f1 x2 f2 xk fk xi fi .
i 1
De forma análoga definimos la media de una variable aleatoria, normalmente llamada esperanza y
designada por E X o X , como6:
6
La esperanza de una variable aleatoria continua no siempre existe; pero esto sólo ocurre en casos muy especiales.
xi p X xi si X es discreta
i 1
X E X
x fX x dx si X es continua
Esta medida es un valor central en torno al cual se encuentran distribuidos los valores de la variable.
El concepto de esperanza o valor esperado tiene su origen, como muchos conceptos de Cálculo de
Probabilidades, en los juegos de azar, en los que uno hace apuestas y gana o pierde según el resultado
del azar. La esperanza sería en estos juegos el dinero que uno espera ganar, es decir, lo que ganaría o
perdería en media si pudiese repetir infinitas veces el juego.
Ejemplo 5. Extraemos una bola de una urna con 3 blancas y 7 negras. Si sale negra nosotros pagamos 5
euros y si sale blanca nos pagan 10 euros ¿Cuál sería nuestra ganancia media en el largo plazo?
Definimos una variable X , nuestra ganancia:
X 5 p X 5 p N 7 10
10 p X 10 p B 3 10
Entonces,
E X 5 7 10 10 3 10 0.5 .
La pérdida teórica es de 50 céntimos. El valor -0.5 es una medida teórica, no se basa en observaciones,
sino en un modelo matemático asociado a este juego. Significa que es de esperar que, si se juega a este
juego obtendremos una ganancia en torno al valor esperado, unas veces mayor y otras, menor.
g xi p X xi si X es discreta
i 1
E g X
g x fX x dx si X es continua
Propiedades de la esperanza:
1. Si a X b a E X b .
2. Si X 0 E X 0 .
5. E a b X a b E X .
Como ya hemos comentado en temas anteriores, la media es una medida de posición central de utilidad
limitada si no viene acompañada de otra medida que cuantifique su representatividad. Para ello se
consideran en Estadística Descriptiva las medidas de dispersión. Ahora podemos hacer lo mismo en
términos de probabilidad.
xi x p X xi si X es discreta
2
2 i 1
X2 Var X E X X
x x fX x dx si X es continua
2
x
Desarrollando esta expresión, la varianza también se puede expresar como
2X E X 2 E X .
2
Propiedades de la varianza:
De acuerdo con esta última propiedad, la varianza no cambia ante cambios de origen pero varía
ante cambios de escala (si b 1 aumenta la dispersión, si b 1 disminuye).
X 0 p X 0 1 4
1 p X 1 2 4
2 p X 2 1 4
Por un lado,
3
E X xi p X xi 0 1 4 1 2 4 2 1 4 1 ,
i 1
i 1
3
E X2 xi2 p X xi 02 1 4 12 2 4 22 1 4 1.5 ,
i 1
Var X E X 2 E X 1.5 12 0.5 .
2
e x x 0
fX x
0 x0
En primer lugar, sin más que aplicar las propiedades de la integral Gamma7 o integrando por partes
una vez, se obtiene:
EX x f X x dx x e x dx 2 1 .
x x 0
Var X E X 2 E X 2 12 1 .
2
De las propiedades de la esperanza y de la varianza se deduce que cuando tipificamos una variable,
esto es, cuando le restamos su esperanza y dividimos por su desviación típica8, la variable tipificada
tiene esperanza nula y varianza igual a 1:
X X E Z 0
Z
X Var (Z ) 1
CVX , recorrido, recorrido intercuartílico, etc.) y forma, análogas a las que vimos en Estadística Descriptiva.
en las cuales encuadraremos la mayoría de las variables aleatorias que se encuentran en la práctica.
Analizamos a continuación algunas de las más utilizadas.
Función de probabilidad:
1
p X xi i 1,2,, N .
N
Función de probabilidad
1/N
x1 x2 x3 ············· xN
1 2 ... N N 1
EX
N 2
N2 1
Var X
12
2. Distribución de Bernoulli
Con frecuencia no nos interesa saber cuál ha sido el resultado concreto de un experimento aleatorio,
sino sólo si ha ocurrido o no un cierto suceso A (aprobado o no, individuo desempleado o no, fumador o
no,…). Tenemos entonces un experimento de Bernoulli, denominándose éxito al suceso de estudio, A , y
fracaso a su contrario, A.
Definición: La variable aleatoria X , número de éxitos al realizar un experimento de Bernoulli, tiene una
distribución de Bernoulli de parámetro p , donde p es la probabilidad de éxito; se denota por X b p .
1 Ocurre A p X 1 p
X
0 Ocurre A p X 0 1 p
Función de probabilidad
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-0,5 0 0,5 1 1,5
EX p
Var X p 1 p
3. Distribución Binomial
Definición: La variable X , número de éxitos en n experimentos independientes de Bernoulli con la
misma probabilidad de éxito, p , sigue una distribución binomial de parámetros n y p . Se denota por
X B n, p .
Sondeo: elegir n individuos con reemplazamiento para preguntarles si están a favor del
candidato A o no; X , el número de individuos a favor de A , sigue una distribución B n, p A .
Función de probabilidad:
Consideremos la probabilidad de un suceso con x éxitos y n x fracasos:
nx
A
p( A
A A)
p
p 1 p 1 p p x 1 p .
x éxitos n x fracasos x éxitos n x fracasos
n
Teniendo en cuenta que el número de sucesos con x éxitos y n x fracasos es (esto es, el
x
número de sus distintas ordenaciones) y que todos tienen la misma probabilidad, resulta:
n n! nx
p X x p x (1 p )n x p x 1 p donde x 0,1,2,...n .
x ( n x )! x !
Función de probabilidad
0,30
B(7;0,5)
0,25
0,20
0,05
0,00
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32
Obsérvese que cuando el parámetro n toma valores grandes la función de probabilidad presenta
un aspecto simétrico campaniforme, como se puede comprobar para una binomial con n 30 y
p 0.3 .
Momentos:
EX np
Var X n p 1 p
4. Distribución de Poisson
Definición: La variable X , el número de veces que ocurre un suceso de manera independiente y
aleatoria en un intervalo de tiempo determinado o en un espacio concreto, siendo la probabilidad de
ocurrencia del suceso pequeña (suceso “raro”), sigue una distribución de Poisson. Se denota por
X P con 0 .
Ejemplos:
Número de personas de un grupo numeroso que viven hasta los 100 años.
Función de probabilidad:
x
p X x e - siendo x 0,1,2,...
x!
Función de probabilidad
0,25
P(4)
0,20
0,15
P(4)
P(8)
0,10 P(8)
0,05
0,00
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32
Momentos:
EX
Var X
5. Distribución Geométrica
Definición: Se realizan sucesivos experimentos independientes de Bernoulli con la misma
probabilidad de éxito, p , hasta que ocurre el primer éxito; la variable X , el número de fracasos antes
del primer éxito, sigue una distribución geométrica de parámetro p . Se denota por X G p .
Obsérvese que el número de éxitos es fijo e igual a 1 y el número de fracasos y experimentos es
aleatorio11.
Ejemplos:
p X x p( A ) 1 p ..... 1 p p 1 p p q x p
x
A.............
A siendo x 0,1,2,...
x fracasos éxito x fracasos
11
Algunos autores definen la variable geométrica, Y , como el número de experimentos hasta el primer éxito (evidentemente,
Y X 1 , siendo X el número de fracasos).
Función de probabilidad
0,35
0,30
0,25 G(0,3)
0,20
G(0,1)
0,15 G(0,3)
0,10
G(0,1)
0,05
0,00
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32
Momentos:
q
EX
p
q
Var X
p2
Propiedades:
1.- Para cualquier valor k entero positivo,
qk
pX k p X x q x p p 1 q qk k 1,2,... .
x k x k
p X m n q mn
p X m n | X m qn p X n
p X m qm
Esta propiedad se conoce con el nombre de propiedad del olvido. Por ejemplo, si hemos tirado
por lo menos 10 veces una moneda sin obtener ninguna cara, la probabilidad de tener que tirar al
menos otras 5 veces antes de sacar cara es la misma que se obtendría si comenzáramos el
experimento de nuevo y calculásemos la probabilidad de tener al menos 5 cruces antes de la primera
cara.
Función de probabilidad:
Consideremos la probabilidad de un suceso con x fracasos antes del r-ésimo éxito:
p 1 p ... 1 p p 1 p pr q x pr .
x
p(
A.............
A.............
A A )
A .......
p
r 1 éxitos x fracasos éxito r 1 éxitos x fracasos
x r 1
Teniendo en cuenta que el número de sucesos con x fracasos antes del r-ésimo éxito es
x
(esto es, el número de sus distintas ordenaciones) y que todos tienen la misma probabilidad, la función
de probabilidad resulta:
x r 1
pX x 1 p p
x r
siendo x 0,1,2,...
x
Función de probabilidad
0,15
BN(7;0,5)
0,10
BN(3;0,2)
BN(7;0,5)
0,05 BN(3;0,2)
0,00
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32
Momentos:
rq
E X
p
rq
Var X
p2
con a,b . Un caso particular importante es la Uniforme en el intervalo (0,1), es decir, U 0,1 .
Función de densidad:
1
si a x b
fX x b a
0
en el resto
Función de densidad
1,2
1,0
0,8
0,6 U(1;2)
U(1,5;4)
0,4
0,2
0,0
0 1 2 3 4 5 6
Probabilidades:
d
1 d c
p c X d dx
ba ba
x c
Función de distribución:
Si a x b ,
x x x
1 t x a
FX x f X t dt dt .
ba b a t a b a
t t a
Por tanto,
0 xa
x a
FX x axb
b a
1 xb
Función de distribución
1,00
0,80
0,60 U(1;2)
U(1,5;4)
0,40
0,20
0,00
0 1 2 3 4 5 6
Momentos:
ba
EX el punto medio del intervalo
2
b a 2
Var X
12
Propiedad:
La distribución U 0,1 permite generar números aleatorios entre (0,1) a partir de los cuáles se
pueden generar valores de otra variable X con una determinada función de distribución F . El siguiente
resultado, conocido como método de la transformada inversa, formaliza esta idea.
Sea X una variable aleatoria continua con función de distribución F estrictamente creciente y
continua y sea F 1 su función inversa. Entonces, la variable aleatoria U F X , cuyos valores están,
obviamente, entre 0 y 1, tiene una distribución uniforme U 0,1 . Por otra parte, si U es una variable
aleatoria U 0,1 y transformamos los valores de dicha variable mediante la función F 1 , la variable
2. Distribución normal
Definición: Una variable aleatoria continua, X , se dice que sigue una distribución normal de
parámetros y ( , 0) si su función de densidad es
x 2
1
fX x e 2 2 x ,
2
La siguiente gráfica representa las funciones de densidad de una variable N 0,1 y de otra N 3,2 ,
poniendo en evidencia el sentido de los parámetros. La función (llamada campana de Gauss) es simétrica
respecto al primer parámetro que en este caso representa la esperanza, la mediana y la moda.
Alrededor de este parámetro existe una zona de "alta" probabilidad, descendiendo por igual esta
probabilidad cuando nos alejamos, por la derecha o por la izquierda, de . El segundo parámetro, ,
abre o cierra la campana y por lo tanto mide la dispersión.
Función de densidad
0,5
0,4
0,3
N(3;2)
0,2 N(0;1)
0,1
0,0
‐12 ‐10 ‐8 ‐6 ‐4 ‐2 0 2 4 6 8 10 12
La siguiente gráfica recoge la función de distribución de la N 3,2 13, pudiéndose observar que los más
rápidos crecimientos se sitúan alrededor de .
Función de distribución
1,0
0,8
0,6
N(3;2)
0,4
0,2
0,0
‐12 ‐10 ‐8 ‐6 ‐4 ‐2 0 2 4 6 8 10 12
Momentos:
EX
Var X 2
De entre todas las distribuciones normales existe una que tiene especial relevancia: la distribución
normal con media 0 y desviación típica 1, Z N 0,1 , denominada normal estándar o tipificada.
Propiedades:
1.- Cualquier variable con distribución normal se puede transformar en una normal estándar sin más que
restarle su media y dividirla por su desviación, es decir, tipificándola:
X
X N , Z N(0,1) .
2.- Sea la función de distribución de la Normal estándar. Entonces, sin más que considerar que la
función de densidad de la normal estándar es simétrica respecto de cero se obtiene,
z p Z z p Z z 1 p Z z 1 z .
13
No existe una expresión analítica de la función de distribución normal (en otras palabras, no existe primitiva de la función de
densidad), por lo que ésta se tiene que obtener por procedimientos aproximados.
3.- Propiedad de linealidad: cualquier transformación lineal de una variable normal sigue siendo normal.
X N(, ) Y a b X N (a b , b ) .
Cálculo de probabilidades
El cálculo de probabilidades de intervalos con variables normales no puede realizarse integrando la
función de densidad, ya que, como hemos comentado, ésta no tiene primitiva. Por tanto, las probabilidades
se calculan bien utilizando las tablas de la Normal estándar o bien con las funciones implementadas en
programas informáticos como Excel, Statgraphics, etc.
En muchas aplicaciones estadísticas interesa conocer la probabilidad de que el valor de una variable
normal, X N( , ) , difiera de su media en a lo sumo k desviaciones típicas:
p X k .
Así, para k 1 , tipificando y teniendo en cuenta que la distribución N 0,1 es simétrica respecto de
cero, resulta:
X
p X p X p 1 1 p 1 Z 1 p Z 1 p Z 1
1 1 1 2 1 1 2 0,8413 1 0.6827.
p X 2 p 2 X 2 2 2 1 2 0.9772 1 0.9545
p X 3 p 3 X 3 2 3 1 2 0,9987 1 0.9973
0,3 Función de densidad N(,)
0,2
0,1
0,0
‐3 ‐2 ‐ + +2 +3
68.27%
95.45%
99.73%
Tres razones avalan el uso generalizado de la distribución normal para modelizar variables:
- La evidencia empírica de que muchas variables, bien sea originalmente o bien tras ser
transformadas, presentan un histograma similar a una campana de Gauss.
- La evidencia teórica del llamado teorema de límite central que afirma que, bajo ciertas condiciones,
la suma de variables aleatorias sigue una distribución normal.
- La necesidad de aceptar la hipótesis de normalidad, a veces arriesgadamente, para poder aplicar
muchos procedimientos estadísticos que exigen esta hipótesis.
Función de densidad:
ln x 2
1
fX x e 2 2 si x 0 .
x 2
Función de densidad
0,7
0,6
0,5
0,4
logN(0;1)
0,3 LogN(2;0,2)
0,2
0,1
0,0
0 2 4 6 8 10 12 14 16
Esta variable sólo toma valores positivos y su distribución es asimétrica a la derecha, por ello se
utiliza habitualmente para modelizar la distribución de la renta, la cuantía de un siniestro, etc.
Momentos:
2
EX e 2
4. Distribución Gamma
Definición: Una variable aleatoria continua, X , se dice que sigue una distribución gamma de
parámetros y 0, 0 , y se denota por X , , si su función de densidad es
1 x
x e x0
fX x
0 x0
1 x
donde x e dx 1 1 ; por tanto, si es entero, 1 ! .
0
Función de densidad
3,5
3,0
1,3
2,5
2,0
G(4;0,5)
1,5 4,2 G(1;1/3)
1,0
0,5
0,0
0 1 2 3 4 5 6 7
Se utiliza para modelizar tiempos de duración o tiempos de espera que conllevan “deterioro” con el
tiempo (duración de piezas, duración del desempleo, tiempo de vida de personas, etc.). Esta variable
sólo toma valores positivos y su distribución es asimétrica a la derecha, por ello se utiliza también para
modelizar la distribución de la renta, la cuantía de un siniestro, etc.
Momentos:
EX
Var X
2
Propiedad:
Cambio de escala: si X , k X , .
k
e x x0
fX x
0 x0
Función de densidad
2,5
2,0
1,5
Ԑ(1)
1,0 Ԑ(2)
0,5
0,0
0 1 2 3 4 5 6 7
Se utiliza para modelizar tiempos de duración o tiempos de espera que no conllevan deterioro (tiempo
de espera en la parada del autobús, en la cola de un supermercado, etc; véase la propiedad del olvido que
se explicará a continuación). También para cuantía de siniestros, donde lo más probable son siniestros de
poco coste y es poco probable un siniestro de coste muy alto.
Función de distribución:
Si x 0 ,
x x x
FX x fX t dt e t dt e t 1 e x .
t 0
t t 0
Por tanto,
1 e x x0
FX x
0 x0
Función de distribución
1,0
0,8
0,6 Ԑ(1)
Ԑ(2)
0,4
0,2
0,0
0 1 2 3 4 5 6 7
Momentos:
1
E X
1
Var X
2
Propiedad del olvido:
p X s t | X s p X t
6. Distribución Beta
Definición: Una variable aleatoria continua, X , se dice que sigue una distribución beta de
parámetros p y q p 0, q 0 , y se denota por X p, q , si su función de densidad es
p q
x p 1 1 x q 1 0 x 1
fX x p q
0 en el resto
Función de densidad
2,5
2,0
1,5
β(2;3)
1,0 β(1;2)
0,5
0,0
0,0 0,5 1,0
Esta variable toma valores entre 0 y 1 y, por tanto, se utiliza para modelizar variables que describen
proporciones. Se utiliza por ejemplo en control de calidad como modelo para la proporción de artículos
defectuosos en un intervalo de tiempo específico y para la proporción de valores que caen entre dos
observaciones extremas. Se utiliza también en técnicas de revisión y evaluación de proyectos (PERT).
Momentos:
p
EX
pq
pq
Var X
p q 1 p q 2
7. Distribución de Pareto
Definición: Una variable aleatoria continua, X , se dice que sigue una distribución de Pareto de
parámetros y x0 0, x0 0 si su función de densidad es
x
0
x x0
f X x x x
0 x x0
Función de densidad
0,16
0,12
0,08 Pareto(0,1;1)
Pareto(0,3;2)
0,04
0,00
0 2 4 6 8 10 12 14 16 18 20 22
Momentos:
x0
EX si 1
1
x02
Var X si 2
2 12
X e Y son discretas. Si llamamos x1,, xn, a los valores que toma X e y1,, yn,, a los que
toma Y , los valores que toma X ,Y son los pares xi , y j , i 1,2, , j 1,2, . Esto es, sus valores
son puntos separados en el plano si bien no todos los valores tienen necesariamente que presentarse14.
Ejemplo 1. En una urna hay 3 bolas blancas y 2 bolas negras. Se realizan 3 extracciones sin
reemplazamiento. Definimos las variables aleatorias X , número de bolas blancas extraídas, e Y ,
número de bolas negras extraídas antes de la primera blanca.
La variable X toma los valores 1, 2, y 3 y la variable Y los valores 0, 1 y 2. Por tanto la variable
bidimensional X ,Y es discreta y toma los correspondientes pares de valores,
1,0 , 1,1 , 1,2 , 2,0 ,, 3,2 . Por ejemplo, la probabilidad de que X valga 1 e Y valga 1 se calcula
como
2 3 1 1
p X 1,Y 1 p n1, b2 , n3 p n1 p b2 | n1 p n3 | n1, b2 .
5 4 3 10
14 Como
X e Y son discretas, la cantidad de valores que toman es finita o infinita numerable. En los desarrollos generales los
escribiremos como una cantidad infinita numerable. Supondremos, para simplificar ciertos comentarios, que los valores de X y
de Y están ordenados de menor a mayor, esto es, que x1 x2 xn e y1 y 2 y n .
X \Y 0 1 2
1 1 10 1 10 1 10
2 4 10 2 10 0
3 1 10 0 0
1.- p X xi ,Y y j 0 , para cada valor xi , y j de la variable
2.- p X xi ,Y y j 1
i 1 j 1
La primera propiedad se deduce del hecho de que las probabilidades no pueden ser negativas. La
segunda es una consecuencia de que la suma de la izquierda es la probabilidad del suceso seguro
que, como sabemos, es igual a la unidad. Estas dos propiedades caracterizan a la función de
probabilidad de una variable aleatoria bidimensional discreta.
Conocida la función de probabilidad, puede obtenerse la probabilidad de un suceso sumando la
2
función de probabilidad para los puntos que verifican el suceso. Así, para un suceso B R , su
probabilidad se calcula sumando las probabilidades de los puntos del plano que están en B,
p X ,Y B
p X xi ,Y y j .
xi ,y j B
Igualmente, a partir de la función de probabilidad conjunta se podría obtener la función de
distribución, F , como
X ,Y
F
X ,Y
x, y p X x,Y y
p X xi ,Y y j , para todo x, y R 2 .
xi x y j y
Sin embargo, esta función resulta poco operativa en la práctica y por tanto, en general, no la
utilizaremos.
Ejemplo 1 (continuación). A partir de la tabla de doble entrada del ejemplo 1, que recoge la función
de probabilidad conjunta de X ,Y , podemos obtener la probabilidad de un suceso cualquiera.
X \Y 0 1 2
1 1 10 1 10 1 10
2 4 10 2 10 0
3 1 10 0 0
Por ejemplo:
9
p X Y 2 1 p X Y 2 1 p X x,Y y 1 p X 1,Y 0
10
;
x ,y / x y 2
y la función de probabilidad de Y ,
p Y y j p X xi ,Y y j .
i 1
Los cálculos para variables aleatorias discretas se organizan habitualmente empleando una tabla
de doble entrada, en la que en la primera fila y la primera columna se disponen los valores de las
variables, xi e y j ; en los correspondientes cruces se pone, la probabilidad conjunta
pij p X xi ,Y y j ;
y en la última columna y en la última fila, se ubican las probabilidades marginales,
pi . p X xi y p. j p Y y j ,
para i 1, , n, y para j 1,, m,
X \Y y1 yj ym
x1 p11 p1j p1m p1.
xi pi 1 pij pim pi .
xn pn1 pnj pnm pn.
p.1 p. j p.m 1
A partir de las distribuciones marginales pueden obtenerse las esperanzas y las varianzas
marginales de cada una de las variables. Por ejemplo, para la esperanza,
E X x i p X xi E Y y j p Y y j ,
i 1 j 1
2
Var X E X E X E X 2 E X
2
2
Var Y E Y E Y E Y 2 E Y ;
2
Ejemplo 1 (continuación). A partir de la tabla de doble entrada también se pueden obtener las
funciones de probabilidad marginales de X y de Y . Así, para X ,
1 1 1 3
p X 1 p X 1,Y 0 p X 1,Y 1 p X 1,Y 2
10 10 10 10
4 2 6
p X 2 p X 2,Y 0 p X 2,Y 1 p X 2,Y 2 0
10 10 10
1 1
p X 3 p X 3,Y 0 p X 3,Y 1 p X 3,Y 2 00
10 10
Igualmente para Y ,
1 4 1 6
p Y 0 p X 1,Y 0 p X 2,Y 0 p X 3,Y 0
10 10 10 10
1 2 3
p Y 1 p X 1,Y 1 p X 2,Y 1 p X 3,Y 1 0
10 10 10
1 1
p Y 2 p X 1,Y 2 p X 2,Y 2 p X 3,Y 2 00
10 10
Esto es, las funciones de probabilidad de X y de Y se obtienen sumando las filas y las columnas,
respectivamente, de la tabla de doble entrada que recoge la función de probabilidad conjunta.
X \Y 0 1 2
1 1 10 1 10 1 10 3 10
2 4 10 2 10 0 6 10
3 1 10 0 0 1 10
6 10 3 10 1 10 1
A partir de las marginales, obtenemos los momentos marginales, en concreto la esperanza y la varianza
(más adelante se verá que también se pueden obtener a partir de la función de probabilidad conjunta).
Así, para X ,
3 6 1 18
E X xi p X xi 1 2 3 1.8
i 1 10 10 10 10
E X 2 xi2 p X xi 12
i 1
3
10
22
6
10
32
1 36
10 10
3.6
Var X E X 2 E X 3.6 1.82 0.36
2
Para Y ,
y j p Y y j 0 10 1 10 2 10 10 0.5
6 3 1 5
E Y
j 1
E Y2 y 2j p Y y j 02 10 12 10 22 10 10 0.7
j 1
6 3 1 7
Var Y E Y 2 E Y 0.7 0.52 0.45
2
Cuando estamos estudiando una variable bidimensional discreta, a veces conocemos el valor de
una de las dos variables. La relación que puede existir entre ambas hace que este conocimiento pueda
modificar la credibilidad que concedemos a los distintos valores de la otra. Su distribución de
probabilidades, por tanto, ya no puede seguir siendo la distribución marginal. A esta nueva distribución
se la denomina distribución condicionada.
Sea X ,Y una variable bidimensional discreta, para la que conocemos su función de probabilidad.
Si y j es un valor tal que p Y y j 0 , se define la función de probabilidad de X condicionada
por Y y j como
p X x ,Y y j
p X x |Y y j , para todo x R .
p Y yj
Análogamente, si xi es un valor tal que p X xi 0 , se define la función de probabilidad de Y
condicionada por X x i como
p X xi ,Y y
p Y y | X xi , para todo y R .
p X xi
A veces sólo se sabe que ha ocurrido un cierto suceso, que podemos llamar B . En este caso, los
cálculos se realizan de la misma manera, teniendo en cuenta que se trata de calcular probabilidades
condicionadas. Así,
p X xi , X ,Y B
p X xi | X ,Y B
p X ,Y B
p Y y j , X ,Y B
p Y y j | X ,Y B .
p X ,Y B
Ejemplo 1 (continuación). De nuevo, a partir de la tabla de doble entrada del ejemplo 1 podemos
obtener las distintas funciones de probabilidad condicionadas.
X \Y 0 1 2
1 1 10 1 10 1 10 3 10
2 4 10 2 10 0 6 10
3 1 10 0 0 1 10
6 10 3 10 1 10 1
1
3 x 1
p X x,Y 1 2
p X x | Y 1 x2
p Y 1 3
0 x 3
1 x 1
p X x,Y 2
p X x | Y 2 0 x2
p Y 2 0
x 3
Obsérvese que cada una de estas distribuciones condicionadas se obtiene utilizando únicamente los
datos de la columna correspondiente al suceso que condiciona, Y y ; en concreto, dividiendo cada
valor de probabilidad conjunta por el valor de probabilidad marginal.
De la misma forma, la distribución de Y condicionada por X 1 ,
1
p X 1,Y 0 1
p Y 0 | X 1 10
p X 1 3 3
10
1
p X 1,Y 1 10 1
p Y 1| X 1
p X 1 3 3
10
1
p X 1,Y 2 10 1
p Y 2 | X 1
p X 1 3 3
10
2
3 y 0
p X 2,Y y 1
p Y y | X 2 y 1
p X 2 3
0 y 2
1 y 0
p X 3,Y y
p Y y | X 3 0 y 1
p X 3 0
y 2
De nuevo, obsérvese que cada una de estas distribuciones condicionadas se obtiene utilizando
únicamente los datos de la fila correspondiente al suceso que condiciona, X x ; en concreto,
dividiendo cada valor de probabilidad conjunta por el valor de probabilidad marginal.
Del mismo modo se puede obtener, por ejemplo, la probabilidad de Y 1 sabiendo que X 2 :
2
p X 2,Y 1 p X 2,Y 1 p X 3,Y 1 0
2
p Y 1| X 2 10 .
p X 2 p X 2 p X 3 6 1 7
10 10
A partir de las distribuciones condicionadas pueden obtenerse las esperanzas y las varianzas
condicionadas de cada una de las variables. Por ejemplo, si X ha tomado el valor xi , esto es, ha
ocurrido el suceso X x i , la distribución de Y condicionada por X x i se puede utilizar para
obtener la esperanza y la varianza de Y condicionados por dicho suceso. En concreto, la esperanza
de Y condicionada por el suceso X x i es
E Y | X xi y j p Y y j | X xi
j 1
2
Var Y | X xi E Y E Y | X xi E Y 2 | X xi E Y | X xi ,
2
En definitiva, los cálculos son los habituales para esperanzas o varianzas de variables
unidimensionales, si bien se utilizan las distribuciones condicionadas correspondientes.
La esperanza y la varianza de X condicionada por un valor de Y se definen de manera análoga.
X \Y 0 1 2
1 1 10 1 10 1 10 3 10
2 4 10 2 10 0 6 10
3 1 10 0 0 1 10
6 10 3 10 1 10 1
1 6 x 1
p X x,Y 0
p X x | Y 0 2 3 x2
p Y 0 1 6
x 3
E X | Y 0 1 61 2 32 3 61 2 .
2 y 0
5
E X |Y y y 1
3
1 y 2
1 x 1
1
E Y | X x x2
3
0 x3
Calculemos ahora el valor esperado de Y cuando X es mayor que la unidad. Para ello, obtenemos
previamente la función de probabilidad de Y condicionada por el suceso X 1 ,
p X 1,Y y
p Y y | X 1
p X 1
p X 2,Y y p X 3,Y y
p X 2 p X 3
5 7 y 0
2 7 y 1
0 y 2
E Y | X 1 0 57 1 72 2 0 2
7
.
E E Y | X E Y
Ejemplo 1 (continuación).
1 x 1
1
g( x) E Y | X x x2
3
0 x3
E E Y | X E g X g xi p X xi 1 p X 1
1
p X 2 0 p X 3
i 1
3
3 1 6 1 5
1 0 0.5
10 3 10 10 10
Observaciones:
O1. La función de probabilidad condicionada, que se calcula con las reglas de la probabilidad
condicionada, es realmente una función de probabilidad, esto es, verifica las dos propiedades que
la caracterizan.
O2. Es obvio que la probabilidad del suceso que está condicionando debe ser distinta de cero, ya
que dividimos por ella. Ello no supone ninguna restricción, ya que tiene que ser un valor posible de
la variable para que condicionemos por su ocurrencia.
O3. La función de probabilidad conjunta puede escribirse en la forma:
p X xi ,Y y j p X xi p Y y j | X xi p Y y j p X xi |Y y j .
Por tanto, se puede calcular la función de probabilidad conjunta conociendo la marginal de una
variable y la condicionada de la otra por la primera. Ello ocurre frecuentemente cuando las variables
provienen de experimentos sucesivos en el tiempo, como muestra el siguiente ejemplo.
1 4 si x 5,6,7,8
pX x
0 en el resto
Dadas dos o más variables aleatorias discretas, entenderemos que son independientes cuando el
conocimiento del valor de una de ellas no modifica la distribución de probabilidades de la otra, que será
la misma que si no dispusiésemos de esa información. Formalmente, decimos que dos variables
aleatorias discretas, X e Y , son independientes si
p X xi ,Y y j p X xi p Y y j , i 1,2,, j 1,2, ,
p X xi ,Y y j p X xi p Y y j p X x
p X xi | Y y j p Y y j p Y y j
i
p X xi ,Y y j p X xi p Y y j p Y y
p Y y j | X xi p X xi p X x
j
i
Esta caracterización de la independencia resulta más intuitiva y responde al comentario del primer
párrafo de este apartado. En efecto, indica que, si dos variables son independientes, conocer el valor
de una variable no modifica la distribución de la otra, que sigue siendo su distribución marginal. Por
tanto, si las variables son independientes los momentos condicionados coincidirán con los momentos
marginales.
Ejemplo 1 (continuación). A partir de la tabla de doble entrada que recoge la función de probabilidad
conjunta y las funciones de probabilidad marginal se puede comprobar que sus componentes no son
independientes.
X \Y 0 1 2
1 1 10 1 10 1 10 3 10
2 4 10 2 10 0 6 10
3 1 10 0 0 1 10
6 10 3 10 1 10 1
En efecto,
p X 1 p Y 0 10 10
3 6 18 p X 1,Y 0 1 .
10 100
También se pude comprobar que las distribuciones condicionadas son distintas entre sí y distintas a la
correspondiente distribución marginal.
El concepto de independencia se extiende a más de dos variables aleatorias. Así, dadas n variables
aleatorias discretas, X1,, Xn , decimos que son independientes si,
p X1 x1, X 2 x2 ,, X n xn p X1 x1 p X 2 x2 p X n xn
F
X ,Y
x, y p X x,Y y , para todo punto x, y R2 .
La función de densidad conjunta es la derivada parcial segunda respecto de x y de y de la
función de distribución:
2
f
X ,Y
x, y F
X ,Y
x, y .
x y
2.- f X ,Y
x, y dxdy 1 .
Podemos interpretar geométricamente las propiedades que definen la función de densidad. Así, la
función de densidad conjunta es una superficie continua (salvo excepciones) en el espacio de tres
15
La designaremos por f x, y si no se presta a confusión.
dimensiones, que se encuentra por encima del plano XY (condición primera), y tal que el volumen
limitado por la función de densidad y el plano XY es igual a la unidad (propiedad segunda). Estas
propiedades caracterizan a la función de densidad, es decir, una función es función de densidad de
una variable aleatoria bidimensional continua si y sólo si cumple estas dos propiedades.
A partir de la función de densidad conjunta puede obtenerse la probabilidad de un suceso. Así, la
2
probabilidad de un suceso B R se calcula integrando la función de densidad en el recinto B ,
vertical cuya base es ese recinto, limitada inferiormente por el plano XY y superiormente por la función
de densidad conjunta.
Los siguientes ejemplos ilustran estas propiedades.
Ejemplo 3. Se está estudiando la relación entre la renta disponible mensual, X, y el consumo en bienes
perecederos, Y, en miles de euros, de las familias de un país. Se supone que su comportamiento viene
explicado por la siguiente función de densidad conjunta:
x
f
X ,Y
x, y e 0y x
0 en el resto
La siguiente figura muestra el recinto en el que la función de densidad es distinta de cero, es decir, el
conjunto de posibles valores de la variable ( 0 y x ).
Comprobemos que realmente se trata de una función de densidad de una variable aleatoria
bidimensional, esto es, que verifica:
1) f x, y 0
2) f x, y dy dx 1
x y
A partir de la función de densidad conjunta se pueden obtener probabilidades de sucesos, sin más que
integrar la función en el correspondiente recinto.
Por ejemplo, gráficamente, la probabilidad del suceso 0.75 X 2,0.25 Y 0.75 es el siguiente
volumen:
x 2
x x 1 1
p Y X 2 f x, y dx dy e x dy dx e x y y 0 dx e dx 2
x 2
2 2 2
y x 2 x 0 y 0 x 0 x 0
También podríamos obtener la probabilidad de que el renta disponible mensual, X, no supere los 4 mil
euros, p X 4 ,
4 4 4 4 4
p X 4 f x, y dx dy e x dx dy e x dy e 4 e y dy
xy
x4 y 0 x y y 0 y 0 .
4
ye 4 e y 4e 4 e 4 e0 1 5e 4 0.908
y 0
1 0 x 1, 0 y 1
f x, y
0 en el resto
1 1
y 0 x 01 dxdy 1,
como se comprueba con sencillez. Puede también razonarse geométricamente: el volumen debajo de
la función de densidad conjunta es igual a la unidad (se trata de un cubo cuya área de la base es 1 y
su altura 1); véase la siguiente figura que representa f x, y .
Podemos calcular una probabilidad, por ejemplo, la probabilidad de que la suma de X e Y sea menor
que 1 4 . Basta con integrar la función de densidad conjunta en el subconjunto del plano, B , limitado
por 0 x 1 , 0 y 1 y x y 1 4 , que son tres rectas (recinto que se muestra en la siguiente
figura).
14 1 4 x
p X Y 1 4 B f x, y dxdy x 0 y 0 1 dydx
14
14 1 4 x 14 1 x x2 1
x 0 y y 0 dx x 0 4 x dx 4 2
32
.
x 0
Como la función de densidad conjunta es constante (vale 1) esta probabilidad sería el volumen del
1 4 1 4 1
prisma cuya base es el triángulo B (cuyo área es ) y altura unidad. Por tanto, ese volumen
2 32
valdrá 1 32 (véase la figura siguiente).
Observaciones:
O1. Con argumentos relacionados con la teoría de la integración se demuestra que si un suceso del
plano XY tiene área igual a cero, tiene probabilidad nula. Esto se traduce en que los puntos, las
rectas y las curvas tienen probabilidad nula. Este resultado es análogo al que se vio para variables
aleatorias unidimensionales, para las que la probabilidad de los puntos era igual a cero.
O2. Como ocurría en las variables continuas unidimensionales, los valores que toma una variable
aleatoria continua bidimensional son los puntos del plano en los que la función de densidad conjunta
no se anula, esto es, la variable X ,Y toma el valor x , y si f x , y 0 .
A partir de las distribuciones marginales pueden obtenerse las esperanzas y las varianzas
marginales de cada una de las variables. Por ejemplo, para la esperanza,
EX x f X x dx E Y y fY y dy ,
2
Var X E X E X E X 2 E X
2
2
Var Y E Y E Y E Y 2 E Y ;
2
1 0 x 1, 0 y 1
f x, y
0 en el resto
1
f
Y
y f x, y dx
1
1 dx x x 0 1 0 y 1 0 en el resto .
x x 0
Como se puede observar, ambas marginales son Uniformes en el intervalo (0,1), por lo tanto:
E X E Y 1 / 2
Var X Var Y 1 / 12
Ejemplo 3 (continuación). Utilizando la distribución conjunta de las variables renta disponible anual,
X, y consumo en bienes perecederos, Y:
x
f
X ,Y
x, y e 0y x
,
0 en el resto
las funciones de densidad marginales se obtienen integrando dicha función de densidad conjunta. Así,
para X ,
x
fX x f x, y dy e x dy e x y y 0 x e x 0 en el resto ,
x
0x
y y 0
esto es, X 2, 1 .
Análogamente, para Y ,
fY y f x, y dx e x dx e x e y 0y 0 en el resto ,
x y
x x y
2
E X 2
1
2
Var X 2
2
12
Igualmente, para Y ,
E Y y fY y dy y e y dy 2 1
y y 0
E Y2 y 2 fY y dy y 2 e y dy 3 2
y y 0
Var Y E Y 2 E Y 2 12 1
2
1 1
E Y 1
1
1 1
Var Y 1
2
12
Sea X ,Y una variable continua y sea y un valor tal que f y 0 . La función de densidad de
Y
f x, y
f x .
X |Y y fY y
f x, y
f y .
Y | X x fX x
A partir de las distribuciones condicionadas pueden obtenerse las esperanzas y las varianzas
condicionadas de cada una de las variables. Por ejemplo, si X ha tomado el valor x , esto es, ha
ocurrido el suceso X x , se puede obtener la esperanza y la varianza de Y condicionados por dicho
suceso. En concreto, la esperanza de Y condicionada por el suceso X x es,
E Y | X x y y f y dy .
Y |X x
En definitiva, los cálculos son los habituales para esperanzas o varianzas de variables
unidimensionales, si bien se utilizan las distribuciones condicionadas correspondientes.
La esperanza y la varianza de X condicionada por un valor de Y se define de manera análoga.
Ejemplo 3 (continuación). A partir de la función de densidad conjunta y las marginales, se obtiene la
distribución del consumo en bienes perecederos, Y , condicionada por la renta disponible anual,
X x , para cualquier x 0 :
f x, y e x 1
fY | X x y 0y x 0 en el resto ,
fX x xe x x
esto es, Y | X x U 0, x .
Por ejemplo, si x 4 ,
1
fY | X 4 y 0y 4 0 en el resto .
4
Con esta función de densidad condicionada se calcula, por ejemplo, la probabilidad de que el consumo
en bienes perecederos, Y, supere los mil euros sabiendo que la renta disponible mensual, X, es 4 mil
euros:
4 4
1 1 1
p Y 1| X 4 fY | X 4 y dy dy y 1 0.75 .
4 4 y 1 4
y 1 y 1
x x
1 1 y2 x
E Y | X x y fY | X x y dy y dy
x x 2 2
y y 0 y 0
x x
E Y2 | X x y 2 fY | X x y dy y2
1
x
dy
1 y3
x 3
x2
3
y y 0 y 0
2 2
x x x2
Var Y | X x E Y 2 | X x E Y | X x
2
3 2 12
O bien, como Y | X x U 0, x ,
ba x
E Y | X x para cualquier x 0
2 2
b a 2 x2
Var Y | X x para cualquier x 0
12 12
Para un valor determinado de x , estos momentos son un número real; por ejemplo, si x 2 , la
esperanza vale 1 y la varianza 1 3 . Si se considera x variable, son funciones de x (en este caso, una
función lineal y una función parabólica, respectivamente).
¿Cuál es el consumo esperado en bienes perecederos de una familia que tiene una renta de 2500
euros?
2.5
E Y | X 2.5 1.25 miles de euros .
2
Para evaluar la dispersión del consumo en bienes perecederos de las familias que tienen una renta de
2500 euros, obtendremos la varianza:
2.52
Var Y | X 2.5 0.52 .
12
E E Y | X E Y
Ejemplo 3 (continuación).
x
g( x ) E Y | X x
2
Entonces podemos calcular E g ( X ) :
X 1
E E Y | X E g X E E X ·2 1
1
2 2 2
Observaciones:
O1. La función de densidad condicionada es una función de densidad, esto es, cumple las
propiedades que caracterizan a una función de densidad unidimensional.
O2. En general podemos calcular probabilidades condicionadas por cualquier suceso con
probabilidad distinta de cero utilizando la definición de probabilidad condicionada (véase el siguiente
ejemplo).
p X 4,Y 1 0.295
p Y 1| X 4 0.324 ,
p X 4 0.908
p X 4 0.908
y
4 x 4
p X 4, Y 1 f x, y dx dy e x dx dy e x y y 1 dx
x
1 y x 4 x 1 y 1 x 1
4 4 4 Integrando una vez por partes
x 1 e dx
x
x e x dx e x dx 0.295.
x 1 x 1 x 1
O3. Si de las expresiones anteriores despejamos la función de densidad conjunta, obtenemos una
forma de calcularla a partir de distribuciones marginales y condicionadas:
f x, y f X x f y fY y f X |Y y x
Y | X x
Por tanto, como en el caso discreto, para obtener la distribución conjunta se requiere una marginal
y la condicionada de la otra variable a dicha marginal. Sólo en un caso, que veremos a continuación
(independencia), la distribución conjunta queda determinada únicamente por sus marginales.
f x, y f X x fY y
f y fY y
Y | X x fX x fX x
f x, y f X x fY y
f x fX x
X |Y y fY y fY y
Esta caracterización de la independencia resulta más intuitiva y responde al comentario del primer
párrafo de este apartado. En efecto, indica que, si dos variables son independientes, conocer el valor
de una variable no modifica la distribución de la otra, que sigue siendo su distribución marginal. Por
tanto, si las variables son independientes los momentos condicionados coincidirán con los momentos
marginales.
1 0 x 1, 0 y 1
f x, y
0 en el resto
1
f
Y
y f x, y dx
1
1 dx x x 0 1 0 y 1 0 en el resto .
x x 0
f x, y f X x fY y x, y ,
Ejemplo 3 (continuación). Las variables renta disponible anual, X, y consumo en bienes perecederos,
Y, son dependientes dado que su función de densidad conjunta,
x
f
X ,Y
x, y e 0y x
0 en el resto
f X x x e x 0x 0 en el resto
fY y e y 0y 0 en el resto
Esto es,
f x, y f X x fY y .
Sea X,Y una variable aleatoria bidimensional y sea g X ,Y una transformación suya. La
esperanza de g( X,Y ) es
E g X ,Y g xi , y j p X xi ,Y y j
i 1 j 1
si X,Y es discreta, y
E g X ,Y g x, y f X ,Y x, y dydx
x y
si X,Y es continua.
Observación:
Propiedades de la esperanza:
1.- Linealidad:
E aX bY c a E X b E Y c ;
En general,
E a1 X1 an Xn c a1 E X1 an E Xn c
E X Y E X E Y .
En general,
E X1 Xn E X1 E Xn
X \Y 0 1
1 0.1 0.2 0.3
0 0.3 0.1 0.4
1 0.1 0.2 0.3
0.5 0.5
tanto, se cumple que E X Y E X E Y pero las variables son dependientes (propiedad 3).
Covarianza
Cov X ,Y E X X
Y .
Y
La covarianza indica la posible relación lineal entre dos variables. Si la covarianza es positiva, las
dos variables se mueven, en general, en la misma dirección (crecen o decrecen a la vez) y si es
negativa, se mueven en sentido contrario (cuando una crece, la otra decrece); en ambos casos la
relación es más o menos lineal. Si la covarianza toma valores próximos a cero, indicaría una escasa
relación lineal entre las dos variables. En concreto, si Cov X ,Y 0 , se dice que las variables están
incorrelacionadas: ausencia absoluta de relación lineal entre X e Y .
Propiedades:
P1. Cov X ,Y E X Y .
X Y
Esta expresión, que se suele emplear en el cálculo de la covarianza, se demuestra sin dificultad,
recordando la linealidad de la esperanza:
Cov X ,Y E X X Y Y E X Y X Y Y X X Y
E X Y X E Y Y E X X Y E X Y X Y .
X E X
2
P2. Cov X , X E X Var X
.
X X X
Está propiedad afirma que, si dos variables son independientes, no existe relación lineal entre las
mismas, esto es, están incorrelacionadas, pero lo contrario no es cierto (véase el ejemplo 5).
Este resultado es trivial sin más que tener en cuenta las propiedades P4, P5 y P6.
En general, la varianza de la suma de n variables independientes es:
De acuerdo con esta propiedad, la covarianza no varía ante cambios de origen, pero varía ante
cambios de escala.
Para solventar el problema de que la covarianza varíe con los cambios de escala (propiedad P9),
se define el coeficiente de correlación lineal entre, X e Y , que se denota por , como
XY
Cov X ,Y
XY .
X Y
Este coeficiente16 toma sus valores entre -1 y 1, 1 1 . Valores próximos a 1 indican una
XY
fuerte relación lineal creciente entre las variables; valores próximos a -1, una fuerte relación lineal
16
Lo designaremos por si no se presta a confusión.
Propiedades:
Si dos variables son independientes están incorrelacionadas; lo contrario no es, en general, cierto.
P2. El coeficiente de correlación lineal entre dos variables es igual a la covarianza entre dichas
variables tipificadas, es decir:
X Y
XY Cov X
, Y .
X Y
bd
P3. Dadas dos transformaciones lineales de X e Y , U a b X y V c d Y , UV XY .
bd
Por tanto, si b y d tienen el mismo signo, UV XY ; si el signo es contrario, UV XY . Como
en los cambios de escala b y d son positivos, el coeficiente de correlación lineal es invariante ante
cambios de origen y de escala.
Además, como Var X 0.36 y Var Y 0.45 , el coeficiente de correlación de Pearson vale
Cov X ,Y 0.2
0.50 ,
Var X Var Y 0.36 0.45
valor que indica una débil relación lineal decreciente entre las variables.
x
f
X ,Y
x, y e 0y x
0 en el resto
Cov X ,Y E X Y E X E Y 3 2 1 1 .
Cov X ,Y 1
0.707 ,
Var X Var Y 2 1
valor relativamente próximo a 1 que indica cierta relación lineal creciente entre las variables, es decir,
que a mayor renta disponible, en general mayor consumo en bienes perecederos.
X1
X
X= 2 .
Xn
El vector de esperanzas es el vector que agrupa las esperanzas de las distintas variables. Así, dada
una variable aleatoria n-dimensional su vector de esperanzas, denotado por μ , es :
X 1 E X1
X E X2
μ = E(X) = E 2 .
Xn E Xn
De forma análoga se agrupan las varianzas y las covarianzas en la denominada matriz de
varianzas y covarianzas, denotada por Σ , que recoge las varianzas de las variables en la diagonal y
fuera de la diagonal las covarianzas entre pares de variables, esto es
X 2
E
Y 1
Si cada vez que se obtiene un éxito se cuenta el número de fracasos desde el éxito anterior, esos
contadores siguen distribuciones geométricas. Sumando los contadores hasta el r-ésimo, obtenemos
la variable binomial negativa, número total de fracasos antes del éxito r-ésimo.
En particular,
X1 X n N 1 n , 12 n2 .
Variables gamma: Sean X1,, Xn , n variables aleatorias independientes con distribución gamma,
X i i , , i 1,..., n . Entonces, X1 X n 1 n , .
Una variable aleatoria n-dimensional continua, X X1 X2 Xn ' , sigue una distribución normal
multidimensional, X Nn μ, Σ , donde μ es el vector de esperanzas y Σ es la matriz de varianzas-
covarianzas, si su función de densidad en el punto x ( x1, x2, xn ) es:
1
x μ ' Σ -1 x μ
fX ( x ) 1
n
e 2 x1 ,..., xn .
Σ 2 2
2 XY
con vector esperanzas X y matriz de varianzas covarianzas X cuya expresión
Y Y2
XY
se reduce a:
1 x 2 x X y Y x Y
2
X
2
f x, y 1 e
2 1 2 X
X Y Y
x , y .
X ,Y 2 X X 1 2
El gráfico muestra la función de densidad de tres Normales bidimensionales con distinto parámetro .
0.12
0.2
0.4 0.08
0.1 0.04
4 6
2 3
0 0 0 0 y
0
-2 y 0
-6 -3 y -3
0
-4 -2 0 -4 -3 0 -6 x 3 -3
x 2 4 x 3 6
4 6
3
2 3
y
y
0 0 0
-2 -3
-4 -6 -3
-4 -2 0 2 4 -6 -3 0 3 6 -3 0 3
x x x
Las distribuciones marginales y condicionadas de una normal n-dimensional son también normales.
Además, el valor esperado de Y aumenta linealmente con X según la siguiente recta que es la recta
de regresión poblacional:
E Y | X x Y XY X x
X2
Bibliografía
Básica
Teoría:
MONTIEL, A.M., RÍUS, F. y BARÓN, F.J. (1997): Elementos básicos de estadística económica y
empresarial. Ed. Prentice Hall, Madrid.
PEÑA, D. y ROMO, J. (1997): Introducción a la Estadística para las Ciencias sociales. Ed. MacGraw
Hill, Madrid.
Práctica:
CASAS SÁNCHEZ, J.M. y OTROS (2006). Ejercicios de estadística descriptiva y probabilidad. Ed.
Pirámide, Madrid.
FERNÁNDEZ-ABASCAL, H., GUIJARRO, M., ROJO, J.L. y SANZ, J.A. (1995): Ejercicios de cálculo de
Probabilidades. Ed. Ariel Matemática, Barcelona.
Complementaria
CANAVOS, G.C. (2001) Probabilidad y Estadística: aplicaciones y métodos. Ed. McGraw Hill. Madrid.
CASAS SANCHEZ, J.M. (2000) Estadística. 1, Probabilidad y distribuciones. Ed. Centro de Estudios
Ramón Areces, Madrid.
b) Describe el suceso A , “al menos 2 cruces hasta obtener la primera cara”, y el suceso B , “no
más de 4 cruces hasta obtener la primera cara”.
3. Sean A y B dos sucesos tales que p A 0.3 , p B 0.6 y p A B 0.2 . Halla las
probabilidades de los siguientes sucesos: A , B , A B , A B , A B , A B y B A .
4. En una empresa se ha elaborado un informe sobre las actividades que realizan los empleados en
su tiempo libre. Dicho análisis arroja, entre otros, los siguientes resultados: el 30% de los
trabajadores practica algún deporte, el 25% dedica varias horas semanales a la lectura y únicamente
el 10% tiene ambas aficiones. Se elige al azar un empleado de esta empresa:
a) Calcula la probabilidad de que sólo practique deporte en sus ratos de ocio.
b) Calcula la probabilidad de que en sus ratos de ocio ni lea ni realice actividades deportivas.
5. En una urna hay un total de 12 bolas entre blancas y negras. Sabiendo que la probabilidad de sacar
una bola negra es el triple de la de blanca, ¿cuántas bolas blancas y negras hay en la urna?
6. Se ha trucado un dado para que la probabilidad de cada cara sea proporcional a la puntuación de
la misma. ¿Cuál es la probabilidad de que no salga el 6? ¿Y la de que salga par?
b) Halla p A | B y p A | B .
1
La mayor parte de los ejercicios están extraídos del libro Ejercicios de cálculo de probabilidades, de H. FERNÁNDEZ-ABASCAL,
M. GUIJARRO, J.L. ROJO y J.A. SANZ, Ariel Matemática, Barcelona, 1995.
9. Según los datos del INE publicados en el Anuario estadístico de España 2016, el 61% de los
graduados universitarios en 2013-14 cursaron un Grado en Ciencias Sociales, Artes y
Humanidades, el 20% en Ciencias, Ingeniería y Arquitectura y el resto en Ciencias de la Salud. El
porcentaje de mujeres graduadas en cada una de estas ramas de conocimiento es del 69%, 34% y
75%, respectivamente. Para elaborar una encuesta docente, se elige al azar un universitario
graduado en 2013-14:
a) ¿Cuál es la probabilidad de que haya cursado un Grado en Ciencias, Ingeniería y Arquitectura
y sea mujer?
b) ¿Cuál es la probabilidad de que sea mujer?
c) Si se eligió a una mujer, ¿cuál es la probabilidad de que haya cursado un Grado en Ciencias,
Ingeniería y Arquitectura?
10. Tres compañías de seguros copan el mercado de una determinada ciudad. El 30% de las pólizas
suscritas corresponden a la compañía A, el 25% a la B y el 45% restante a la C. El porcentaje de
pólizas de seguros de vida en cada una de ellas es del 15, 20 y 25%, respectivamente.
a) Elegida una póliza al azar, ¿cuál es la probabilidad de que corresponda a un seguro de vida?
b) Un individuo ha suscrito un seguro de vida. ¿Cuál es la probabilidad de que su póliza sea de la
compañía A?
11. Sean A y B dos sucesos independientes. Demuestra que también lo son A y B , y también A y
B (en consecuencia, lo serán asimismo A y B ).
a) A y B C son independientes.
b) A y B C son independientes.
14. Se lanza un dado perfecto y sean A 1,2 , B 2,4,6 y C 3,4 . Comprueba que A y B son
independientes pero no disjuntos, y A y C disjuntos pero no independientes.
15. De una urna con siete bolas blancas y tres negras se extraen dos sucesivamente sin
reemplazamiento.
a) ¿Cuál es la probabilidad de obtener al menos una bola blanca?
b) ¿Cuál es la probabilidad de obtener bola blanca en la primera extracción?
c) Si la primera bola extraída fue blanca, ¿cuál es la probabilidad de que lo sea la segunda?
d) Si la segunda bola extraída fue blanca, ¿cuál es la probabilidad de que lo haya sido la primera?
16. En un cajón hay 10 bombillas, 4 de ellas fundidas. Una lámpara de dos focos alumbra sólo cuando
ambas bombillas están en buen estado. ¿Cuál es la probabilidad de que la lámpara no funcione tras
haberle colocado dos bombillas elegidas al azar del cajón?
17. Un test rápido sobre el contenido alcohólico en la sangre de un conductor, realizado por la policía
en la carretera, es fiable en el 80% de las ocasiones. Los conductores que dan positivo son
sometidos por el médico a un test más preciso, que nunca falla en un conductor sobrio, pero que
tiene un 10% de error en los que han bebido. Se sabe que el 5% de los conductores a los que se
les realiza el primer test está bebido.
a) ¿Cuál es la probabilidad de que un conductor que ha realizado el primer test sea sometido al
segundo?
b) Un conductor dio negativo en el segundo test. ¿Cuál es la probabilidad de que condujera bebido?
X 0 1 2 3 4 5
p X x 0.08 0.10 k 0.25 0.30 0.15
b) Calcula p 2 X 4 y p X 3 .
2. Se realiza el experimento aleatorio consistente en extraer con reemplazamiento tres bolas de una
urna con 2 bolas blancas y 3 negras. Sea X el número de bolas blancas obtenidas. Halla:
b) La esperanza y la varianza de X .
Resuelve los anteriores apartados en el supuesto que las extracciones sean sin reemplazamiento.
a) Halla k .
b) Obtén la función de distribución.
4 x 4 1 x 0,5
f ( x ) 4 x 0,5 x 0
0
resto
0 x0
1
F x 3x x3
2
0 x 1
1 x 1
1 1 1 2
b) Calcula p X , p X y p X .
3 3 3 3
7. El número de accidentes de trabajo, X , que se producen en una fábrica por semana sigue una
distribución de Poisson. Sabiendo que la probabilidad de que ocurra un accidente en una semana
es un tercio de la probabilidad de que no suceda ninguno, calcula:
a) El número esperado de accidentes semanales.
b) La Dirección General de Trabajo decide declarar semanas laborales blancas aquellas en las que
a lo sumo se produce un accidente. Si se considera un periodo de 4 semanas y se supone que
los accidentes en distintas semanas son independientes, determínese la probabilidad de que,
como mínimo, resulten 2 semanas blancas.
8. Un banco ha comprobado que la probabilidad de que un cliente con fondos extienda un cheque con
fecha errónea es de 0.001. En cambio, todo cliente sin fondos pone una fecha errónea en sus
cheques. El 90% de los clientes del banco tienen fondos.
a) ¿Cuál es la probabilidad de que un cheque se extienda con fecha errónea?
b) Si de los cheques recibidos se seleccionan 8 al azar ¿cuál es la probabilidad de que dos de
ellos tengan fecha errónea?
c) ¿Cuál es el número esperado de cheques con fecha correcta antes de recibir el primero con
fecha errónea?
10. En un proceso en serie se fabrican botellas de refresco cuya capacidad responde a una distribución
normal de media 0.50 litros y desviación típica 0.01. Se considera inutilizable toda botella con
capacidad inferior a 0.48 litros o superior a 0.52 litros. ¿Cuál es la probabilidad de que una botella
elegida al azar sea rechazada?
11. La variable aleatoria X , número de horas que un estudiante necesita para preparar un tema de
estadística, se distribuye como una N , . Si el 81.59 % de los alumnos emplea más de tres
horas y sólo el 2.74 % más de nueve, ¿cuánto valen y ?
12. Sea X una variable aleatoria con distribución logarítmico-Normal de parámetros y 1,2 . Calcula
p X E X .
14. Una fábrica utiliza dos métodos para la producción de bombillas: el 70% de ellas las fabrica por el
método A y el resto por el método B . La duración de las bombillas sigue una distribución
exponencial negativa de media 80 o 100 horas, según se utilice el método A o el B . Se toman 10
bombillas al azar, ¿cuál es la probabilidad de que 6 de ellas duren al menos 90 horas?
15. El tiempo de reparación, en minutos, de un ordenador tiene una distribución exponencial negativa
de media 22.
a) El departamento de logística asigna un determinado tiempo, b, a cada reparación. ¿Cuál debe ser
el valor de b para garantizar, con una probabilidad de 0.9, que el tiempo de reparación será menor
que b?
b) El coste de reparación es proporcional al tiempo de reparación, siendo el coste de 6 euros por
minuto. ¿Cuál es la probabilidad de que una reparación cueste más de 120 euros?
X \Y 1 2
0 0.05 0.15
1 0.30 0
2 0.05 0.45
b) ¿Son X e Y independientes?
2. Se elige un número al azar, X , entre los tres primeros números naturales, 1, 2 y 3. Elegido un
determinado número se hace una segunda elección, Y , entre los mismos números, excluidos los
inferiores al ya elegido.
3. Se realiza un estudio sobre la condición de los trabajadores de un sector del pequeño comercio.
Sean las variables X , número de trabajadores del establecimiento, e Y , número de trabajadores
que no pertenecen a la familia propietaria del mismo. La función de probabilidad conjunta de ( X,Y )
se recoge en la siguiente tabla:
X \Y 0 1 2
1 2/9 1/9 0
2 1/9 2/9 0
3 0 1/9 2/9
c) ¿Son X e Y independientes?
k 1 x y x 1, y 1
a) f x, y
0 en el resto
k x y 2 0 x y 1
b) f x, y
0 en el resto
En ambos casos, halla el valor de k y obtén las funciones de densidad marginales y condicionadas.
x2
0x3
fX x 9
0 en el resto
1
0y x
f
Y | X x
y x
0 en el resto
6. Sean X, Y, Z v.a. independientes con E(X)=1, E(Y)= E(Z)=2, Var(X)=Var(Y)=4 y Var(Z)=1. Calcula:
a) E(3X+2Y+Z)=
b) Var(3X‐Y+Z‐4)
c) Cov(2X, 3Y+1)=
a) Var(X+Y) =
b) Var(X‐3Y+4) =
8. Sean X1, X2, X3 y X4 v.a. independientes siendo cada una de ellas N(1 , 2). La distribución de
X1+X2+X3+X4 es:
9. El número de accidentes de trabajo, X, que se producen en una fábrica por semana sigue una
distribución de Poisson. Sabiendo que el número esperado de accidentes semanales es 1/3 y que
los accidentes que se producen en distintas semanas son independientes, calcula:
a) La probabilidad de que en una semana haya tres accidentes y en la siguiente otros tres.
b) La probabilidad de que en 3 semanas haya a lo sumo 2 accidentes.
10. Sea X ,Y una variable aleatoria cuya función de densidad conjunta es:
6 y x0 y 0 x y 1
f x, y
0 en el resto
e) Calcula E X | Y 0.2 .
11. Sea X ,Y una variable aleatoria cuya función de densidad conjunta es:
1
0 x 1 0 y 1 x y 1
f x, y x
0 en el resto
3 7
d) Sabiendo que E Y y Var Y , halla el coeficiente de correlación lineal de X e Y .
4 144
12. El salario mensual, en miles de euros, X , de los asalariados de un país sigue una distribución
normal de media 1.2 y desviación 0.4. Se considera que un individuo está altamente remunerado si
su salario supera en un 50% al salario medio.
a) ¿Cuál es la probabilidad de que un asalariado esté altamente remunerado?
b) Se eligen 6 asalariados al azar, ¿cuál es la probabilidad de que alguno esté altamente
remunerado2? ¿y de qué lo estén dos de ellos?
c) Se consideran las familias cuyos ingresos provienen únicamente del salario de los dos
cónyuges. Sean X1 y X 2 las variables que recogen el salario mensual, en miles de euros, de
cada cónyuge, ambas con distribución N 1.2,0.4 . ¿Cuáles son los ingresos mensuales
esperados de una familia?
d) Suponiendo que los salarios de los dos cónyuges son independientes (lo que es mucho
suponer), ¿cuál es la probabilidad de que los ingresos familiares no superen los 2.12 miles de
euros?
13. Sean X e Y dos variables aleatorias independientes e igualmente distribuidas, cada una de ellas
con distribución normal de media 10 y varianza σ².
a) Razona cuál de los tres valores siguientes es el único posible para p(X>13):
(a.1) 0.7224; (a.2) 0.50; (a.3) 0.1587;
2
Si no la has obtenido en el apartado anterior, supón que la probabilidad de estar altamente remunerado es 0.10.
1.16. Una estadística asegura que el 20% de los habitantes de una ciudad compra habitualmente discos
de música clásica, el 30% de rock y el 15% de jazz. Asimismo, el 5% adquiere discos tanto clásicos
como de rock, el 7% de rock y de jazz, el 6% clásicos y de jazz, y el 1% de los tres tipos. Calcúlese:
a) Probabilidad de que una persona compre música clásica y no de jazz.
b) Probabilidad de que una persona compre discos de rock, o bien de música clásica y de jazz.
c) Probabilidad de que una persona compre sólo discos de jazz.
2.26. Una moneda está trucada de modo que la probabilidad de cara es el doble que la de cruz. Hállese
la probabilidad de no obtener ninguna cara en una serie de 10 tiradas con dicha moneda.
3.15. Un ratón de laboratorio tiene dos posibles caminos para salir de un laberinto. Si toma el primero,
caminará 15 centímetros hasta encontrar una bifurcación, siendo 30 y 20 centímetros, respectivamente,
las distancias que habrá de recorrer si elige una u otra posibilidad. Si por el contrario se decide por el
segundo camino, éste le conducirá a la salida, tras recorrer 60 centímetros. Como el investigador ha
impregnado la entrada del segundo camino con un atrayente olor a queso, el ratón elegirá esta opción
un 85% de las veces. Hállese la distribución de la variable que expresa la longitud que recorrerá el
ratón hasta llegar a la salida.
5.1. Un individuo con un capital de medio millón de pesetas desea invertirlo en un negocio cuya
rentabilidad es del 50% pero con el posible riesgo de perder el total de la inversión. Su asesor financiero
le ha informado que este negocio tiene una probabilidad de 0.8 de ser rentable. Si decide invertir, ¿cuál
será su beneficio esperado?
2
1 x 2
f x x2
0 en el resto
3
Estos ejercicios están extraídos del libro Ejercicios de cálculo de probabilidades, de H. FERNÁNDEZ-ABASCAL, M. GUIJARRO, J.L.
ROJO y J.A. SANZ, Ariel Matemática, Barcelona, 1995. Se ha mantenido la numeración del libro para facilitar la consulta de sus
resoluciones.
5 3 6
x x0
f x 3 x
0 en el resto
a) Determínese el valor de x0 .
c) Calcúlese E X .
b) Calcúlese p X E X .
4 x 3 0 x 1
fX x
0 en el resto
2y
0y x
f
Y | X x
y x 2
0 en el resto
Sean X e Y las proporciones semanales de bebidas sin alcohol sobre el total de consumiciones
en Pochó y Vengo-Vengo, respectivamente. La función de densidad conjunta de estas variables es
k x x y 0 x 1, 0 y 1
f x, y
0 en el resto
a) Determínese el valor de k .
b) Obténgase la probabilidad de que la proporción de bebidas alcohólicas consumidas en una
semana en Pochó supere el 30%.
c) ¿Cuál es la probabilidad de que la proporción de bebidas alcohólicas sea mayor en Pochó que
en Vengo-Vengo?
d) Si en una semana la proporción de bebidas no alcohólicas supera el 50% en Pochó, ¿cuál es la
probabilidad de que ocurra lo mismo en Vengo-Vengo?
4.22. Una farmacia posee una cantidad, X , de cientos de unidades de un cierto fármaco al comienzo
de cada mes. Durante el mes se venden Y cientos de unidades del referido fármaco. Si
2 / 9 0 y x 3
f x, y
0 en el resto
4.26. Sean X e Y variables aleatorias discretas independientes tales que X toma los valores 2, 4 y
6 e Y los valores 3 y 5. Sabiendo que p X 4 0.1 , p Y 5 0.6 y p X 2,Y 5 0.5 ,
obténganse las distribuciones de probabilidad marginales, así como la distribución conjunta de dichas
variables.
X \Y 1 2 3 4
1 0.05 0 0 0
2 0.10 0 0 0
3 0 0.35 0 0
4 0 0.10 0.35 0
5 0 0 0.01 0.02
6 0 0 0 0.02
6.15. La variable aleatoria bidimensional ( X,Y ) representa la renta disponible y el ahorro asociado
que, efectuando un cambio de unidades, tiene la siguiente función de densidad conjunta:
8 x y 0 y x 1
f x, y
0 en el resto
6.16. Con objeto de llevar a cabo una campaña publicitaria de lanzamiento de una nueva marca de
cereales para el desayuno, se realiza un estudio estadístico sobre los hábitos en el desayuno de las
familias de una cierta ciudad. De este análisis se obtiene que la proporción de individuos que toman
leche en una familia, X , y la de los que toman cualquier tipo de infusión, Y , responde a la siguiente
función de densidad conjunta:
24 x y x 0, y 0, x y 1
f x, y
0 en el resto
1.- (3 puntos) El 40% de los clientes de una compañía de seguros tiene seguro de hogar, el 70% tiene
seguro de automóvil y el 5% no tiene ninguno de estos dos seguros.
a) Elegido al azar un cliente de esta compañía, calcula:
a.1) La probabilidad de que tenga alguno de los dos seguros.
a.2) La probabilidad de que tenga ambos tipos de seguro.
b) Calcula la probabilidad de que, entre 10 clientes de la compañía elegidos al azar, 4 de ellos tengan
seguro de automóvil.
c) Calcula la probabilidad de que haya que elegir a 8 clientes de la compañía antes de encontrar al primero
que tenga seguro de automóvil.
d) Se sabe además que el 63% de los clientes con seguro de hogar de esta compañía tienen más de 45
años; sin embargo, entre los clientes sin seguro de hogar de la compañía, sólo un 40% tiene más de 45
años. Elegido al azar un cliente de esta compañía, calcula:
d.1) La probabilidad de que tenga más de 45 años.
d.2) La probabilidad de que tenga seguro de hogar sabiendo que tiene más de 45 años.
Nota: describe con claridad los modelos probabilísticos que aparecen en este ejercicio.
2.- (3 puntos) Uno de los principales indicadores de desarrollo humano es la esperanza de vida al nacer,
cuya distribución difiere entre hombres y mujeres. Según los datos publicados por la Organización Mundial
de la Salud (OMS), la esperanza de vida media (en años) de las mujeres al nacer es 73 mientras que la de
los hombres es 69. Supongamos que la esperanza de vida de las mujeres y la esperanza de vida de los
hombres son dos variables aleatorias, X e Y, independientes con distribuciones normales N(73 , 9) y N(69 ,
), respectivamente. Bajo estos supuestos:
a) Calcula la probabilidad de que un país tenga “mala salud femenina”, considerando que esto ocurre
cuando la esperanza de vida de sus mujeres es inferior al 75% de la media.
b) Calcula el valor de si se sabe que el 8.69% de los hombres vive más de 80 años.
c) Calcula la probabilidad de que, seleccionados al azar un hombre y una mujer, el hombre viva más que
la mujer.
3.- (1 punto) Sean X e Y las variables aleatorias que representan el nº de piezas que fabrican las máquinas
A y B, respectivamente, cuyas distribuciones de probabilidad son las siguientes:
X=xi 1 2 3 Y=yj 1 2
p(X=xi) 3/10 6/10 1/10 P(Y=yj) 6/10 4/10
Sabiendo además que la distribución de X condicionada por Y=1 es la siguiente:
X=xi 1 2 3
p X xi / Y 1 1/6 4/6 1/6
4.- (3 puntos) Sea (X,Y) una variable aleatoria bidimensional continua con función de densidad:
18 x 2 y 2 0 y x 1
f x, y
0 resto
b) Calcula p X 0.3,Y 0.1 y p Y 0.01
X 0.1 .
c) ¿Son X e Y independientes? Razona tu respuesta.
1.- (2,5 puntos) El saldo bancario mensual, en miles de euros, en las cuentas corrientes de las familias
residentes en una determinada población sigue una distribución normal de parámetros µ=10 y σ=5.
a) Calcula la probabilidad de que la cuenta corriente de una familia tenga saldo negativo.
b) Si se quiere clasificar a las familias en cuatro grupos de igual tamaño en función de su saldo
bancario, calcula los valores del saldo bancario que delimitan estos cuatro grupos.
c) Calcula la probabilidad de que haya que seleccionar 6 familias antes de encontrar la primera con
saldo negativo en su cuenta.
2.- (2,75 puntos) Sea Y una variable aleatoria que recoge la proporción de renta que una familia destina al
consumo total de bienes y sea X la variable que recoge la proporción de renta que dedica al consumo en
alimentación, siendo su función de densidad conjunta la siguiente:
32 xy 0 2x y 1
f x, y
0 resto
3.- (1,5 puntos) De la información publicada en “La UVa en cifras” relativa a 2016 se deduce que la
probabilidad de que un estudiante se matricule en el grado elegido en primera opción es del 53,1% en los
grados de Ciencias de la salud, sin embargo, esta probabilidad es del 86,3% en el resto de los grados.
Sabiendo que en el año 2016 el 14,1% de los alumnos de la UVa se matricularon en grados de Ciencias de
la salud, responde a las siguientes cuestiones.
a) ¿Cuál es la probabilidad de que un alumno de la UVa elegido al azar esté matriculado en un grado de
Ciencias de la salud y que esa fuera su primera opción?
b) ¿Cuál es la probabilidad de que un alumno de la UVa elegido al azar esté cursando el grado que
solicitó en primera opción?
c) Si un alumno está cursando un grado elegido en primera opción ¿cuál es la probabilidad de que esté
matriculado de Ciencias de la salud?
4.- (3,25 puntos) Sea X el número de caras obtenidas al tirar dos veces una moneda perfecta. Si X=x, se
elige un número entero al azar, Y, entre los números comprendidos entre 0 y x , ambos incluidos.
a) ¿Identificas la distribución de X con algún modelo probabilístico? ¿Cuál? Justifica tu respuesta.
b) Obtén la distribución marginal de X, describiendo cómo lo haces, y calcula su esperanza y su
varianza.
c) Completa la siguiente tabla con los valores de la función de probabilidad conjunta de X e Y,
explicando cómo los has obtenido.
X \Y 0 1 2
0 1/4 0 0
1 0
2 1/12
d) Calcula p X Y 2 .
e) Calcula la esperanza de Y condicionada a que X 0 .
1.- (1,5 puntos) Sean A y B dos sucesos tal que p A B 0.2 , p A | B 0.8 y p B | A 0.6 .
a) ¿Son A y B independientes?
b) Calcula las siguientes probabilidades: p A B , p A B y p B | A .
2.- (2 puntos) La cotización de cierre diaria de un determinado tipo de acciones en la Bolsa de Madrid tiene
una distribución uniforme continua entre 20 € y 25 €.
a) Calcula la probabilidad de que en un día la cotización de cierre supere los 23 €.
b) Obtén la cotización media de cierre y su desviación típica.
c) Calcula la probabilidad de que la cotización de cierre de un día sea inferior a 24 €, sabiendo que ese
día fue mayor que 23 €.
d) Si la cotización de un día es independiente de la de cualquier otro y se eligen al azar 12 días de un
mes, ¿cuál es la probabilidad de que en tres de ellos la cotización haya superado los 23 €?
3.- (3,5 puntos) Sean X e Y dos variables aleatorias continuas que representan el porcentaje de
accionistas de una empresa que son mujeres y el porcentaje de acciones en manos del principal accionista,
respectivamente, en tanto por uno, siendo su función de densidad conjunta la siguiente:
24 y ( x 2 x 3 ) 0 x 1 0 y 1
f x, y
0 resto
a) Calcula p(X>Y)
b) Calcula la función de densidad marginal de X y de Y.
c) Demuestra que X e Y son variables independientes
d) Calcula la participación femenina esperada en el accionariado de la empresa sabiendo que el principal
accionista posee el 40% de las acciones.
e) Calcula el coeficiente de correlación lineal entre X e Y e interpreta su valor.
4.- (0,75 puntos) Sean X e Y variables aleatorias con E(X)=1, E(Y)=1, Var(X)=2, Var(Y)=2 y Cov(X, Y)=1.
Calcula la esperanza y la varianza de 3X-2Y+1.
5.- (2,25 puntos) La cuota por contribuyente del impuesto municipal de vehículos sigue una distribución
normal con media 50 euros.
a) Si se sabe que el 10,56% de los contribuyentes pagan menos de 30 euros, ¿cuál es la probabilidad de
que un contribuyente pague una cuota comprendida entre los 20 y los 40 euros?
b) Suponiendo que la cuota por contribuyente del impuesto del servicio de basuras se distribuye también
como una normal con media 50 euros y desviación 20 euros y que las cuotas de ambos impuestos son
independientes, ¿cuál es la probabilidad de que un contribuyente pague una cuota total por los dos
impuestos superior a 80 euros?
1.- (1,75 puntos) El 20% de los empleados de un determinado sector empresarial son ingenieros, el 20%
son economistas y ningún empleado tiene las dos titulaciones. El 75% de los ingenieros y el 50% de los
economistas ocupa un puesto directivo en esa empresa, mientras que, entre el resto de los empleados, sólo
el 20% son directivos. Se elige al azar un empleado de este sector. Calcula:
a) La probabilidad de que sea directivo.
b) La probabilidad de que sea directivo y economista.
c) La probabilidad de que sea directivo y no sea economista.
d) La probabilidad de que sea economista sabiendo que es directivo.
2.- (2,25 puntos) Sea X la proporción del presupuesto familiar que se dedica a alimentación (en tanto por
uno), cuya función de densidad es:
6 x 1 x 0 x 1
f x
0 en el resto
a) ¿Cuál es la probabilidad de que una familia gaste más del 60% de su presupuesto en alimentación?
b) Elegidas seis familias al azar, ¿cuál es la probabilidad de que alguna de ellas dedique a
alimentación más del 60% de su presupuesto?
c) ¿Cuál es la probabilidad de que haya que elegir 6 familias antes de encontrar la segunda que gaste
más del 60% de su presupuesto en alimentación?
Nota: Describe con claridad los modelos probabilísticos que aparecen en este ejercicio.
3.- (2,75 puntos) Sean X1 y X2 las notas que sacan los alumnos de la facultad en dos asignaturas de 1º y
2º, respectivamente. Suponiendo que estas dos variables son independientes y cada una de ellas tiene una
distribución Normal de media 5 y desviación típica 2, contesta a las siguientes preguntas.
a) La probabilidad de que un alumno saque más de un 4 en la asignatura de 1º es (elige la respuesta
correcta y justifica tu elección):
a.1) 0,50 a.2) 0,6915 a.3) 0 a.4) 0,1252
b) Calcula la probabilidad de que un alumno saque más de 4 en la asignatura de 1º y menos de 4 en la
de 2º.
c) Para obtener una determinada beca, se requiere que la media ponderada de las notas de estas dos
asignaturas, calculada como Y= 0,3 X1 + 0,7 X2, sea mayor que 6. Calcula la probabilidad de
obtener esta beca.
4.- (2,25 puntos) Sea (X,Y) una variable aleatoria bidimensional continua tal que la función de densidad
marginal de X y la función de densidad de Y condicionada a X=x son las siguientes:
3x2 1
0 x 10 0y x
f X x 1000 fY | X x y x
0 en el resto 0 en el resto
a) Calcula E Y | X 5 .
b) Calcula p X 2Y .
5.- (1 punto) Una urna contiene tres bolas numeradas con los números 1, 2 y 3. Se extraen dos bolas sin
reemplazamiento de dicha urna. Sea X la suma de los números de las dos bolas e Y el menor de dichos
números. Obtén la función de probabilidad conjunta de (X, Y) detallando los cálculos realizados para
obtenerla.
Distribuciones
discretas Función de probabilidad Parámetros Esperanza Varianza
1
p X x N N 1 N2 1
N
Uniforme discreta
x 1,2, N
N 1,2, 2 12
1 x
p X x p x 1 p p
p 1 p
Bernoulli
x 0,1 0 p 1 p
n n x
p X x p x 1 p p, n
x n p 1 p
Binomial 0 p 1; n 1,2, np
x 0,1,2, n
x
p X x e
Poisson x!
0
x 0,1,2,
p X x 1 p p
x p q q
Geométrica
x 0,1,2, 0 p 1 p p2
x r 1
p X x 1 p p
x r
p, r rq rq
Binomial negativa x 0 p 1; r 1,2, p p2
x 0,1,2,
Distribuciones
continuas Función de densidad Parámetros Esperanza Varianza
1
fX x a, b ab b a 2
ba
Uniforme continua
axb
a b 2 12
x 2
fX x
1
e 2 2 ,
Normal
2 ; 0 2
x
ln x 2
fX x
1 2 2 ,
e 2 e 2 e
e 2 2 2
Logarítmico normal
x 2 ; 0 e 2
x0
1 x
fX x x e ,
Gamma
0; 0 2
x0
Exponencial fX x e x 1 1
negativa x0 0 2
p q p 1 q 1
fX x x 1 x p, q p pq
Beta p q
0;q 0
p pq p q 1 p q 2
0 x 1
x0 x02
x0
fX x , x0 1 2 12
Pareto x x
0; x0 0
x x0
1 2
La tabla proporciona, para z > 0, la función de distribución de una variable aleatoria normal estándar:
z
1 2
Φ(z) = p[Z ≤ z] = √ · e−x /2 dx .
−∞ 2π
Si z < 0, dado que la función de densidad es simétrica respecto de cero, Φ(z) = 1 − Φ(−z).
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998