Está en la página 1de 14

Ejercicio 1

i) Pr(E1 /E2 )
Para resolver dicha probabilidad se usará el Teorema de Probabilidad Condicionada, entonces
tenemos lo siguiente:
Pr⁡(E1 ՈE2 )
Pr(E1 /E2 ) = Pr⁡(E2 )

Sabemos por dato que E1 Ո⁡E2 = ∅ , entonces la probabilidad de nuestro numerador será 0, por
ende nos quedará :
0
Pr(E1 /E2 ) = , En este caso no hace falta calcular la Pr(E2 ), ya que el resultado total será
Pr⁡(E2 )
0 ( Siempre y cuando la Pr(E2⁡ ) sea distinta de cero).

ii) Pr (E1 ⁡𝑈⁡E2 ⁡/𝐸3 )


Nuevamente haremos uso del Teorema de la Probabilidad Condicionada.
Pr⁡(E1 ՈE2 Ո𝐸3 )
Pr (E1 ⁡𝑈⁡E2 ⁡/𝐸3 ) =
Pr⁡(𝐸3 )

Usando nuevamente el teorema de la Probabilidad condicionada:


Pr⁡(E1 ՈE2 Ո𝐸3 ) Pr⁡(E1 ՈE2 Ո𝐸3 )
Pr (E3 ⁡/E2 ⁡Ո⁡E1 ⁡) = =
Pr⁡(𝐸2⁡ Ո⁡E1 ) Pr⁡(𝐸2 )Pr(E1 /E2 )

Luego:
Pr (E3 ⁡/E2 ⁡Ո⁡E1 ⁡) Pr⁡(𝐸2 )Pr(E1 /E2 )= Pr (E3 ⁡/E2 ⁡Ո⁡E1 ⁡)
Entonces la expresión quedará de la siguiente manera:
Pr⁡(E2 ՈE1 Ո𝐸3 ) Pr(𝐸2 )⁡Pr(E1 /E2 )⁡Pr(E3 /E2 Ո⁡E1 )
Pr (E1 ⁡𝑈⁡E2 ⁡/𝐸3 ) = =
Pr⁡(𝐸3 ) Pr⁡(𝐸3 )

En el punto i) ,llegamos a la conclusión de que Pr(E1 /E2 )=0 , usando dicho resultado
tendremos:
Pr(𝐸2 )⁡Pr(E1 /E2 )⁡Pr(E3 /E2 Ո⁡E1 ) Pr(𝐸2 )⁡.⁡⁡0⁡.⁡⁡⁡Pr(E3 /E2 Ո⁡E1 ) 0
= = =0
Pr⁡(𝐸3 ) Pr⁡(𝐸3 ) Pr(𝐸3 )

iii) Pr(E1 ՈE2 )


Sabemos por dato que la Intersección de ambos sucesos da un conjunto vació, por ende, estaríamos
hablando de un suceso imposible, y la probabilidad de un suceso imposible es igual cero.

Pr⁡(E1 ՈE2 ) = 0
iv) ⁡Pr⁡(E1 𝑈E3 )

La justificación intuitiva de la fórmula a usar es la siguiente:

Primero buscamos la probabilidad de la unión de dos sucesos, en este caso como muestra la imagen
sería de A y B. Parecería lógico calcular simplemente la suma de la Probabilidad de A y de la Probabilidad
de B, pero si sólo lo dejamos así, estaríamos sumando dos veces la intersección entre A y B.

Entonces necesitamos restarle una vez dicha intersección. En este caso nos quedaría

Pr⁡(A𝑈B) = Pr(A) + Pr⁡(B) – Pr(AՈB)

Luego para volviendo al ejercicio, se podría utilizar nuevamente la regla del producto para Pr(E1 ՈE3 ),
pero no reduciríamos la igualdad, por ende solo quedará así:

Pr⁡(E1 𝑈E3 ) = Pr(E1 ) + Pr⁡(E3 ) – Pr(E1 ՈE3 )


Ejercicio 2
Dado la variable aleatoria X que se distribuye como una HiperGeometrica
X ~ H (n,𝑁1 , 𝑁) en donde:

X=Número de éxito de la muestra


n= Número de la muestra
𝑁1 =Número de éxitos en la población
N= Número total de la población.

El recorrido correcto es el ii):

max(0,n-(N-𝑁1 ))≤ X ≤ min(n,⁡𝑁1 )

Asignación de recorridos para la variable aleatoria X:

i) Ὠ(x)= {0,1,2……….} Corresponde a X~P(𝜆) Poisson


ii) Ὠ(x)={0,1,2……..n} Corresponde a X~B(n,p) Binomial
iii) Ὠ(x)={0,1} Sin Asignación
iv) Ὠ(x)={1,2………n-1} Correspondea X~Ge(p) Geométrica
Ejercicio 3
Para demostrar que una variable aleatoria continua y positiva con función de distribución 𝐹𝑥 (𝑥) y
Esperanza Matemática Finita se puede obtener dada la expresión :

E(X) = ∫0 [1 − 𝐹𝑥 (𝑥)]⁡𝑑𝑥

Se Integrará por el método de Partes o “Integral por Partes “:

ʃ u dv = u.v -ʃ v du

También tendremos en cuenta lo siguiente:

∗ 𝐹𝑥 (𝑥) = 𝐹𝑢𝑛𝑐𝑖ó𝑛⁡𝑑𝑒⁡𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛
∗ fx = 𝐹𝑢𝑛𝑐𝑖ó𝑛⁡𝑑𝑒⁡𝑑𝑒𝑛𝑠𝑖𝑑𝑎𝑑
* Al derivar la función de distribución obtengo la de densidad
* lim 𝐹𝑥 (𝑥) = 1
𝑥→∞
* E(x)= ∫0∞ x. fx ⁡𝑑𝑥

Volviendo a la integración por partes elegiremos convenientemente:

u = 1- 𝐹𝑥 (𝑥) >>>> du = -fx


dv=dx >>>>>>> v=x
Entonces tendremos que:
∞ ∞
∫0 [1 − 𝐹𝑥 (𝑥)]⁡𝑑𝑥 = ( 1- 𝐹𝑥 (𝑥))⁡. 𝑥 ]0∞ - ∫0 x. (−fx)⁡𝑑𝑥
=( 1- 𝐹𝑥 (𝑥))⁡. 𝑥 ]0∞ + ∫0

x. fx ⁡𝑑𝑥
Evaluaremos los límites del primer término:

[⁡1−𝐹𝑥 (𝑥)] [⁡1−1] 0


lim (1 − 𝐹𝑥 (𝑥))⁡. 𝑥 = ⁡ lim ⁡ 1 =

=⃗ = 0
𝑥→∞ 𝑥→∞ 𝑂 𝑂
𝑥

lim (1 − 𝐹𝑥 (𝑥))⁡. 𝑥 = Constante * 0 = 0


𝑥→0
Entonces nos quedará que:
∞ ∞
∫0 [1 − 𝐹𝑥 (𝑥)]⁡𝑑𝑥⁡= ∫0 x. fx ⁡𝑑𝑥 = 𝐸(𝑥)
Como se quería demostrar.
Ejercicio 4
i) V, Así dice la definición de Variable aleatoria.

ii) F , la esperanza matemática de : Y = 2x- 1 es ,

E(Y) = E(2X-1) = E(2X)-E(1) = 2E(X) -1

iii) F, no necesariamente el Valor esperado de X describe el lugar donde se centra la Distribución de

probabilidad, por ejemplo en una Distribución binomial con parámetros n=5 y p= 0.2

El valor esperado de X es np = 1, vemos que la distribución no está centrada en 1 (Duda)

iv) V, siempre y cuando exista la esperanza matemática.

v) V

vi) F, Repetir el experimento hasta encontrar el primer éxito se da en La Distribución Geométrica.

Para la Distribución Binomial se buscan obtener X números de éxitos.

Para la Distribución Geométrica También se puede buscar más de 1 éxito.

vii) F, veamos una Poisson con :

Vemos que no es simétrica, tiene asimetría positiva o


Sesgo a la derecha.
viii) F, Lo mencionado se da sólo si las variables aleatorias son independientes.
ix) V, si la distribución viene definida por: 1/(n+1) y asumiendo que su media es n/2 solo
deberíamos reemplazar la media en la fórmula, es decir, el número originalmente llamado
“n” debería dividirse por 2.

x) F, Si lo graficamos obtenemos lo siguiente:

Vemos que está sesgada a la derecha.

xi) F, En la distribución Geométrica al momento de definir su función de Probabilidad, se tiene


como Hipótesis que los ensayos son independientes.
Ejercicio 5
Por definición de La Función Generatriz de Probabilidad tendremos que:

P(s) = E(s x ) =⁡⁡⁡∑𝑥=0 ⁡[⁡⁡𝑆 𝑥 𝑃(𝑋 = 𝑥)]
Entonces vamos aplicarlo para X ~ B (n; p) dado por:
𝑛 𝑥 𝑛−𝑥
P(X=x) = (
𝑥
)𝑝 𝑞
Nos quedará de la siguiente manera:
𝑛 𝑛
∑ (𝑛𝑥)s x 𝑝 𝑥 𝑞 𝑛−𝑥 = ∑ (𝑛𝑥)(s𝑝)𝑥 𝑞 𝑛−𝑥 (I)
𝑥=0 𝑥=0
Ahora tendremos en cuenta el Binomio de Newton dado por:
𝑛
𝑛
(𝑎 + 𝑏)𝑛 = ∑ ( ) 𝑎 𝑥 𝑏 𝑛−𝑥
𝑥
𝑥=0
Vemos que (I) se parece al binomio de Newton. Reescribiendo (I):
𝑛
∑ (𝑛𝑥)(s𝑝)𝑥 𝑞 𝑛−𝑥 ≫≫≫≫≫≫≫≫≫≫≫≫≫≫≫ ⁡⁡ (𝐩𝐬 + 𝐪)𝒏 ⁡
𝑥=0

Ahora trataremos lo mismo, pero con Y~P(λ)


𝑛 𝑛
s𝑥 (e−λ ⁡λ𝑥 ) (sλ)𝑥
−λ
∑ 𝑥! = e ∑ 𝑥!
𝑥=0
⁡ 𝑥=0

Teniendo en cuenta la siguiente Propiedad
𝑛
a𝑥
∑ 𝑥! = 𝑒𝑥
𝑥=0

Nos quedará que:
𝑛
(sλ)𝑥
−λ
e ∑ 𝑥! = e−λ ⁡e𝑠λ = ⁡ esλ−λ ≫≫≫≫≫≫≫≫> ⁡𝐞𝛌(𝐬−𝟏)
𝑥=0

Dado Z = x + y

𝑃𝑥+𝑌 (𝑆)= 𝑃𝑥 (𝑆)𝑃𝑌 (𝑆)= (𝐩𝐬 + 𝐪)𝒏 ⁡𝐞𝛌(𝐬−𝟏) = W(S)

Para que quede igual a la notación de la hoja, se cambiara de notación tan solo en la letra “ s “ por “t”
quedando :

𝑃𝑥+𝑌 (𝑡)= 𝑃𝑥 (𝑡)𝑃𝑌 (𝑡)= (tp + q)𝑛 ⁡eλ(t−1) = W(t)

Para sacar la esperanza ( 𝑚1 (𝑧) )se hará la derivada primera de W(t) y luego se evalua en t=1
𝑑𝑊(𝑡)
= n (tp + q)𝑛−1 𝑝. ⁡eλ(t−1) + (tp + q)𝑛 ⁡λ⁡eλ(t−1) ⁡
𝑑𝑡

Evaluando en t=1

𝒎𝟏 (𝒛) = 𝑬(𝒙) =⁡ np+⁡𝛌

----------------------------------------------------------------------------------------------
Para el cálculo de 𝑢2 (𝑧)⁡ necesitamos >>> ⁡𝐄(𝐱 𝟐 ) − ⁡E 2 (𝑿)

Para ello primero se obtendrá ⁡𝐄(𝐱 𝟐 ) − E(𝑿) ,se hará la derivada segunda de W(t) y luego se evalúa en
t=1

Tomando del punto anterior la derivada primera:


𝑑𝑊(𝑡)
= n(tp + q)𝑛−1 𝑝. ⁡eλ(t−1) + (tp + q)𝑛 ⁡λ⁡eλ(t−1) ⁡
𝑑𝑡

Derivo esta derivada primera una única vez

n⁡p2 𝑛 − 1(tp + q)𝑛−2 𝑝. ⁡eλ(t−1) + 𝑛(tp + q)𝑛−1 𝑝⁡λ⁡eλ(t−1) ⁡ + n(tp + q)𝑛−1 𝑝⁡λ⁡eλ(t−1) +
(tp + q)𝑛 λ2 ⁡eλ(t−1)

Evaluando en t=1

𝑚2 (𝑧) = ⁡ n2 p2 − np2 + 2𝑛𝑝⁡λ +λ2 = ⁡𝐄(𝐱 𝟐 ) − E(𝑿)⁡ (1)

Restándole a (1) ⁡E 2 (𝑿) = n2 p2 + 2𝑛𝑝⁡λ+λ2 Y sumándole 𝐸(𝑥) = np+⁡𝛌

Nos queda que :

𝒖𝟐 (𝒛)⁡ = np−𝐧𝐩𝟐 ⁡ + 𝛌 = np(1-p)+⁡𝛌⁡= npq +⁡𝛌


Ejercicio 6.
Tenemos las siguientes variables independientes distribuidas de la siguiente forma:

La fórmula para convolucionar dos variables discretas independientes “X” e “Y” Para cada valor de C
siendo C= X+Y, es la siguiente:
𝑟

∑ 𝑃(𝑋 = 𝑗)⁡𝑃(𝑌 = 𝑟 − 𝑗)
𝑗=0

En donde “r” es el valor que tomará “C”

i) Primero se va a convolucionar x+y = c

A continuación, se convoluciona c+z = S


ii) Para la Función Generatriz de Probabilidad(FGP) tenemos que:


P(t) = E(t x ) =⁡⁡⁡∑𝑥=0 ⁡[⁡⁡𝑡 𝑥 𝑃(𝑋 = 𝑥)]

Desarrollando La FGP para la convolución “S” nos quedará:

𝑡 0 𝑃(𝑆 = 0) + ⁡ 𝑡 1 𝑃(𝑆 = 1) + 𝑡 2 𝑃(𝑆 = 2) + 𝑡 3 𝑃(𝑆 = 3)+


𝑡 4 𝑃(𝑆 = 4) + 𝑡 5 𝑃(𝑆 = 5) + 𝑡 6 𝑃(𝑆 = 6) + 𝑡 7 𝑃(𝑆 = 7)+
𝑡 8 𝑃(𝑆 = 8)

Que es igual a:
𝑡 ∗ 0 + ⁡ 𝑡 ∗ 0 + 𝑡 2 ∗ 0,06 + 𝑡 3 *0,145+
0 1

𝑡 4 ∗ 0,22 + 𝑡 5 ∗ 0,25 + 𝑡 6 ∗ 0,19 + 𝑡 7 ∗ 0,105⁡+𝑡 8 ⁡* 0,03


Simplificando nos queda:

0,06𝑡 2 + 0,145𝑡 3 +0,22𝑡 4 + 0,25𝑡 5 + 0,19𝑡 6 + 0,105𝑡 7+0,03𝑡 8


Ejercicio 7

−1
1 [𝑢1 2 −2𝑝(𝑈1 ,𝑈2 )𝑢1 𝑢2⁡ +𝑢2 2 ]
fz (z) = f𝑈1 ,𝑈2 (𝑢1 𝑢2⁡ ) = ⁡𝑒 (2[1−𝑝2(𝑈1,𝑈2 )]) ⁡ (1)
2𝜋√1−𝑝2 (𝑈1 ,𝑈2 )

(-∞≤ z ≤+∞)
Si 𝑈1 , 𝑈2 son incorrelacionadas linealmente entonces el coeficiente de correlación lineal debe ser 0, es
decir que la cov(𝑢1 , 𝑢2⁡ ) = 0.
dado que el coeficiente de correlación lineal viene dado por la fórmula:

cov(𝑢1 ,𝑢2⁡ )⁡
p(𝑈1 , 𝑈2 )= >> p(𝑈1 , 𝑈2 ) = 0 (2)
√var(𝑢1 )𝑣𝑎𝑟(𝑢2⁡ )

reemplazando (2) en (1)


−1 2 +𝑢 2 ]
1
fz (z) = f𝑈1 ,𝑈2 (𝑢1 𝑢2⁡ ) = 2𝜋 ⁡𝑒 2 [𝑢1 2

−1 2 −1 2
1 1
fz (z) = f𝑈1 ,𝑈2 (𝑢1 𝑢2⁡ ) = ⁡𝑒 2 𝑢1 ⁡ ⁡𝑒 2 𝑢2 ⁡ (3)
√2𝜋 √2𝜋

Antes de proseguir recordaremos que las variables “x” e “y” son independientes si y sólo si:

f𝑥,𝑦 (𝑥, 𝑦) = fx (x)⁡fy (y) ∀(x,y)⁡𝜖 𝑅 2

Vemos que la igualdad (3) cumple con la independencia


−1 2 −1 2
1 1
fz (z) = f𝑈1 ,𝑈2 (𝑢1 , 𝑢2⁡ ) = ⁡𝑒 2 𝑢1 ⁡ ⁡𝑒 2 𝑢2 ⁡ = f𝑈1 (𝑢1 )⁡f𝑈2 (𝑢2 )
√2𝜋 √2𝜋

Entonces se demuestra que : 𝑈1 ┴⁡𝑈2


Ejercicio 8
i) V, Es una propiedad deseable pero no necesaria.
ii) F, Un estimador es insesgado cuando el valor esperado del estimador coincide con el
parámetro a estimar, por ende, el Sesgo será nulo.
iii) V , Por ejemplo para estimar la media con varianza conocida tenemos que

Si incrementamos la muestra vemos que “n” se hace más grande , entonces la división de
sigma entre la raíz de “n” será más chica y fijándonos en ambas partes de las desigualdades
el valor de la media oscilará entre valores más cercanos, porque en el lado izquierdo se
restará un número más chico cuanto más grande sea “n” y por el lado derecho se sumará
un número más chico también . Entonces si es posible conseguir mayor precisión en la
muestra.

iv) -
v) V, A partir de los datos que tenemos en la afirmación podemos calcular los restantes para
realizar el test ANOVA.
Ejercicio 9
X(t)= Y1+ Y2+⋯….+⁡⁡ Y𝐾

E(X(t)) = E(Y1 ) + 𝐸(Y2 ) + ⋯ + 𝐸(Y𝑘⁡ )

Dado que la esperanza en este caso será:


∑ 𝑦⁡𝑃(𝑌 = 𝑦)⁡
𝑦

Y en este caso para cada variable “y” tendremos que


E(X(t)) = 0.5h-0.5h = 0

Para la varianza necesitamos ⁡𝐄(𝐲 𝟐 ) es decir :


∑ ⁡𝐲𝟐 ⁡𝑃(𝑌 = 𝑦)⁡


𝑦

Luego para cada caso en particular tendremos 0.5⁡𝐡𝟐 + 0.5⁡𝐡𝟐 ,


Entonces:

Var(Y) = ⁡E(y 2 ) − ⁡E 2 (𝑦) =

VAR(X) = = 0.5⁡𝐡𝟐 + ⁡0.5⁡𝐡𝟐 ⁡ − 𝟎 = ⁡ ⁡𝐡𝟐


Ejercicio 10
⁡y = ex ⁡⁡En donde X~N(ut,𝑡𝜎 2 )

Aplicando logaritmo neperiano a ambos lados de la igualdad tenderemos:

Ln y = x ln y ~N(ut,𝑡𝜎 2 )

Si consideramos t=1 tendremos :


ln y ~N(u,𝜎 2 )

Luego
𝜎𝑡2
su Esperanza: E(y) = eut+ 2
𝜎2
Para t = 1 E(y) = eu+ 2

2 2
Su varianza: Var (X) = e2ut+𝜎𝑡 (e𝜎𝑡 − 1)
2 2
Para t=1 Var (X) = e2u+𝜎 (e𝜎 − 1)

Ahora si consideramos S(t) = S (0)⁡ex(t) en donde x(t) ~N(ut,𝑡𝜎 2 )

Diremos que y = ex(t) ⁡⁡⁡⁡⁡𝑦(𝑡)~⁡𝑙𝑛𝑁(ut, 𝑡𝜎 2 )

Entonces: S(t)= S (0) Y(t).


Si Calculamos su esperanza tendremos:
E(S(t)) = E(S(0) Y(t) ) , pero dado que S(0) es una constante podemos escribir :
𝜎𝑡2
E(S(t)) = S(0)E( Y(t) ) = S(0) eut+ 2 (I)

*Para evaluarle el valor esperado en t0 , tenemos que reemplazar el valor de t0 en (I)


En este caso el precio esperado del activo al momento es :
𝜎⁡t0⁡⁡2
E(S(t)) = S(0)E( Y(T) ) = S(0) eu⁡t0⁡⁡+ 2

Y en particular Si T=0

E(S(0)) = S(0) . e0 = S(0)

*Para la varianza tendremos:


2 2
Var( S(t)) = (S(0))2 + ⁡𝑣𝑎𝑟 Y(t) =S 2 (0) + ⁡e2ut+𝜎𝑡 (e𝜎𝑡 − 1)
2 2
Para t0 nos queda : S 2 (0) + ⁡e2ut0+𝜎t0 (e𝜎t0 − 1)

2 2
El desvío resultará : 𝜎= √S 2 (0) ⁡⁡⁡ + ⁡⁡ e2ut0+𝜎t0 ⁡(e𝜎t0 − 1)

También podría gustarte