Está en la página 1de 19

“UNIVERSIDAD LAICA ELOY ALFARO DE MANABÍ”

FACULTAD DE CIENCIAS ECONÓMICAS

ESTUDIANTE:
Jiménez Pazmiño Adriana Gabriela

ASIGNATURA:
Fundamentos econométricos.

PROFESORA:
Dra.: Elvira Bernardita Rodríguez Ríos.

FECHA:
7/10/2022

AÑO LECTIVO:
2022(2)

MANTA-MANABÍ-ECUADOR
Variables aleatorias y distribuciones de probabilidad

Probabilidades, espacio muestral y variables aleatorias

Probabilidades y resultados. El género de la próxima persona novedosa que conozca,


su calificación en un examen y el número de ocasiones que su PC se estropeará mientras
redacta un trabajo, muestran todos ellos un ingrediente de azar o aleatoriedad. En todos esos
ejemplos, existe algo que no es por el momento popular pero que a la extendida se va a
mostrar.

Los resultados potenciales mutuamente excluyentes de un desarrollo aleatorio se


nombran resultados. Entre otras cosas, su PC puede no estropearse jamás, puede estropearse
una vez, dos veces, etc. Solo uno de esos resultados puede ocurrir realmente (los resultados
son mutuamente excluyentes), y los resultados no siempre son de todas formas probables.

La probabilidad de un resultado es la proporción del número de veces que ocurre un


resultado durante un largo periodo de tiempo. Si la probabilidad de que su computadora no se
estropee mientras escribe un trabajo es del 80%, entonces en el proceso de escribir una gran
cantidad de trabajos, terminará sin fallar el 80% de las veces.

Espacio muestral y sucesos. El conjunto de todos los resultados posibles se llama

espacio muestral. Un evento es un subconjunto del espacio muestral, es decir, un evento es

una colección de uno o más resultados. El evento "Mi computadora no fallará más de una

vez" es una colección de dos resultados: "sin roturas y " una rotura ".

Variables aleatorias. Una variable aleatoria discreta es un compendio numérico de un

resultado aleatorio. El número de ocasiones que su computadora se estropea mientras escribe

un trabajo es aleatorio y toma un valor numérico, por lo cual es una variable aleatoria.

Algunas variables aleatorias son discretas y otras son continuas. Como sus

nombres proponen, una variable aleatoria discreta toma valores únicamente sobre

un grupo sutil, como 0, 1, 2, ..., en tanto que una variable aleatoria continua toma valores en

un continuo de probables valores.
Distribución de probabilidad de una variable aleatoria discreta

Distribución de probabilidad. La repartición de probabilidad de una variable

aleatoria discreta es una relación de todos los valores posibles de la variable adjuntado

con la posibilidad de que ocurra cada valor. Esas posibilidades suman 1.

Por ejemplo, M sería la cantidad de veces que su computadora falla mientras está editando
un documento. La repartición de probabilidad de una variable aleatoria M es la relación entre
las probabilidades de cada resultado posible: la probabilidad de que M=0, expresada como Pr
(M= 0), es la probabilidad de que la computadora no se dañe; Pr (M= 1) es la probabilidad de
que haya un solo error en la computadora; y así sucesivamente. Se propone un ejemplo de
una repartición de probabilidad para M en la segunda fila de la Tabla 2.1; bajo esta
distribución, si la computadora falla cuatro veces, el trabajo debe abandonarse y rehacerse
manualmente. Según esta repartición, la probabilidad de que no haya daños es del 80%;
la posibilidad de una avería es del 10%; y la probabilidad de dos, tres, o 4 daños es,
correspondientemente, 6%, 3%, y 1%. Esas posibilidades suman el 100%. Esta organización
de posibilidad está representada en la Figura 2.1.

Probabilidad de los sucesos. La probabilidad de un hecho puede calcularse desde de


la distribución de probabilidad. Por ejemplo, la probabilidad del hecho una o dos averías es la
suma de probabilidades de los resultados de los que consta el hecho. Esto es Pr (M=1 o M
=2) = Pr (M=1) + Pr (M=2) = =0,10 + 0,06 = 0,16, o 16%.

Distribución de probabilidad acumulada. La distribución de probabilidad


acumulada es la posibilidad de que la variable aleatoria sea menor o igual a un valor preciso.
La concluyente fila de la Tabla 2.1 brinda la distribución de posibilidad acumulada de la
variable aleatoria M. Entre otras cosas, la posibilidad de por lo menos una falencia, Pr (M
m1), es del 90 %, que es la suma de las posibilidades de que no se descomponga (80 %) y de
una descomposición (10 %).

TABLA 2.1 P robabilidad de que su ordenador se averíe M veces


Resultados (número de averías)

0 1 2 3 4

Distribución de probabilidad 0,80 0,10 0,06 0,03 0,01


Distribución de probabilidad acumulada 0,80 0,90 0,96 0,99 1,00
FIGURA 2.1 Distribución de probabilidad del número de averías de ordenador

La altura de todas las barras


Probabilidad
es la posibilidad de que
0,8
el computador se
descomponga el número
de ocasiones propuesto. La 0,7
altura de la principal barra
es 0,8, por 0,6
consiguiente, la posibilidad 
de 0 averias en 0,5
el computador es del 80%.
La altura de la segunda 0,4
barra es 0,1 por lo
cual la posibilidad de 1 0,3
descomposicion en
el computador es del 10% y 0,2
lo mismo para el resto de
barras. 0,1

0,0
0 1 2 3 4
Número de averíasa

La distribución de probabilidad acumulada se conoce además como funcionalidad de


organización acumulada f.d.a., o distribución acumulada.

La distribución de Bernoulli. Un caso especial sustancial de variable aleatoria

discreta es cuando la variable aleatoria es binaria, por lo tanto, los resultados son 0 o 1. Una

variable aleatoria binaria se nombra variable aleatoria de Bernoulli (en honor al matemático y

científico suizo del siglo XVII Jacob Bernoulli), y su distribución de posibilidad se

llama distribución de Bernoulli.

De este modo, sea G el género de la futura persona novedosa que conozca, donde G%

0 sugiere que la persona va a ser un varón y G% 1 sugiere que va a ser mujer. Los resultados

de G y sus posibilidades son

E1 con probabilidad p
G% (2.1)
0 con probabilidad 1. p,

donde p es la posibilidad de que la futura persona novedosa que conozca sea mujer.

La distribución de posibilidad de la Ecuación (2.1) es la distribución de Bernoulli.

Distribución de probabilidad de una variable aleatoria continua


Distribución de probabilidad acumulada. La distribución de probabilidad acumulada

de una variable aleatoria continua es exactamente la misma que la definición de una variable

aleatoria discreta. Es decir, la distribución de probabilidad acumulada de una variable

aleatoria es la probabilidad de que la variable aleatoria sea menor o igual a cierto valor.

Por ejemplo, considere a un estudiante que conduce de su casa a la escuela. El tiempo

dedicado a este viaje estudiantil puede tomar un valor continuo y, dado que depende de

factores aleatorios como el clima y las condiciones del tráfico, es natural tratarlo como una

variable aleatoria continua. La figura 2.2a muestra una distribución de probabilidad

acumulada del tiempo de viaje hipotético. Por ejemplo, hay un 20 % de posibilidades de que

el tiempo de ida y vuelta sea inferior a 15 minutos y un 78 % de posibilidades de que sea

inferior a 20 minutos.

Función de densidad de probabilidad.


Gracias a que una variable aleatoria continua puede tomar sus valores probables en un

continuo, la distribución de posibilidad empleada para las variables discretas, que muestra la

posibilidad de cada viable valor de la variable aleatoria, no es aplicable a las variables

continuas. 

En cambio, la posibilidad viene obtenida por la capacidad de consistencia de posibilidad.

El área bajo la función de densidad de probabilidad entre dos puntos es la probabilidad de que

la variable aleatoria se encuentre entre esos dos puntos. La función de densidad de

probabilidad también se conoce de igual modo como f.d.p., función de densidad o

sencillamente densidad.

La figura 2.2b muestra la función de densidad de probabilidad del tiempo de ida y vuelta

correspondiente a la distribución acumulada de la figura 2.2a. La figura 2.2b muestra la

función de densidad de probabilidad del tiempo de ida y vuelta correspondiente a la

distribución acumulada de la figura 2.2a. La probabilidad de que el tiempo de ida y vuelta sea

entre 15 y 20 minutos está dada por el área bajo f.d.p. Esto es 0.58 o 58%. De manera

equivalente, esta probabilidad se puede ver en la distribución acumulativa de la Figura 2.2a,

la diferencia entre la probabilidad (78%) de que el viaje de ida y vuelta sea menor a 20

minutos y la probabilidad (20%) de que el viaje de ida y vuelta sea menor a 15 minutos. Por

lo tanto, la distribución de densidad de probabilidad y la función de probabilidad acumulada

muestran la misma información en diferentes formatos.

2.2 Esperanza, media y varianza

La esperanza de una variable aleatoria

Esperanza. La esperanza de una variable aleatoria Y, designada E(Y), es el valor medio

de extenso período de la variable aleatoria durante varios intentos repetidos o eventos.

La esperanza de una variable aleatoria discreta se calcula como la media ponderada de


los probables resultados de la variable aleatoria, donde las ponderaciones son

las posibilidades de esos resultados. La esperanza de Y se designa de igual modo valor

esperado de Y o media de Y y se expresa por medio de kY.

A modo de ejemplo, asuma que presta a un amigo 100 $ al 10 % de interés. Si el préstamo

se rembolsa, obtendrá 110 $ (el principal de 100 $ más los intereses de 10 $), pero hay

un peligro del 1 % de que su amigo incumpla el pago y usted no reciba nada en absoluto. Por

consiguiente, el montante que percibirá es una variable aleatoria que es igual a 110 $

con posibilidad 0,99 e igual a 0 $ con posibilidad 0,01. Durante varios préstamos de esta

forma, el 99 % de las ocasiones percibirá 110 $, pero el 1 % de las ocasiones no obtendrá

nada, por consiguiente, en media percibirá 110 $ # 0,99! 0 $ # 0,01 % 108,90 $. Por ende, el

valor esperado del reembolso (o el «reembolso medio») es 108,90 $.

Como segundo ejemplo, considere el número M de fallas de computadora con la

distribución de probabilidad dada en la Tabla 2.1. El valor esperado de M es el número

promedio de fallas en muchas ejecuciones de trabajos, ponderado por la frecuencia con la que

ocurren fallas de cierta importancia. Por tal razón,

E(M) % 0 # 0,80! 1 # 0,10! 2 # 0,06! 3 # 0,03! 4 # 0,01 % 0,35.

Es decir, la cantidad esperada de fallas de la computadora mientras se escribe un trabajo es

0.35. Desde luego, el número real de errores siempre debe ser un número entero; ¡No tiene

sentido decir que la computadora falla 0,35 veces mientras escribe el trabajo! Por el

contrario, el cálculo de la Ecuación (2.2) muestra que muchos artículos tienen una tasa de

error promedio de 0,35 durante todo el proceso de escritura. La fórmula esperada para una

variable aleatoria discreta Y que puede tomar k valores diferentes se da en Conceptos clave

2.1. (El Concepto clave 2.1. emplea la “notación de sumatoria” discutida en el

Ejercicio 2.25).
CONCEPTO Esperanza y media
CLAVE
Suponga que la variable aleatoria Y puede tomar k posibles valores y1, y2, ...,
yk, donde y1 expresa el primer valor, y2 expresa el segundo valor, y así
2.1 sucesivamente, la probabilidad de que Y tome el valor y1 es p1, la probabilidad
de que Y tome y2 es p2, etc. La esperanza o valor esperado de Y, expresado
mediante E(Y), es
k

E(Y) %y1 p1! ¡y2 p2! ñ! yk pk %; yi pi, (2.3)


i%1

donde la notación Gki%1 yi pi significa «la suma de yi pi con i obteniendo valores


de 1 a k». La esperanza de Y se denomina asimismo media de Y o valor
esperado de Y y se expresa mediante kY.

Esperanza de una variable aleatoria de Bernoulli. Un caso especial importante

de la fórmula general del Concepto clave 2.1 es la media de la variable aleatoria de Bernoulli.

Sea G una variable aleatoria de Bernoulli cuya distribución de probabilidad es la ecuación.

El valor esperado de

G es E(G) % 1 # p! 0 # (1. p) % p. (2.4)

Entonces, el valor esperado de una variable aleatoria de Bernoulli es p, la probabilidad de

que tome el valor "1".

Esperanza de una variable aleatoria continua. El valor esperado de una variable

aleatoria continua es también el promedio ponderado de los posibles resultados de la variable

aleatoria. Dado que una variable aleatoria continua toma un continuo de valores posibles, la

definición matemática formal de su esperanza involucra el cálculo definido en la Sección

17.1.

La desviación típica y la varianza

La varianza y la desviación estándar miden la dispersión o "propagación" de una

distribución de probabilidad. La varianza de la variable aleatoria Y, denotada por var(Y) ,


es el valor esperado del cuadrado de la desviación de Y respecto de su media: var(Y) %

E[(Y . kY)2].

Dado que la varianza incluye Y-cuadrado, la unidad de varianza es Y-cuadrado, lo que le

da a la varianza una interpretación complicada. Por lo tanto, la varianza generalmente se mide

como la desviación estándar, que es la raíz cuadrada de la varianza, denotada por pY. La

desviación estándar tiene las mismas unidades que Y. Estas definiciones se resumen en la

sección 2.2.

CONCEPTO Varianza y desviación típica


CLAVE
La varianza de la variable aleatoria discreta Y, expresada mediante p2Y, es
k

2.2 p2Y % var (Y) %E[(Y . kY)2] %; (yi . kY)2pi. (2.5)


i%1

La desviación típica de Y es pY, la raíz cuadrada de la varianza. Las unidades


de la desviación típica son las mismas que las unidades de Y.
Por ejemplo, la varianza del número de fallos informáticos, M, es la media ponderada de

probabilidad al cuadrado de las diferencias entre M y su media de 0,35.

var(M) % (0. 0,35)2 # 0,80! (1. 0,35)2 # 0,10! (2. 0,35)2 # 0,06
! (3. 0,35)2 # 0,03! (4. 0,35)2 # 0,01 % 0,6475.

La desviación típica de M es la raíz cuadrada de la varianza, así pM %

Varianza de una variable aleatoria de Bernoulli. La media de una variable

aleatoria de Bernoulli G con la distribución de probabilidad recogida en la Ecuación (2.1) es

kG %p [Ecuación (2.4)], por lo que su varianza es

var(G) %p2G % (0. p)2 # (1. p) ! (1. p)2 # p%p (1. p).

Por ende, la desviación típica de una variable aleatoria de Bernoulli es pg. % .


Media y varianza de una función lineal de variables aleatorias

Esta sección analiza variables aleatorias (como X e Y) asociadas con funciones

lineales. Por ejemplo, considere un plan de impuestos sobre la renta en el que los trabajadores

paguen impuestos al 20% de sus ingresos y luego reciban una desgravación (libre de

impuestos) de $2,000. Según este plan fiscal, el ingreso después de impuestos Y está

relacionado con el ingreso antes de impuestos X mediante la ecuación.

Y% 2.000! 0,8X.

Es decir, el ingreso después de impuestos de Y es el 80% de su ingreso antes de

impuestos más $2,000. Suponga que el ingreso antes de impuestos de una persona en el

próximo año es una variable aleatoria con media kX y varianza p2X. Dado que el

ingreso antes de impuestos es una variable aleatoria, también lo es el ingreso después de

impuestos. ¿Cuál es la media y la desviación estándar de este ingreso después de impuestos?

Su ingreso después de impuestos es el 80% de su ingreso original antes de impuestos más

$2,000. Por lo tanto, la expectativa de ingresos después de impuestos es

E(Y) %kY % 2.000! 0,8kX.

La varianza de los ingresos antes deimpuestos es la esperanza de (Y. kY)2. Debido a que Y%
2.000! 0,8X, Y. kY % 2.000! 0,8X. (¡2.000! 0,8kX) % 0,8(X. kX). Por tanto, E [(Y. kY)2] % %E
{[0,8(X. kX)]2} % 0,64E [(X. kX)2]. Esto significa que var(Y) % 0.64var(X) entonces
sacamos la raíz cuadrada de la desviación que es la desviación estándar de Y
Py % 0,8pX.

Es decir, la desviación estándar de la distribución del ingreso después de impuestos es

el 80% de la desviación estándar de la distribucion del ingreso antes de impuestos. Este

análisis puede generalizarse al hecho de que Y depende de X y el intercepto es (en lugar de

2.000$) y una pendiente b (en lugar de 0,8), por lo que

Y% a! bX. (2.11)
Por ende, la media y la varianza de Y son
kY % a! bkX y (2.12)
p2Y % b2p2X, (2.13)
La desviación estándar de Y es pY % bpX. Las expresiones en la ecuación (2.9) y (2.10)

son casos especiales de las fórmulas más generales en la ecuación (2.12) y (2.13) con a%

2.000 y b% 0,8.

Otras medidas de forma de una distribución

La media y la desviación estándar miden dos características importantes de una

distribución: su centro (media) y su dispersión (desviación estándar). Esta

sección analiza medidas de otras características de una distribución: asimetría (o sesgo), que

mide la asimetría de una distribución, y curtosis, que mide el grosor o el peso de su cola. La

media, la varianza, la asimetría y la curtosis se basan en los denominados momentos de la

distribución.

Asimétria. La Figura 2.3 La Figura muestra cuatro distribuciones, dos de las cuales son

simétricas (Figuras 2.3a y 2.3b) y dos no lo son (Figuras 2.3c y 2.3d). Visualmente, la

distribución de la figura 2.3d parece desviarse más de la simetría que la distribución de

la figura 2.3c. La asimetría de una distribución proporciona una forma matemática

de describir cuánto se desvía la distribución de la simetría.

La asimetría de la distribución de la variable aleatoria Y es

donde pY es la desviación estándar de Y. Para una distribución simétrica, un número dado

de valores de Y por encima de la media es exactamente igual que el mismo

número de valores de Y por debajo de la media. Si es así, los valores positivos de

(Y.kY)3 serán compensados (como se esperaba) por valores negativos igualmente probables.

Por lo tanto, para una distribución simétrica E [(Y. kY)3] % 0, la asimetría de la distribución


simétrica es cero. Si la distribución es asimétrica, entonces (Y. kY)3 normalmente neutraliza

la media con probabilidades iguales negativas, por lo que la asimetría de una

distribución asimétrica no es cero. Dividir el denominador de la ecuación (2.14) por p3Y

iguala las unidades de Y3 en el numerador, de modo que la compensación no

tiene unidades, en otras palabras, cambiar las unidades de Y no cambia la compensación.

Bajo cuatro divisiones su asimetría se muestra por separado en la figura 2.3.

Si la distribución tiene una cola derecha larga, entonces (Y. kY)3 no se cancela

completamente con valores negativos, la simetría es positiva. Si una distribución tiene una

cola izquierda más larga, tiene un sesgo negativo.


Curtosis. La curtosis de una distribución mide cuánta masa de probabilidad hay en sus

colas, por lo que mide qué parte de la varianza de Y se explica por los valores extremos. Los

valores extremos de Y se denominan valores atípicos. Cuanto mayor sea la curtosis

de la distribución, mayor será la probabilidad de valores atípicos.

La curtosis de la distribución de Y es

Si la distribución tiene una masa de alta probabilidad en las colas, entonces Y puede

desviarse significativamente de su media, y estos valores altos darán como resultado (Y. kY)


una media mayor (esperada)4. Por lo tanto, las distribuciones con una gran cantidad de masa

en las colas tendrán una alta curtosis. Como (Y. kY)4 no puede ser negativo, la curtosis no

puede ser negativa.

Una variable aleatoria distribuida normalmente tiene una curtosis de 3, por lo que una

variable aleatoria con una curtosis mayor que 3 tiene una masa de cola

mayor que una variable aleatoria normal. Una distribución con una curtosis superior a 3 se

denomina distribución de picos delgados o simplemente de cola ancha. Al igual que la

asimetría, la curtosis no tiene unidades, por lo que cambiar las unidades de Y no

cambia su curtosis. Bajo cuatro divisiones de la imagen 2.3 muestra su disposición. Las

distribuciones que se muestran en la figura 2.3byc son distribuciones de cola ancha.

Momento. La media E(Y) de Y también se denomina primer momento de Y, y el valor

esperado E(Y2) del cuadrado de Y se denomina segundo momento de Y. En general, el valor

esperado de Yr se denomina momento r-ésimo de la variable aleatoria Y. Es decir, el

momento r-ésimo de Y es E(Yr). La asimetría es una función del primer, segundo y tercer

momento de Y, y la curtosis es una función del primer al cuarto momento de Y.

2.3 Dos variables aleatorias

La mayoría de los problemas financieros involucran dos o más variables. ¿Los graduados

universitarios tienen más probabilidades de conseguir un trabajo que los no

graduados? ¿Cuál es la distribución del ingreso entre mujeres y hombres? Estas

preguntas implican la distribución de dos variables aleatorias consideradas juntas (educación

y situación laboral en el primer ejemplo, ingreso y género en el segundo ejemplo). Para

responder a estas preguntas, se deben comprender los conceptos de distribuciones de

probabilidad conjunta, marginal y condicional.

Distribuciones conjunta y marginal


Distribución conjunta. La distribución de probabilidad conjunta de dos variables

aleatorias discretas X e Y es la probabilidad de que las dos variables aleatorias hayan

dado valores de x e y al mismo tiempo. Todas las combinaciones posibles (x, y) tienen una

probabilidad de 1. La distribución de probabilidad se puede escribir como una función Pr(X

%x, Y%y).

Por ejemplo, las condiciones climáticas, ya sea que llueva o no, afectarán el tiempo

de viaje de los estudiantes que viajan en la sección 2.1. Sea Y una variable aleatoria binaria

igual a 1 si el desfase es muy corto (menos de 20 minutos) y 0 en caso contrario, y sea X una

variable aleatoria binaria igual a 0 si llueve y 1 si no llueve. Entre estas dos variables

aleatorias, hay cuatro resultados posibles: lluvia y tiempo de viaje largo (X% 0, Y% 0); lluvia

y tiempo de viaje corto (X% 0, Y% 1); no llueve Y el tiempo de viaje es largo (X% 1, Y%

0); no llueve, el tiempo de viaje es corto (X% 1, Y% 1). La distribución de probabilidad

conjunta indica con qué frecuencia ocurre cada uno de estos eventos en varias iteraciones del

movimiento.

En la tabla 2.2 proporciona ejemplos de distribuciones conjuntas de estas dos variables.

Según esta distribución entre muchos viajes, el 15% de los días son lluviosos y el viaje es

largo (X% 0, Y% 0); es decir, hay un 15% de posibilidades de un viaje largo y lluvioso, o

Parámetro (X%0, Y%0) %0,15. También Pr(X%0, Y%1)%0,15, Pr(X%1, Y%0)%0,07 y

Pr(X%1, Y%1)%0,63. Estos cuatro posibles resultados son mutuamente excluyentes

y forman el espacio muestral, por lo que las cuatro posibilidades suman 1.

TABLA 2.2 Distribución conjunta de condiciones meteorológicas y tiempo de desplazamiento


Lluvia (X = 0) Sin lluvia (X = 1) Total

Desplazamiento largoY(= 0) 0,15 0,07 0,22

Desplazamiento cortoY (= 1) 0,15 0,63 0,78


Total Distribución de probabilidad
0,30 marginal.
0,70 La distribución1,00
de probabilidad marginal

de una variable aleatoria Y es solo otro nombre para su distribución de probabilidad. Este
término se utiliza para distinguir la distribución de Y solo (la distribución marginal) de la

distribución conjunta de Y y otra variable aleatoria. La distribución marginal de

Y se puede calcular a partir de la distribución conjunta de X e Y sumando todas las

probabilidades de todos los posibles resultados de Y con un valor dado. Si X puede tomar

l valores diferentes x1, x2..., xl, entonces la probabilidad marginal de que Y tome el valor

y es

Por ejemplo, en la tabla 2.2, la probabilidad de un viaje largo con lluvia es del 15 %,

pero la probabilidad de un viaje largo sin lluvia es del 7 %, por lo que la probabilidad de

un viaje largo (con lluvia o sin lluvia) es del 22 %. Las divisiones marginales de los tiempos

de viaje se resumen en la en la última columna de laa tabla 2.2. Nuevamente, la probabilidad

marginal de precipitación es del 30%, como se muestra en la Figura 2.2. en la última fila de

la tabla.

Distribuciones condicionales

Distribución condicional. Una distribución en la que una variable aleatoria Y depende de

si otra variable aleatoria X toma un valor particular se denomina distribución condicional de

Y dada X. La probabilidad condicional de que Y tome el valor y cuando X tome el valor x se

expresa como Pr (Y% y X% x). Por ejemplo, si se sabe que lloverá (X% 0), ¿cuál es la

probabilidad de un movimiento prolongado (Y% 0)? Desde la tabla 2.2. la

probabilidad total de lluvia en la tabla es del 15 %, pero la probabilidad total de lluvia y

la lluvia a largo plazo es del 15 %, por lo que, si llueve entonces la probabilidad a largo y

corto plazo es la misma. Por lo tanto, la probabilidad de desplazamiento a largo plazo (Y% 0)

condicionada a la precipitación (X% 0) es 50% o Pr (Y% 0 X % 0) % 0,50. Asimismo, la


probabilidad marginal de lluvia es del 30%; es decir, si se hacen varios viajes, lloverá el 30%

del tiempo. De este 30 % de retrasos, el 50 % de los retrasos son largos (0,15/0,30).

En general, la distribución condicional de Y dado X%x es

Por ejemplo, la probabilidad condicional de un viaje largo con lluvia es Pr (Y%0 X%0) %

% Pr (X % 0, Y % 0) /Pr(X % 0) % 0,15/0,30 % 0,50.

Como otro ejemplo, considere cambiar el ejemplo del bloqueo de la computadora.

Digamos que estas usando una computadora en la biblioteca para escribir un trabajo, y el

bibliotecario te da una computadora gratis al azar, mitad nueva y mitad vieja. Dado que

se le asignó una computadora al azar, la edad A de la computadora que está usando (%1 si la

computadora es nueva, %0 si es vieja) es una variable aleatoria. Suponga que la distribución

conjunta de las variables aleatorias M y A se da en la parte A de la tabla 2.3. Luego, la

distribución condicional de fallas informáticas, teniendo en cuenta la antigüedad de

la computadora, se muestra en la parte B de la tabla. Por ejemplo, M%0 y A%0 tienen

una probabilidad conjunta de 0,35; dado que la mitad de las computadoras son viejas, la

probabilidad condicional de que la computadora vieja no falle es Pr(M%0A%0) %Pr(M% 0 ,

A %0)/Pr(A % 0) %0.35 /0.50% 0,70 o 70%. Por otro lado, si se le entrega una computadora

nueva, la probabilidad condicional de que no haya falla es del 90%. Según distribución

condicional 2.3. en la parte B de la tabla, es menos probable que la computadora nueva falle

que la computadora anterior; por ejemplo, la probabilidad de tres errores es del 5% para la

computadora vieja y solo del 1% para la computadora nueva.

Esperanza condicional. La esperanza condicional de Y dado X, también conocido

como la media condicional de Y dado X, es la media de la distribución condicional de Y dado

X. Esto significa que el valor esperado condicional es el valor esperado


de Y calculado usando la distribución condicional. de Y dado X. Si Y toma k valores y1,

y2, ..., yk, entonces la media condicional de Y dado X es %x

Por ejemplo, de la distribución condicional en la tabla 2.3, suponiendo que la computadora

es más antigua, la cantidad esperada de fallas de la computadora es E (MA % 0) % 0

# 0.70! 1#0.13! 2#0.10! 3##0.05! 4# 0,02% 0,56. Dado que la computadora es nueva, la

tasa de error esperada de la computadora es E (MA% 1) % 0.14, que es menor que la de la

computadora vieja. El valor esperado condicional de Y dado X%x es exactamente el valor

medio de Y en X%x. En el ejemplo de la tabla 2.3, la tasa promedio de fallas de la maquina

anterior es 0,56, por lo que la expectativa condicional de Y para la maquina anterior es 0,56.

Además, el número promedio de errores en la nueva computadora es 0.14, es decir se supone

que la expectativa condicional de la nueva computadora Y es 0.14.


Bibliografía
Watson, J. H. (2012). Introduccion a la economia. Madrid: Pearson Educación, S.A.

Obtenido de

https://drive.google.com/file/d/1xKN67rLICMKJNPGB4Y1ybPU5LSTj3L87/view?

usp=sharing

También podría gustarte