Está en la página 1de 17

ECONOMETRÍA-Apéndice A

Integrantes: Soria Talavera Miguel - Rodrigo Evangelista


Reynalte

UNI

27 de agosto del 2019


Temas a desarrollar

1. Operadores de sumatoria y de producto


2. Espacio muestral, puntos muestrales y sucesos
3. Probabilidad y variables aleatorias
4. Función de densidad de probabilidad (FDP)
5. Caracterı́sticas de las distribuciones de probabilidad
6. Algunas distribuciones de probabilidad teóricas importantes
7. Inferencia estadı́stica: estimación
8. Inferencia estadı́stica: pruebas de hipótesis
1. Operadores de sumatoria y de producto
I Propiedades de la sumatoria:
Pn
1. Pi k = nk P
n n
2. Pi=1 kxi = k i=1 x, donde Pn k es una constante
n
3. Pi=1 (a + bxi ) = P na + b i Pxi , donde a y b son ctes.
n n n
4. (x
i=1 i + y i ) = x
i=1 i + i=1 yi
PP
I Propiedades de las sumas múltiples( ):
Pn Pm Pm Pn
1. j=1 xij = P x
Pi=1
n P m
j=1
n Pmij
i=1
2. x i y j = x i yj
Pni=1 Pm j=1 i=1
Pj j=1 Pm Pn Pm
3. i=1 j=1 (xij + y ij) = i=1 j=1 xij + i=1 j=1 yij
Pn Pn Pn−1 Pn
4. [ i=1 xi ]2 = i=1 xi2 + 2 i=1 j=i+1 xi xj =
Pn 2
P
i=1 xi + 2 i<j xi xj
Q
I Operador producto o productoria ( ):
n
Y
xi = x1 .x2 .x3 · · · .xn
i=1
2. Espacio muestral, puntos muestrales y suceso

I Espacio muestral: Es aquel grupo de resultados de un


experimento aleatorio.
I Punto muestral: Serán los miembros que compongan al
espacio muestral.
I Suceso : Sera un subconjunto del espacio muestral.
I Por ejemplo, supóngase que se lanzan 2 dados, y quiere
saber todas las posibilidades de la suma del resultado
obtenido. El espacio muestral ira desde el numero 2(mı́nimo
resultado) hasta el 12(máximo resultado). El punto muestral
sera por ejemplo el resultado 2 (que solo se obtendrá cuando
ambos dados marquen 1), y un suceso sera cuando los
resultados estén entre el rango de 5 a 8.
3. Probabilidad y variables aleatorias
I Probabilidad: Sera el cociente entre el número de resultados
de un suceso, y que siempre tendrá el mismo resultado, con
respecto a todos los resultados del experimento.
I Variables Aleatorias (V.A.): Es aquella variable que estará
determinada de los posibles resultados del experimento a
realizar. Se clasifican en V.A. discreta y continua. Se llamara
variable aleatoria discreta (VAD) si los resultados son
representados por un conjunto finito de valores, y sera
variable aleatoria continua (VAC) si es que estos resultados
pueden adquirir cualquier valor de un intervalo (numero
infinito de posibilidades).
I Del ejemplo anterior, sea A la probabilidad de que la suma
de las caras al lanzar 2 dados sea 2. Entonces la probabilidad
1
de que ocurra A o P(A) 36 , y quiere decir que de 36
resultados disponibles, solo habrá 1 que de el valor de 2. La
variable aleatoria sera la suma de las caras de los dados y sera
de tipo discreta.
4. Función de densidad de probabilidad (FDP)

I FDP de una variable aleatoria discreta f (x): Sea X una


VAD y que puede tomar valores de un conjunto de los
siguientes datos: (x1 , x2 , ..., xn ). Entonces una FDP de una
VA discreta sera:
1. f (x) = P(X = xi ), cuando i=1,2,3,...,n,..
2. f (x) = 0, cuando x 6= xi
4. Función de densidad de probabilidad (FDP)

I FDP de una variable aleatoria continua f (x): Sea X una


VAC. Entonces, se dice que f (x) es la FDP de X si se
cumplen las siguientes restricciones:
1. fR (x) ≥ 0

2. −∞ f (x)dx = 1
Rb
3. a f (x)dx = P(a ≤ x ≤ b) , donde f (x)dx representara la
probabilidad correspondiente a un pequeño intervalo de X y
P(a ≤ x ≤ b) significara la probabilidad de que X este dentro
del intervalo a ≤ x ≤ b.
4. Función de densidad de probabilidad (FDP)

I FDP conjunta discreta f (x, y ):


Objetivo: Dar la probabilidad cuando X=x e Y=y Sean X y Y
dos VAD. Entonces, la función:
1. f (x, y ) = P(X = x e Y = y )
2. f (x, y ) = 0 cuando: X 6= x e Y 6= y
I FDP marginal: Teniendo en cuenta f (x, y), f (x) y f (y) se
podrá obtener funciones de densidad de probabilidad
individual.
Donde:
P
1. f (x) = Py f (x, y ), y representara la FDP marginal de X
2. f (Y ) = X f (x, y ), y representara la FDP marginal de y
4. Función de densidad de probabilidad (FDP)

I FDP condicional: Estará representado bajo la forma:

f (x|y ) = P(X = x|Y = y )

, donde X e Y serán variables aleatorias.


I Objetivo: Encontrar la probabilidad de que X sea x, dado que
Y alcanzo el valor de y.
I Independencia Estadı́stica: Sea X e Y variables aleatorias,
se les considerara independientes si cumplen que :

f (x, y ) = f (x)f (y )
4. Función de densidad de probabilidad

I FDP conjunta continua:


Sea X e Y variables continuas, y f(x,y)≥0, entonces la FDP
conjunta continua de estas variables se representara como:
R∞ R∞
1. f (x, y )dxdy = 1
R−∞
d Rb
−∞
2. c a f (x, y )dxdy = P(a ≤ x ≤ b, c ≤ y ≤ d)
5. Caracterı́sticas de las distribuciones de probabilidad

I Valor esperado: También conocido valor medio y tiene la


forma de un promedio ponderado (su cálculo necesita de
pesos, participaciones o probabilidades). Para una variable
aleatoria discreta (VAD) X, su valor esperado estará
representado como:
X
E (x) = xf (x)
x
P
, donde x significa la suma sobre todos los valores de X y f
(x) es la FDP (discreta) de X.
I Propiedades del valor esperado:
1. E(a) = a, donde a es cte.
2. E(aX + b) = aE(X) + b, donde a y b son ctes.
3. Si X y Y son variables aleatorias independientes, E(XY) =
E(X)E(Y)
5. Caracterı́sticas de las distribuciones de probabilidad

I Varianza: Mide el grado de dispersión que tienen las variables


con respecto a su media.
I Fórmula:
var (X ) = σX2 = E (X − µ)2
I Propiedades de la varianza:
1. E (X − µ)2 = E (X 2 ) − µ2
2. var (a) = 0, donde a es cte.
3. var (aX + b) = a2 var (X ), donde a y b son ctes.
4. var (X + Y ) = var (X ) + var (Y )
var (X − Y ) = var (X ) + var (Y ), donde X e Y son VA
independientes.
5. Caracterı́sticas de las distribuciones de probabilidad

I Covarianza: Mide el grado de asociación que hay entre 2


variables.
I Formula: cov (X , Y ) = E (X − µx )(Y − µy ) = E (XY ) − µx µy
I Propiedades de la covarianza:
1. cov (X , Y ) = 0
2. cov (a + bX , c + dY ) = bdcov (X , Y ), si X e Y son
independientes, y a,b,c,d constantes.
5. Caracterı́sticas de las distribuciones de probabilidad

I Coeficiente de correlación: Mide el grado de asociación


lineal que hay entre 2 variables. Sus valores van de -1(perfecta
asociación negativa) a 1(perfecta asociación positiva).
I Formula:
cov (X , Y ) cov (X , Y )
ρ= p =
var (X )var (Y ) σx σy

I Varianza de variables correlacionadas:


var (X + Y ) = var (X ) + var (Y ) + 2cov (X , Y )
var (X − Y ) = var (X ) + var (Y ) − 2cov (X , Y ), donde X e Y
son VA.
Si X e Y fueran independientes se cumple que:
1. cov (X , Y ) = 0
2. var (X + Y ) = var (X − Y )
5. Caracterı́sticas de las distribuciones de probabilidad
I Esperanza Condicional: La esperanza condicional de X,
cuando Y sea y sera:
P
1. E (X |Y = y ) = x R x f (x|Y = y ), si X es discreta.

2. E (X |Y = y ) = x −∞ f (x|Y = y ), si X es continua.
Donde X e Y representan variables aleatorias.
I Varianza Condicional: La varianza condicional de X, cuando
Y alcanza el valor de y sera:

var (X |Y = y ) = E ([X − E (X |Y = y )]2 |Y = y )


I Propiedades de la esperanza y varianza condicional:
1. Si f (X ) es una función que dependerá de X, entonces
podemos decir que E [f (X )|X ] = f (X )
2. Si f (X ) y g(X ) son funciones que dependeran de X, entonces:
E [f (X )Y + g (X )|X ] = f (X )E (Y |X ) + g (X )
3. Si X e Y son variables independientes se cumple que la
E (Y |X ) = E (Y )
4. E (Y ) = EX [E (Y |X )](ley de las esperanzas iteradas)
5. Caracterı́sticas de las distribuciones de probabilidad

I Momentos superiores de las distribuciones de


probabilidad.
I Momento n-ésimo alrededor de la media: E (x − µ)n
I Indice de Asimetrı́a: Magnitud que mide la falta de simetrı́a
de una distribución de probabilidades.

E (x − µ)3
S=
σ2
I Indice de Curtosis: Magnitud que mide el grado de altura o
aplanamiento de una distribucion de probabilidades

E (X − µ)4
K=
[E (X − µ)2 ]2
9. Referencias

I De xd, D. & Porter, D. (Ed). (2010). ECONOMETRÍA


(Quinta edición) México: McGRAW-HILL &
INTERAMERICANA EDITORES, S.A.

También podría gustarte