Está en la página 1de 65

Estadistica

2021
FUENTES, YESICA TAMARA

UNIDAD 1: PROBABILIDAD

No aleatorio

Finito
Experiment
Discreto
Infinito
Conjunto Numerable
Aleatorio Espacio
Muestral
(S)
Continuo
Subconjunto
es:
Unitarios
Suceso o Evento Imposible
Compuestos
Seguro

Sucesos
disjuntos

*Experimento

- No Aleatorio: Experimento en el que se conoce exactamente el resultado.

-Aleatorio: Es un experimento en el que no se conoce con certeza el resultado.

*Espacio Muestral (S): se lo llama así al, conjunto de todos los resultados posibles de un experimento aleatorio.

-Discreto: es el espacio muestral en los naturales o un subconjunto de los naturales, IN. Se pueden enumerar.

-Continuo: es el espacio muestral en los reales o un subconjunto de los reales, IR. No se pueden enumerar.

*Suceso o Evento: es cualquier subconjunto de (S), espacio muestral.

*Sucesos Disjuntos ( o mutuamente excluyentes): son subconjuntos de (S) tales que su intersección es vacía.

El suceso vacío es disjunto de cualquier otro suceso.

Partes de (S): Es el conjunto de todos los subconjuntos de S. Se lo indica P(S)

Si S es discreto finito y S tiene n elementos, P(S) tiene 2 elementos.

Clásico
Hay 3 enfoques de probabilidad Frecuentista

Axiomático Se puede aplicar siempre pág. 1


FUENTES, YESICA TAMARA
*CLASICO: *FRECUENCIAL:

-Espacio muestral discreto finito S -Se basa en la experimentación y principio de


estabilidad de la frecuencia relativa de un suceso
-Cada suceso elemental sea igualmente verosímil
(deben tener la misma probabilidad) -experimento se repite un gran número de veces

-Probabilidad de un suceso A⊂S -el resultado de una repetición no influye en el de otra.


(ensayos independientes)
n(A)
-P(A)= ( )
-P(A)= lim

*AXIOMÁTICA:

-S un conjunto no vacío

-P(S) el conjunto de las partes de S

Se llama función probabilidad a cualquier función P: P (S) → [0,1]

(que va de parte de S al intervalo [0,1]. Mide los elementos de parte de S y les asigna un valor entre cero y uno)

Cumple los siguientes axiomas:

1. P(S)=1
2. Para cualquier sucesión { 𝐴 } de elementos P(S), disjuntos dos a dos 𝐴 ∩ 𝐴 = ∅ ∀ 𝑖 ≠ 𝑗
se verifica: 𝑃( ⋃ 𝐴 )= ∑ 𝑃(𝐴 )

Espacio de probabilidad

Se llama espacio de probabilidad al par ( S ,P )

P probabilidad definida en el conjunto de partes de


S, P (S)
S espacio muestral del
experimento aleatorio Si P asigna igual probabilidad a todos los sucesos
elementales de S,

Se dice que:

(S,P) es equiprobable

S es discreto finito y (S,P) es equiprobable

Enfoque clásico = Enfoque axiomático

pág. 2
FUENTES, YESICA TAMARA
PROPIEDADES:

Sea (S , P) un espacio de probabilidad, entonces :

 Propiedad 1: P(  ) = 0
Demostración:
 =     …    ..
Luego : P() = P(     …    )

{𝐴 } = {  } es una sucesión numerable de sucesos disjuntos dos a dos, luego por el axioma 2:

P(  ) = P(  ) + P(  ) + … + P() + …=∑ 𝑃 (  ) = lim 𝑛. 𝑃()


→∞

Sabemos que P() ϵ [0,1] supongamos P() = k > 0

Luego, P() = lim 𝑛. 𝑘 = ∞ ABSURDO!!


Resulta, P()=0

 Propiedad 2: Si 𝐴 , 𝐴 , … , 𝐴 ϵ P(S) y 𝐴 ∩ 𝐴 = , ( para i ≠ j) entonces:

P(∪ 𝐴 )=∑ 𝑃(𝐴 )


Usando los sucesos disjuntos dos a dos 𝐴 , . . , 𝐴 y el conjunto vacio, se define una sucesión de conjuntos disjuntos dos a dos de la
siguiente manera:
𝐴 , 𝑠𝑖 𝑘 ≤ 𝑛
𝐵 =
∅ , 𝑠𝑖 𝑘 > 𝑛
Evidentemente, ⋃ 𝐴 =⋃ 𝐵 y 𝑝(⋃ 𝐴 ) = 𝑝(⋃ 𝐵 )
Por el axioma 2:

𝑝 𝐴 ) = 𝑝( 𝐵 = 𝑘 = 1∞𝑝(𝐵 ) = 𝑘 = 1𝑛𝑝(𝐵 ) + 𝑘 = 𝑛 + 1∞𝑝(𝐵 ) = 𝑘 = 1𝑛𝑝(𝐴 ) + 𝑘

= 𝑛 + 1∞𝑝(∅) = 𝑘 = 1𝑛𝑝(𝐴 )

 Propiedad 3: Sea (S,P) un espacio de probabilidad, entonces si A ϵ P(S) entonces:


P(𝐴̅) = 1- P(A)
Dado cualquier suceso A, el espacio muestral S puede expresarse como la unión disjunta A  𝐴̅
S = A  𝐴̅ → P(S) = P( A  𝐴̅ )
Por axioma 1 se
sabe: P(S)=1 Por axioma 2 ∑ 𝑃(𝐴) + 𝑃(𝐴̅)

Entonces : 1 = P(A) + P(𝐴̅)

Al despejar P(𝐴) = 1- P(A)

pág. 3
FUENTES, YESICA TAMARA

 Propiedad 4: Sea (S,P) un espacio de probabilidad, entonces:

P es una función no decreciente: si A⊂B entonces P(A) ≤ P(B)

 Propiedad 5: Si A,B ϵ P(S) entonces:


P(A-B) = P(A) - P(A ∩ B)
A-B = { x ϵ S / x ϵ A ˄ x ɇ B } = A ∩ 𝐵
El suceso A puede expresarse como unión disjunta
A=(A-B)  (A ∩ B)
En consecuencia por la propiedad 2:, P(A)= P(A - B)+P(A ∩ B)
Luego al despejar: P(A - B)=P(A)-P(A∩B)

°Caso particular:
si B ⊂ A entonces: A∩B=B
Luego: P (A-B)=P (A) – P (B)

 Propiedad 6: Si A,B ϵ P(S) entonces: P(AB)= P(A) + P(B) – P(A ∩ B)


AB puede expresarse como unión disjunta A  B= B  (A - B)
P(AB)=P[ B  (A - B)]
Como son disjuntas, se puede aplicar la propiedad 2:
P(AB)=P(B) + P(A - B)

P(B)+ P(A) – P(A∩B) por propiedad 5


P(AB)= P(A) + P(B) - P(A∩B)

Generalización a 3 sucesos:
P(ABC)= P(A) + P(B) + P(C) - P(A∩B) - P(A∩C) - P(B∩C) + P(A∩B∩C)

pág. 4
FUENTES, YESICA TAMARA
PROBABILIDAD CONDICIONAL.

Dado un espacio de probabilidad (S , P) y un suceso B ϵ P(S) tal que P(B) ≠ 0, para cada suceso A ϵ P(S), la
probabilidad condicional de A dado B (de A dado que B ya ocurrio), denotada P(A/B), es:
( ∩ )
P(A/B)= ( )
,con P(B)≠0

Error frecuente: confundir probabilidad condicional con probabilidad de la intersección. En ambos medimos
efectivamente la intersección, pero :

° En P(A∩B) con respecto a P(S)=1

( ∩ ) ( )
P(S)= P(S/B)= ( )
= ( )
=1

° En P(A/B) con respecto a P(B)

REGLA MULTIPLICATIVA
( / )
P(A/B)= ( )
despejamos

( / )
P(B/A)= ( )
despejamos

P(A∩B) = P(A). P(B/A) = P(B).P(A/B)

Generalizacion a “n” sucesos, en particular para 3 sucesos:

P(A∩B∩C)=P(A). P(B/A). P(C/A∩B) (para experimentos en etapas)

SUCESOS INDEPENDIENTES

Dos sucesos son independientes si, el que ocurra uno, no afecta la información sobre el otro.

Sean A y B dos sucesos en el espacio de probabilidad (S, P). A y B son sucesos independientes si y solo si se cumple
una de las siguientes afirmaciones:

1. P(A∩B) = P(A).P(B)
2. P(A/B) = P(A) Siempre que, el que ya ocurrió sea ≠ 0 [ P(B), P(A)
3. P(B/A) = P(B) respectivamente]

 Observaciones
 Si los sucesos A y B tienen ambos probabilidad positiva (no nula) las tres afirmaciones anteriores son
completamente equivalentes. Es decir, cualquiera de ellas puede ser usada para comprobar la
independencia o no de dos sucesos.
 La primera afirmación es mas general que las otras dos, en el sentido de que vale también cuando dos
sucesos (o uno de ellos) tienen probabilidad nula.
 La independencia de dos sucesos es un concepto diferente de la idea de eventos mutuamente excluyentes.
En general, ninguno de ellos implica al otro.
 Dos sucesos son mutuamente excluyentes e independientes si al menos uno de ellos es el conjunto vacio.

pág. 5
FUENTES, YESICA TAMARA
PROPIEDAD DE INDEPENDENCIA DE SUCESOS

Sean A y B dos sucesos independientes definidos en un espacio de probabilidad (S, P), entonces:

1. A y 𝐵
2. 𝐴̅ y B Son independientes
3. 𝐴 𝑦 𝐵

GENERALIZACION DE LA DEFENICION DE INDEPENDENCIA

Sean 𝐴 , 𝐴 , … , 𝐴 sucesos independientes si y solo si se cumplen las siguientes afirmaciones:

 P(𝐴 ∩𝐴 ) = P(𝐴 ) . P(𝐴 )


 P(𝐴 ∩𝐴 ) = P(𝐴 ) . P(𝐴 )
 P(𝐴 ∩𝐴 ) = P(𝐴 ) . P(𝐴 )
 P(𝐴 ∩𝐴 ∩ 𝐴 )= P(𝐴 ) . P(𝐴 ) . P(𝐴 )

TEOREMA DE BAYES

Sea (S , P) un espacio de probabilidad y 𝐴 , 𝐴 , … , 𝐴 “n” sucesos con probabilidad positiva en S.

P(𝐴 ) ≠ 0, i=1, 2, … , n, tales que forman una partición de S, es decir, ⋃ 𝐴 = S donde 𝐴 ∩ 𝐴 =  si i≠j

Dado además un suceso B ϵ P(S) tal que P(B) > 0 la probabilidad posterior de un suceso 𝐴 , cualquiera con
probabilidad positiva es:
( ). ( / )
P(𝐴 /B)= ∑ ( ). ( / )

Con mis palabras, usamos el teorema de Bayes para cuando tenemos una P(A/B) y nos piden una P(B/A)

Demostración:
( ∩ ) ( ). ( / )
P(𝐴 /𝐵) = ( )
= ( )
= (1)

Si : B = (𝐴 ∩ 𝐵)  (𝐴 ∩ 𝐵)  …  (𝐴 ∩ 𝐵) = ⋃ (𝐴 ∩ 𝐵)

(𝐴 ∩ 𝐵) ∩(𝐴 ∩ 𝐵) = (𝐴 ∩ 𝐴 ) ∩ (B∩B) =

=  ∩ B=

Aplicando probabilidad en ambas partes: P(B) = P(⋃ (𝐴 ∩ 𝐵) ) = ∑ 𝑃(𝐴 ∩ 𝐵) )

P(B) = ∑ 𝑃(𝐴 ). 𝑃(𝐵/𝐴 ) = (2)

Reemplazando (2) en (1) obtenemos lo que se quería demostrar:


( ). ( / )
P(𝐴 /B)= ∑ ( ). ( / )

pág. 6
FUENTES, YESICA TAMARA

APÉNDICE

Propiedades de las operaciones con conjuntos

IDEMPOTENCIA A  A= A
A ∩ A= A
ASOCIATIVIDAD (AB)  C = A  (BC)
(A∩B)∩C = A∩(B∩C)
CONMUTATIVIDAD AB = BA
A∩B = B∩A
DISTRIBUTIVIDAD A(B∩C) = (AB)∩(AC)
A∩(BC) = (A∩B)(A∩C)
IDENTIDAD A = A A∩ = 
A S = S A∩S = A

pág. 7
FUENTES, YESICA TAMARA
COMPLEMENTO A 𝐴̅ = S A∩𝐴̅ = 
LEYES DE MORGAN 𝐴̿ = 𝐴 𝑆̅ =  =𝑆
𝐴 𝐵 = 𝐴 ∩ 𝐵
̅ 𝐴 ∩ 𝐵 = 𝐴̅  𝐵

pág. 8
FUENTES, YESICA TAMARA

Unidad 2: VARIABLE ALEATORIAS DISCRETAS


VARIABLE ALEATORIA.

Definición : Sea S el espacio muestral ligado a un experimento aleatorio, una variable aleatoria es una función X que
asigna a cada elemento del espacio muestral un numero del conjunto de los números reales R.

X : S → R / ∀ 𝑠 ∈ 𝑆, 𝑋(𝑠) = 𝑥 es un número real.

Se la escribe o identifica con letra mayúscula.

CLASIFICACION

 Según el conjunto imagen X(S), las variables aleatorias se clasifican en:

DISCRETAS CONTINUAS
El conjunto X(S) es numerable. El conjunto X(S) es no numerable.

Los puntos se sitúan en el eje x, toma algunos puntos Toma infinitos valores de una recta real.
de la recta.

Función densidad de probabilidad de una v.a. discreta

Definición: Sea X una v.a. discreta definida sobre un espacio de probabilidad (S , P) se llama función de probabilidad
de la v.a.d. X a la función 𝑓 (𝑥): 𝑅 → [0,1] 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑓 (𝑥) = 𝑃({𝑠 ∈ 𝑆 /𝑋( ) = 𝑥}) = 𝑃(𝑋 = 𝑥)

Se la expresa en minúscula indicando en el subíndice, la v.a. sobre la que esta definida.

Formas de expresar una función de densidad de probabilidad.

 Como una función definida por partes: 0,9025 si x=0

0,095 si x=1
𝑓 (𝑋) =
0,0025 si x=2

0 en caso contrario

 En una tabla.
X 0 1 2
𝑓 0,9025 0,095 0,0025

(Estos números son de ejemplo) pág. 9


FUENTES, YESICA TAMARA
 Utilizando la función indicadora.

Especifica el dominio de la densidad. Indica el conjunto de valores que tomara la v.a. X.

𝐼 : ℝ → {0,1}/ 𝐼 (𝑋) = 1 si x ∈ 𝐴 , siendo A ≠ ∅


0 si x ∈ 𝐴

Volviendo con el ejemplo:

𝑓 (𝑥) = 0,9025 𝐼( ) (𝑋) + 0,095 𝐼( ) (𝑋) + 0,0025 𝐼( ) (𝑋)

Grafico

𝑓
0,9025

0,095

0,0025

0 1 2 x

Propiedades fundamentales de la función densidad

1) 𝑓 (𝑥) ≥ 0∀𝑥 ∈ 𝑅
2) ∑ 𝑓 (𝑥) = 1

Son fundamentales porque, toda función de densidad de v.a.d. las cumple y además, si una función cualquiera
cumple con ambas propiedades es una función de densidad.

Función de distribución acumulada

Sea (S , P) espacio de probabilidad y X una v.a.d. definidas en S.

Se llama función de distribución acumulada o acumulativa de la v.a X a la función definida como: 𝐹 : 𝑅 → [0,1]

𝐹 (𝑋) = 𝑃 ({𝑠 ∈ 𝑆/ 𝑥(𝑆) ≤ 𝑥}) = 𝑃(𝑋 ≤ 𝑥)


Se la expresa con letra imprenta mayúscula, indicando como subíndice la v.a. sobre la que se define.

Volviendo al ejemplo:
P(X≤0)= 0,9025

P(X≤ 1) = P(X= 0)+P(X= 1) = 𝑓 (0) + 𝑓 (1) = 0,9025 + 0,095 = 0,9975

P(X≤ 2) = P(X=0)+P(X=1)+P(X=2)= 𝑓 (0) + 𝑓 (1) + 𝑓 (2) = 0,9025 + 0,095 + 0,0025 = 1

Grafico 𝐹
1

0,9975
pág. 10
0,9025

0 1 2 x
FUENTES, YESICA TAMARA
Propiedades fundamentales

1) lim 𝐹 (𝑋) = 0 𝑦 lim 𝐹 (𝑋) = 1


→ →

2) 𝐹 se mantiene igual o crece en sentido amplio, es decir: 𝑥 < 𝑥 ⟹ 𝐹 (𝑥 ) ≤ 𝐹 (𝑥 )

Demostración:

Sea 𝑥 < 𝑥 ⟹ 𝐹 (𝑥 ) = 𝑃(𝑋 ≤ 𝑥 ) = 𝑃(𝑋 ≤ 𝑥 ) + 𝑃[𝑥 < 𝑋 ≤ 𝑥 ]

=𝐹 (𝑥 ) + 𝑃[𝑥 < 𝑋 ≤ 𝑥 ]

Y como P[𝑥 < 𝑋 ≤ 𝑥 ]≥ 0

Resulta 𝐹 (𝑥 ) ≤ 𝐹 (𝑥 )

3) Continuidad por derecha en todo su dominio. Es discontinua (presenta saltos) por izquierda y continua por
derecha.
lim 𝐹 (𝑥 + ℎ) = 𝐹 (𝑥) ∀𝑥 ∈ 𝑅

Son fundamentales por que cualquier función acumulada tiene que cumplir estas 3 propiedades, si
no cumple con alguna de ellas, no es una función de distribución.

Función densidad Función acumulada


𝑓 (𝑥) = lim 𝐹 (𝑥 + ℎ) − lim 𝐹 (𝑥 − ℎ) = 𝐹 (𝑥) = 𝑓 = 𝑃(𝑋 = 𝑥)
→ →
= 𝐹 (𝑥) − lim 𝐹 (𝑥 − ℎ)

MEDIDAS DESCRIPTIVAS DE UNA V.A.D


 CUANTILES

Se denomina cuantil de orden q (donde 0 ˂ q ˂ 1), expresado como 𝑥 al menor valor que toma una variable
aleatoria X si cumple que: P( X ≤ 𝑥 ) ≥ q

Se lo interpreta como: “a lo sumo..”

Si se divide al condominio de 𝐹 , es decir [0 , 1] en :

 Cuartos → cuar les: (0,25 ; 0,50 ; 0,75)


 Decimos → deciles: (0,10 ; 0,20 ; … ; …0,90)
 Centésimos → percentiles: (0,01 ; 0,02 ; … ; 0,99)

Mediana= 𝑢 = 𝑥 ,

Ejemplo si digo que el x . = 2 su interpretación seria, “obtengo a lo sumo un valor de 2 con una probabilidad del
25%”

 MODA O VALOR MODAL


pág. 11
FUENTES, YESICA TAMARA
Cuando la variable definida es discreta, el valor modal, corresponde al valor de v.a. cuya funcion de densidad de
probabilidad toma el valor mayor.

 ESPERANZA

Sea X una v.a.d. definida en S, (S , P) el espacio de probabilidad y X(S) el conjunto de los valores que toma X. Se
simboliza E(X)=𝑢 y se obtiene:

E(X)= 𝑢 = ∑ ∈ ( )𝑥 . 𝑓 (𝑥)

 ESPERANZA DE UNA FUNCIÓN

Sea X : S → R una variable aleatoria y g : R → R entonces la función compuesta g 𝑜 X = g(X) es también una
variable aleatoria y la esperanza de g(x) es:

𝐸(𝑔(𝑥)) = ∑ ∈ ( ) 𝑔(𝑥) . 𝑓(𝑥)

Propiedades

Sea X una v.a., c y b constantes reales, g y funciones reales.

1) Esperanza de una constante:


Si P(X=c) = 1 entonces E(X)= c
Demostración:
Partimos de que P(X=c) = 1 luego el único valor que toma la v.a. X es, el valor c.
Luego E(X) = ∑ ∈ ( ) 𝑥. 𝑓 (𝑥) =

Entonces: E(X) = c. 𝑓 (𝑐) =

=c. P(X = c)
=c. 1 = c
Luego queda demostrado que si P(X=c) = 1 entonces E(X) = c ó lo que es lo mismo E(c) = c

2) Sea X v.a.d, c y b constantes reales, luego: E(c . g(x) + b) = c. E(g(x)) + b


Demostración:
Supongamos h(x) = c . g(x) + b luego :

E(c . g(x) + b)=

=E( h(x) ) = ∑ ∈ ( ) ℎ(𝑥) 𝑓 (𝑥)

=∑ ∈ ( )(𝑐 . 𝑔(𝑥) + 𝑏 ) 𝑓 (𝑥)

=∑ ∈ ( )[ 𝑐 . 𝑔(𝑥). 𝑓 (𝑥) + 𝑏 . 𝑓 (𝑥)]

=∑ ∈ ( )[ 𝑐 . 𝑔(𝑥). 𝑓 (𝑥)] + ∑ ∈ ( )[ 𝑏. 𝑓 (𝑥)]

=c . ∑ ∈ ( )[ 𝑔(𝑥) . 𝑓 (𝑥)] + 𝑏 . ∑ ∈ ( )𝑓 (𝑥)

= c . E( g(x) ) + b

Luego, E(c . g(x) + b) = c . E( g(X) ) + b

3) E[ g(x) + h(x) ] = E[ g(X) ] + E[ h(x) ]

pág. 12
FUENTES, YESICA TAMARA

Observaciones:
El valor de la esperanza no necesariamente pertenece al conjunto soporte X(S), pero si pertenece al rango de
medición de X.

Mantiene la unidad con que se observa a la v.a.

Se interpreta como un “promedio..”

 VARIANZA

Sea X una v.a.d. definida en un espacio de probabilidad (S , P). con función densidad 𝑓 definida y con 𝑢 < ∞.
La varianza de una v.a.d, se simboliza como var(x) ó 𝜎 y se obtiene:

𝑣𝑎𝑟(𝑥) = 𝐸(X ̶ µ) = E(x ) ̶ E (x)


Propiedades

Sea X una v.a. , c y b constantes reales y g una función real.

1) varianza de una constante


si P(X=c)= 1 entonces var(x)=0, ó lo que es lo mismo var(c)=0
Demostración:

Partimos de que P(X = c) = 1, luego el único valor que toma la v.a. X es, el valor c.

Var(x) = E(X - 𝑢 ) =

E(c) = c

= E(c - c)

= E(0)

= E(0)=0

Luego, si P(X=c) = 1 entonces VAR(X) = 0, ó lo que es lo mismo var(c) = 0

2) var(c . g(x)) = 𝑐 . 𝑣𝑎𝑟(𝑔(𝑥))


Demostración:

Supongamos que h(x) = c. g(x)

Var(c . g(x)) = var(h(x)) = E [ h(x) – E(h(x))]

= E[ 𝑐. 𝑔(𝑥) − 𝐸(𝑐 . 𝑔(𝑥))]

= E [𝑐 . 𝑔(𝑥) − 𝑐 . 𝐸( 𝑔(𝑥) ) ]

= E [𝑐 . ( 𝑔(𝑥) − 𝐸( 𝑔(𝑥) ) )]

= 𝑐 . E[( g(x) – E( g(x) ) )]

= 𝑐 . 𝑣𝑎𝑟( 𝑔(𝑥) )

Luego var(c . g(x)) = 𝑐 . Var(g(x))

pág. 13
FUENTES, YESICA TAMARA

3) var(X + c ) = var(x)

4) var(x) = E(𝑥 ) – 𝐸 (𝑥) = E(𝑥 ) - 𝑢


Demostración:

Var(x) = E [𝑋 − 𝐸(𝑥)]

= E [𝑋 − 2 𝑋 𝐸(𝑋) + 𝐸 (𝑋) ]

= E (𝑋 ) - 2𝐸 (𝑋) + 𝐸 (𝑋)

= E(𝑋 ) - 𝐸 (𝑋)

= E(𝑋 ) - 𝑢

Observaciones:
Siempre da un valor mayor o igual a cero.

No tiene necesariamente que pertenecer ni al conjunto soporte ni al rango de la v.a.

La unidad de la varianza, es la unidad de la v.a. elevada al cuadrado.

Es la distancia que toman los valores de la v.a. X respecto de su valor esperado.

 DESVIO ESTÁNDAR O DESVIACIÓN TÍPICA

Sea X una v.a.d. definida en un espacio de probabilidad (S , P), con funcion densidad 𝑓 definida y con 𝑢 < ∞ .Se
define el desvio estándar de una v.a. X como la medida obtenida a partir de la raíz cuadrada de la varianza, es
decir: 𝜎 = 𝑣𝑎𝑟(𝑥)

pág. 14
FUENTES, YESICA TAMARA
MODELOS DE DISTRIBUCION
MODELO BERNOULLI X~ Bernoulli (π)

Este modelo se utiliza para experimentos con 2 posibles resultados.

La probabilidad del éxito es π. Donde 0 ˂ π ˂ 1

Conjunto soporte:

Función densidad Función acumulada


𝑓 (𝑥) = 𝜋 (1 − 𝜋) 𝐼{ , } (𝑥) 𝐹 (𝑥) = (1 − 𝜋) 𝐼[ , ) (𝑥) + 𝐼[ , ) (𝑥)

ESPERANZA

VARIANZA

MODELO BINOMIAL X ~ binomial (n , π)

Se usa cuando, tenemos un experimento que se repite n veces, (donde n es fijo), y π es constante.

Y cada prueba tiene 2 resultados posibles (éxito y fracaso). Mide la cantidad de éxitos en n tiros.

Función densidad
𝑓 (𝑥) = ( ) 𝜋 (1 − 𝜋) 𝐼{ , , .. } (𝑥)

Espacio paramétrico: 𝜃 = 𝑁 × [0,1]

Comando en R: dbinom (x , n , π)

pág. 15
FUENTES, YESICA TAMARA
ESPERANZA

E(X) = n.π

VARIANZA

Var(x)= n.π(1 - π)

MODELO GEOMETRICO X~ geométrico (π)

Responde a la pregunta ¿Cuántos fracasos obtuve hasta llegar a un éxito?

Es decir, mide la cantidad de fracasos que tuve antes de obtener un éxito.

Función densidad

Siendo 0 ˂ π ˂ 1

Espacio paramétrico: 𝜃 = [0,1]

ESPERANZA

E(X) =

VARIANZA

Var(X) =

MODELO DE POISSON X~ poisson ( 𝜆 )

Se utiliza cuando tenemos la probabilidad en una unidad de medida, espacio, tiempo o volumen; con una velocidad
constante.

Ofrece una aproximación excelente a la función de probabilidad binomial cuando π es pequeño (menor o igual a
0,05) y n grande (n> 20)

Función densidad
.
𝑓 (𝑥) = 𝐼 (𝑥)
!

Espacio de parámetro: 𝜃 = 𝑅

Esperanza= varianza ⇒ 𝐸(𝑥) = 𝑉𝑎𝑟(𝑥) = 𝜆

Grafico

pág. 16
FUENTES, YESICA TAMARA

pág. 17
FUENTES, YESICA TAMARA

Unidad 3 : VARIABLE ALEATORIAS COnTInuAS

Función acumulada Función densidad


Propiedades: Propiedades:
1) lim 𝐹 (𝑥) = 1 lim 𝐹 (𝑥) = 0 1) 𝑓 (𝑥) ≥ 0 ∀ 𝑥𝑑𝑜𝑛𝑑𝑒𝐹 𝑒𝑠 𝑑𝑒𝑟𝑖𝑣𝑎𝑏𝑙𝑒.
→ →
2) Es una función creciente en sentido amplio Como 𝑓 es la derivada de 𝐹 (en casi todo punto) y
𝑥 < 𝑥 ⟹ 𝐹 (𝑥 ) ≤ 𝐹 (𝑥 ) ésta es una función no decreciente, sus derivadas
3) Es una función continua ∀ 𝑥 ∈ 𝑅 son no negativas.
2) ∫ 𝑓 (𝑥) 𝑑𝑥 = 1
Demostración:
𝑓 (𝑥)𝑑𝑥 = lim 𝑓 (𝑢)𝑑𝑢

= lim 𝐹 (𝑥) = 1

Se deduce de esto que el área total situada debajo
de la curva de la función densidad es siempre igual
a 1.

𝑓 (𝑥) = 𝐹´ (𝑥)
𝐹 (𝑥) = 𝑓 (𝑢)𝑑𝑢 Si derivo la acumulada, obtengo la densidad.
Si integro la densidad, obtengo la acumulada.

Observaciones:
 𝑓 (𝑥) puede tomar valores mayores a 1
 La probabilidad de que la v.a. X tome valor en un punto es igual a cero. P(X=x)=0 ∀ 𝑥 ∈ 𝑅 , luego P(X ≤ x)
= P(X ˂ x)
P(X = x) = lim 𝐹 (𝑥 + ℎ) − lim 𝐹 (𝑥 − ℎ)
→ →
P(X = x) = 𝐹 (𝑥) − 𝐹 (𝑥)
P(X = x) = 0
 La probabilidad es una medida dada por una integral definida:

MEDIDAS DESCRIPTIVAS DE UNA V.A.C

 ESPERANZA

E(X) = ∫ 𝑥 . 𝑓 (𝑥)𝑑𝑥

pág. 18
FUENTES, YESICA TAMARA
 ESPERANZA DE UNA FUNCIÓN

E( g(x) ) = ∫ 𝑔(𝑥). 𝑓 (𝑥) 𝑑𝑥

 VARIANZA
Var(x) = ∫ (𝑥 − 𝑢) 𝑓 (𝑥)𝑑𝑥
 CUANTILES

El cuantil de orden “q”, que se escribe como 𝑥 de una v.a. X continua con función de distribución acumulada 𝐹
es el valor de la variable para el cual 𝐹 (𝑥 ) = 𝑃(𝑋 ≤ 𝑥 ) = 𝑞 donde 0 ˂ q ˂ 1.

OBSERVACION

Para una discreta: P(X ≤ x ) ≥ q

Para una continua:P(X ≤ x ) = q

MODELO DE DISTRIBUCION

MODELO UNIFORME X~uniforme [a , b]

Función densidad Función acumulada

Grafico: Grafico:

ESPERANZA

pág. 19
FUENTES, YESICA TAMARA
VARIANZA

MODELO DE PARETO

Función densidad Función acumulada

Grafico:

ESPERANZA

VARIANZA

MODELO NORMAL X ~ normal ( u , 𝜎 )

Función densidad

pág. 20
FUENTES, YESICA TAMARA

tii
En este modelo 𝓊=moda= maximo

Grafico

68%

95%

99%

NORMAL ESTANDAR X~N(0,1)

Si una variable tiene distribución X entonces:

𝑍=
Gráfico
ESPERANZA

VARIANZA

En el caso de variable X normal, la interpretación es clara: asigna a todo valor de N( u , 𝜎 ), un valor de N( 0 , 1), tal
que la probabilidad calculada con la N( u , 𝜎 ) de un intervalo cualquiera es exactamente la misma probabilidad que
la calculada con la N( 0 , 1) pero en el correspondiente intervalo transformado por z.

Este modelo nos permite así comparar entre dos valores de dos distribuciones normales diferentes.
pág. 21
FUENTES, YESICA TAMARA
Nos permite calcular áreas de cualquier variable con distribución normal.

Luego si X ~ N( u , 𝜎 ), entonces Z ~ N( 0 , 1)

Función densidad

pág. 22
FUENTES, YESICA TAMARA

VARIABLES ALEATORIAS
DISCRETAS CONTINUAS
𝑓 (𝑥) = 𝑃(𝑋 = 𝑥) 𝑑𝐹(𝑥)
𝑓 (𝑥) = 𝐹 ´ (𝑋) =
FUNCION DENSIDAD 𝑑𝑥

PROPIEDADES 1) 𝑓 (𝑥) ≥ 0 ∀𝑥 ∈ 𝑅 1) 𝑓 (𝑥) ≥ 0


FUNDAMENTALES 2) ∑ 𝑓 (𝑥) = 1 ∀𝑥 𝑑𝑜𝑛𝑑𝑒 𝐹 𝑒𝑠 𝑑𝑒𝑟𝑖𝑣𝑎𝑏𝑙𝑒
2) ∫ 𝑓 (𝑥)𝑑𝑥 = 1

FUNCION ACUMULADA 𝐹 (𝑋) = 𝑃(𝑋 ≤ 𝑥)


𝐹 (𝑥) = 𝑓 (𝑢)𝑑𝑢

1) lim 𝐹 (𝑥) = 0 y 1) lim 𝐹 (𝑥) = 0 y lim 𝐹 (𝑥) = 1


→ → →
PROPIEDADES lim 𝐹 (𝑥) = 1 2) 𝐹 (𝑥) es creciente en sentido
FUNDAMENTALES →
amplio, es decir:
2) 𝐹 (𝑥) es creciente en
sentido amplio, es 𝑥 < 𝑥 ⇒ 𝐹 (𝑥 ) ≤ 𝐹 (𝑥 )
decir:
𝑥 < 𝑥 ⇒ 𝐹 (𝑥 ) ≤ 𝐹 (𝑥 ) 3) Es función continua
3) Es función continua lim 𝐹 (𝑥 + ℎ) = 𝐹 (𝑥) = lim 𝐹 (𝑥 − ℎ)
→ →
lim 𝐹 (𝑥 + ℎ) = 𝐹 (𝑥) ∀𝑥 ∈ 𝑅

ESPERANZA E(X) = ∑ 𝑥 . 𝑓 (𝑥)


𝐸(𝑋) = 𝑥 . 𝑓 (𝑥)
1) E(c) = c
PROPIEDADES 2) E( c . g(x) + b ) = c . E[ g(x) ] + b
3) E[ g(x) + h(x) ] = E[ g (x) ] + E[ h(x) ]

VARIANZA Var(x) = 𝐸(𝑥 ) − 𝐸 (𝑥)

1) Var(c) = 0
PROPIEDADES 2) Var[ c . g(x) ] = 𝑐 . 𝑣𝑎𝑟[ 𝑔(𝑥) ]
3) Var(X + c) = var(x)
4) Var(x) = 𝐸(𝑥 ) − 𝐸 (𝑥)

pág. 23
FUENTES, YESICA TAMARA
Modelo Función Densidad/ Acumulada Esperanza Varianza Comando R
BERNOULLI 𝑓 (𝑥) = 𝜋 (1 − 𝜋) 𝐼{ , } (𝑥) E(X) = π Var(X) = π (1 - π) No tiene

𝐹 (𝑥) = (1 − 𝜋) 𝐼[ , ) (𝑥) + 𝐼[ , ) (𝑥)

D I S C R E T A S
BINOMIAL 𝑓 (𝑥) = ( ) 𝜋 (1 − 𝜋) 𝐼{ , , .. } (𝑥) E(X) = n.π Var(x) = n.π (1 - π) dbinom(x,n,π)
pbinom(x,n,π)
qbinom(q,n,π)
GEOMETRICO 𝑓 (𝑥) = 𝜋 (1 − 𝜋 ) 𝐼{ , ,...} (𝑥) E(X) = Var(X) = dgeom(x,π)
pgeom(x,π)
qgeom(q,π)
POISSON 𝑓 (𝑥) =
.
𝐼 (𝑥) E(X) = 𝜆 Var(x) = 𝜆 dpois(x,𝜆)
! ppois(x,𝜆)
qpois(x,𝜆)

UNIFORME 𝑓 (𝑥) = 𝐼[ , ] (𝑥) E(X) = Var(x) =


( ) dunif(x,a,b)
punif(x,a,b)
qunif(q,a,b)
𝐹 (𝑥) = 𝐼[ , ] (𝑥) + 𝐼( , ) (𝑥)
PARETO . 𝑣𝑎𝑟(𝑥) dpareto(x,𝛼, 𝜆)

C
𝐸(𝑋) =
𝐼( , ) (𝑥)
𝜆. 𝛼 ppareto(x,𝛼, 𝜆)

O N
=
(𝜆 − 1) . (𝜆 − 2) qpareto(q,𝛼, 𝜆)

T I N
NORMAL 𝐸(𝑋) = 𝑢 𝑣𝑎𝑟(𝑥) = 𝜎 dnorm(x,u,𝜎)
pnorm(x,u,𝜎)
qnorm(q,u,𝜎)

U A
NORMAL ESTANDAR 𝑍= E(X) = 0 Var(x) = 1 dnorm(x,0,1)
pnorm(x,0,1)
qnorm(q,0,1)

S
CHI-CUADRADO (Ver en notas) E(X) = n Var(x) =2n dchisq(x,n-1)
qchisq(q,n-1)
t DE STUDENT (Ver en notas) E(X) = 0 𝑣𝑎𝑟(𝑥) = dt(x,n-1)
qt(q,n-1)

pág. 24
FUENTES, YESICA TAMARA
F-FISHER (Ver en notas) 𝐸(𝑋) = para Var(X)= ( ) df(x,𝑛 -1, 𝑛 -1)
( ) .( ) qf(q,𝑛 -1, 𝑛 -1)
n >2 para n>4

pág. 25
FUENTES, YESICA TAMARA

UNIDAD 4 : DISTIBUCIONES CONJUNTAS


VARIABLE ALEATORIA CONJUNTA BIDIMENSIONAL

Sean X e Y dos variables definidas en el mismo espacio muestral S, es decir, X : S → R e Y : S → R; se llama variable
aleatoria conjunta bidimensional o vector aleatorio (X , Y) a la función (X , Y) : S → 𝑅 tal que:

(𝑋 , 𝑌) (𝑠) = (𝑋(𝑠) , 𝑋(𝑠)) = (𝑥, 𝑦) ∀ 𝑠 ∈ 𝑆


Donde 𝑅 = 𝑅 × 𝑅 = {(𝑋𝑥, 𝑦)/ 𝑥 ∈ 𝑅 ∧ 𝑦 ∈ 𝑅}

En el caso de que ambas v.a. sean:

 Discretas: el vector aleatorio es discreto.


 Continuas: el vector aleatoria es continuo

VARIABLES ALEATORIAS
DISCRETAS CONTINUAS
FUNCION DENSIDAD CONJUNTA FUNCION DENSIDAD CONJUNTA
Sean X e Y dos variables aleatorias discretas definidas Sea (X , Y) un vector aleatorio con función de
en un mismo espacio muestral, la función densidad distribución acumulativa 𝐹 , , se dice que (X , Y) es
conjunta del vector aleatorio (X , Y) discreto es: continuo si existe una función no negativa e integrable
𝑓 , : 𝑅 → [0,1] tal que: 𝑓 , ∶ 𝑅 → 𝑅 / ∀ (𝑥, 𝑦) de 𝑅 se cumple la igualdad:
𝑓 , (𝑥, 𝑦) = 𝑃(𝑋 = 𝑥 ∧ 𝑌 = 𝑦)
𝐹 , (𝑥, 𝑦) = 𝑓 , (𝑢, 𝑣)𝑑𝑣 𝑑𝑢

(representa una superficie)


Propiedades Propiedades
1) 𝑓 , (𝑥, 𝑦) ≥ 0 ∀(𝑥, 𝑦) ∈ 𝑅 1) 𝑓 , (𝑥, 𝑦) ≥ 0 ∀(𝑥, 𝑦) ∈ 𝑅
2) ∑ ∑𝑓 , (𝑥, 𝑦) = 1
2) ∫ (∫ 𝑓 , (𝑥, 𝑦)𝑑𝑦)𝑑𝑥 = 1

FUNCION MARGINAL FUNCION MARGINAL


Sean X e Y v.a.d. definidas en el espacio muestral S con Sean X e Y v.a.c. definidas en el espacio muestral S con
una función densidad de probabilidad conjunta 𝑓 , una función densidad de probabilidad conjunta 𝑓 ,
Entonces las funciones marginales de X e Y son: Entonces las funciones marginales de X e Y son:
𝑓 (𝑥) = 𝑓 , (𝑥, 𝑦) ∀𝑥 ∈ 𝑋(𝑆)
𝑓 (𝑥) = 𝑓 , (𝑥, 𝑦)𝑑𝑦
𝑓 (𝑦) = 𝑓 , (𝑥, 𝑦) ∀𝑦 ∈ 𝑌(𝑆)

Es 0 ∀ (x) , (y) ∉ X(S) , Y(S) 𝑓 (𝑦) = 𝑓 , (𝑥, 𝑦)𝑑𝑥


(si quiero la marginal para “x”, sumo sobre todos los valores de “y”
dejando a “x”fijo; si quiero la marginal de “y” dejo fijo a “y” y sumo Es 0 ∀ (x) , (y) ∉ X(S) , Y(S)
sobre todos los valores de x) (si quiero la marginal de “x”, debo integrar con los valores “y”; si
quiero la marginal de “y”, debo integrar con los valores de “x”.)
FUNCION ACUMULADA CONJUNTA
Sean X e Y dos v.a.(d. ó c.) definidas en el mismo espacio muestral S, la función acumulada conjunta es la función:
𝐹 , ∶ 𝑅 → [0,1] tal que: 𝐹 , (𝑥, 𝑦) = 𝑃(𝑋 ≤ 𝑥 ⋀ 𝑌 ≤ 𝑦)

pág. 27
FUENTES, YESICA TAMARA
Ejemplo:

x 0 1 2 𝑓 (𝑦)
y
0 0 0 1/4 1/4
1 0 1/2 0 1/2
2 1/4 0 0 1/4
𝑓 (𝑥) 1/4 1/2 1/4 1

ESPERANZA

Sean X e Y v.a. definidas sobre el mismo espacio de probabilidad (X , Y)∶ 𝑆 → 𝑅 con densidad conjunta 𝑓 , y sea
g(x,y) una nueva v.a. tal que g esta definida en (X , Y)(S), entonces:

DISCRETAS CONTINUAS

E(g(X , Y)) = ∑ ∑ 𝑔(𝑥 , 𝑦) 𝑓 , (𝑥 , 𝑦) E(g(X , Y)) = ∫ (∫ 𝑔(𝑥 , 𝑦) 𝑓 , (𝑥 , 𝑦)𝑑𝑦 )𝑑𝑥

CASOS PARTICULARES
1) Si g(X , Y) = aX + bY ∀ 𝑎, 𝑏 ∈ 𝑅 entonces: E[g(X , Y )]= E[a.X + b.Y]= a.E(X) + b.E(Y)

DEMOSTRACION
DISCRETO CONTINUO

2) Si g(X , Y) = (X - 𝓊 ) . (𝑌 − 𝓊 ) ,siendo X e Y variables con esperanzas finitas, entonces E(g(X , Y)) se


denomina covarianza:
Cov(X , Y)= E[ (X - 𝓾𝒙 ) . (Y - 𝓾𝒚)] = E(X.Y) – E(X).E(Y)

DEMOSTRACION

pág. 28
FUENTES, YESICA TAMARA

COVARIANZA
Sean X e Y dos v.a. con esperanzas finitas, la covarianza entre X e Y esta dada por Cov(X , Y) = E(X.Y) – E(X).E(Y)

¡Caso particular!

Cov(X , X) = E(X . X) – E(x).E(X) = E(𝑋 ) - 𝐸 (𝑋) = var(x)

Propiedades siendo a, b y c constantes reales.

1) Cov(a , X)=0
Demostración

Cov(a , X) = E[ (a – E(a) )] .(X – E(x))

= E[ (a – a ).(X – E(X))]

= E[0. (X – E(X))] = 0

2) Cov(X , Y) = cov(Y , X)
Demostración

3) Cov(X , a.Y) = cov(a.X , Y) = a.cov(X , Y)


Demostración

4) Cov[X + a ; Y] = cov[X , Y] = cov[X ; Y + a]


Demostración
Cov(X + a ; Y) = [ (X + a – E(X + a) ).(Y – E(Y)) ]

X + a – E(X) – a
Luego: = E[ (X – E(x)) . (Y – E(Y)) ] = cov(X , Y)

5) Cov(X + Y ; Z) = cov(X , Z) + cov(Y , Z)


Demostración

pág. 29
FUENTES, YESICA TAMARA

6) La covarianza es un operador bilineal, es decir, se verifica que:


cov[a.X + b.Y ; c.V + d.W] = a.c. cov(X , V) + a.d. cov(X , W) + b.c. cov(Y , V) + b.d. cov(Y , W)

Demostración

Propiedad varianza

Se puede probar que para dos v.a. cualesquiera X e Y: (siendo a y b constantes reales)

Var(a.X + b.Y) = 𝑎 . 𝑣𝑎𝑟(𝑋) + 𝑏 . 𝑣𝑎𝑟(𝑌) + 2. 𝑎. 𝑏. 𝑐𝑜𝑣(𝑋, 𝑌)

Demostración:

Var(a.X + b.Y) = cov(a.X + b.Y ; a.X + b.Y)

pág. 30
FUENTES, YESICA TAMARA

PROBLEMAS DE COVARIANZA

La cov(X,Y) depende de las unidades de medida de X e Y

SOLUCIÓN: COEFICIENTE DE CORRELACION

Éste coeficiente es adimensional.

El signo de este coeficiente depende del signo de la covarianza.

COEFICIENTE DE CORRELACIÓN
( , )
Dadas las v.a. X e Y con esperanzas y varianzas finitas, el coeficiente de correlación es: 𝒫(𝑋 , 𝑌) = .

Propiedades

1) −1 ≤ 𝒫 ≤ 1
2) Signo 𝒫 = signo cov(x,y)

Se dice que X e Y son no correlacionadas si y solo si 𝒫 = 0 ó lo que es lo mismo, si y solo si cov(x,y) = 0

No hay relación lineal entre X e Y, es decir que cov(x,y)=0 ó Existe una relación lineal entre X e Y, es decir que 𝒫 = −1 ó
que 𝒫 = 0 𝒫 = 1, existe correlación perfecta

pág. 31
FUENTES, YESICA TAMARA

Tanto la covarianza como el coeficiente de correlación son medidas de la relación lineal que existe entre 2
variables.

Miden lo mismo, solo que la correlación nos dice que tan fuerte es la relación lineal; si esa relación existe.

Provee información sobre la relación lineal que existe entre las variables.

MATRIZ DE VARIANZAS – COVARIANZAS

𝑋 𝐸(𝑋) 𝓊
Si consideramos el vector aleatorio 𝑥 = , definimos el vector de medias como 𝓊 = = 𝓊
𝑌 𝐸(𝑌)
La variabilidad del vector aleatorio se resume en la matriz de varianzas-covarianzas que se expresa como:

𝑐𝑜𝑣(𝑋, 𝑋) 𝑐𝑜𝑣(𝑋, 𝑌) 𝑣𝑎𝑟(𝑋) 𝑐𝑜𝑣(𝑋, 𝑌)


= =
𝑐𝑜𝑣(𝑋, 𝑌) 𝑐𝑜𝑣(𝑌, 𝑌) 𝑐𝑜𝑣(𝑋, 𝑌) 𝑣𝑎𝑟(𝑌)
Se lo puede escribir también como:

𝜎 𝒫(𝑋, 𝑌)𝜎 𝜎
=
𝒫(𝑋, 𝑌)𝜎 𝜎 𝜎

¡¡Caso particular!!

si X e Y son independientes:
𝑣𝑎𝑟(𝑋) 0
Se tiene una matriz diagonal:
0 𝑣𝑎𝑟(𝑌)

VARIABLES ALEATORIAS INDEPENDIENTES


Sean X e Y dos v.a. con distribución conjunta 𝑓 , , X e Y son independientes si y solo si: 𝑓 , (𝑥, 𝑦) = 𝑓 (𝑥). 𝑓 (𝑦)
∀ (𝑥, 𝑦) ∈ (𝑋 , 𝑌)(𝑆)
Donde 𝑓 e 𝑓 son las funciones de densidad marginales de X e Y.

pág. 32
FUENTES, YESICA TAMARA
PROPIEDADES

 ESPERANZA

Si X e Y son independientes entonces: E(X.Y) = E(X).E(Y)

Demostración

[caso continuo]

 VARIANZA

La varianza para 2 v.a. cualesquiera era: var(a.X + b.Y) = 𝑎 . 𝑣𝑎𝑟(𝑋) + 𝑏 𝑣𝑎𝑟(𝑌) + 2. 𝑎. 𝑏. 𝑐𝑜𝑣(𝑋, 𝑌)

Si X e Y son independientes: : var(a.X + b.Y) = 𝑎 . 𝑣𝑎𝑟(𝑋) + 𝑏 𝑣𝑎𝑟(𝑌) + 2. 𝑎. 𝑏. 𝑐𝑜𝑣(𝑋, 𝑌)

Queda como: 0
𝑣𝑎𝑟(𝑎. 𝑋 + 𝑏. 𝑌) = 𝑎 . 𝑣𝑎𝑟(𝑋) + 𝑏 . 𝑣𝑎𝑟(𝑌)
 COVARIANZA
Si X e Y son v.a. independientes entonces cov(X, Y) = 0

Si X e Y son variables independientes, no tienen ningun tipo de relacion, entonces podemos afirmar que no
van a tener relacion lineal, por lo tanto la cov(x,y) = 0

Es decir: cov(X , Y) = E[ (X - 𝓊 ).(Y - 𝓊 ) ] = E( X - 𝓊 ) – E( Y - 𝓊 )

= (𝓊 − 𝓊 ) − (𝓊 − 𝓊 ) = 0

IMPORTANTE!!

Que la cov(x,y) = 0 ,no implica que X e Y sean independientes, SOLO podemos decir que NO HAY RELACION
LINEAL, solo podemos decir que no hay otro tipo de relación.

Es decir, si son independientes X e Y la cov(x,y) = 0 PERO que la cov(x,y) = 0 no implica que sean independientes X
e Y.

pág. 33
FUENTES, YESICA TAMARA

Ejemplo:

En este caso la cov(x,y) = 0 PERO se observa


claramente que X e Y son dependientes, es decir no
son independientes.

MODELO PARA V.A. CONJUNTAS CONTINUAS

 NORMAL BIVARIADA

Sea (X , Y) una variable aleatoria bivariada continua, decimos que (X , Y) tiene distribución normal bivariada si, su
función densidad conjunta es:

Grafico:

FUNCION DENSIDAD CONJUNTA BIVARIADA

𝒙
Donde X = 𝒚

pág. 34
FUENTES, YESICA TAMARA

DENSIDADES MARGINALES

Propiedades

pág. 35
FUENTES, YESICA TAMARA

pág. 36
FUENTES, YESICA TAMARA
Unidad 5: MUESTRAS ALEATORIAS Y DISTRIBUCIONES DE MUESTREO
una muestra aleatoria de tamaño “n” de una población con densidad f es un conjunto de “n” variables aleatorias
independientes y cada una de ellas con idéntica distribución de la población. Simbólicamente: 𝑋 , 𝑋 , . . . , 𝑋 .
𝑓 (. , 𝜃)
ANALISIS EXPLORATORIO DE DATOS

 GRAFICO DE BARRAS “hist”

Se utiliza este grafico si la variable a representar es cualitativa o cuantitativa discreta.

Tener en cuenta que:

Valor observado Frecuencia Frecuencia relativa


Es el numero obtenido, es decir es 𝑛𝑢𝑚𝑒𝑟𝑜 𝑜𝑏𝑡𝑒𝑛𝑖𝑑𝑜
contar cuantas veces salió por 𝑡𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎
ejemplo el numero 2. (superficie)

En R:

1) SE CARGAN LOS DATOS:


> variación=c(-1.74,-3.60,-7.22,0.00,-3.36,-4.08,-0.85,-3.34,-2.24,-0.57,-1.35,-2.07,0.31,-3.49,-5.13,-4.95,-3.43,-0.10,-1.54,-1.26,-
1.46,-2.74,-3.83,-4.66,-6.85,-3.43,-1.11,-6.45,-3.77,-2.82)

2).SE LE PIDE QUE HAGA EL HISTOGRAMA

> hz=hist(variación,breaks=c(-7.5,-6,-4.5,-3,-1.5,0,1.5),col="yellow",xlab="variacion de indice merval",ylab="densidad


empirica",freq=FALSE,main="HISTOGRAMA VARIACION MERVAL")

Al poner “hz” antes del comando de histograma, resulta mas cómodo para después poder visualizar toda la información sobre
estos datos, también se coloca “freq=FALSE” por la densidad empírica. Para visualizar esta información solo se debe escribir >hz
y nos arroja lo siguiente:
Intervalos

Frecuencia
𝑓
Densidad 𝑓 (𝑥) (Altura)

pág. 37
FUENTES, YESICA TAMARA

El histograma se usa para variables continuas, nos permite ver como son las frecuencias para cada variable y al
mismo tiempo como es la distribución de los datos. En el eje horizontal tenemos los valore de la variable y en el
vertical las frecuencias que aparecen para cada valor de la variable.
El grafico de barras se usa para las variable discretas.
La diferencia entre los 2 es que uno es para las continuas y el otro para la discreta y además el grafico de barras tiene
las barras separadas un poco y en el histograma no.
Por ultimo se puede decir que, si el histograma tiene una forma “acampanada” se puede afirmar que tiene
distribución normal. De forma analítica, se debe calcular la media muestral ( 𝑥̅ ) y la desviación muestral (𝑠 ) y la
primer clase será: (𝓊 − 𝜎 ; 𝓊 + 𝜎) se calcula la frecuencia absoluta 𝑓 y la frecuencia relativa 𝑓 y así con las 2
restantes desviaciones, si se aproximan a 68% , 95% , y 99% se puede afirmar que tiene distribución normal.

 Gráfico de torta
Es conveniente realizarlo para cuando tenemos pocos datos para que se puedan apreciar.
En R:
pie(y, col=c(2,4),labels=c("por debajo","por encima"), main="DATOS SOBRE LA POBREZA")

 Grafico de caja y extensiones (boxplot)

Se debe tener
1) valor mínimo de la variable
2) el cuantil 0,25
3)el cuantil 0,50
4) el cuantil 0,75
5) valor máximo de la variable
Comando: >boxplot

 Grafico de tallo y hojas

Comando en R:

>stem()

 Diagrama de Pareto

pág. 38
FUENTES, YESICA TAMARA
ESTADISTICO

Un estadístico es una función que dada una muestra le asigna un numero que sirve para estimar determinado
parámetro de la distribución de la muestra y que no depende de parámetros desconocidos.

Su distribución, si puede depender de parámetros desconocidos.

 MEDIA MUESTRAL ( 𝑿 )

Sea 𝑋 , 𝑋 , . . . , 𝑋 una muestra aleatoria de una población con densidad 𝑓 . La media muestral es: 𝑋 = ∑ 𝑋

𝑋 es un estimador insesgado de la media poblacional 𝜇

Propiedad 1:

Se puede probar que si se promedia las medias de todas las muestras posibles, coincide con la media poblacional.

Luego podemos asociar a la media muestral conocida con la poblacional que generalmente es desconocida.

Si hay identica distribucion, no hace falta que las variables sean independientes para que 𝐸(𝑋) = 𝐸(𝑋)

Propiedad 2:

Se puede probare que la variabilidad de la media muestral ( 𝑋 )esta relacionada con la variabilidad de la población
de donde fue extraída la muestra, pero también con el tamaño de la muestra ( X ):

Si hay idéntica distribución e independencia de las variables: 𝑣𝑎𝑟(𝑋 < 𝑣𝑎𝑟(𝑋)

Con ambas propiedades nos permiten tener confianza en que un valor de la media muestral sea un buen
representante de la media poblacional, que desconocemos.

 TOTAL MUESTRAL (T)

Se define a partir de de una muestra aleatoria 𝑋 , 𝑋 , . . . , 𝑋 de una población con densidad 𝑓 como: 𝑇 = ∑ 𝑋

Propiedad 1:

Se puede probar que si se promedia los totales de todas las muestras posibles, también esta relacionada con la
media poblacional.

Propiedad 2:

pág. 39
FUENTES, YESICA TAMARA
Se puede probar que la variabilidad del total muestral esta relacionado con la variabilidad de la población, pero
también con el tamaño de la muestra.

 VARIANZA MUESTRAL 𝑺𝟐
 Cuasi-Varianza
𝑆 = ∑ (𝑋 − 𝑋 )
La cuasi – Varianza tiene una estructura “similar” a la varianza poblacional, sin embargo si consideramos la
esperanza de la variable aleatoria 𝑆 , no coincide con la varianza de la población; es decir 𝑆 ≠ 𝜎
Si se multiplica por la varianza muestral 𝑆 se puede comprobar:
𝑛 − 1 1
× ∑( 𝑋 − 𝑋)
𝑛 𝑛 − 1

∑( 𝑋 − 𝑋 )
=
𝑛
1
= ∑( 𝑋 − 𝑋 )
𝑛

Si calculamos su esperanza:

VARIANZA MUESTRAL
Buscando un estadístico que tenga su esperanza igual a 𝜎 es que surge este concepto;
Sea X una v.a. en la población con densidad 𝑓 y 𝑋 , 𝑋 , . . , 𝑋 una muestra aleatoria de esta población, la
varianza muestral se define como: 𝑆 = ∑ (𝑋 − 𝑋 )
Propiedad:
Se puede probar que, si se considera la esperanza de la variable 𝑆 , coincide con la varianza de la población;
es decir: E( 𝑆 ) = 𝜎

pág. 40
FUENTES, YESICA TAMARA

Luego E( 𝑆 ) = 𝜎

 ESTADISTICOS DE ORDEN

Un estadístico de orden es una variable aleatoria y como consecuencia tiene una distribución es decir tiene una
función densidad y una distribución acumulativa que dependerán de la función densidad y la distribución
acumulativa de la población

Definición: dada una muestra ( 𝑋 , 𝑋 , . . . , 𝑋 ) se llama mediana muestral al estadístico:

Si n es par: 𝑋( )
+ 𝑋( )
Comando en R:
𝑀𝑑 =
2 >median()
Si n es impar: 𝑀𝑑 = 𝑋
( )

En las distribuciones simétricas la media (𝓊) y la mediana (Md) coinciden, es por esto que para analizar simetría se
comparan estos estadísticos.

Grafico cuantil-cuantil (q-q-plot)


pág. 41
FUENTES, YESICA TAMARA
La idea central de este grafico es, comparar cuantiles muestrales con cuantiles de una población conocida.

También lo utilizamos para analizar normalidad de la distribución de la población (en este caso los graficos cuantil-
cuantil se llaman también graficos de probabilidad normal o normal probability plots).

En R:

>variación=c(-1.74,-3.60,-7.22,0.00,-3.36,-4.08,-0.85,-3.34,-2.24,-0.57,-1.35,-2.07,0.31,-3.49,-5.13,-4.95,-3.43,-0.10,-
1.54,-1.26,-1.46,-2.74,-3.83,-4.66,-6.85,-3.43,-1.11,-6.45,-3.77,-2.82)

>qqnorm(variación,xlab=”cuantiles poblacionales”,ylab=”cuantiles muestrales”,main=Grafico QQPLOT para


variacion”)

>qqline(variación,lwd=2,col=”blue”)

(donde lwd=2 es el grosor de la linea)

Luego nos arroja el siguiente grafico:

Los puntos se sitúan alrededor de la línea, lo


cual se aproxima a la distribución de una
variable normal

pág. 42
FUENTES, YESICA TAMARA
Distribución de un estadístico

Un estadístico es una v.a. y como tal tiene una distribución de probabilidades. A la distribución de probabilidades de
un estadístico se le llama distribución del estadístico.

La distribución del estadístico depende de la distribución de las variables de la muestra, que es la distribución de X
(población) y del tamaño.

Las muestras son independientes e idéntica distribución.

TEOREMA DEL LIMITE CENTRAL

Si X es la media de una muestra aleatoria de tamaño n, que se toma de una población con media 𝓊 y con varianza
finita 𝜎 ,entonces la forma del limite de la distribución es:

𝑋 − 𝐸(𝑋) 𝑋 − 𝓊
𝑍= = 𝜎
𝑣𝑎𝑟(𝑋)
√𝑛
¿Cuándo se usa este teorema? Cuando n≥30

Luego la distribución de Z tiende a una distribución normal cuando 𝑛 → ∞

Si se toma una muestra aleatoria de tamaño n y se obtiene 𝑋 se puede probar que: 𝑋 → 𝑁( 𝓊, ) 𝑐𝑢𝑎𝑛𝑑𝑜 𝑛 → ∞

MUESTREO DE UNA POBLACIÓN NORMAL

Distribución de la media muestral

Luego se puede afirmar que 𝑋 ~𝑁(𝓊 , )

pág. 43
FUENTES, YESICA TAMARA
 Variables aleatorias de utilidad en inferencia

Cuando la varianza poblacional 𝜎 es DESCONOCIDA

Se utiliza:

𝑇
(𝑛 − 1)𝑆 𝜎
=
𝜎

𝑇
𝑋 − 𝜇 𝜇
=
𝑆
√𝑛

𝑆
𝜎
𝐹= ~𝐹(𝑚 − 1 , 𝑛 − 1)
𝑆
𝜎

pág. 44
FUENTES, YESICA TAMARA
MEDIA MUESTRAL TOTAL MUESTRAL VARIANZA MUESTRAL MEDIANA MUESTRAL
1 𝑇 =∑𝑋 1 Si “n” es par
𝑋 = ∑𝑋 𝑆 = ∑ (𝑋
𝑛 𝑛 − 1
− 𝑋)
𝑋 +𝑋
E(𝑋 ) = 𝜇 𝐸(𝑇) = 𝑛. 𝜇 𝐸(𝑆 ) = 𝜎 𝑀𝑑 =
2
Cuasi-Varianza Si “n” es impar:
𝑣𝑎𝑟(𝑇) = 𝑛. 𝜎 1
Var(𝑋 )= 𝑆 = ∑ (𝑋 − 𝑋)
𝑛
>sd()
Comando en R Comando en R 𝑀𝑑 = 𝑋
>mean() >var()
Comando en R
Comando para varianza
>median()
muestral.

OTROS COMANDOS:

>sqrt( ) es para sacar la raíz

>sort( ) es para ordenar los datos

>length( ) nos da “n”, ósea el tamaño de la muestra.

Casos particulares del “TOTAL MUESTRAL”


Dada una muestra aleatoria x:

Si X~ Bernoulli: T = ∑ X ~Bernoulli (n. 𝜋)

Si X~ Poisson: T = ∑ X ~Poisson (n. 𝜆)

pág. 45
FUENTES, YESICA TAMARA

UNIDAD 6: ESTIMACION PUNTUAL Y POR INTERVALOS


El valor de un estimador proporciona la estimación puntual del valor del parámetro en estudio.

Se conoce el modelo, PERO NO se conocen los parámetros, en otras palabras, la función densidad es conocida, pero
lo desconocido es el parámetro; entonces para poder encontrar este parámetro desconocido existes formas como la
estimación puntual, estimación por intervalos y por pruebas de hipótesis.

 ESTIMACION PUNTUAL
¿Cuál es el objetivo de la estimación puntual? es, a partir de los valores de una muestra aleatoria, obtener un valor
que represente al valor desconocido del parámetro de la distribución de la que proviene la muestra.

Se conoce la distribución, pero no el valor de 𝜃, entonces “estimamos” una funcion de las v.a. de la muestra, sin
que contenga ningún parámetro, y se le asigna el valor que tome esta función en la muestra concreta.

Definición:

Propiedades

1) Estimador insesgado

Sea T un estimador insesgado de 𝜃 si y solo si E (T) = 𝜃 ó E (T) - µ = 0 ∀ 𝜃 ∈ al espacio paramétrico.

Es decir, el valor esperador del estimador es igual al parámetro que quiero estimar ó lo mismo es si decimos que la
diferencia entre, el valor esperado del estimador y el parámetro a estimar es cero.

¿Cuándo se considera a un estimador como un buen representante poblacional?

Cuando, la varianza de T es mínima. Tiene que ver con un estimador eficiente. Es decir se elige al de menor varianza.

𝑋 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 µ
𝑆 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 𝜎
𝑠 𝑛𝑜 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 𝜎

 ESTIMACION POR INTERVALOS

Entonces:

1) (𝑇 , 𝑇 ) es un intervalo aleatorio bilateral de confianza de 100.𝛾 % para 𝜃


pág. 46
FUENTES, YESICA TAMARA
2) (𝑡 , 𝑡 ) es un intervalo observado bilateral del 100.  % de confianza para 
3) 0 <  < 1 es el nivel de confianza.

Además, si P(𝑻𝟏 <  ) = 

(𝑇 , ) es un intervalo aleatorio unilateral del 100.  % de confianza para .

(𝑡 ,  ) es un intervalo observado unilateral del 100.  % de confianza para .

y , si P(𝑻𝟐 >  ) = 

(- , 𝑇 ) es un intervalo aleatorio unilateral del 100.  % de confianza para .

(- , 𝑡 ) es un intervalo observado unilateral del 100.  % de confianza para .

OBSERVACIONES

Un intervalo observado (𝑡 , 𝑡 ) contiene o no contiene al valor del parámetro.


Es decir, para un intervalo particular la probabilidad de que contenga el
parámetro es 0 (si no lo contiene) ó 1 (si lo contiene).
El parámetro es desconocido, entonces no podemos saber cuál de estas
afirmaciones es verdadera.

 LONGITUD DE UN INTERVALO DE CONFIANZA

pág. 47
FUENTES, YESICA TAMARA

 CANTIDAD PIVOTAL

DESCRIPCIÓN DEL MÉTODO DE LA CANTIDAD PIVOTAL

Sea Q=g(𝑋 ,𝑋 ,…, 𝑋 , ) una cantidad pivotal con densidad 𝑓 y sea   [0,1]. Existen 𝑞 y 𝑞 tales que:

P(𝑞 < Q < 𝑞 ) = 

El método de la cantidad pivotal consiste en partir de la expresión anterior y reescribirla de modo que

P( T1 <  < T2 ) = 

donde 𝑇 = 𝑔 (𝑋 , 𝑋 ,…, 𝑋 ) y 𝑇 = 𝑔 (𝑋 , 𝑋 ,…, 𝑋 ) son estadísticos.

Luego (𝑇 , 𝑇 ) es el intervalo buscado.

Surge la cuestión de cómo elegir las constantes 𝑞 𝑦 𝑞 .

Las constantes debieran elegirse de forma tal de que el intervalo de confianza resultante (T1 , T2 ) sea el mejor según
algún criterio preestablecido. Es decir, será mejor cuanto más preciso sea, o sea, cuanto menor sea su longitud.

LONGITUD DE UN INTERVALO DE CONFIANZA

La longitud de un intervalo aleatorio ( 𝑇 , 𝑇 ) es la diferencia entre los extremos, es decir L=𝑇 – 𝑇

𝑞 y 𝑞 se eligen de forma tal que el intervalo tenga longitud mínima. Se puede probar que cuando la “distribución
de Q” es simétrica, el intervalo de confianza de longitud mínima se obtiene para 𝑞 = − 𝑞

De este modo se verifica que


( )
PQ < 𝑞  = P(Q > 𝑞 ) = =

pág. 48
FUENTES, YESICA TAMARA

Cuando la “distribución de Q” no es simétrica, Es decir 𝑞 𝑦 𝑞 se eligen de modo que PQ < 𝑞 ) = P(Q> 𝑞 ) Se
( )
verifica que PQ < 𝑞  = P(Q > 𝑞 ) = =

Relación entre la longitud de un intervalo aleatorio y la confianza o el tamaño de muestra.

↑ 𝑛
𝜸 𝑓𝑖𝑗𝑜 ↓𝐿
↑𝑃

↑𝛾
𝒏 𝑓𝑖𝑗𝑜 ↑𝐿
↓𝑃

Estimación por intervalos unilaterales

Máximo: (-∞ , a) ó (0 , a) Mínimo: (a , ∞)

P( Q > q ) = 𝛾 P( Q < q ) = 𝛾

Donde: 𝑞 Donde: 𝑞

pág. 49
FUENTES, YESICA TAMARA

INTERVALOS DE CONFIANZA PARA POBLACIONES NORMALES

Estimación por intervalos para 𝝁

 𝝈𝟐 conocida  𝝈𝟐 desconocida
𝒛. 𝒕𝒆𝒔𝒕(𝒎𝒙, 𝒔𝒊𝒈𝒎𝒂. 𝒙 = 𝟎. 𝟒, 𝒄𝒐𝒏𝒇. 𝒍𝒆𝒗𝒆𝒍 = 𝟎. 𝟗𝟗) 𝒕. 𝒕𝒆𝒔𝒕()
CANTIDAD PIVOTAL: 𝑄 = ~ 𝑁(0,1) CANTIDAD PIVOTAL: 𝑄 = ~𝑡( )
√ √
P(𝑞 < 𝑄 < 𝑞 ) = 𝛾 al despejar 𝜇: P(𝑞 < 𝑄 < 𝑞 ) = 𝛾 al despejar 𝜇:

P 𝑋−𝑞 <𝜇 < 𝑋−𝑞 =𝛾 P 𝑋−𝑞 <𝜇 <𝑋−𝑞 =𝛾


√ √ √ √

LUEGO INTERVALO: LUEGO INTERVALO:


𝜎 𝜎 𝑆 𝑆
𝑋 −𝑞 . ; 𝑋− 𝑞 . 𝑋 −𝑞 . ; 𝑋−𝑞 .
√𝑛 √𝑛 √𝑛 √𝑛
(mínimo ; máximo)
Donde: 𝑞 = 𝑍 y 𝑞 =𝑍
Donde: 𝑞 = 𝑍 ,𝑡 y 𝑞 = 𝑍 ,𝑡
LONGITUD DEL INTERVALO: Ej: >qt(0.05 , 6)
L= (𝑞 − 𝑞 ) = . 2. 𝑞
√ √
LONGITUD DEL INTERVALO:
L= (𝑞 − 𝑞 ) = . 2. 𝑞
√ √

Estimación por intervalos para 𝝈𝟐

( )
CANTIDAD PIVOTAL: 𝑄 = ~𝑋

P(𝑞 < 𝑄 < 𝑞 ) = 𝛾 al despejar 𝜎 :

( ) ( )
P( <𝜎 < )=𝛾

LUEGO INTERVALO:
𝑆 (𝑛 − 1) 𝑆 (𝑛 − 1)
;
𝑞 𝑞

Donde: 𝑞 = ,𝑋 y 𝑞 = ,𝑋
Ej: >qchisq(0.05 , 6)
TENER EN CUENTA:
1−𝛾 𝛼
𝑞 = =
2 2
1+𝛾 1−𝛼
𝑞 = =
2 2
LONGITUD DEL INTERVALO:
1 1
𝐿 = 𝑆 (𝑛 − 1). −
𝑞 𝑞

pág. 50
FUENTES, YESICA TAMARA
𝝈𝟐𝒙 𝝈𝟐𝒚
INTERVALO DE CONFIANZA PARA 2 POBLACIONES NORMALES INDEPENDIENTES 𝑿 − 𝒀 ~ 𝑵 𝝁𝒙 − 𝝁𝒚 ; +
𝒏𝒙 𝒏𝒚

Para Diferencia de medias de dos poblaciones ¿son iguales? → 𝝁𝒙 − 𝝁𝒚 = 𝟎 Para cociente de varianzas 𝝈𝒙𝟐
𝝈𝟐
𝒚
¿son iguales? → 𝒔𝒊: 𝟏 ∈ (𝒂, 𝒃)
→ 𝒏𝒐: 𝟏 ∉ (𝒂, 𝒃)

 Con 𝝈𝟐 conocida  Con 𝝈𝟐 desconocida  Con 𝝈𝟐 conocida

1) 𝝈𝟐𝒙 = 𝝈𝟐𝒚 2) 𝝈𝟐𝒙 ≠ 𝝈𝟐𝒚


CANTIDAD PIVOTAL CANTIDAD PIVOTAL CANTIDAD PIVOTAL CANTIDAD PIVOTAL
(𝑋 − 𝑌) − 𝜇 − 𝜇 (𝑋 − 𝑌) − 𝜇 − 𝜇 (𝑋 − 𝑌) − 𝜇 − 𝜇 𝑆
𝑄= ~𝑁(0,1) 𝑄= ~𝑡( ) 𝑄= ~𝑡 𝜎
𝜎 𝜎 𝑄= ~𝐹 𝑛 ,𝑛
𝑆 𝑆 𝑆 𝑆 𝑆
𝑛 +𝑛 𝑛 +𝑛 𝑛 +𝑛 𝜎
Siendo: Siendo:
INTERVALO DE CONFIANZA: (𝑛 − 1)𝑆 + (𝑛 − 1)𝑆 INTERVALO DE CONFIANZA:
𝑠 𝑠
𝑆 =
(𝑋 − 𝑌 ) − 𝑍
𝜎
+
𝜎
; (𝑋 − 𝑌) − 𝑍
𝜎
+
𝜎 𝑛 +𝑛 −2 𝑛 +𝑛
𝑛 𝑛 𝑛 𝑛
INTERVALO DE CONFIANZA: 𝑣= 𝑠 𝑠
𝑠 𝑞 ;𝑞
𝑠 𝑠 𝑠
y 𝑍 =𝑡
𝑆 𝑆 𝑆 𝑆 𝑛 𝑛
Donde: 𝑍 = 𝑡 (𝑋 − 𝑌) − 𝑞 + ; (𝑋 − 𝑌) − 𝑞 + + Donde:
𝑛 𝑛 𝑛 𝑛 𝑛 −1 𝑛 −1 1−𝛾
INTERVALO DE CONFIANZA: 𝑞 = ; 𝑓( , )
Donde: 𝑞 = 𝑡 y 𝑞 =𝑡 2
𝑠 𝑠 𝑠 𝑠 1+𝛾
(𝑋 − 𝑌) − 𝑞
𝑛
+
𝑛
; (𝑋 − 𝑌) − 𝑞
𝑛
+
𝑛 𝑞 = ; 𝑓( , )
2
Donde: 𝑞 𝑦 𝑞 con v grado de libertad

pág. 51
FUENTES, YESICA TAMARA

ESTIMACION DEL TAMAÑO DE LA MUESTRA

Para estimar la media 𝝁 poblacional 𝑿~𝑵(𝝁, 𝒏 )


𝝈𝟐 Para estimar la proporción 𝝅 de una población X~Bernoulli(𝝅)
 𝝈𝟐 𝒄𝒐𝒏𝒐𝒄𝒊𝒅𝒂  𝝈𝟐 𝒅𝒆𝒔𝒄𝒐𝒏𝒐𝒄𝒊𝒅𝒂  𝝅 conocido  𝝅 desconocido
Intervalo confianza:

|𝑋 − 𝜇| es el error que está cometiendo 𝑋 para estimar a 𝜇 P(𝑋 − 𝑍 𝑣𝑎𝑟(𝑋) < 𝜋 < 𝑋 + 𝑍 𝑣𝑎𝑟(𝑋) ) = 𝛾
𝜎
𝜀 = 𝑍. 𝑒𝑟𝑟𝑜𝑟 𝑚á𝑥𝑖𝑚𝑜 𝑎𝑐𝑒𝑝𝑡𝑎𝑑𝑜 ⌈𝑋 − 𝜋⌉ es el error que está cometiendo 𝑋 para estimar a 𝜋.
√𝑛
( ) ( )
𝜀=𝑍 =𝑍

𝑍 .𝜎 𝑍 .𝑆 𝑍 . 𝜋(1 − 𝜋) 𝑍
𝑛= 𝑛= 𝑛= 𝑛=
𝜀 𝜀 𝜀 4. 𝜀
se utiliza la cota superior, siendo el
valor máximo que puede tomar la
varianza del modelo Bernoulli
Donde:
𝑍

pág. 52
FUENTES, YESICA TAMARA

Unidad 7: prueba de hipótesis


Hipótesis estadística
Una hipótesis estadística es una afirmación acerca de la distribución de una o más v.a., es decir una
hipótesis estadística es una afirmación acerca del valor del o los parámetros que identifican la distribución
de una variable en la población.
La hipótesis estadística puede ser:

Simple Es cuando se le indica un único valor al parámetro

H: =
Hipótesis

Compuesta Es cuando, especifican un recorrido de valores


que puede tomar el parámetro.

H: ≥ ≠ ≤

Tipos de hipótesis: (acerca de los posibles valores del parámetro)

Hipótesis nula 𝑯𝟎 Hipótesis alternativa 𝑯𝟏

Es la hipótesis a ser probada, se considera Es la hipótesis que se acepta cuando, es rechazada


verdadera a menos que exista suficiente evidencia la hipótesis nula.
en conta.
El conjunto de los valores del o los parámetros El conjunto de los valores del o los parámetros
involucrados en dicha hipótesis se escribe como Θ involucrados en dicha hipótesis se escribe como Θ
No debería ser rechazada sin una buena razón. No debería ser aceptada sin una gran evidencia a
favor.
Prueba bilateral: = Prueba bilateral: ≠
Prueba unilateral: ≤, ≥ Prueba unilateral: ˂, ˃
Ejemplo:
𝐻 : 𝜇 ≤ 10 𝑣𝑠 𝐻 : 𝜇 > 10
𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑑𝑒 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒𝑙 𝑝𝑎𝑟𝑎𝑚𝑒𝑡𝑟𝑜: Θ = (−∞, 10] y Θ = (10, ∞)

¡¡¡ IMPORTANTE !!!

“Rechazar una hipótesis no prueba que es falsa”, sino que, significa que hay evidencia suficiente en los
datos para tomar esta decisión.
“No rechazar una hipótesis no prueba que sea verdadera”, sino que, significa que los datos son
consistentes con lo que se afirma.

pág. 53
FUENTES, YESICA TAMARA

Test o prueba de una hipótesis estadística 𝝉


Un test es una regla o procedimiento para decidir si se rechaza 𝐻 a través de la información
proporcionada por una muestra extraída de la población bajo estudio.
Su objetivo es utilizar algún procedimiento para determinar si los valores de la muestra aleatoria de la
población son consistentes con esta hipótesis.
°si no son consistentes  se rechaza la hipótesis
° si son consistentes  no se rechaza la hipótesis
Como la decisión que se toma se basa en la información que proporciona la muestra extraída de la
población, se utiliza un “representante” de la muestra que se comporte de una manera distinta cuando la
hipótesis nula es verdadera y cuando es falsa.

Ejemplo: 𝜏: 𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻 ⟺ 𝑋 > 12

Zona de rechazo y de aceptación


Al establecer una regla de decisión para rechazar 𝐻 ,estamos separando los posibles resultados
muestrales en 2 regiones: la región de rechazo de la 𝐻 y la región de aceptación de la 𝐻

Tipos de error y tamaño de los errores


Al decidir si se rechaza la hipótesis o no se rechaza se pueden cometer 2 tipos de errores.

Situación en la población

𝐻 Verdadera 𝐻 Falsa
No rechazar 𝐻 1−𝛼 Error tipo 2: (menos graves)
Nivel de confianza 𝛽

Decisión Rechazar 𝐻 Error tipo 1: (muy grave) 𝟏−𝜷


𝜶
Significatividad Potencia de la prueba
Es la máxima probabilidad de
equivocarnos que estamos
dispuestos a aceptar, en caso de
que rechacemos la 𝐻
Suma: 1 1
Para un tamaño muestral fijo, es decir:
𝑛 ↓𝛼 ↑𝛽
Nótese que cada columna es complementaria, por eso la suma es 1, Pero: 𝜶 + 𝜷 ≠ 𝟏

pág. 54
FUENTES, YESICA TAMARA
Tamaño del error:

Tamaño de Hipótesis compuestas Hipótesis simple


error
Tipo 1: Sup P(rechazar 𝐻 /𝐻 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎) = 𝛼 P(rechazar 𝐻 /𝐻 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎)= 𝛼

Tipo 2: Sup P( no rechazar 𝐻 / 𝐻 falsa) = 𝛽 P( no rechazar 𝐻 / 𝐻 falsa) = 𝛽

“sup” indica el superemo de todos los valores de


probabilidad con la condición dada.
Es decir, para cada uno de los valores que puede
tomar la probabilidad de rechazar la 𝐻 , se toma
el mayor valor como tamaño de error de tipo 1.

Si el tamaño de error T1 disminuye, aumenta el tamaño de error T2


Es decir, ↓ 𝑇𝐸1 ↑ 𝑇𝐸2

Representación de los valores posibles de la probabilidad de un error tipo II (rojo) en el ejemplo de un


test de significancia estadística para el parámetro μ. El error tipo II depende del parámetro μ. Cuanto
más cerca se encuentre este del valor supuesto bajo la hipótesis nula, mayor es la probabilidad de
ocurrencia del error tipo II. Debido a que el verdadero valor de μ es desconocido al hacer la presunción
de la hipótesis alternativa, la probabilidad del error tipo II, en contraste con el error tipo I (azul), no se
puede calcular.

P- valor

Métodos para
probar una hipótesis
estadística
Intervalo de confianza
pág. 55
FUENTES, YESICA TAMARA

 P-valor
Una técnica para enunciar el “test” que nos ayude a tomar la decisión, es encontrar un estadístico que se
comporte de manera diferente cuando la hipótesis nula es verdadera y falsa.
Este p-valor depende de los valores observados en la muestra, en consecuencia si se cambia la muestra, la
decisión sobre la hipótesis puede cambiar.
Es la probabilidad de que un valor estadístico observado sea posible dada una hipótesis nula cierta.
Para resolver el problema de decisión:
1) Se admite que la 𝐻 es verdadera.
2) Elegir un estadístico (que se comporte de forma distinta cuando es falsa y verdadera la 𝐻 )

Condiciones que debe satisfacer:

1) Se debe conocer su funcion densidad bajo 𝐻 verdadera


2) Debe contener el parámetro al que se refiere la prueba
3) Todos los otros términos deben ser conocidos o
calculables por medio de la muestra.

A valores grandes negativos de P-valor  se rechaza 𝐻

A valores pequeños de P-valor  no se rechaza 𝐻

Se llego a la conclusión de rechazar 𝐻 teniendo en cuenta un valor fijado, como es el nivel de significación 𝛼; sin
tomar en cuenta el peso de la evidencia muestral, este peso se llama P-valor.

El valor p es la probabilidad, suponiendo 𝐻 es cierta, de obtener un valor del estadístico de prueba a una distancia
mayor o igual que la del valor observado.

El valor p es el mínimo nivel de significación , para el cual los datos observados indican que se tendría que rechazar
la hipótesis nula.

¿Qué mide el p-valor? mide el peso de la evidencia que nos proporciona la muestra para rechazar una hipótesis nula
a favor de la hipótesis alternativa.

pág. 56
FUENTES, YESICA TAMARA
Criterio para decidir en base al p-valor
 Si p <  rechazamos la hipótesis nula.
 Si p >  no rechazamos la hipótesis nula.
 Si p =  no rechazamos la hipótesis nula

Pasos para la prueba de hipótesis:


1) Plantear las hipótesis nula y alternativa
2) Determinar el estadístico apropiado para la prueba
3) Fijar el nivel de significación 𝛼 y determinar el test correspondiente para las hipótesis planteadas.
4) Tomar la muestra y calcular el valor observado del estadístico de la prueba.
5) Calcular el valor p.
6) Tomar la decisión estadística e interpretar.

Región critica
Bilateral Unilateral
𝑯𝟏 : ≠ 𝑯𝟏 : > 𝑯𝟏 : <

p-valor: p-valor: p-valor:


2.P( Z > |𝑧 | ) P( Z > 𝑧 ) p( Z < 𝑧 )

Estadístico
𝒏 > 𝟑𝟎 𝒏 ≤ 𝟑𝟎

𝑋−𝜇 𝑋−𝜇
𝑍 =𝜎 ~𝑁(0,1) 𝑇 =𝜎 ~𝑡( )
√𝑛 √𝑛

 Intervalo de confianza

Para las pruebas de hipótesis para muestras de poblaciones normales,


se utilizan las mismas fórmulas de la unidad 6.

pág. 57
FUENTES, YESICA TAMARA

PRUEBAS DE HIPÓTESIS
(bajo 𝐻 : 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎)
 Bernoulli (para π )  Poisson (para 𝝀 )
𝑋−𝜋 𝑋−𝜆
~𝑁(0,1) ~𝑁(0,1)
𝜋(1 − 𝜋) 𝜆
𝑛 𝑛
Por TLC Por TLC

Comandos en R
Cuando lo que quiero es comparar las medias (𝜇) Cuando lo que quiero es comparar las varianzas
Tengo: (𝜎 )
 𝐻 : 𝜇 − 𝜇 = 15 𝑣𝑠 𝐻 : 𝜇 − 𝜇 ˃ 15 Tengo:
 𝜎 = 𝜎 𝑣𝑠 𝜎 ˃ 𝜎
t.test(x,y,mu=15,alternative=”greater”,var.equal=F)
var.test(x,y,alternative=”greater”)
 𝐻 : 𝜇 − 𝜇 = 15 𝑣𝑠 𝐻 : 𝜇 − 𝜇 ˂ 15
 𝜎 =𝜎 𝑣𝑠 𝜎 ˂ 𝜎
t.test(x,y,mu=15,alternative=”less”,var.equal=F)
var.test(x,y,alternative=”less”)
 𝐻 : 𝜇 − 𝜇 = 15 𝑣𝑠 𝐻 : 𝜇 − 𝜇 ≠ 15
 𝜎 =𝜎 𝑣𝑠 𝜎 ≠ 𝜎
t.test(x,y,mu=15,var.equal=F)
var.test(x,y,var.equal=F)
notese que en este ultimo comando no pusimos la hipótesis alternativa ya que var.test(x,y)
por defecto R al no espesificar nada sobre la alternativa, lo considera distinto;
también “var.equal” si no lo especificamos el R lo toma como falso, asique se puede utilizar cualquiera de los 2 comandos, ya que si no especificamos
cuando las varianzas sean iguales hay que especificarle “ T ” que es TRUE que las varianzas son distintas, el R lo toma como distintas por defecto.
(verdadero).

pág. 58
FUENTES, YESICA TAMARA
Ejemplos:
7.15 Con referencia al problema anterior el investigador quiere en una segunda etapa de su estudio comparar el
efecto de dos niveles de ruido, el nivel moderado (N1) estudiado en el problema anterior y un nivel de ruido más
severo (N2). El investigador selecciona ahora otras 16 personas que son capaces de realizar la misma tarea y de
manera práctica en el mismo tiempo. Es decir ha seleccionado 32 personas, 16 seleccionadas al azar realizarán esa
tarea bajo un nivel moderado de ruido de fondo (N1) y las restantes 16 llevarán a cabo la misma tarea bajo un nivel
de ruido más severo (N2). Los datos considerados son los tiempos observados (en minutos) que fueron necesarios
para completar la tarea para cada nivel. Asuma que los datos constituyen muestras aleatorias de dos poblaciones
normales e independientes

Cargamos los datos en R:

>N1=c(14,12,15,15,11,16,17,12,14,13,18,13,18,15,16,11)

> N2=c(20,22,18,18,19,15,18,15,22,18,19,15,21,22,18,16)

a) Plantee las hipótesis que le permita analizar si las varianzas poblacionales son iguales ó no lo son. Indique
cuál es el estadístico de prueba adecuado y determine el p-valor asociado a la prueba. Concluya en términos
del problema
Si? Entonces 1 ∈ (a , b)
¿𝜎 = 𝜎 ?
No? Entonces 1 ∉ (a , b)

𝐻 ∶ 𝜎 =𝜎 𝑣𝑠 𝐻 ∶ 𝜎 ≠𝜎

𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 𝑝 − 𝑣𝑎𝑙𝑜𝑟 ˂ 𝛼
p-valor= 2*P( |𝑍| > 𝑧 ) = 𝛾

𝑍= ~ 𝐹(𝑛 − 1, 𝑛 − 1)

1
𝑍= ÷

𝑍= × = × =

Calculamos en el R:

>var(N1) = 5.183333

>var(N2) = 6

Considerando 𝛼 = 0.05 (Recordar que si no nos dicen cuanto vale, se considera ese valor)

pág. 59
FUENTES, YESICA TAMARA
Luego:

𝑆 5.183333
𝑍= = = 0.86388
𝑆 6

Cálculos auxiliares en R

p-valor= 2minimo( 𝑃 |𝑍| ) 1 – pf(0.86388,15,15) = 0.61

p-valor= 2 × 0.39 pf(0.86388,15,15) = 0.39

p-valor= 0.78 se elige el menor de los 2, ósea 0.39

Luego, p-valor: 0.78 > 𝛼 ∶ 0.05 ,no se rechaza 𝐻 , es decir que la desviación de ambas poblaciones son
significativamente igual.

En términos del problema podemos concluir que, la desviación del ruido moderado y del ruido mas severo son
significativamente iguales.

b) Enuncie la regla de decisión para hacer la prueba anterior a partir de un intervalo de confianza del 95% y a
partir de los resultados en R concluya en términos del problema

Si el nivel de confianza es del 0.95=𝛾 entonces el nivel de significación es 𝛼 = 0.05

𝐻 ∶ 𝜎 =𝜎 𝑣𝑠 𝐻 ∶ 𝜎 ≠𝜎

𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 1 ∉ (𝑎, 𝑏)

𝑄=

Intervalo de confianza:

(𝑞 < 𝑄 <𝑞 ) Cálculos auxiliares:

𝑞 .
.
(𝑞 < <𝑞 )
qf(0.025,15,15) = 0.36

(𝑞 × < <𝑞 × ) 𝑞 .
.

(0.36×0.86388 ; 2.86×0.86388) qf(0.975,15,15) = 2.86

( 0.31 ; 2.47 ) var(N1)/var(N2)=0.86388

Luego como 1 ∈ (0.31 ; 2.47) no se rechaza 𝐻 , es decir que las varianzas son significativamente iguales.

pág. 60
FUENTES, YESICA TAMARA
El comando en R:

>var.test(N1,N2)

nos da la siguiente información:

c) Se quiere determinar ahora si los tiempos medios para efectuar dicha tarea con los distintos niveles de ruido
son significativamente diferentes. Plantee las hipótesis estadísticas adecuadas y enuncie la regla de decisión
con el estadístico de prueba. Indique que distribución tiene dicho estadístico bajo la hipótesis nula
verdadera. Con un nivel de significación del 5% , concluya en términos del problema.

𝐻 ∶ 𝜇 =𝜇 𝑣𝑠 𝐻 ∶ 𝜇 ≠𝜇

𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 0 ∉ (𝑎, 𝑏)
Forma 1: intervalo de confianza

(𝑋 − 𝑌) − (𝜇 − 𝜇 )
𝑄= ~ 𝑡( )
𝑆 𝑆
𝑛 +𝑛

Donde
(𝑛 − 1)𝑆 + (𝑛 − 1)𝑆 (16 − 1) × 5.183 + (16 − 1) × 6
𝑆 = = = 5.5915
𝑛 +𝑛 −2 16 + 16 − 2

Cálculos auxiliares en R:

(𝑞 < 𝑄<𝑞 ) >mean(N1)= 14.37 >mean(N2)= 18.5

>var(N1)= 5.18 >var(N2)=6


𝑞 + < (𝑋 − 𝑌 ) − (𝜇 − 𝜇 ) < 𝑞 +
𝑞 = 0.025 𝑞 = 0.975

>qt(0.025)= -2.04 >qt(o.975,30)= 2.05


(𝑋 − 𝑌 ) − 𝑞 + < (𝜇 − 𝜇 ) < (𝑋 − 𝑌) − 𝑞 +

. . . .
(14.37 − 18.5) − 2.04 × + ; (14.37 − 18.5) − (−2.04) × +

(−5.83 ; −2.42)

pág. 61
FUENTES, YESICA TAMARA
Luego 0 ∉ (−5.83 ; −2.42) entonces se rechaza 𝐻 , es decir que la diferencia de medias es ≠ 0.

Forma 2: p-valor

𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 𝑝 − 𝑣𝑎𝑙𝑜𝑟 < 𝛼

(𝑋 − 𝑌) (14.37 − 18.5)
𝑇= = = −4.94
𝑆 𝑆 5.5915 5.5915
+ 16 + 16
𝑛 𝑛

p-valor= 2×minimoP( T > 𝑡 ) = 𝛾

p-valor=2min P( T > -4.94 ) = 0.95

p-valor=2×[ pt(-4.95,30)] = 0.95

p-valor= 2.682849e-05

luego como p-valor < 𝛼 se rechaza 𝐻

El comando en R:
>t.test(N1,N2)
Nos da la siguiente información:

d) Más aún se podría pensar que en relación al tiempo medio que se demora en hacer la tarea el efecto del
ruido moderado es menos perturbador que el efecto del ruido severo. Plantee las hipótesis estadísticas que
le permitan corroborar esta sospecha y concluya en términos del problema.

𝐻 :𝜇 ≥ 𝜇 𝑣𝑠 𝐻 : 𝜇 < 𝜇
o tambien :𝐻 : 𝜇 − 𝜇 ≥ 0 𝑉𝑆 𝐻 : 𝜇 − 𝜇 < 0

𝜏: 𝑅𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ⟷ 0 ∉ (−∞, 𝑎 )

pág. 62
FUENTES, YESICA TAMARA
(𝑋 − 𝑌) − (𝜇 − 𝜇 )
𝑄= ~ 𝑡( )
𝑆 𝑆
𝑛 +𝑛

( ) ( )
Donde: 𝑆 = = 5.5915

El Comando R:
t.test(N1,N2,var.equal=T,alternative=“less”)

Intervalo de confianza:

P( Q > q ) = 𝛾
( ) ( )
P( >𝑞 . ) = 0.95

Cálculos auxiliares en R
P (𝑋 − 𝑌) − (𝜇 − 𝜇 ) > 𝑞 . × + = 0.95
𝑞 . = 𝑞𝑡(0.05,30) = −1.697

P − 𝜇 −𝜇 >𝑞 . × + − (𝑋 − 𝑌) = 0.95

P 𝜇 −𝜇 < (𝑋 − 𝑌) − 𝑞 . × + = 0.95

(−∞, −2.71)

Luego 0 ∉ (−∞, −2.71), entonces se rechaza 𝐻 entonces el tiempo medio del ruido moderado es menos
perturbador del ruido severo.

pág. 63
FUENTES, YESICA TAMARA
e) A partir de la diferencia observada entre los tiempos medios muestrales, es posible argumentar que el
tiempo medio que se demora en hacer la tarea bajo efecto de ruido severo supera en más de 4 minutos al
tiempo medio que se demora en hacer la tarea bajo efecto de ruido moderado. Plantee las hipótesis
adecuadas y concluya en términos del problema, con un nivel de significación del 5%

𝐻 :𝜇 ≤ 𝜇 + 4 𝑣𝑠 𝐻 : 𝜇 > 𝜇 +4

O también:
𝐻 : 𝜇 − 𝜇 ≤ 4 𝑣𝑠 𝐻 : 𝜇 − 𝜇 >4

𝜏: 𝑠𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝐻 ↔ 4 ∉ (𝑎, ∞)
El comando en R:
t.test(N2,N1,mu=4,var.equal=T,alternative=”greater”)

salida:

Luego 4 ∈ (2.71 , ∞) se acepta la 𝐻 ,es decir que significativamente el ruido severo supera en mas de 4 minutos al
ruido moderado.

pág. 64
FUENTES, YESICA TAMARA

pág. 65

También podría gustarte