Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen Estadistica
Resumen Estadistica
2021
FUENTES, YESICA TAMARA
UNIDAD 1: PROBABILIDAD
No aleatorio
Finito
Experiment
Discreto
Infinito
Conjunto Numerable
Aleatorio Espacio
Muestral
(S)
Continuo
Subconjunto
es:
Unitarios
Suceso o Evento Imposible
Compuestos
Seguro
Sucesos
disjuntos
*Experimento
*Espacio Muestral (S): se lo llama así al, conjunto de todos los resultados posibles de un experimento aleatorio.
-Discreto: es el espacio muestral en los naturales o un subconjunto de los naturales, IN. Se pueden enumerar.
-Continuo: es el espacio muestral en los reales o un subconjunto de los reales, IR. No se pueden enumerar.
*Sucesos Disjuntos ( o mutuamente excluyentes): son subconjuntos de (S) tales que su intersección es vacía.
Clásico
Hay 3 enfoques de probabilidad Frecuentista
*AXIOMÁTICA:
-S un conjunto no vacío
(que va de parte de S al intervalo [0,1]. Mide los elementos de parte de S y les asigna un valor entre cero y uno)
1. P(S)=1
2. Para cualquier sucesión { 𝐴 } de elementos P(S), disjuntos dos a dos 𝐴 ∩ 𝐴 = ∅ ∀ 𝑖 ≠ 𝑗
se verifica: 𝑃( ⋃ 𝐴 )= ∑ 𝑃(𝐴 )
Espacio de probabilidad
Se dice que:
(S,P) es equiprobable
pág. 2
FUENTES, YESICA TAMARA
PROPIEDADES:
Propiedad 1: P( ) = 0
Demostración:
= … ..
Luego : P() = P( … )
{𝐴 } = { } es una sucesión numerable de sucesos disjuntos dos a dos, luego por el axioma 2:
Resulta, P()=0
= 𝑛 + 1∞𝑝(∅) = 𝑘 = 1𝑛𝑝(𝐴 )
pág. 3
FUENTES, YESICA TAMARA
°Caso particular:
si B ⊂ A entonces: A∩B=B
Luego: P (A-B)=P (A) – P (B)
Generalización a 3 sucesos:
P(ABC)= P(A) + P(B) + P(C) - P(A∩B) - P(A∩C) - P(B∩C) + P(A∩B∩C)
pág. 4
FUENTES, YESICA TAMARA
PROBABILIDAD CONDICIONAL.
Dado un espacio de probabilidad (S , P) y un suceso B ϵ P(S) tal que P(B) ≠ 0, para cada suceso A ϵ P(S), la
probabilidad condicional de A dado B (de A dado que B ya ocurrio), denotada P(A/B), es:
( ∩ )
P(A/B)= ( )
,con P(B)≠0
Error frecuente: confundir probabilidad condicional con probabilidad de la intersección. En ambos medimos
efectivamente la intersección, pero :
( ∩ ) ( )
P(S)= P(S/B)= ( )
= ( )
=1
REGLA MULTIPLICATIVA
( / )
P(A/B)= ( )
despejamos
( / )
P(B/A)= ( )
despejamos
SUCESOS INDEPENDIENTES
Dos sucesos son independientes si, el que ocurra uno, no afecta la información sobre el otro.
Sean A y B dos sucesos en el espacio de probabilidad (S, P). A y B son sucesos independientes si y solo si se cumple
una de las siguientes afirmaciones:
1. P(A∩B) = P(A).P(B)
2. P(A/B) = P(A) Siempre que, el que ya ocurrió sea ≠ 0 [ P(B), P(A)
3. P(B/A) = P(B) respectivamente]
Observaciones
Si los sucesos A y B tienen ambos probabilidad positiva (no nula) las tres afirmaciones anteriores son
completamente equivalentes. Es decir, cualquiera de ellas puede ser usada para comprobar la
independencia o no de dos sucesos.
La primera afirmación es mas general que las otras dos, en el sentido de que vale también cuando dos
sucesos (o uno de ellos) tienen probabilidad nula.
La independencia de dos sucesos es un concepto diferente de la idea de eventos mutuamente excluyentes.
En general, ninguno de ellos implica al otro.
Dos sucesos son mutuamente excluyentes e independientes si al menos uno de ellos es el conjunto vacio.
pág. 5
FUENTES, YESICA TAMARA
PROPIEDAD DE INDEPENDENCIA DE SUCESOS
Sean A y B dos sucesos independientes definidos en un espacio de probabilidad (S, P), entonces:
1. A y 𝐵
2. 𝐴̅ y B Son independientes
3. 𝐴 𝑦 𝐵
TEOREMA DE BAYES
P(𝐴 ) ≠ 0, i=1, 2, … , n, tales que forman una partición de S, es decir, ⋃ 𝐴 = S donde 𝐴 ∩ 𝐴 = si i≠j
Dado además un suceso B ϵ P(S) tal que P(B) > 0 la probabilidad posterior de un suceso 𝐴 , cualquiera con
probabilidad positiva es:
( ). ( / )
P(𝐴 /B)= ∑ ( ). ( / )
Con mis palabras, usamos el teorema de Bayes para cuando tenemos una P(A/B) y nos piden una P(B/A)
Demostración:
( ∩ ) ( ). ( / )
P(𝐴 /𝐵) = ( )
= ( )
= (1)
Si : B = (𝐴 ∩ 𝐵) (𝐴 ∩ 𝐵) … (𝐴 ∩ 𝐵) = ⋃ (𝐴 ∩ 𝐵)
(𝐴 ∩ 𝐵) ∩(𝐴 ∩ 𝐵) = (𝐴 ∩ 𝐴 ) ∩ (B∩B) =
= ∩ B=
pág. 6
FUENTES, YESICA TAMARA
APÉNDICE
IDEMPOTENCIA A A= A
A ∩ A= A
ASOCIATIVIDAD (AB) C = A (BC)
(A∩B)∩C = A∩(B∩C)
CONMUTATIVIDAD AB = BA
A∩B = B∩A
DISTRIBUTIVIDAD A(B∩C) = (AB)∩(AC)
A∩(BC) = (A∩B)(A∩C)
IDENTIDAD A = A A∩ =
A S = S A∩S = A
pág. 7
FUENTES, YESICA TAMARA
COMPLEMENTO A 𝐴̅ = S A∩𝐴̅ =
LEYES DE MORGAN 𝐴̿ = 𝐴 𝑆̅ = =𝑆
𝐴 𝐵 = 𝐴 ∩ 𝐵
̅ 𝐴 ∩ 𝐵 = 𝐴̅ 𝐵
pág. 8
FUENTES, YESICA TAMARA
Definición : Sea S el espacio muestral ligado a un experimento aleatorio, una variable aleatoria es una función X que
asigna a cada elemento del espacio muestral un numero del conjunto de los números reales R.
CLASIFICACION
DISCRETAS CONTINUAS
El conjunto X(S) es numerable. El conjunto X(S) es no numerable.
Los puntos se sitúan en el eje x, toma algunos puntos Toma infinitos valores de una recta real.
de la recta.
Definición: Sea X una v.a. discreta definida sobre un espacio de probabilidad (S , P) se llama función de probabilidad
de la v.a.d. X a la función 𝑓 (𝑥): 𝑅 → [0,1] 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑓 (𝑥) = 𝑃({𝑠 ∈ 𝑆 /𝑋( ) = 𝑥}) = 𝑃(𝑋 = 𝑥)
0,095 si x=1
𝑓 (𝑋) =
0,0025 si x=2
0 en caso contrario
En una tabla.
X 0 1 2
𝑓 0,9025 0,095 0,0025
Grafico
𝑓
0,9025
0,095
0,0025
0 1 2 x
1) 𝑓 (𝑥) ≥ 0∀𝑥 ∈ 𝑅
2) ∑ 𝑓 (𝑥) = 1
Son fundamentales porque, toda función de densidad de v.a.d. las cumple y además, si una función cualquiera
cumple con ambas propiedades es una función de densidad.
Se llama función de distribución acumulada o acumulativa de la v.a X a la función definida como: 𝐹 : 𝑅 → [0,1]
Volviendo al ejemplo:
P(X≤0)= 0,9025
Grafico 𝐹
1
0,9975
pág. 10
0,9025
0 1 2 x
FUENTES, YESICA TAMARA
Propiedades fundamentales
Demostración:
=𝐹 (𝑥 ) + 𝑃[𝑥 < 𝑋 ≤ 𝑥 ]
Resulta 𝐹 (𝑥 ) ≤ 𝐹 (𝑥 )
3) Continuidad por derecha en todo su dominio. Es discontinua (presenta saltos) por izquierda y continua por
derecha.
lim 𝐹 (𝑥 + ℎ) = 𝐹 (𝑥) ∀𝑥 ∈ 𝑅
→
Son fundamentales por que cualquier función acumulada tiene que cumplir estas 3 propiedades, si
no cumple con alguna de ellas, no es una función de distribución.
Se denomina cuantil de orden q (donde 0 ˂ q ˂ 1), expresado como 𝑥 al menor valor que toma una variable
aleatoria X si cumple que: P( X ≤ 𝑥 ) ≥ q
Mediana= 𝑢 = 𝑥 ,
Ejemplo si digo que el x . = 2 su interpretación seria, “obtengo a lo sumo un valor de 2 con una probabilidad del
25%”
ESPERANZA
Sea X una v.a.d. definida en S, (S , P) el espacio de probabilidad y X(S) el conjunto de los valores que toma X. Se
simboliza E(X)=𝑢 y se obtiene:
E(X)= 𝑢 = ∑ ∈ ( )𝑥 . 𝑓 (𝑥)
Sea X : S → R una variable aleatoria y g : R → R entonces la función compuesta g 𝑜 X = g(X) es también una
variable aleatoria y la esperanza de g(x) es:
Propiedades
=c. P(X = c)
=c. 1 = c
Luego queda demostrado que si P(X=c) = 1 entonces E(X) = c ó lo que es lo mismo E(c) = c
= c . E( g(x) ) + b
pág. 12
FUENTES, YESICA TAMARA
Observaciones:
El valor de la esperanza no necesariamente pertenece al conjunto soporte X(S), pero si pertenece al rango de
medición de X.
VARIANZA
Sea X una v.a.d. definida en un espacio de probabilidad (S , P). con función densidad 𝑓 definida y con 𝑢 < ∞.
La varianza de una v.a.d, se simboliza como var(x) ó 𝜎 y se obtiene:
Partimos de que P(X = c) = 1, luego el único valor que toma la v.a. X es, el valor c.
Var(x) = E(X - 𝑢 ) =
E(c) = c
= E(c - c)
= E(0)
= E(0)=0
= E [𝑐 . 𝑔(𝑥) − 𝑐 . 𝐸( 𝑔(𝑥) ) ]
= E [𝑐 . ( 𝑔(𝑥) − 𝐸( 𝑔(𝑥) ) )]
= 𝑐 . 𝑣𝑎𝑟( 𝑔(𝑥) )
pág. 13
FUENTES, YESICA TAMARA
3) var(X + c ) = var(x)
Var(x) = E [𝑋 − 𝐸(𝑥)]
= E [𝑋 − 2 𝑋 𝐸(𝑋) + 𝐸 (𝑋) ]
= E (𝑋 ) - 2𝐸 (𝑋) + 𝐸 (𝑋)
= E(𝑋 ) - 𝐸 (𝑋)
= E(𝑋 ) - 𝑢
Observaciones:
Siempre da un valor mayor o igual a cero.
Sea X una v.a.d. definida en un espacio de probabilidad (S , P), con funcion densidad 𝑓 definida y con 𝑢 < ∞ .Se
define el desvio estándar de una v.a. X como la medida obtenida a partir de la raíz cuadrada de la varianza, es
decir: 𝜎 = 𝑣𝑎𝑟(𝑥)
pág. 14
FUENTES, YESICA TAMARA
MODELOS DE DISTRIBUCION
MODELO BERNOULLI X~ Bernoulli (π)
Conjunto soporte:
ESPERANZA
VARIANZA
Se usa cuando, tenemos un experimento que se repite n veces, (donde n es fijo), y π es constante.
Y cada prueba tiene 2 resultados posibles (éxito y fracaso). Mide la cantidad de éxitos en n tiros.
Función densidad
𝑓 (𝑥) = ( ) 𝜋 (1 − 𝜋) 𝐼{ , , .. } (𝑥)
Comando en R: dbinom (x , n , π)
pág. 15
FUENTES, YESICA TAMARA
ESPERANZA
E(X) = n.π
VARIANZA
Var(x)= n.π(1 - π)
Función densidad
Siendo 0 ˂ π ˂ 1
ESPERANZA
E(X) =
VARIANZA
Var(X) =
Se utiliza cuando tenemos la probabilidad en una unidad de medida, espacio, tiempo o volumen; con una velocidad
constante.
Ofrece una aproximación excelente a la función de probabilidad binomial cuando π es pequeño (menor o igual a
0,05) y n grande (n> 20)
Función densidad
.
𝑓 (𝑥) = 𝐼 (𝑥)
!
Espacio de parámetro: 𝜃 = 𝑅
Grafico
pág. 16
FUENTES, YESICA TAMARA
pág. 17
FUENTES, YESICA TAMARA
𝑓 (𝑥) = 𝐹´ (𝑥)
𝐹 (𝑥) = 𝑓 (𝑢)𝑑𝑢 Si derivo la acumulada, obtengo la densidad.
Si integro la densidad, obtengo la acumulada.
Observaciones:
𝑓 (𝑥) puede tomar valores mayores a 1
La probabilidad de que la v.a. X tome valor en un punto es igual a cero. P(X=x)=0 ∀ 𝑥 ∈ 𝑅 , luego P(X ≤ x)
= P(X ˂ x)
P(X = x) = lim 𝐹 (𝑥 + ℎ) − lim 𝐹 (𝑥 − ℎ)
→ →
P(X = x) = 𝐹 (𝑥) − 𝐹 (𝑥)
P(X = x) = 0
La probabilidad es una medida dada por una integral definida:
ESPERANZA
E(X) = ∫ 𝑥 . 𝑓 (𝑥)𝑑𝑥
pág. 18
FUENTES, YESICA TAMARA
ESPERANZA DE UNA FUNCIÓN
VARIANZA
Var(x) = ∫ (𝑥 − 𝑢) 𝑓 (𝑥)𝑑𝑥
CUANTILES
El cuantil de orden “q”, que se escribe como 𝑥 de una v.a. X continua con función de distribución acumulada 𝐹
es el valor de la variable para el cual 𝐹 (𝑥 ) = 𝑃(𝑋 ≤ 𝑥 ) = 𝑞 donde 0 ˂ q ˂ 1.
OBSERVACION
MODELO DE DISTRIBUCION
Grafico: Grafico:
ESPERANZA
pág. 19
FUENTES, YESICA TAMARA
VARIANZA
MODELO DE PARETO
Grafico:
ESPERANZA
VARIANZA
Función densidad
pág. 20
FUENTES, YESICA TAMARA
tii
En este modelo 𝓊=moda= maximo
Grafico
68%
95%
99%
𝑍=
Gráfico
ESPERANZA
VARIANZA
En el caso de variable X normal, la interpretación es clara: asigna a todo valor de N( u , 𝜎 ), un valor de N( 0 , 1), tal
que la probabilidad calculada con la N( u , 𝜎 ) de un intervalo cualquiera es exactamente la misma probabilidad que
la calculada con la N( 0 , 1) pero en el correspondiente intervalo transformado por z.
Este modelo nos permite así comparar entre dos valores de dos distribuciones normales diferentes.
pág. 21
FUENTES, YESICA TAMARA
Nos permite calcular áreas de cualquier variable con distribución normal.
Luego si X ~ N( u , 𝜎 ), entonces Z ~ N( 0 , 1)
Función densidad
pág. 22
FUENTES, YESICA TAMARA
VARIABLES ALEATORIAS
DISCRETAS CONTINUAS
𝑓 (𝑥) = 𝑃(𝑋 = 𝑥) 𝑑𝐹(𝑥)
𝑓 (𝑥) = 𝐹 ´ (𝑋) =
FUNCION DENSIDAD 𝑑𝑥
1) Var(c) = 0
PROPIEDADES 2) Var[ c . g(x) ] = 𝑐 . 𝑣𝑎𝑟[ 𝑔(𝑥) ]
3) Var(X + c) = var(x)
4) Var(x) = 𝐸(𝑥 ) − 𝐸 (𝑥)
pág. 23
FUENTES, YESICA TAMARA
Modelo Función Densidad/ Acumulada Esperanza Varianza Comando R
BERNOULLI 𝑓 (𝑥) = 𝜋 (1 − 𝜋) 𝐼{ , } (𝑥) E(X) = π Var(X) = π (1 - π) No tiene
D I S C R E T A S
BINOMIAL 𝑓 (𝑥) = ( ) 𝜋 (1 − 𝜋) 𝐼{ , , .. } (𝑥) E(X) = n.π Var(x) = n.π (1 - π) dbinom(x,n,π)
pbinom(x,n,π)
qbinom(q,n,π)
GEOMETRICO 𝑓 (𝑥) = 𝜋 (1 − 𝜋 ) 𝐼{ , ,...} (𝑥) E(X) = Var(X) = dgeom(x,π)
pgeom(x,π)
qgeom(q,π)
POISSON 𝑓 (𝑥) =
.
𝐼 (𝑥) E(X) = 𝜆 Var(x) = 𝜆 dpois(x,𝜆)
! ppois(x,𝜆)
qpois(x,𝜆)
C
𝐸(𝑋) =
𝐼( , ) (𝑥)
𝜆. 𝛼 ppareto(x,𝛼, 𝜆)
O N
=
(𝜆 − 1) . (𝜆 − 2) qpareto(q,𝛼, 𝜆)
T I N
NORMAL 𝐸(𝑋) = 𝑢 𝑣𝑎𝑟(𝑥) = 𝜎 dnorm(x,u,𝜎)
pnorm(x,u,𝜎)
qnorm(q,u,𝜎)
U A
NORMAL ESTANDAR 𝑍= E(X) = 0 Var(x) = 1 dnorm(x,0,1)
pnorm(x,0,1)
qnorm(q,0,1)
S
CHI-CUADRADO (Ver en notas) E(X) = n Var(x) =2n dchisq(x,n-1)
qchisq(q,n-1)
t DE STUDENT (Ver en notas) E(X) = 0 𝑣𝑎𝑟(𝑥) = dt(x,n-1)
qt(q,n-1)
pág. 24
FUENTES, YESICA TAMARA
F-FISHER (Ver en notas) 𝐸(𝑋) = para Var(X)= ( ) df(x,𝑛 -1, 𝑛 -1)
( ) .( ) qf(q,𝑛 -1, 𝑛 -1)
n >2 para n>4
pág. 25
FUENTES, YESICA TAMARA
Sean X e Y dos variables definidas en el mismo espacio muestral S, es decir, X : S → R e Y : S → R; se llama variable
aleatoria conjunta bidimensional o vector aleatorio (X , Y) a la función (X , Y) : S → 𝑅 tal que:
VARIABLES ALEATORIAS
DISCRETAS CONTINUAS
FUNCION DENSIDAD CONJUNTA FUNCION DENSIDAD CONJUNTA
Sean X e Y dos variables aleatorias discretas definidas Sea (X , Y) un vector aleatorio con función de
en un mismo espacio muestral, la función densidad distribución acumulativa 𝐹 , , se dice que (X , Y) es
conjunta del vector aleatorio (X , Y) discreto es: continuo si existe una función no negativa e integrable
𝑓 , : 𝑅 → [0,1] tal que: 𝑓 , ∶ 𝑅 → 𝑅 / ∀ (𝑥, 𝑦) de 𝑅 se cumple la igualdad:
𝑓 , (𝑥, 𝑦) = 𝑃(𝑋 = 𝑥 ∧ 𝑌 = 𝑦)
𝐹 , (𝑥, 𝑦) = 𝑓 , (𝑢, 𝑣)𝑑𝑣 𝑑𝑢
pág. 27
FUENTES, YESICA TAMARA
Ejemplo:
x 0 1 2 𝑓 (𝑦)
y
0 0 0 1/4 1/4
1 0 1/2 0 1/2
2 1/4 0 0 1/4
𝑓 (𝑥) 1/4 1/2 1/4 1
ESPERANZA
Sean X e Y v.a. definidas sobre el mismo espacio de probabilidad (X , Y)∶ 𝑆 → 𝑅 con densidad conjunta 𝑓 , y sea
g(x,y) una nueva v.a. tal que g esta definida en (X , Y)(S), entonces:
DISCRETAS CONTINUAS
CASOS PARTICULARES
1) Si g(X , Y) = aX + bY ∀ 𝑎, 𝑏 ∈ 𝑅 entonces: E[g(X , Y )]= E[a.X + b.Y]= a.E(X) + b.E(Y)
DEMOSTRACION
DISCRETO CONTINUO
DEMOSTRACION
pág. 28
FUENTES, YESICA TAMARA
COVARIANZA
Sean X e Y dos v.a. con esperanzas finitas, la covarianza entre X e Y esta dada por Cov(X , Y) = E(X.Y) – E(X).E(Y)
¡Caso particular!
1) Cov(a , X)=0
Demostración
= E[ (a – a ).(X – E(X))]
= E[0. (X – E(X))] = 0
2) Cov(X , Y) = cov(Y , X)
Demostración
X + a – E(X) – a
Luego: = E[ (X – E(x)) . (Y – E(Y)) ] = cov(X , Y)
pág. 29
FUENTES, YESICA TAMARA
Demostración
Propiedad varianza
Se puede probar que para dos v.a. cualesquiera X e Y: (siendo a y b constantes reales)
Demostración:
pág. 30
FUENTES, YESICA TAMARA
PROBLEMAS DE COVARIANZA
COEFICIENTE DE CORRELACIÓN
( , )
Dadas las v.a. X e Y con esperanzas y varianzas finitas, el coeficiente de correlación es: 𝒫(𝑋 , 𝑌) = .
Propiedades
1) −1 ≤ 𝒫 ≤ 1
2) Signo 𝒫 = signo cov(x,y)
No hay relación lineal entre X e Y, es decir que cov(x,y)=0 ó Existe una relación lineal entre X e Y, es decir que 𝒫 = −1 ó
que 𝒫 = 0 𝒫 = 1, existe correlación perfecta
pág. 31
FUENTES, YESICA TAMARA
Tanto la covarianza como el coeficiente de correlación son medidas de la relación lineal que existe entre 2
variables.
Miden lo mismo, solo que la correlación nos dice que tan fuerte es la relación lineal; si esa relación existe.
Provee información sobre la relación lineal que existe entre las variables.
𝑋 𝐸(𝑋) 𝓊
Si consideramos el vector aleatorio 𝑥 = , definimos el vector de medias como 𝓊 = = 𝓊
𝑌 𝐸(𝑌)
La variabilidad del vector aleatorio se resume en la matriz de varianzas-covarianzas que se expresa como:
𝜎 𝒫(𝑋, 𝑌)𝜎 𝜎
=
𝒫(𝑋, 𝑌)𝜎 𝜎 𝜎
¡¡Caso particular!!
si X e Y son independientes:
𝑣𝑎𝑟(𝑋) 0
Se tiene una matriz diagonal:
0 𝑣𝑎𝑟(𝑌)
pág. 32
FUENTES, YESICA TAMARA
PROPIEDADES
ESPERANZA
Demostración
[caso continuo]
VARIANZA
La varianza para 2 v.a. cualesquiera era: var(a.X + b.Y) = 𝑎 . 𝑣𝑎𝑟(𝑋) + 𝑏 𝑣𝑎𝑟(𝑌) + 2. 𝑎. 𝑏. 𝑐𝑜𝑣(𝑋, 𝑌)
Queda como: 0
𝑣𝑎𝑟(𝑎. 𝑋 + 𝑏. 𝑌) = 𝑎 . 𝑣𝑎𝑟(𝑋) + 𝑏 . 𝑣𝑎𝑟(𝑌)
COVARIANZA
Si X e Y son v.a. independientes entonces cov(X, Y) = 0
Si X e Y son variables independientes, no tienen ningun tipo de relacion, entonces podemos afirmar que no
van a tener relacion lineal, por lo tanto la cov(x,y) = 0
= (𝓊 − 𝓊 ) − (𝓊 − 𝓊 ) = 0
IMPORTANTE!!
Que la cov(x,y) = 0 ,no implica que X e Y sean independientes, SOLO podemos decir que NO HAY RELACION
LINEAL, solo podemos decir que no hay otro tipo de relación.
Es decir, si son independientes X e Y la cov(x,y) = 0 PERO que la cov(x,y) = 0 no implica que sean independientes X
e Y.
pág. 33
FUENTES, YESICA TAMARA
Ejemplo:
NORMAL BIVARIADA
Sea (X , Y) una variable aleatoria bivariada continua, decimos que (X , Y) tiene distribución normal bivariada si, su
función densidad conjunta es:
Grafico:
𝒙
Donde X = 𝒚
pág. 34
FUENTES, YESICA TAMARA
DENSIDADES MARGINALES
Propiedades
pág. 35
FUENTES, YESICA TAMARA
pág. 36
FUENTES, YESICA TAMARA
Unidad 5: MUESTRAS ALEATORIAS Y DISTRIBUCIONES DE MUESTREO
una muestra aleatoria de tamaño “n” de una población con densidad f es un conjunto de “n” variables aleatorias
independientes y cada una de ellas con idéntica distribución de la población. Simbólicamente: 𝑋 , 𝑋 , . . . , 𝑋 .
𝑓 (. , 𝜃)
ANALISIS EXPLORATORIO DE DATOS
En R:
Al poner “hz” antes del comando de histograma, resulta mas cómodo para después poder visualizar toda la información sobre
estos datos, también se coloca “freq=FALSE” por la densidad empírica. Para visualizar esta información solo se debe escribir >hz
y nos arroja lo siguiente:
Intervalos
Frecuencia
𝑓
Densidad 𝑓 (𝑥) (Altura)
pág. 37
FUENTES, YESICA TAMARA
El histograma se usa para variables continuas, nos permite ver como son las frecuencias para cada variable y al
mismo tiempo como es la distribución de los datos. En el eje horizontal tenemos los valore de la variable y en el
vertical las frecuencias que aparecen para cada valor de la variable.
El grafico de barras se usa para las variable discretas.
La diferencia entre los 2 es que uno es para las continuas y el otro para la discreta y además el grafico de barras tiene
las barras separadas un poco y en el histograma no.
Por ultimo se puede decir que, si el histograma tiene una forma “acampanada” se puede afirmar que tiene
distribución normal. De forma analítica, se debe calcular la media muestral ( 𝑥̅ ) y la desviación muestral (𝑠 ) y la
primer clase será: (𝓊 − 𝜎 ; 𝓊 + 𝜎) se calcula la frecuencia absoluta 𝑓 y la frecuencia relativa 𝑓 y así con las 2
restantes desviaciones, si se aproximan a 68% , 95% , y 99% se puede afirmar que tiene distribución normal.
Gráfico de torta
Es conveniente realizarlo para cuando tenemos pocos datos para que se puedan apreciar.
En R:
pie(y, col=c(2,4),labels=c("por debajo","por encima"), main="DATOS SOBRE LA POBREZA")
Se debe tener
1) valor mínimo de la variable
2) el cuantil 0,25
3)el cuantil 0,50
4) el cuantil 0,75
5) valor máximo de la variable
Comando: >boxplot
Comando en R:
>stem()
Diagrama de Pareto
pág. 38
FUENTES, YESICA TAMARA
ESTADISTICO
Un estadístico es una función que dada una muestra le asigna un numero que sirve para estimar determinado
parámetro de la distribución de la muestra y que no depende de parámetros desconocidos.
MEDIA MUESTRAL ( 𝑿 )
Sea 𝑋 , 𝑋 , . . . , 𝑋 una muestra aleatoria de una población con densidad 𝑓 . La media muestral es: 𝑋 = ∑ 𝑋
Propiedad 1:
Se puede probar que si se promedia las medias de todas las muestras posibles, coincide con la media poblacional.
Luego podemos asociar a la media muestral conocida con la poblacional que generalmente es desconocida.
Si hay identica distribucion, no hace falta que las variables sean independientes para que 𝐸(𝑋) = 𝐸(𝑋)
Propiedad 2:
Se puede probare que la variabilidad de la media muestral ( 𝑋 )esta relacionada con la variabilidad de la población
de donde fue extraída la muestra, pero también con el tamaño de la muestra ( X ):
Con ambas propiedades nos permiten tener confianza en que un valor de la media muestral sea un buen
representante de la media poblacional, que desconocemos.
Se define a partir de de una muestra aleatoria 𝑋 , 𝑋 , . . . , 𝑋 de una población con densidad 𝑓 como: 𝑇 = ∑ 𝑋
Propiedad 1:
Se puede probar que si se promedia los totales de todas las muestras posibles, también esta relacionada con la
media poblacional.
Propiedad 2:
pág. 39
FUENTES, YESICA TAMARA
Se puede probar que la variabilidad del total muestral esta relacionado con la variabilidad de la población, pero
también con el tamaño de la muestra.
VARIANZA MUESTRAL 𝑺𝟐
Cuasi-Varianza
𝑆 = ∑ (𝑋 − 𝑋 )
La cuasi – Varianza tiene una estructura “similar” a la varianza poblacional, sin embargo si consideramos la
esperanza de la variable aleatoria 𝑆 , no coincide con la varianza de la población; es decir 𝑆 ≠ 𝜎
Si se multiplica por la varianza muestral 𝑆 se puede comprobar:
𝑛 − 1 1
× ∑( 𝑋 − 𝑋)
𝑛 𝑛 − 1
∑( 𝑋 − 𝑋 )
=
𝑛
1
= ∑( 𝑋 − 𝑋 )
𝑛
Si calculamos su esperanza:
VARIANZA MUESTRAL
Buscando un estadístico que tenga su esperanza igual a 𝜎 es que surge este concepto;
Sea X una v.a. en la población con densidad 𝑓 y 𝑋 , 𝑋 , . . , 𝑋 una muestra aleatoria de esta población, la
varianza muestral se define como: 𝑆 = ∑ (𝑋 − 𝑋 )
Propiedad:
Se puede probar que, si se considera la esperanza de la variable 𝑆 , coincide con la varianza de la población;
es decir: E( 𝑆 ) = 𝜎
pág. 40
FUENTES, YESICA TAMARA
Luego E( 𝑆 ) = 𝜎
ESTADISTICOS DE ORDEN
Un estadístico de orden es una variable aleatoria y como consecuencia tiene una distribución es decir tiene una
función densidad y una distribución acumulativa que dependerán de la función densidad y la distribución
acumulativa de la población
Si n es par: 𝑋( )
+ 𝑋( )
Comando en R:
𝑀𝑑 =
2 >median()
Si n es impar: 𝑀𝑑 = 𝑋
( )
En las distribuciones simétricas la media (𝓊) y la mediana (Md) coinciden, es por esto que para analizar simetría se
comparan estos estadísticos.
También lo utilizamos para analizar normalidad de la distribución de la población (en este caso los graficos cuantil-
cuantil se llaman también graficos de probabilidad normal o normal probability plots).
En R:
>variación=c(-1.74,-3.60,-7.22,0.00,-3.36,-4.08,-0.85,-3.34,-2.24,-0.57,-1.35,-2.07,0.31,-3.49,-5.13,-4.95,-3.43,-0.10,-
1.54,-1.26,-1.46,-2.74,-3.83,-4.66,-6.85,-3.43,-1.11,-6.45,-3.77,-2.82)
>qqline(variación,lwd=2,col=”blue”)
pág. 42
FUENTES, YESICA TAMARA
Distribución de un estadístico
Un estadístico es una v.a. y como tal tiene una distribución de probabilidades. A la distribución de probabilidades de
un estadístico se le llama distribución del estadístico.
La distribución del estadístico depende de la distribución de las variables de la muestra, que es la distribución de X
(población) y del tamaño.
Si X es la media de una muestra aleatoria de tamaño n, que se toma de una población con media 𝓊 y con varianza
finita 𝜎 ,entonces la forma del limite de la distribución es:
𝑋 − 𝐸(𝑋) 𝑋 − 𝓊
𝑍= = 𝜎
𝑣𝑎𝑟(𝑋)
√𝑛
¿Cuándo se usa este teorema? Cuando n≥30
Si se toma una muestra aleatoria de tamaño n y se obtiene 𝑋 se puede probar que: 𝑋 → 𝑁( 𝓊, ) 𝑐𝑢𝑎𝑛𝑑𝑜 𝑛 → ∞
pág. 43
FUENTES, YESICA TAMARA
Variables aleatorias de utilidad en inferencia
Se utiliza:
𝑇
(𝑛 − 1)𝑆 𝜎
=
𝜎
𝑇
𝑋 − 𝜇 𝜇
=
𝑆
√𝑛
𝑆
𝜎
𝐹= ~𝐹(𝑚 − 1 , 𝑛 − 1)
𝑆
𝜎
pág. 44
FUENTES, YESICA TAMARA
MEDIA MUESTRAL TOTAL MUESTRAL VARIANZA MUESTRAL MEDIANA MUESTRAL
1 𝑇 =∑𝑋 1 Si “n” es par
𝑋 = ∑𝑋 𝑆 = ∑ (𝑋
𝑛 𝑛 − 1
− 𝑋)
𝑋 +𝑋
E(𝑋 ) = 𝜇 𝐸(𝑇) = 𝑛. 𝜇 𝐸(𝑆 ) = 𝜎 𝑀𝑑 =
2
Cuasi-Varianza Si “n” es impar:
𝑣𝑎𝑟(𝑇) = 𝑛. 𝜎 1
Var(𝑋 )= 𝑆 = ∑ (𝑋 − 𝑋)
𝑛
>sd()
Comando en R Comando en R 𝑀𝑑 = 𝑋
>mean() >var()
Comando en R
Comando para varianza
>median()
muestral.
OTROS COMANDOS:
pág. 45
FUENTES, YESICA TAMARA
Se conoce el modelo, PERO NO se conocen los parámetros, en otras palabras, la función densidad es conocida, pero
lo desconocido es el parámetro; entonces para poder encontrar este parámetro desconocido existes formas como la
estimación puntual, estimación por intervalos y por pruebas de hipótesis.
ESTIMACION PUNTUAL
¿Cuál es el objetivo de la estimación puntual? es, a partir de los valores de una muestra aleatoria, obtener un valor
que represente al valor desconocido del parámetro de la distribución de la que proviene la muestra.
Se conoce la distribución, pero no el valor de 𝜃, entonces “estimamos” una funcion de las v.a. de la muestra, sin
que contenga ningún parámetro, y se le asigna el valor que tome esta función en la muestra concreta.
Definición:
Propiedades
1) Estimador insesgado
Es decir, el valor esperador del estimador es igual al parámetro que quiero estimar ó lo mismo es si decimos que la
diferencia entre, el valor esperado del estimador y el parámetro a estimar es cero.
Cuando, la varianza de T es mínima. Tiene que ver con un estimador eficiente. Es decir se elige al de menor varianza.
𝑋 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 µ
𝑆 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 𝜎
𝑠 𝑛𝑜 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 𝜎
Entonces:
y , si P(𝑻𝟐 > ) =
OBSERVACIONES
pág. 47
FUENTES, YESICA TAMARA
CANTIDAD PIVOTAL
Sea Q=g(𝑋 ,𝑋 ,…, 𝑋 , ) una cantidad pivotal con densidad 𝑓 y sea [0,1]. Existen 𝑞 y 𝑞 tales que:
El método de la cantidad pivotal consiste en partir de la expresión anterior y reescribirla de modo que
P( T1 < < T2 ) =
Las constantes debieran elegirse de forma tal de que el intervalo de confianza resultante (T1 , T2 ) sea el mejor según
algún criterio preestablecido. Es decir, será mejor cuanto más preciso sea, o sea, cuanto menor sea su longitud.
𝑞 y 𝑞 se eligen de forma tal que el intervalo tenga longitud mínima. Se puede probar que cuando la “distribución
de Q” es simétrica, el intervalo de confianza de longitud mínima se obtiene para 𝑞 = − 𝑞
pág. 48
FUENTES, YESICA TAMARA
Cuando la “distribución de Q” no es simétrica, Es decir 𝑞 𝑦 𝑞 se eligen de modo que PQ < 𝑞 ) = P(Q> 𝑞 ) Se
( )
verifica que PQ < 𝑞 = P(Q > 𝑞 ) = =
↑ 𝑛
𝜸 𝑓𝑖𝑗𝑜 ↓𝐿
↑𝑃
↑𝛾
𝒏 𝑓𝑖𝑗𝑜 ↑𝐿
↓𝑃
P( Q > q ) = 𝛾 P( Q < q ) = 𝛾
Donde: 𝑞 Donde: 𝑞
pág. 49
FUENTES, YESICA TAMARA
𝝈𝟐 conocida 𝝈𝟐 desconocida
𝒛. 𝒕𝒆𝒔𝒕(𝒎𝒙, 𝒔𝒊𝒈𝒎𝒂. 𝒙 = 𝟎. 𝟒, 𝒄𝒐𝒏𝒇. 𝒍𝒆𝒗𝒆𝒍 = 𝟎. 𝟗𝟗) 𝒕. 𝒕𝒆𝒔𝒕()
CANTIDAD PIVOTAL: 𝑄 = ~ 𝑁(0,1) CANTIDAD PIVOTAL: 𝑄 = ~𝑡( )
√ √
P(𝑞 < 𝑄 < 𝑞 ) = 𝛾 al despejar 𝜇: P(𝑞 < 𝑄 < 𝑞 ) = 𝛾 al despejar 𝜇:
( )
CANTIDAD PIVOTAL: 𝑄 = ~𝑋
( ) ( )
P( <𝜎 < )=𝛾
LUEGO INTERVALO:
𝑆 (𝑛 − 1) 𝑆 (𝑛 − 1)
;
𝑞 𝑞
Donde: 𝑞 = ,𝑋 y 𝑞 = ,𝑋
Ej: >qchisq(0.05 , 6)
TENER EN CUENTA:
1−𝛾 𝛼
𝑞 = =
2 2
1+𝛾 1−𝛼
𝑞 = =
2 2
LONGITUD DEL INTERVALO:
1 1
𝐿 = 𝑆 (𝑛 − 1). −
𝑞 𝑞
pág. 50
FUENTES, YESICA TAMARA
𝝈𝟐𝒙 𝝈𝟐𝒚
INTERVALO DE CONFIANZA PARA 2 POBLACIONES NORMALES INDEPENDIENTES 𝑿 − 𝒀 ~ 𝑵 𝝁𝒙 − 𝝁𝒚 ; +
𝒏𝒙 𝒏𝒚
Para Diferencia de medias de dos poblaciones ¿son iguales? → 𝝁𝒙 − 𝝁𝒚 = 𝟎 Para cociente de varianzas 𝝈𝒙𝟐
𝝈𝟐
𝒚
¿son iguales? → 𝒔𝒊: 𝟏 ∈ (𝒂, 𝒃)
→ 𝒏𝒐: 𝟏 ∉ (𝒂, 𝒃)
pág. 51
FUENTES, YESICA TAMARA
|𝑋 − 𝜇| es el error que está cometiendo 𝑋 para estimar a 𝜇 P(𝑋 − 𝑍 𝑣𝑎𝑟(𝑋) < 𝜋 < 𝑋 + 𝑍 𝑣𝑎𝑟(𝑋) ) = 𝛾
𝜎
𝜀 = 𝑍. 𝑒𝑟𝑟𝑜𝑟 𝑚á𝑥𝑖𝑚𝑜 𝑎𝑐𝑒𝑝𝑡𝑎𝑑𝑜 ⌈𝑋 − 𝜋⌉ es el error que está cometiendo 𝑋 para estimar a 𝜋.
√𝑛
( ) ( )
𝜀=𝑍 =𝑍
𝑍 .𝜎 𝑍 .𝑆 𝑍 . 𝜋(1 − 𝜋) 𝑍
𝑛= 𝑛= 𝑛= 𝑛=
𝜀 𝜀 𝜀 4. 𝜀
se utiliza la cota superior, siendo el
valor máximo que puede tomar la
varianza del modelo Bernoulli
Donde:
𝑍
pág. 52
FUENTES, YESICA TAMARA
H: =
Hipótesis
H: ≥ ≠ ≤
“Rechazar una hipótesis no prueba que es falsa”, sino que, significa que hay evidencia suficiente en los
datos para tomar esta decisión.
“No rechazar una hipótesis no prueba que sea verdadera”, sino que, significa que los datos son
consistentes con lo que se afirma.
pág. 53
FUENTES, YESICA TAMARA
Situación en la población
𝐻 Verdadera 𝐻 Falsa
No rechazar 𝐻 1−𝛼 Error tipo 2: (menos graves)
Nivel de confianza 𝛽
pág. 54
FUENTES, YESICA TAMARA
Tamaño del error:
P- valor
Métodos para
probar una hipótesis
estadística
Intervalo de confianza
pág. 55
FUENTES, YESICA TAMARA
P-valor
Una técnica para enunciar el “test” que nos ayude a tomar la decisión, es encontrar un estadístico que se
comporte de manera diferente cuando la hipótesis nula es verdadera y falsa.
Este p-valor depende de los valores observados en la muestra, en consecuencia si se cambia la muestra, la
decisión sobre la hipótesis puede cambiar.
Es la probabilidad de que un valor estadístico observado sea posible dada una hipótesis nula cierta.
Para resolver el problema de decisión:
1) Se admite que la 𝐻 es verdadera.
2) Elegir un estadístico (que se comporte de forma distinta cuando es falsa y verdadera la 𝐻 )
Se llego a la conclusión de rechazar 𝐻 teniendo en cuenta un valor fijado, como es el nivel de significación 𝛼; sin
tomar en cuenta el peso de la evidencia muestral, este peso se llama P-valor.
El valor p es la probabilidad, suponiendo 𝐻 es cierta, de obtener un valor del estadístico de prueba a una distancia
mayor o igual que la del valor observado.
El valor p es el mínimo nivel de significación , para el cual los datos observados indican que se tendría que rechazar
la hipótesis nula.
¿Qué mide el p-valor? mide el peso de la evidencia que nos proporciona la muestra para rechazar una hipótesis nula
a favor de la hipótesis alternativa.
pág. 56
FUENTES, YESICA TAMARA
Criterio para decidir en base al p-valor
Si p < rechazamos la hipótesis nula.
Si p > no rechazamos la hipótesis nula.
Si p = no rechazamos la hipótesis nula
Región critica
Bilateral Unilateral
𝑯𝟏 : ≠ 𝑯𝟏 : > 𝑯𝟏 : <
Estadístico
𝒏 > 𝟑𝟎 𝒏 ≤ 𝟑𝟎
𝑋−𝜇 𝑋−𝜇
𝑍 =𝜎 ~𝑁(0,1) 𝑇 =𝜎 ~𝑡( )
√𝑛 √𝑛
Intervalo de confianza
pág. 57
FUENTES, YESICA TAMARA
PRUEBAS DE HIPÓTESIS
(bajo 𝐻 : 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎)
Bernoulli (para π ) Poisson (para 𝝀 )
𝑋−𝜋 𝑋−𝜆
~𝑁(0,1) ~𝑁(0,1)
𝜋(1 − 𝜋) 𝜆
𝑛 𝑛
Por TLC Por TLC
Comandos en R
Cuando lo que quiero es comparar las medias (𝜇) Cuando lo que quiero es comparar las varianzas
Tengo: (𝜎 )
𝐻 : 𝜇 − 𝜇 = 15 𝑣𝑠 𝐻 : 𝜇 − 𝜇 ˃ 15 Tengo:
𝜎 = 𝜎 𝑣𝑠 𝜎 ˃ 𝜎
t.test(x,y,mu=15,alternative=”greater”,var.equal=F)
var.test(x,y,alternative=”greater”)
𝐻 : 𝜇 − 𝜇 = 15 𝑣𝑠 𝐻 : 𝜇 − 𝜇 ˂ 15
𝜎 =𝜎 𝑣𝑠 𝜎 ˂ 𝜎
t.test(x,y,mu=15,alternative=”less”,var.equal=F)
var.test(x,y,alternative=”less”)
𝐻 : 𝜇 − 𝜇 = 15 𝑣𝑠 𝐻 : 𝜇 − 𝜇 ≠ 15
𝜎 =𝜎 𝑣𝑠 𝜎 ≠ 𝜎
t.test(x,y,mu=15,var.equal=F)
var.test(x,y,var.equal=F)
notese que en este ultimo comando no pusimos la hipótesis alternativa ya que var.test(x,y)
por defecto R al no espesificar nada sobre la alternativa, lo considera distinto;
también “var.equal” si no lo especificamos el R lo toma como falso, asique se puede utilizar cualquiera de los 2 comandos, ya que si no especificamos
cuando las varianzas sean iguales hay que especificarle “ T ” que es TRUE que las varianzas son distintas, el R lo toma como distintas por defecto.
(verdadero).
pág. 58
FUENTES, YESICA TAMARA
Ejemplos:
7.15 Con referencia al problema anterior el investigador quiere en una segunda etapa de su estudio comparar el
efecto de dos niveles de ruido, el nivel moderado (N1) estudiado en el problema anterior y un nivel de ruido más
severo (N2). El investigador selecciona ahora otras 16 personas que son capaces de realizar la misma tarea y de
manera práctica en el mismo tiempo. Es decir ha seleccionado 32 personas, 16 seleccionadas al azar realizarán esa
tarea bajo un nivel moderado de ruido de fondo (N1) y las restantes 16 llevarán a cabo la misma tarea bajo un nivel
de ruido más severo (N2). Los datos considerados son los tiempos observados (en minutos) que fueron necesarios
para completar la tarea para cada nivel. Asuma que los datos constituyen muestras aleatorias de dos poblaciones
normales e independientes
>N1=c(14,12,15,15,11,16,17,12,14,13,18,13,18,15,16,11)
> N2=c(20,22,18,18,19,15,18,15,22,18,19,15,21,22,18,16)
a) Plantee las hipótesis que le permita analizar si las varianzas poblacionales son iguales ó no lo son. Indique
cuál es el estadístico de prueba adecuado y determine el p-valor asociado a la prueba. Concluya en términos
del problema
Si? Entonces 1 ∈ (a , b)
¿𝜎 = 𝜎 ?
No? Entonces 1 ∉ (a , b)
𝐻 ∶ 𝜎 =𝜎 𝑣𝑠 𝐻 ∶ 𝜎 ≠𝜎
𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 𝑝 − 𝑣𝑎𝑙𝑜𝑟 ˂ 𝛼
p-valor= 2*P( |𝑍| > 𝑧 ) = 𝛾
𝑍= ~ 𝐹(𝑛 − 1, 𝑛 − 1)
1
𝑍= ÷
𝑍= × = × =
Calculamos en el R:
>var(N1) = 5.183333
>var(N2) = 6
Considerando 𝛼 = 0.05 (Recordar que si no nos dicen cuanto vale, se considera ese valor)
pág. 59
FUENTES, YESICA TAMARA
Luego:
𝑆 5.183333
𝑍= = = 0.86388
𝑆 6
Cálculos auxiliares en R
Luego, p-valor: 0.78 > 𝛼 ∶ 0.05 ,no se rechaza 𝐻 , es decir que la desviación de ambas poblaciones son
significativamente igual.
En términos del problema podemos concluir que, la desviación del ruido moderado y del ruido mas severo son
significativamente iguales.
b) Enuncie la regla de decisión para hacer la prueba anterior a partir de un intervalo de confianza del 95% y a
partir de los resultados en R concluya en términos del problema
𝐻 ∶ 𝜎 =𝜎 𝑣𝑠 𝐻 ∶ 𝜎 ≠𝜎
𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 1 ∉ (𝑎, 𝑏)
𝑄=
Intervalo de confianza:
𝑞 .
.
(𝑞 < <𝑞 )
qf(0.025,15,15) = 0.36
(𝑞 × < <𝑞 × ) 𝑞 .
.
Luego como 1 ∈ (0.31 ; 2.47) no se rechaza 𝐻 , es decir que las varianzas son significativamente iguales.
pág. 60
FUENTES, YESICA TAMARA
El comando en R:
>var.test(N1,N2)
c) Se quiere determinar ahora si los tiempos medios para efectuar dicha tarea con los distintos niveles de ruido
son significativamente diferentes. Plantee las hipótesis estadísticas adecuadas y enuncie la regla de decisión
con el estadístico de prueba. Indique que distribución tiene dicho estadístico bajo la hipótesis nula
verdadera. Con un nivel de significación del 5% , concluya en términos del problema.
𝐻 ∶ 𝜇 =𝜇 𝑣𝑠 𝐻 ∶ 𝜇 ≠𝜇
𝜏: 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ↔ 0 ∉ (𝑎, 𝑏)
Forma 1: intervalo de confianza
(𝑋 − 𝑌) − (𝜇 − 𝜇 )
𝑄= ~ 𝑡( )
𝑆 𝑆
𝑛 +𝑛
Donde
(𝑛 − 1)𝑆 + (𝑛 − 1)𝑆 (16 − 1) × 5.183 + (16 − 1) × 6
𝑆 = = = 5.5915
𝑛 +𝑛 −2 16 + 16 − 2
Cálculos auxiliares en R:
. . . .
(14.37 − 18.5) − 2.04 × + ; (14.37 − 18.5) − (−2.04) × +
(−5.83 ; −2.42)
pág. 61
FUENTES, YESICA TAMARA
Luego 0 ∉ (−5.83 ; −2.42) entonces se rechaza 𝐻 , es decir que la diferencia de medias es ≠ 0.
Forma 2: p-valor
(𝑋 − 𝑌) (14.37 − 18.5)
𝑇= = = −4.94
𝑆 𝑆 5.5915 5.5915
+ 16 + 16
𝑛 𝑛
p-valor= 2.682849e-05
El comando en R:
>t.test(N1,N2)
Nos da la siguiente información:
d) Más aún se podría pensar que en relación al tiempo medio que se demora en hacer la tarea el efecto del
ruido moderado es menos perturbador que el efecto del ruido severo. Plantee las hipótesis estadísticas que
le permitan corroborar esta sospecha y concluya en términos del problema.
𝐻 :𝜇 ≥ 𝜇 𝑣𝑠 𝐻 : 𝜇 < 𝜇
o tambien :𝐻 : 𝜇 − 𝜇 ≥ 0 𝑉𝑆 𝐻 : 𝜇 − 𝜇 < 0
𝜏: 𝑅𝑒𝑐ℎ𝑎𝑧𝑜 𝐻 ⟷ 0 ∉ (−∞, 𝑎 )
pág. 62
FUENTES, YESICA TAMARA
(𝑋 − 𝑌) − (𝜇 − 𝜇 )
𝑄= ~ 𝑡( )
𝑆 𝑆
𝑛 +𝑛
( ) ( )
Donde: 𝑆 = = 5.5915
El Comando R:
t.test(N1,N2,var.equal=T,alternative=“less”)
Intervalo de confianza:
P( Q > q ) = 𝛾
( ) ( )
P( >𝑞 . ) = 0.95
Cálculos auxiliares en R
P (𝑋 − 𝑌) − (𝜇 − 𝜇 ) > 𝑞 . × + = 0.95
𝑞 . = 𝑞𝑡(0.05,30) = −1.697
P − 𝜇 −𝜇 >𝑞 . × + − (𝑋 − 𝑌) = 0.95
P 𝜇 −𝜇 < (𝑋 − 𝑌) − 𝑞 . × + = 0.95
(−∞, −2.71)
Luego 0 ∉ (−∞, −2.71), entonces se rechaza 𝐻 entonces el tiempo medio del ruido moderado es menos
perturbador del ruido severo.
pág. 63
FUENTES, YESICA TAMARA
e) A partir de la diferencia observada entre los tiempos medios muestrales, es posible argumentar que el
tiempo medio que se demora en hacer la tarea bajo efecto de ruido severo supera en más de 4 minutos al
tiempo medio que se demora en hacer la tarea bajo efecto de ruido moderado. Plantee las hipótesis
adecuadas y concluya en términos del problema, con un nivel de significación del 5%
𝐻 :𝜇 ≤ 𝜇 + 4 𝑣𝑠 𝐻 : 𝜇 > 𝜇 +4
O también:
𝐻 : 𝜇 − 𝜇 ≤ 4 𝑣𝑠 𝐻 : 𝜇 − 𝜇 >4
𝜏: 𝑠𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝐻 ↔ 4 ∉ (𝑎, ∞)
El comando en R:
t.test(N2,N1,mu=4,var.equal=T,alternative=”greater”)
salida:
Luego 4 ∈ (2.71 , ∞) se acepta la 𝐻 ,es decir que significativamente el ruido severo supera en mas de 4 minutos al
ruido moderado.
pág. 64
FUENTES, YESICA TAMARA
pág. 65