Apuntes
Apuntes
19 de octubre de 2020
2
Índice general
1. Introducción a la estadı́stica 7
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2. Estadı́stica descriptiva 9
2.1. Tipos de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Representación gráfica . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Medidas de Centralización . . . . . . . . . . . . . . . . . . . . . . 11
2.4. Medidas de dispersión . . . . . . . . . . . . . . . . . . . . . . . . 12
3. Probabilidad 15
3.1. Conceptos generales de probabilidad . . . . . . . . . . . . . . . . 15
3.2. Definiciones de probabilidad . . . . . . . . . . . . . . . . . . . . . 16
3.2.1. Definición frecuentista . . . . . . . . . . . . . . . . . . . . 16
3.2.2. Definición axiomática . . . . . . . . . . . . . . . . . . . . 17
3.2.3. Probabilidad basada en el modelo de simetrı́a . . . . . . . 17
3.2.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3. Probabilidad Condicionada . . . . . . . . . . . . . . . . . . . . . 18
3.4. Sucesos independientes . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.6. Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.7. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . 21
3.8. Función de probabilidad . . . . . . . . . . . . . . . . . . . . . . . 21
3.9. Función densidad de probabilidad . . . . . . . . . . . . . . . . . . 22
3.10. Media o esperanza matemática de una variable aleatoria . . . . . 22
3.11. Esperanza de la suma de Variables aleatorias . . . . . . . . . . . 23
3.12. Esperanza de una función de una variable aleatoria . . . . . . . . 24
3.13. Varianza y desviación tı́pica matemática de una v.a. . . . . . . . 25
3.14. Covarianza de dos variables aleatorias . . . . . . . . . . . . . . . 26
3.15. Varianza de la suma de Variables aleatorias . . . . . . . . . . . . 26
3.16. Variables aleatorias independientes . . . . . . . . . . . . . . . . . 26
3
4.6.1. Intervalos de predicción para una variable normal . . . . . 35
8. Regresión y Correlación 51
8.1. Regresión lineal simple . . . . . . . . . . . . . . . . . . . . . . . . 51
8.2. Correlación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
8.3. Errores comunes en la interpretación . . . . . . . . . . . . . . . . 54
9. Bibliografı́a 55
4
Capı́tulo 1
Introducción a la estadı́stica
1.1. Introducción
El uso de la estadı́stica estudia la recolección, análisis e interpretación de
datos y es útil y necesaria en cualquier trabajo relacionado con la ciencia. La
estadı́stica se puede dividir en dos grandes áreas, estadı́stica descriptiva e infe-
rencia estadı́stica. La estadı́stica descriptiva, se dedica a la descripción, repre-
sentación y resumen de datos originados a partir de los fenómenos de estudio.
La estadı́stica inferencial, se dedica a la generación de los modelos, inferencias y
predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleato-
riedad de las observaciones. Se usa para modelar patrones en los datos y extraer
inferencias acerca de la población bajo estudio.
Como ejemplo introductorio analizaremos los datos de peso, altura, sexo,
fumador/no fumador, grupo sanguı́neo y número de hermanos, de todos los
alumnos. A través de estos datos introduciremos los conceptos de población,
muestra, parámetro y estimación, ası́ como conceptos de inferencia. Veamos
para ello los siguientes estudios que se podrı́an hacer con los datos:
¿Es mayor la altura de los chicos que la de las chicas? En este caso que-
remos comparar un parámetro (altura media) en dos poblaciones (chicos
y chicas universitarios españoles). Para sacar conclusiones habrı́a que co-
menzar por representar gráficamente los datos, para después realizar un
test de hipótesis, que explicaremos durante el curso.
5
queremos comparar un parámetro en dos poblaciones. Ejercicio: identifica
el parámetro, la muestra, la población, el estimador ...
6
Capı́tulo 2
Estadı́stica descriptiva
7
◦ Altura
◦ Temperatura
◦ Distancia
8
representar el área de cada cı́rculo proporcional al número total de obser-
vaciones de cada muestra. El diagrama de sectores es una alternativa al
diagrama de barras que debe usarse solo cuando se desee comparar las fre-
cuencias frente al total. Visualmente es mucho más difı́cil comparar áreas
relativas que medidas lineales como las barras.
Comando de R: pie
Además de representar gráficamente los datos, hay ciertas medidas que pue-
den dar mucha información acerca de los datos, como son las medidas de cen-
tralización o de dispersión.
9
n
1X
x= xi (2.1)
n i=1
Comando de R: mean
Para una población la definición es análoga, pero como es una cantidad
distinta la denotamos µ y es la suma de todos los datos de la población
dividido por el tamaño de la población, N .
N
1 X
µ= xi (2.2)
N i=1
La media es una medida útil cuando el histograma tiene una sola moda
(es decir, es unimodal) y aproximadamente simétrico.
Si la asimetrı́a es grande, entonces la mediana tiende a ser mucho más
estable e informativa que la media.
La media es muy sensible a la presencia de valores extremos (aunque sean
pocos) de la variable, no ası́ la mediana.
Si el histograma tiene forma de “U” (es decir, es bimodal con modas cerca
de los extremos), la media tiende a perder valor informativo.
10
Varianza: Como la suma de desviaciones de una muestra de tamaño n
con media m es cero:
n
1X
(xi − x) = 0 (2.3)
n i=1
n
1 X
s2 = (xi − x)2 . (2.4)
n − 1 i=1
Comando de R: var
Para una población de tamaño N , y media poblacional µ, definimos la
varianza poblacional análogamente:
N
1 X
σ2 = (xi − µ)2 (2.5)
N i=1
v
u n
u 1 X
s=t (xi − x)2 . (2.6)
n − 1 i=1
Comando de R: sd
Para una población:
v
u
u1 X N
σ=t (xi − µ)2 (2.7)
N i=1
s
cv = (2.8)
x
s
cv % = 100 × % (2.9)
x
11
Percentiles o cuantiles: El percentil del 100 × p % , es una cantidad tal
que la proporción de datos iguales o inferiores a dicho percentil, es igual
a p.
Los percentiles del 25 %, 50 % y 75 % se denominan cuartiles, en concreto
primer, segundo y tercer cuartil respectivamente. El segundo cuartil es la
mediana.
Comando de R: quantile
12
Capı́tulo 3
Probabilidad
Ejemplos:
2. Queremos ver el número de visitas que recibe una página Web en un dı́a
concreto.
13
Espacio muestral: 0 ≤ volumen ≤ ∞
Suceso: Medimos 270.2 cm3 .
Unión: A ∪ B ={1, 2, 4, 6}
Intersección = A ∩ B = {2}.
Suceso complementario de A: Ac =Sale un número impar = {1, 3, 5}.
14
3.2.2. Definición axiomática
En esta definición, la probabilidad es una función que asigna a cada suceso
un valor basado en los siguientes axiomas:
3.2.4. Propiedades
A partir de los tres axiomas de la definición axiomática se pueden deducir
las siguientes propiedades:
P(Ac ) = 1 − P(A)
P(A) ≤ 1, para cualquier suceso A ⊂ Ω.
P(∅) = 0.
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Demostración:
A ∪ Ac = Ω
⇒ P(A ∪ Ac ) = P(A) + P(Ac ) = P(Ω) = 1
A, Ac disjuntos
P(A) + P(Ac ) = 1
⇒ P(A) ≤ 1
P(Ac ) ≥ 0
15
A = (A ∩ B) ∪ (A ∩ B c ) ⇒ P (A ∩ B c ) = P (A) − P (A ∩ B)
⇒
A ∪ B = (A ∩ B c ) ∪ B ⇒ P (A ∪ B) = P (A ∩ B c ) + P (B)
⇒ P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Ejemplo: Lanzamos un dado y consideramos los sucesos A=Sale un número
par ={2, 4, 6}, B=Sale un número menor que 4 ={1, 2, 3}. Calcula P(A ∪ B).
A=Sale un 2.
B=Sale un número par.
En este caso la respuesta es sencilla de calcular (no siempre será ası́). Hay tres
posibles números pares y solo uno de ellos es el 2. De modo que P(A|B) = 1/3.
Vemos que el hecho de saber que el número que ha salido es par, reduce el
espacio muestral de 6 a 3 sucesos elementales.
P(A ∩ B)
P(A|B) = (3.4)
P(B)
para todos los sucesos A, B siempre y cuando P(B) > 0. Comprueba que con
esta fórmula obtienes el resultado correcto en el ejemplo anterior. Siempre es re-
comendable utilizar la fórmula para evitar errores en problemas más complejos.
16
Ejemplo: En el ejemplo que veı́amos en la sección de probabilidad condicio-
nada, los sucesos A y B no son independientes ya que P(A) = 61 6= P(A|B) = 13 .
Ejemplo: Consideramos los siguientes sucesos al tirar un solo dado:
P(E) = 0.001
P(Pos|E) = 1
c
P(Pos|E ) = 0.05,
17
Utilizando la fórmula 3.7 tenemos que:
P(E) × P(Pos|E)
P(E|Pos) =
P(Pos|E) × P(E) + P(Pos|E c ) × P(E c )
0.001 × 1
= = 0.02 (3.8)
1 × 0.001 + 0.05 × 0.999
P(Aj ) × P(B|Aj )
P(Aj |B) = Pk , (j = 1, 2, ..., k). (3.9)
i=1 P(B|Ai ) × P(Ai )
Ejemplos:
18
3.7. Función de distribución
La función de distribución, F (x), se define como:
F (x) = P(X ≤ x), x ∈ R, (3.10)
es decir la función de distribución de una variable aleatoria X, para un valor
real x nos da la probabilidad de que X tome un valor igual o inferior a x.
Propiedades de la función de distribución, F (x):
lı́mx→∞ F (x) = 1
lı́mx→−∞ F (x) = 0
F (x) es no decreciente
P(x1 < X ≤ x2 ) = F (x2 ) − F (x1 )
Normalmente, dado un modelo, calcularemos la función de distribución fácil-
mente con ayuda de un programa o una tabla. Pero, ¿para qué sirve la función
de distribución?
Ejemplo: Lanzamiento de un dado. La probabilidad de sacar un número
menor o igual que 3 es F (3) = P (X ≤ 3) = 1/6 + 1/6 + 1/6 = 0.5.
Ejemplo: Si conocemos la función de distribución del colesterol LDL en
sangre podemos predecir por ejemplo:
Probabilidad de que una persona elegida al azar tenga el colesterol LDL
por debajo 200 mg/dL = F (200)
Probabilidad de que una persona elegida al azar tenga el colesterol LDL
por encima de 240 mg/dL = 1 − F (240)
Probabilidad de que una persona elegida al azar tenga el colesterol LDL
entre 200 mg/dL y 240 mg/dL = F (240) − F (200)
19
3.9. Función densidad de probabilidad
Para una v.a. continua, X, la función de probabilidad no nos sirve ya que:
P(X = x) = 0, x ∈ R. (3.12)
Esto es debido a que en cualquier intervalo de la recta real hay infinitos
números, y por tanto la probabilidad de que X valga exactamente x es cero.
dF (x)
f (x) = . (3.13)
dx
Propiedades de f (x):
Z b
P(a ≤ X ≤ b) = f (x)dx = F (b) − F (a). (3.14)
a
20
Para una variable aleatoria discreta que toma los valores X = x1 , x2 , ... con
función de probabilidad p(x1 ), p(x2 ), ..., entonces la esperanza matemática o
valor medio de X se expresa:
∞
X
E(X) = p(xi )xi (3.17)
i=1
6
X 1
E(X) = p(xi )xi = (1 + 2 + 3 + 4 + 5 + 6) = 3.5.
i=1
6
+∞ 5 5
x2
Z Z
1 1
E(X) = xf (x)dx = x dx = × dx = 2.5 minutos
−∞ 0 5 5 2 0
21
X
E(X + Y ) = (X + Y )(ω)P(ω)
ω∈Ω
X X
= X(ω)P(ω) + Y (ω)P(ω)
ω∈Ω ω∈Ω
= E(X) + E(Y )
6
X 91
E(2X 2 ) = p(xi )2x2i = .
i=1
3
+∞ 5 5
x3
Z Z
1 2
E(2X 2 ) = xf (x)dx = 2x2 dx = × dx = 50/3 minutos2 .
−∞ 0 5 5 3 0
22
3.13. Varianza y desviación tı́pica matemática
de una v.a.
La varianza de una v.a., X, se define como la esperanza matemática del
cuadrado de la variable aleatoria (X − E(X))
2 2
Var(aX + B) = E aX + b − E(aX + b) = E aX + b − aEX − b
= E a2 (X − EX)2 = a2 Var(X)
23
3.14. Covarianza de dos variables aleatorias
Si X e Y son dos variables aleatorias con medias y varianzas finitas, la
covarianza es:
XX
E(XY ) = xyP (X = x, Y = y)
x y
XX
= xP (X = x)yP (Y = y)
x y
= E(X)E(Y )
24
Cov(X, Y ) = 0 se deduce inmediatamente de la anterior propiedad y de
3.25. Sin embargo Cov(X, Y ) = 0 ; X, Y independientes
25
26
Capı́tulo 4
Modelos de variables
aleatorias: Distribuciones
de probabilidad
27
n
1X xn + x1
E(X) = xi = (4.2)
n i=1 2
n2 − 1
Var(X) = (4.3)
12
Demostración:
Para la esperanza tenemos:
n
1X 1 n(n + 1) n+1
E(X) = i= = (4.4)
n i=1 n 2 2
En el caso de la varianza:
n 2
1X 2 (n + 1)
Var(X) = E(X 2 ) − (E(X))2 = i −
n i=1 2
1 n(n + 1)(2n + 1) (n + 1)2
= −
n 6 4
2n + 1 n + 1 n2 − 1
= (n + 1) − =
6 4 12
Ejemplo: En un dado de seis caras, el número que sale en el dado es una va-
riable aleatoria uniforme discreta que toma los valores 1, 2, ..., 6 con probabilidad
1/6, y valor medio y varianza:
n+1
E(X) = = 3.5
2
n2 − 1 35
Var(X) = = .
12 12
b+a
E(X) = (4.6)
2
(b − a)2
Var(X) = . (4.7)
12
28
Demostración: Ejercicio.
Ejemplo: Un tren tiene programada su llegada en los próximos 5 minutos
pero no disponemos de más información. El tiempo de espera es una variable
uniforme en el intervalo [0,5]. El tiempo medio de espera y la varianza, en
minutos y minutos al cuadrado respectivamente, son:
b+a 5
E(X) = = = 2.5 minutos
2 2
(b − a)2 25
Var(X) = = minutos2 .
12 12
E(X) = p (4.9)
Var(X) = p(1 − p). (4.10)
Demostración:
X
E(X) = xi p(xi ) = 0 × (1 − p) + 1 × p = p
i
X
Var(X) = EX 2 − (EX)2 = x2i p(xi ) − p2
i
2 2
= 0 (1 − p) + 1 p = p(1 − p).
29
variable aleatoria binomial X representa el número total de éxitos obtenidos en
los n ensayos independientes.
La función de probabilidad de la variable binomial X, es:
n x
p(x) = p (1 − p)n−x , x = 0, 1, ..., n. (4.11)
x
El coeficiente nx = (n−x)!x!
n!
aparece para sumar todas las formas de combi-
nar los x éxitos y n − x fracasos.
E(X) = np (4.12)
Var(X) = np(1 − p). (4.13)
Demostración:
P Sean Y1 , Y2 , ..., Yn variables de Bernoulli independientes ⇒
X = i Yi X X
E(X) = E Yi = EYi = np.
i i
X X
Var(X) = Var Yi = VarYi = np(1 − p)
i i
4
p(0) = P(X = 0) = (0.25)0 (1 − 0.25)4−0 = 0.316
0
4
p(1) = P(X = 1) = (0.25)1 (1 − 0.25)4−1 = 0.422
1
4
p(2) = P(X = 2) = (0.25)2 (1 − 0.25)4−2 = 0.211
2
4
p(3) = P(X = 3) = (0.25)3 (1 − 0.25)4−3 = 0.047
3
4
p(4) = P(X = 4) = (0.25)4 (1 − 0.25)4−4 = 0.004.
4
30
λx e−λ
p(x) = , x = 0, 1, ... (4.14)
x!
siendo λ un número real y positivo que representa el número medio de sucesos
en el intervalo de tiempo (o de espacio).
x n
n x n(n − 1) · · · (n − x − 1) λ λ
p (1 − p)n−x = (1 − p)−x 1 −
x x(x − 1) · · · 3 · 2 · 1 n n
x n
n n−1 n−x−1 λ λ
= · ··· · (1 − p)−x 1 − .
n n n x! n
Cuando n → ∞, p → 0 los x primeros factores tienden a 1, el siguiente
factor permanece igual, el siguiente tiende a 1, y sustituyendo k = −λ/n o bien
n = −λ/k, el último factor es:
h i−λ
(1 + k)n = (1 + k)1/k → e−λ
por lo tanto con np = λ, fijo,
λx e−λ
n x n−x
lı́m
n→∞ x
p (1 − p) = (4.15)
p→0
x!
E(X) = λ (4.16)
Var(X) = λ. (4.17)
58 e−5
p(8) = = 0.065.
8!
Hay númerosos casos en los que se puede aplicar la distribución de Poisson:
Es importante recalcar que los sucesos han de ser independientes par que
podamos aplicar la distribución de Poisson correctamente.
31
4.6. Distribución normal
La distribución normal (o Gaussiana) juega un papel central en estadı́stica
ya que es un modelo aceptable para muchos tipos de datos biológicos, para
errores de medida o desviaciones entre valores observados y teóricos. Algunos
ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de
la normal son:
(x − µ)2
1
f (x) = √ exp − . (4.18)
σ 2π 2σ 2
X −µ
Z= , (4.19)
σ
32
que tiene media µ = 0 y varianza σ 2 = 1, es decir Z ∼ N (0, 1). La función
de distribución de Z se denota Φ(z).
x−µ
F (x) = P (X ≤ x) = P (Z ≤ ) = Φ(z)
σ
P (X < x − µ) = P (X > x + µ)
u = x(α/2) = µ + σ × z(α/2)
v = x(1 − α/2) = µ + σ × z(1 − α/2). (4.20)
En R tendrı́amos:
33
u = qnorm(α/2, µ, σ)
v = qnorm(1 − α/2, µ, σ).
Veamos ahora por qué razón la distribución normal aparece tan a menudo
en fenómenos naturales.
34
Capı́tulo 5
Muestreo y Estimación
Puntual
Comandos de R: sample
35
Una muestra aleatoria simple es aquélla en la que cada unidad de muestreo se
extrae de forma independiente, es decir en la que las variables {X1 , X2 , ..., Xn }
son independientes en el caso de población infinita.
n
1X
X= Xi , i = 1, ..., n (5.1)
n i=1
Demostración:
n n
1X 1 X
E(X) = E( Xi ) = E( Xi )
n i=1 n i=1
n
1X
= E(Xi ) = E(X).
n i=1
Demostración:
n n
1X 1 X
Var(X) = Var( Xi ) = 2 Var(Xi )
n i=1 n i=1
1 Var(X)
= nVar(X) = .
n2 n
36
5.5. Calidad de un estimador
Hablando de forma general, si queremos estimar un parámetro θ mediante
un estimador Tn , cometeremos un error que puede ser más o menos grande. La
calidad de un estimador puede cuantificarse mediante el error cuadrático medio,
que se compone de dos sumandos:
Comando de R: runif
37
5.8.1. Generadores congruenciales lineales
La forma más sencilla de generar una secuencia de números pseudoaleatorios
ri es mediante un generador congruencial lineal. Escogemos r0 la semilla o valor
inicial y dos constantes enteras a, m y generamos los siguientes números de la
secuencia mediante la siguiente operación:
1, 5, 25, 14, 33, 17, 11, 18, 16, 6, 30, 2, 10, 13, 28, 29, 34, 22,
36, 32, 12, 23, 4, 20, 26, 19, 21, 31, 7, 35, 27, 24, 9, 8, 3, 15.
Otra fórmula similar a la que hemos visto y que también es utilizada, es:
38
Capı́tulo 6
39
6.1.1. Intervalo de confianza para una media de una po-
blación normal
Para calcular el intervalo de confianza para una media poblacional, µ, de
una variable aleatoria normal, al nivel de confianza 1 − α, usaremos el siguiente
comando:
Comando de R: t.test
X −µ
√ ∼ tn−1 , (6.2)
S/ n
siendo tn−1 la distribución t de student con n − 1 grados de libertad. Dicha
distribución es simétrica con forma similar a la normal y de hecho tiende a la
normal para n grande. La función de distribución y los percentiles tn−1 (p) de
la distribución t de student están tabulados y por supuesto también se pueden
calcular con R.
S S
P X − tn−1 (1 − α/2) √ < µ < X + tn−1 (1 − α/2) √ = 1 − α, (6.4)
n n
por lo que
S
U = X − tn−1 (1 − α/2) √
n
S
V = X + tn−1 (1 − α/2) √ , (6.5)
n
40
hipótesis nula, H0 , e hipótesis alternativa, H1 . En los contrastes de hipótesis,
asumiremos cierta la hipótesis nula mientras no haya evidencia estadı́stica para
rechazarla, por tanto, como resultado del test de hipótesis rechazamos H0 o
bien no rechazamos H0 . Es importante matizar que se habla de no rechazar
y no de aceptar la hipótesis nula, ya que no podemos aceptar definitivamente
una hipótesis solo porque nuestros datos no muestren evidencia para rechazarla.
Por otra parte, el hecho de rechazar H0 no implica tener que aceptar H1 como
verdad definitiva; solo implica que los datos aportan suficiente evidencia para
declarar a H0 falsa.
Sea cual sea el resultado de nuestro contraste, siempre tendremos una pro-
babilidad no nula de equivocarnos.
El contraste de hipótesis se realiza comparando dos cantidades que vamos a
definir a continuación:
H0 : µ = µ0 (6.6)
donde comparamos la media poblacional µ con un valor de referencia µ0 .
Recordemos que estamos suponiendo que la variable aleatoria en cuestión tiene
distribución normal.
41
Veamos primero el caso en que la hipótesis alternativa es bilateral, es decir,
H1 : µ 6= µ0 . (6.7)
Para calcular el valor-p utilizamos la cantidad t:
X −µ
t= √ ∼ tn−1 . (6.8)
S/ n
El valor-p es la probabilidad de que, siendo cierta H0 , se obtenga un resultado
más desfavorable que el observado y por tanto es
t.test(datos, mu = µ0 ), (6.10)
que nos devuelve el valor-p.
Comando de R: t.test
42
Capı́tulo 7
Comparación de medias
entre dos grupos
43
Queremos saber si el tratamiento modifica la media poblacional, es decir
si las medias poblacionales son distintas µX 6= µY o lo que es lo mismo si la
diferencia de medias, δ es distinta de cero, δ = µX − µY 6= 0.
Para ello podemos:
2
(nX − 1)SX + (nY − 1)SY2
S2 = (7.2)
nX + nY − 2
(X − Y ) − (µX − µY )
r ∼ tnX +nY −2 (7.3)
S 2 n1X + n1Y
r
1 1
U = X − Y − tnX +nY −2 (1 − α/2) × S +
nX nY
r
1 1
V = X − Y + tnX +nY −2 (1 − α/2) × S + . (7.4)
nX nY
44
7.1.2. Contraste de hipótesis, varianzas homogéneas
Cómo hemos comentado se trata de contrastar las siguientes hipótesis para la
diferencia de medias poblacionales δ en dos poblaciones normales con varianzas
homogéneas.
H0 : δ = 0
H1 : δ 6= 0 (7.5)
También aquı́ podemos usar el mismo comando que usamos para calcular el
intervalo de confianza:
(X − Y ) − (µX − µY )
t= r ∼ tnX +nY −2 , (7.7)
2 1 1
S nX + nY
y calculamos
(X − Y ) − (µX − µY )
r ∼ tg , (7.10)
SX2 2
SY
nX + nY
45
s
2
SX S2
U = X − Y − tg (1 − α/2) + Y
nX nY
s
2
SX S2
V = X − Y + tg (1 − α/2) + Y. (7.12)
nX nY
H0 : δ = 0
H1 : δ 6= 0 (7.13)
y el cálculo del valor-p se puede realizar con el comando de R:
(X − Y ) − (µX − µY )
t= r ∼ tg , (7.15)
SX2 2
SY
nX + nY
y calcular
H0 : σ12 = σ22
H1 : σ12 6= σ22 (7.17)
y el cálculo del valor-p se puede realizar con el comando de R:
S12
F = ∼ Fn1 −1,n2 −2 , (7.19)
S22
siendo Fn1 −1,n2 −1 la distribución F de Snedecor.
por tanto el valor-p será:
46
7.2. Muestras apareadas
Para distinguir del caso de muestras independientes, cambiaremos ligera-
mente la notación. Llamamos X1 a la variable control y X2 a la variable trata-
2 2
miento. Ambas se suponen normales, X1 ∼ N (µX1 , σX 1
), Y ∼ N (µX2 , σX 2
)y
con el mismo tamaño muestral n = nX1 = nX2 .
De nuevo queremos saber si el tratamiento modifica la media poblacional,
es decir si las medias poblacionales son distintas µX1 6= µX2 .
Para ello, a continuación vamos a calcular un intervalo de confianza para la
diferencia de medias µD = µX1 − µX2 , y realizar un contraste de hipótesis.
D − µD
√ ∼ tn−1 (7.22)
SD / nD
y por tanto el intervalo de confianza (U, V ) serı́a
SD
U = D − tn−1 (1 − α/2) × √
n
SD
V = D + tn−1 (1 − α/2) × √ . (7.23)
n
H0 : µD = 0
H1 : µD 6= 0. (7.24)
Para calcular el valor-p con R basta con utilizar el mismo comando que
usamos para el intervalo de confianza:
D − µD
t= √ ∼ tn−1 (7.26)
SD / nD
y calcular
47
48
Capı́tulo 8
Regresión y Correlación
49
Y = a + bX + ε (8.1)
en donde llamamos recta de regresión a la recta a + bX, y ε se denomina
residuo y es una variable aleatoria.
Comando de R: lm(y ∼ x)
En el modelo lineal simple además de asumir una relación lineal entre ambas
variables, haremos las siguientes suposiciones sobre ε:
bb = SXY
2
SX
a = Y − bX,
b (8.2)
1
Pn
en donde SXY es la covarianza muestral SXY = n−1 i=1 (xi − x)(yi − y).
σ 2 = σY2 (1 − R2 ) (8.3)
en donde
2
2 σXY
R = (8.4)
σX σY
es el coeficiente de determinación, y σXY es la covarianza poblacional.
En la ecuación 8.3 vemos que la varianza residual, σ 2 es menor que la varianza
de Y , σY2 en un factor (1 − R2 ). Por tanto cuanto mayor sea R2 , más se reduce
la varianza residual por lo que tendremos menor incertidumbre en el valor de Y
dado un valor X.
El coeficiente de determinación, nos transmite en qué medida el conocimien-
to de X determina el conocimiento de Y . De modo que si R = 0 el conoci-
miento de X no aporta nada al conocimiento de Y ya que σ 2 = σY2 y no hay
50
relación entre las variables. Por contra si R = 1 el conocimiento de X deter-
mina completamente el conocimiento de Y ya que σ 2 = 0 y todos los puntos
(X1 , Y1 ), (X2 , Y2 ), ..., (Xn , Yn ) formarı́an una recta. Cuanto mayor sea R2 más
determinado estará el conocimiento de Y por el conocimiento de X. Obviamente
como σ 2 > 0 ⇒ R2 < 1.
El coeficiente de determinación se puede estimar mediante el coeficiente de
determinación muestral, r2 :
2
SXY
r2 = . (8.5)
SX SY
Hay que tener en cuenta que el modelo lineal no siempre es válido, ya que la
relación entre las variables X e Y puede ser curvilı́nea o bien puede no cumplirse
alguna de las suposiciones sobre los residuos.
Comando de R: cor(x,y)
51
8.3. Errores comunes en la interpretación
Como se indica más arriba, el coeficiente de correlación es una medida de
relación lineal entre dos variables aleatorias; si la regresión no es lineal, el
coeficiente de correlación no es una medida adecuada de relación.
52
Capı́tulo 9
Bibliografı́a
53