0% encontró este documento útil (0 votos)
15 vistas12 páginas

Teoricas Estadistica 1

El documento aborda conceptos fundamentales de estadística descriptiva, incluyendo medidas de tendencia central como la media y la mediana, así como medidas de dispersión como la varianza y la desviación estándar. También se discuten gráficos descriptivos como histogramas y boxplots, y se introducen conceptos de estimación puntual y construcción de intervalos de confianza para parámetros poblacionales. Finalmente, se presentan ejemplos prácticos que ilustran la aplicación de estas técnicas estadísticas.

Cargado por

baronedante2
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
15 vistas12 páginas

Teoricas Estadistica 1

El documento aborda conceptos fundamentales de estadística descriptiva, incluyendo medidas de tendencia central como la media y la mediana, así como medidas de dispersión como la varianza y la desviación estándar. También se discuten gráficos descriptivos como histogramas y boxplots, y se introducen conceptos de estimación puntual y construcción de intervalos de confianza para parámetros poblacionales. Finalmente, se presentan ejemplos prácticos que ilustran la aplicación de estas técnicas estadísticas.

Cargado por

baronedante2
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

19/5/25, 12:53 ChatGPT - Shared Content

Estadística descriptiva
La estadística descriptiva resume y describe las características principales de un
conjunto de datos. En términos generales, consideramos una población como la
distribución completa de donde proceden los datos, y una muestra como los datos
observados x1 , … , xn tomados aleatoriamente de esa población. A la vez, un
​ ​

parámetro poblacional (p.ej. la media poblacional μ, varianza σ 2 , proporción p, etc.)


ˉ,
describe la población, mientras que un estadístico muestral (p.ej. media muestral X
varianza muestral S 2 , proporción muestral p
^) es una función de los datos que estima

el parámetro poblacional.

Medidas de tendencia central: La más conocida es la media aritmética, definida


ˉ
como la suma de los datos dividida por el número de datos (denotada x =
1 n
n
​ ∑i=1 ​ xi )

es.wikipedia.org . La media es útil para datos simétricos pero es sensible a
valores extremos. La mediana es el valor que separa la mitad inferior y la mitad
superior de los datos ordenados es.wikipedia.org . Formalmente, si n es impar la mediana
es el elemento central; si n es par se suele tomar el promedio de los dos centrales. La
mediana es robusta frente a datos atípicos. También se utilizan otros cuantiles: p.ej. el
primer cuartil Q1 (percentil 25) y el tercer cuartil Q3 (percentil 75)
​ ​
es.wikipedia.org .
Además, la media podada (o trimmed mean) quita un porcentaje de valores extremos
antes de calcular el promedio.

Ejemplo 1: Cinco mediciones de concentración (g/L) de NaCl: 6.9, 7.3, 7.1, 7.5, 7.4.
ˉ
La media es x = (6.9 + 7.3 + 7.1 + 7.5 + 7.4)/5 = 7.24. La mediana
(ordenando: 6.9, 7.1, 7.3, 7.4, 7.5) es 7.3. Otros cuantiles: Q1 = 7.1, Q3 = 7.4. ​ ​

Estas medidas resumen el centro de la distribución del experimento.

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 1/12
19/5/25, 12:53 ChatGPT - Shared Content

Medidas de dispersión: Miden la variabilidad de los datos. La varianza poblacional (


σ 2 ) se define como el promedio de los cuadrados de las desviaciones respecto a la
media poblacional: σ 2 = E[(X − μ)2 ]. En la práctica, usamos la varianza muestral
1 n
S 2 = n−1 ​ ∑i=1 (xi − x
​ ˉ)2 que es un estimador insesgado de σ 2 (para la muestra)

es.wikipedia.org . La desviación estándar muestral es S = S 2 . El rango intercuartil


(IQR) es Q3 − Q1 . Otra medida es el rango total (máximo – mínimo), y el MAD
​ ​

(“median absolute deviation”) es la mediana de ∣xi − x ˉ ∣. ​

Gráficos descriptivos:

El histograma representa la distribución de una variable continua. Se divide el


rango de valores observados en intervalos (bins), y cada intervalo se pinta como
una barra cuya área es proporcional a la frecuencia relativa (o densidad) de los
datos en ese intervalo. Formalmente, “un histograma es una representación
gráfica de una variable en forma de barras, donde la superficie de cada barra es
proporcional a la frecuencia de los valores representados” es.wikipedia.org . El
histograma ilustra la forma (asimetría, sesgo, modas) de la distribución.

El boxplot (diagrama de caja y bigotes) muestra el rango intercuartil, la mediana


y posibles valores atípicos. Es “un método estandarizado para representar
gráficamente una serie de datos numéricos a través de sus cuartiles”, donde la
caja abarca Q1 a Q3 con línea en la mediana, y “los bigotes se extienden hasta
​ ​

los datos máximo y mínimo o hasta 1.5 veces el rango intercuartil”; puntos más
allá se marcan como outliers es.wikipedia.org .

El QQ-plot normal grafica los cuantiles muestrales frente a los cuantiles teóricos
de la distribución normal. Si los datos vienen de una distribución normal, los
puntos caen cercanos a una recta diagonal. Es una herramienta visual para
evaluar normalidad.

Ejemplo 2: Duraciones (meses) de 30 dispositivos: 0.1, 5.2, 24.4, 21.6, 4.8, 1.7,
15.6, 5.1, 9.6, 0.5, 7.5, 16.9, 6.1, 8.5, 22.3, 1.0, … (30 valores). Se calcula media,
mediana, varianza, etc., y se dibujan histogramas, boxplot y QQ-plot (tal como se
sugiere en los ejercicios del curso). Por ejemplo, un histograma podría mostrar si
los datos siguen una distribución típica (simétrica, sesgada, etc.), y un QQ-plot
indicaría si se ajustan a normalidad.

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 2/12
19/5/25, 12:53 ChatGPT - Shared Content

En resumen, la estadística descriptiva utiliza medidas de posición (media, mediana,


cuantiles), medidas de dispersión (varianza, desviación, IQR, etc.) y gráficos
(histogramas, boxplots, QQ-plots) para caracterizar los datos es.wikipedia.org es.wikipedia.org

es.wikipedia.org .

Estimación puntual

En estimación puntual se busca asignar a un parámetro poblacional θ un valor


basado en la muestra. Un estimador es una función θ^n (X1 , … , Xn ) de los datos. ​ ​ ​

Una vez evaluado en los datos observados x1 , … , xn , da la estimación numérica. ​ ​

Ejemplos: θ^n ​
ˉ n para estimar μ = E(X), o θ^n = p^n para estimar p = P (X ≤
=X ​ ​ ​ ​

x). El estimador debe tener buenas propiedades (insesgado, consistente, de varianza


pequeña, etc.).

Ejemplo: Para estimar la media μ = E(X), un estimador natural es la media


^n
muestral μ =X ˉ n = 1 ∑ Xi . Por el límite law of large numbers (LLN),
n i ​ ​ ​ ​ ​ ​

ˉ
Xn
P
μ cuando n → ∞, es decir, es consistente. Además, E(X
​ ​
ˉ n ) = μ (es ​

insesgado) y Var(X ˉ n ) = σ 2 /n. En la práctica, usamos x


ˉ = (1/n) ∑ xi como
​ ​

estimación de μ.

Estimación de proporciones: Si se desea p= P (∣X − 70∣ > 2), se define


p^n = n1 ∑ni=1 I(∣Xi − 70∣ > 2). Por el LLN, p^n → p en probabilidad (es
​ ​ ​ ​ ​ ​ ​

consistente).

Varianza: La varianza poblacional σ 2 se estima con la varianza muestral S 2 =


1 2
n−1
​ ∑(xi − x
ˉ) ​ . También puede usarse la fórmula n1 ​ ∑ x2i ​ −x 2
ˉ (que tiende a
2
σ conforme crece n).
Propiedades de estimadores: Se suele desear estimadores insesgados y
ˉ es insesgado y consistente; la varianza muestral S 2
consistentes. Por ejemplo, X
es insesgada para σ 2 y consistente. En general, el LLN y el Teorema del Límite
Central garantizan que promedios de funciones suaves de los datos convergen al
valor poblacional.

En resumen, en esta unidad se introducen las definiciones de estimador y estimación,


y se verifica con ejemplos que estimadores simples (media, proporción, varianza) son
buenos: convergen al valor verdadero de μ, p, σ 2 , etc., al aumentar el tamaño
muestral.

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 3/12
19/5/25, 12:53 ChatGPT - Shared Content

Intervalos de confianza

Un intervalo de confianza (IC) de nivel 1 − α para un parámetro θ es un par de


funciones (a(X), b(X)) de los datos tal que

P (a(X) < θ < b(X)) = 1 − α .

Así, con probabilidad 1 − α el intervalo cubrirá el valor real desconocido de θ . En


palabras, “un intervalo de confianza es un intervalo dentro del cual se estima, con un
determinado nivel de confianza, que estará el valor de cierto parámetro poblacional
desconocido” es.wikipedia.org . (Por ejemplo, un IC de nivel 95% significa que en el largo
plazo, 95 de cada 100 intervalos construidos con este método contendrán θ .) La
amplitud del IC refleja la precisión de la estimación (intervalos más anchos dan mayor
confianza pero menor precisión).

IC para la media (mundo normal)

Suponiendo datos IID normales Xi ​ ∼ N (μ, σ 2 ):


ˉ −μ
Varianza conocida σ 2 : El pivote σ/ n sigue N (0, 1). En consecuencia,
X

ˉ −μ
X
P ( − zα/2 ​ < < zα/2 ) = 1 − α, ​ ​

σ/ n ​

donde zα/2 es el cuantil superior α/2 de la normal estándar. De ello se obtiene el IC


clásico

σ σ
ˉ − zα/2
x ​ < μ < x
​ ˉ + zα/2 . ​ ​

n ​ n ​

σ
Es decir, μ ∈x
ˉ ± zα/2 ​
.

n ​

Varianza desconocida: Se reemplaza σ por la desviación muestral S . Bajo


Xˉ −μ
normalidad, el pivote T = S/ n
sigue una t-Student con


n − 1 grados de
libertad. Así,

ˉ −μ
X
P ( − tn−1,α/2 ​
< < tn−1,α/2 ) = 1 − α,​ ​

S/ n ​

con tn−1,α/2 cuantil de la tn−1 . Esto conduce al IC


​ ​

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 4/12
19/5/25, 12:53 ChatGPT - Shared Content
S
μ∈x
ˉ ± tn−1,α/2 ​ . ​

n ​

ˉ − t S/
En otras palabras, x n<μ<x
ˉ + t S/ n.
​ ​

ˉ
Ejemplo (varianza conocida): Si en un experimento el promedio fue x = 70.2
con σ = 9.2 y n = 123, un IC 95% para μ es 70.2 ± 1.96 × (9.2/ 123) ≈ ​

70.2 ± 1.63, es decir [68.6, 71.8]. Como este intervalo incluye 70, no hay
evidencia estadística de que el espectrofotómetro esté mal calibrado.

IC para diferencia de medias

Para dos poblaciones normales independientes (Xi ​ ∼ N (μ1 , σ12 ), Yj ∼ N (μ2 , σ22 ) ​ ​ ​ ​

), se construyen IC para δ = μ1 − μ2 : ​ ​

(Xˉ −Yˉ )−δ


Varianzas conocidas: El pivote es normal. Así,
σ1 /n1 +σ22 /n2
2

​ ​ ​ ​ ​

σ12 σ22
(x
ˉ − yˉ) ± zα/2 +
​ ​

​ ​ ​ ​ ​

n1 n2 ​ ​

es un IC 1-α para μ1 ​ − μ2 . ​

Varianzas iguales desconocidas: Si σ12 ​ = σ22 = σ 2 es desconocida, se usa la


(n1 −1)S12 +(n2 −1)S22


varianza combinada Sp2 = . El pivote
​ ​ ​ ​

n 1 +n 2 −2 ​

ˉ −Yˉ )−δ
​ ​

(X
∼ tn1 +n2 −2 . De ello se obtiene
Sp 1/n1 +1/n2
​ ​

​ ​

​ ​ ​ ​

1 1
(x
ˉ − yˉ) ± tn1 +n2 −2,α/2 Sp ​ ​ ​
+ . ​ ​ ​

n1 n2
​ ​

​ ​

Varianzas desiguales (Welch): Si σ12 ​ = σ22 , usamos la “aproximación de Welch”.


 ​

El pivote
(Xˉ −Yˉ )−δ
se aproxima a tν con
S12 /n1 +S22 /n2
​ ​

​ ​ ​ ​ ​

S2 S2
( n1 + n2 )2
​ ​

ν≈ . Así se calcula
​ ​

1 ​

2 ​

(S 2 /n1 )2 (S 2 /n )2

1 + n2 −21
​ ​ ​ ​

n 1 −1
​ ​

2 ​

S12 S22
(x
ˉ − yˉ) ± tν,α/2 + .
​ ​

​ ​ ​ ​ ​

n1 n2 ​ ​

En la práctica, se suele usar software (R, etc.) para obtener este IC.

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 5/12
19/5/25, 12:53 ChatGPT - Shared Content

Ejemplo: Se compararon 15 parcelas con el tratamiento A y 15 con B (ver datos


ˉA
anteriores). Calculando estadísticos se obtuvo x ​ = 223.4, x
ˉB = 236.7,

SA2 ≈ 108.26, SB2 ≈ 208.81. Aplicando Welch (varianzas distintas) el IC 95%


para μA − μB resultó aproximadamente [−22.7, −3.8]. Como el intervalo no


​ ​

contiene 0, se concluye que las medias difieren significativamente.

Intervalos asintóticos

Cuando no podemos asumir normalidad pero el tamaño n es grande, se usan IC


ˉ
≈ N (μ, σ 2 /n) para n grande.
asintóticos basados en el TCL. El CLT garantiza que X
ˉ − μ)/(S/ n) ∼ N (0, 1). Se obtiene el IC
Así, aproximamos como si (X ​

asimptótico:

S
μ∈x
ˉ ± zα/2 ​ ​ (para n → ∞),
n ​

donde zα/2 es el cuantil de la normal. Esto es válido aunque los errores no sean

normales, siempre que n sea grande.

En resumen, los IC combinan estadísticas muestrales y distribuciones conocidas


(normal o t) para dar rangos probables de los parámetros. Por ejemplo, el IC 1‑α para
media se construye como “estimador ± (cuantil)×(error estándar)”. El nivel de
confianza 1 − α representa la fracción de intervalos que contendrían el valor real
es.wikipedia.org .

Contraste de hipótesis

Una prueba (o contraste) de hipótesis permite tomar decisiones sobre afirmaciones


acerca de parámetros poblacionales. Se plantean dos hipótesis contrapuestas: la
hipótesis nula H0 (p.ej. μ ​ = μ0 o δ = 0), y la hipótesis alternativa H1 (p.ej. μ =
​  μ0 ​ ​

,μ > μ0 , etc.). En palabras, “la prueba de hipótesis es un procedimiento, basado en


evidencia y probabilidad de muestra, utilizado para probar afirmaciones sobre una


característica de una población” espanol.libretexts.org . La hipótesis nula suele ser la
afirmación neutra o “sin efecto” sobre el parámetro, mientras que la alternativa es lo
contrario y refleja lo que queremos detectar espanol.libretexts.org .

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 6/12
19/5/25, 12:53 ChatGPT - Shared Content

Estadístico de prueba: Se construye un estadístico T de la muestra cuyo


comportamiento bajo H0 es conocido (p.ej. sigue una t o una normal). Por

ejemplo, para probar H0 : μ = μ0 con varianza conocida se usa Z = (X



ˉ− ​

μ0 )/(σ/ n). Bajo H0 , Z ∼ N (0, 1). Se calcula el valor observado zobs y se


​ ​ ​ ​

compara con la región crítica (basada en zα/2 para dos colas) o se obtiene el p- ​

valor (probabilidad de obtener un estadístico igual o más extremo que el


observado si H0 es cierta). Si el p-valor es menor que el nivel α, se rechaza H0 .

Conclusión y niveles de error: El nivel de significancia α es la probabilidad


máxima tolerada de rechazar H0 cuando es verdadera (error de tipo I). El error

de tipo II (β ) es la probabilidad de no rechazar H0 cuando en realidad H0 es ​ ​

falsa. “Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de
tipo I. La probabilidad de cometer error tipo I es α” support.minitab.com . “Cuando H0 ​

es falsa y usted no la rechaza, comete un error de tipo II; su probabilidad es β ”


support.minitab.com . Es importante elegir α según el contexto (p.ej. 0.05).

Relación con los IC: Un IC para θ puede emplearse para contraste. Por ejemplo,
rechazar H0 : μ = μ0 al nivel α equivale a verificar si μ0 queda fuera del IC 1−
​ ​ ​

α para μ. Si μ0 no está contenido, se rechaza H0 .


​ ​

Ejemplo: Continuando el ejemplo de fertilizantes, el IC 95% para μA ​ − μB no ​

contenía 0, lo que indica que hay evidencia significativa (p < 0.05) de que los
rendimientos difieren. En contraste, si se hubiera buscado un IC para la diferencia
de medias apareadas (p.ej. dos mediciones correlacionadas), se analizaría la
distribución de las diferencias Di como una sola muestra. ​

En síntesis, el contraste de hipótesis consiste en: (1) plantear H0 y H1 , (2) elegir un ​ ​

estadístico de prueba adecuado, (3) calcular su valor muestral y comparar con un


valor crítico (o p-valor), (4) rechazar o no H0 según corresponda. Es el complemento ​

de los intervalos de confianza para tomar decisiones formales basadas en los datos
espanol.libretexts.org espanol.libretexts.org support.minitab.com support.minitab.com .

Regresión lineal

La regresión lineal simple modela la relación entre una variable predictora x y una
respuesta Y . Se asume el modelo

Yi = β 0 + β 1 x i + ε i ,
​ ​ ​ ​ ​ i = 1, … , n,

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 7/12
19/5/25, 12:53 ChatGPT - Shared Content

donde x1 , … , xn son valores fijos o conocidos (p.ej. dosis, tiempo), β0 , β1 son


​ ​ ​ ​

parámetros desconocidos y los errores εi satisfacen: ​

1. Independencia: ε1 , … , εn son independientes. ​ ​

2. Esperanza cero: E(εi ) ​ = 0.


3. Varianza constante: Var(εi ) = σ 2 (homocedasticidad). ​

A menudo se asume además εi ∼ N (0, σ 2 ) para inferencia. Bajo estos ​

supuestos, E(Yi ) = β0 + β1 xi y Var(Yi ) = σ 2 . ​ ​ ​ ​ ​

Para estimar los parámetros β0 , β1 se usa el método de mínimos cuadrados. Se ​ ​

minimiza la suma de residuos cuadrados ∑i (Yi ​ ​ − (b0 + b1 xi ))2 . De las ecuaciones


​ ​ ​

normales se obtiene la solución cerrada:

ˉ)(Yi − Yˉ )
∑ (x i − x
β^1 = i , β^0 = Yˉ − β^1 x
ˉ,
​ ​ ​

∑i (xi − xˉ )2
​ ​ ​ ​ ​ ​ ​

​ ​

ˉ, Yˉ son las medias de xi y Yi . Equivalentemente,


donde x ​ ​

β^1 =​ ​

β^0 queda luego por la primera ecuación. Una vez


n ∑ x i Yi − ( ∑ x i ) ( ∑ Yi )
n ∑ x2i −(∑ xi )2

,y​


​ ​ ​

^i = β^0 + β^1 xi y el residuo es


estimados, la predicción ajustada para cada xi es Y ​ ​ ​ ​ ​ ​ ​

ri = Yi − Y^i . Un estimador para σ 2 es


​ ​ ​

n
1
^ =
σ ∑ ri2 , 2
n−2
​ ​ ​

i=1

que utiliza grados de libertad n − 2.

^0 , β^1 son insesgados (E(β^j )


Propiedades: Bajo los supuestos clásicos, β ​ ​ ​ ​ ​ ​
= βj ) y con ​

varianzas

σ2 2 1 ˉ2
x
Var(β^1 ) = , Var(β0 ) = σ ( +
^ ).
ˉ )2
∑(xi − x ˉ )2
n ∑(xi − x
​ ​ ​ ​ ​ ​ ​

​ ​

En la práctica, reemplazamos σ 2 por σ


^ 2 . De ahí surgen los errores estándar (SE) de los
coeficientes:

^2
σ 1 ˉ2
x
SE(β^1 ) = , SE(β^0 ) = ^2(
σ + ).
∑(xi − x
ˉ )2 n ∑(xi − x
ˉ )2
​ ​ ​ ​ ​ ​ ​ ​

​ ​

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 8/12
19/5/25, 12:53 ChatGPT - Shared Content

Bajo normalidad, los estadísticos


β^1 −β1 β^ −β
y 0 ^ 0 siguen tn−2 . Por ello se pueden construir intervalos de confianza para
​ ​ ​ ​ ​ ​

^
SE(β1 ) SE(β0 )​ ​

​ ​
​ ​

β0 y β1 usando la distribución t.
​ ​

Ejemplo 1 (piezas de cerámica): Se ajustó modelo con x = “peso antes de cocción” e


Y = “peso después”. Datos:
x = (100, 200, 300, 400, 500, 600, 700) y
Y = (68.21, 159.77, 336.19, 350.54, 368.04, 434.09, 548.42).
^0 ≈ 34.8771 y β^1 ≈ 0.72183. El coeficiente de
En R se hizo lm(Y~x) , dando β ​ ​ ​ ​

determinación ajustado fue R2 ≈ 0.9103 y la prueba F resultó muy significativa (


p ≈ 5.33 × 10−4 ), indicando buen ajuste. La ecuación ajustada es Y^ = 34.8771 +
0.7218x. Para x0 = 250, la predicción de peso es Y^ (250) = 34.8771 +​

0.7218 × 250 ≈ 215.3 g. Además se pueden calcular intervalos de confianza: por


ejemplo, un IC 95% para β1 se obtiene como β^1 ± t5,0.975 SE(β^1 ). ​ ​ ​ ​ ​

Ejemplo 2 (calibración por fluorescencia): Soluciones de concentraciones conocidas


x = (0, 2, 4, 6, 8, 10, 12) produjeron señales Y =
(0.22, 3.73, 8.03, 11.38, 18.63, 21.13, 25.64). Ajustando Y ∼ x en R se obtiene
(calculado manualmente) β ^0 ≈ −0.355, β^1 ≈ 2.1725. Para una señal Y = 19.3, la ​ ​ ​ ​

concentración estimada inversamente es


^ = (Y − β^0 )/β^1 ≈ (19.3 + 0.355)/2.1725 ≈ 9.05. Esto responde la pregunta:
x ​ ​ ​ ​

la concentración esperada es aproximadamente 9.05 (en las mismas unidades). Para


esta “regresión inversa” se puede también obtener un IC usando la fórmula dada en
las notas (basada en propagación de error), pero en la práctica se suele usar R.

Finalmente, se distinguen dos tipos de intervalos de predicción:

Para la media en x0 : Bajo normalidad, μ = β^0 + β^1 x0 es normal con


^(x0 ) ​ ​ ​ ​ ​ ​ ​ ​

varianza σ 2 (1/n + (x0 − x


ˉ)2 / ∑(xi − x
ˉ)2 ). Un IC para E(Y ∣X = x0 ) es ​ ​ ​

1 ˉ )2
(x0 − x
^(x0 ) ± tn−2,α/2 σ
^ + .

μ
n ∑(xi − x ˉ )2
​ ​ ​ ​ ​ ​

Intervalo de predicción: Para capturar un valor futuro Yn+1 en xn+1 , el error ​ ​

incluye la variabilidad extra. Se obtiene

1 ˉ )2
(xn+1 − x
^(xn+1 ) ± tn−2,α/2 σ
^ 1+ + .

μ
n ∑(xi − x ˉ )2
​ ​ ​ ​ ​ ​

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 9/12
19/5/25, 12:53 ChatGPT - Shared Content

Este intervalo siempre es más amplio, reflejando que predecir un solo dato es menos
preciso que estimar la media.

En conclusión, la regresión lineal simple nos permite describir la dependencia lineal


entre variables, estimar parámetros con mínimos cuadrados (cuyos estimadores son
insesgados y normales bajo supuestos), evaluar el ajuste (coeficiente R2 , F -test) y
hacer predicciones con su incertidumbre (ICs tanto para la media como para nuevos
datos). Las definiciones y fórmulas clave se dan arriba; en nuestro ejemplo práctico se
ha ilustrado el uso de R para obtener coeficientes y evaluar la significancia.

Comparación de medias (dos muestras)

Al comparar medias de dos poblaciones, se distinguen dos escenarios: muestras


independientes y muestras pareadas.

Dos muestras independientes: Ya vimos los IC de diferencia μ1 ​ − μ2 en la


sección anterior. Para probar H0 : μ1 = μ2 , se puede usar el pivote visto (t con


​ ​ ​

o sin varianzas iguales). Alternativamente, se calcula el estadístico t = (x


ˉ1 − ​

ˉ2 )/SE donde SE depende de si usamos varianza combinada o Welch. El IC


x ​

calculado brinda una estimación y el test de H0 : μ1 − μ2 = 0 equivale a ver si


​ ​ ​

0 está fuera del IC.

Muestras pareadas (dependientes): Ocurre cuando cada observación de la


muestra 1 está emparejada con una de la muestra 2 (p.ej. antes/después en los
mismos sujetos). Se define la nueva variable Di = Xi − Yi (diferencia por par).
​ ​

ˉ y su
Entonces se aplica estadística univariada sobre las Di : se estima μD con D
​ ​

2
varianza con SD /(n − 1). Un IC para la diferencia media μD es
​ ​

ˉ ± tn−1,α/2 SD .
D ​

n ​

Equivalente a realizar una prueba t de Student sobre las diferencias. Así, el problema
pareado se reduce a un problema de una sola muestra.

En ambos casos, el método general es: calcular la diferencia de medias (o medias de


diferencias), ajustar la varianza correspondiente y usar la distribución t con los grados
ˉ
de libertad adecuados. En particular, para muestras pareadas “el pivote es (D −
δ0 )/(SD / n) ∼ tn−1 ”, y para independientes se usaron los casos tratados antes
​ ​ ​ ​

(validados por los Teoremas mostrados).

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 10/12
19/5/25, 12:53 ChatGPT - Shared Content

Resumen: Para comparar dos medias:

Si las muestras son independientes, se usan ICs/pivotes para μ1 ​ − μ2 con


fórmulas de los casos (varianzas conocidas, iguales o distintas).

Si son apareadas, se transforma el problema en diferencias D y se aplica CI y test


de una sola muestra sobre D .
En todos los casos, un IC para μ1 − μ2 que no contenga 0 indica diferencia
​ ​

significativa, equivalente a rechazar H0 : μ1 = μ2 . ​ ​ ​

Referencias: Definiciones y conceptos extraídos de literatura estadística es.wikipedia.org

es.wikipedia.org es.wikipedia.org es.wikipedia.org es.wikipedia.org espanol.libretexts.org espanol.libretexts.org

support.minitab.com support.minitab.com (se indican con indicadores de página). Estas referencias


respaldan las fórmulas y definiciones clave usadas en el resumen.

Citas

Media aritmética - Wikipedia, la enciclopedia libre


https://es.wikipedia.org/wiki/Media_aritm%C3%A9tica

Mediana (estadística) - Wikipedia, la enciclopedia libre


https://es.wikipedia.org/wiki/Mediana_(estad%C3%ADstica)

Varianza - Wikipedia, la enciclopedia libre


https://es.wikipedia.org/wiki/Varianza

Histograma - Wikipedia, la enciclopedia libre


https://es.wikipedia.org/wiki/Histograma

Diagrama de caja - Wikipedia, la enciclopedia libre


https://es.wikipedia.org/wiki/Diagrama_de_caja

Intervalo de confianza - Wikipedia, la enciclopedia libre


https://es.wikipedia.org/wiki/Intervalo_de_confianza

3.1: Los fundamentos de las pruebas de hipótesis - LibreTexts Español


https://espanol.libretexts.org/Estadisticas/Estadistica_Aplicada/Libro%3A_Biometria_de_Recursos_

3.1: Los fundamentos de las pruebas de hipótesis - LibreTexts Español


https://espanol.libretexts.org/Estadisticas/Estadistica_Aplicada/Libro%3A_Biometria_de_Recursos_

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 11/12
19/5/25, 12:53 ChatGPT - Shared Content

¿Qué son los errores de tipo I y tipo II? - Minitab


https://support.minitab.com/es-mx/minitab/help-and-how-to/statistics/basic-
statistics/supporting-topics/basics/type-i-and-type-ii-error/

¿Qué son los errores de tipo I y tipo II? - Minitab


https://support.minitab.com/es-mx/minitab/help-and-how-to/statistics/basic-
statistics/supporting-topics/basics/type-i-and-type-ii-error/

Todas las fuentes

es.wikipedia espanol.libretexts support.minitab

https://chatgpt.com/s/dr_682a8b2b71c08191aaaf397c0aa73eb0 12/12

También podría gustarte