Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INFORME: UNIDAD IV
INFERENCIA ESTADÍSTICA
PRESENTADO POR:
ANDRADE, ANILEC C.I: 30.780.151
GÓMEZ, CESAR C.I: 30.340.278
SANTANDER, ANDRÉS C.I: 27.263.396
SILVA, ADRIÁN C.I: 29.869.683
La probabilidad de cada uno de los posibles valores que puede tomar un estadístico en
muestras extraídas al azar viene dada por una función matemática denominada
distribución muestral, que depende del estadístico en cuestión. Se habla así, por
ejemplo, de la distribución muestral de la media aritmética o de la distribución muestral
de la proporción.
Una distribución muestral es una función de probabilidad, ya que asigna a cada posible
valor de un estadístico su probabilidad de aparecer en una muestra extraída al azar. En
realidad, esta definición es estrictamente cierta solo cuando la variable toma valores
discretos; por ejemplo, cuando procede de un contaje y sus posibles valores son 0, 1,
2, 3, etc. Cuando el valor del estadístico muestral es una variable continua, la
distribución muestral correspondiente se denomina función de densidad de
probabilidad. La probabilidad en este caso corresponde gráficamente a un área bajo la
curva de esa función, delimitada por un cierto intervalo de la variable. Analíticamente,
esa área se calcula como la integral de la función entre los límites del intervalo de la
variable, que en la práctica se obtiene con un ordenador o se consulta en una tabla. El
área total bajo la curva, que se extiende a todos los posibles valores de la variable, es
siempre uno, que corresponde a la probabilidad de un suceso seguro.
Un error típico se refiere a las variaciones que son a menudo inevitables. El error típico
puede definirse también como la variación producida por factores distorsionantes tanto
conocidos como desconocidos. Se pueden definir los siguientes tipos de error:
Cada muestra de tamaño n que podemos extraer de una población proporciona una
media. Si consideramos cada una de estas medias como valores de una variable
aleatoria podemos estudiar su distribución que llamaremos distribución muestral de
medias.
Cuando en una población se toma una muestra y se mide una variable continua, se
obtiene un conjunto de mediciones que puede resumirse en un valor de media. Si se
toma otra muestra de la misma medición se obtendrá otra media. Puede intuirse
entonces que podemos tomar infinitas muestras y obtener por lo tanto infinitas medias.
Esas medias por lo tanto constituyen a su vez una variable continua, que como toda
variable continua tiene determinada distribución de probabilidades.
Dos poblaciones que sigan distribuciones normales N(μ1, σ1) y N(μ2, σ2), o bien, si
ambas poblaciones tienen distribuciones cualesquiera con media μ1 y μ2, desviaciones
típicas σ1 y σ2, y las respectivas muestras son de tamaño n1 y n2, suficientemente
grandes, entonces la distribución muestral de diferencia de medias sigue una
distribución normal.
Aunque muchos autores usan el término diferencia de medias, tiene más sentido
intuitivo decir diferencia entre medias. Eso es porque en realidad no estás calculando
ningún medio; Ya tendrá dos o más medios, y todo lo que necesita hacer es encontrar
una diferencia entre ellos. En otras palabras, estás encontrando una diferencia entre
medias y no una media de diferencias.
La distribución muestral de la diferencia entre medias son todas las posibles diferencias
que puede tener un conjunto de dos medias. La fórmula para la media de la distribución
muestral de la diferencia entre medias es:
μ metro 1 – metro 2 = μ 1 – μ 2
Por ejemplo, supongamos que la puntuación media en una prueba de depresión para
un grupo de 100 hombres de mediana edad es 35 y para 100 mujeres de mediana
edad es 25. Si tomó una gran cantidad de muestras de ambos grupos y calculó la
media diferencias, la media de todas las diferencias entre todas las medias de la
muestra sería 35 – 25 = 10.
Mientras que una estimación es el conjunto de técnicas que permiten dar un valor
aproximado de un parámetro de una población a partir de los datos proporcionados por
una muestra. Para llevar a cabo una estimación, entonces, es necesario primero contar
con una serie de datos. Además, es común que los investigadores se sustenten en un
marco teórico. Por ejemplo, podemos estimar la inflación definiéndola como la
diferencia entre los precios (de la economía) del periodo A y los precios del periodo B.
Entonces, se calcula una variación porcentual entre los datos registrados en ambos
puntos del tiempo.
Una estimación es puntual cuando se usa un solo valor extraído de la muestra para
estimar el parámetro desconocido de la población. El objetivo inmediato de la
estimación puntual es el de obtener estimaciones razonables de parámetros de alguna
distribución (p.e., la media) desconocida —o parcialmente desconocida— de la que se
tiene una muestra, así como las correspondientes estimaciones del error cometido.
Cuando estimamos un parámetro de forma puntual, podemos saber con certeza, cuál
es ese valor.
Estimación por intervalo para: una media, la diferencia entre dos medias
(muestras independientes y muestras dependientes):
Para una media, la estimación por intervalos para una media permite conocer el rango
de valores en que podemos confiar que está el verdadero valor poblacional a partir de
la introducción de datos provenientes del promedio de la muestra; por lo tanto, permite
dimensionar la imprecisión de la estimación puntual y este es su principal propósito.
Muestra Dependiente
Las muestras dependientes son mediciones pareadas de un conjunto de elementos.
Muestra Independiente
Las muestras independientes son mediciones realizadas en dos conjuntos de
elementos distintos.
Un intervalo de confianza (IC) para una diferencia entre medias es un rango de valores
que probablemente contenga la verdadera diferencia entre dos medias poblacionales
con un cierto nivel de confianza.
Para estimar esta diferencia, saldrán y recopilarán una muestra aleatoria de cada
población y calcularán la media de cada muestra. Luego, pueden comparar la
diferencia entre las dos medias.
Sin embargo, no pueden saber con certeza si la diferencia en las medias de la muestra
coincide con la verdadera diferencia en las medias de la población, por lo que pueden
crear un intervalo de confianza para la diferencia entre las dos medias. Esto
proporciona un rango de valores que probablemente contenga la verdadera diferencia
entre las medias poblacionales.
La varianza, junto con la desviación estándar -ambas medidas muy relacionadas entre
sí- son las medidas de dispersión de datos por excelencia, sobre todo en el mundo de
las finanzas.
La razón entre dos varianzas no es más que el cociente entre dos medidas de
dispersión para determinar la diferencia o el grado de incertidumbre entre los dos
valores de varianza; evidentemente si plantemos medir la diferencia entre las
varianzas, cuanto más próximo sea la razón a la unidad menor diferencia habrá entre
las varianzas y lógicamente cuando la razón entre estas difiera mucho de 1, la
diferencia entre varianzas será más ostensible.