Está en la página 1de 9

REPÚBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD PRIVADA DR. RAFAEL BELLOSO CHACÍN


FACULTAD DE INGENIERÍA
CÁTEDRA: ESTADÍSTICA
SECCIÓN: C513
PROFESORA: ING. ÁNGELA GALBÁN

INFORME: UNIDAD IV
INFERENCIA ESTADÍSTICA

PRESENTADO POR:
ANDRADE, ANILEC C.I: 30.780.151
GÓMEZ, CESAR C.I: 30.340.278
SANTANDER, ANDRÉS C.I: 27.263.396
SILVA, ADRIÁN C.I: 29.869.683

MARACAIBO, NOVIEMBRE DEL 2022


DESARROLLO

TEMA N°1: DISTRIBUCIONES MUESTRALES

 Definición de distribución de un estadístico:

Una distribución estadística, o distribución de probabilidad, describe cómo se


distribuyen los valores para un campo. En otras palabras, la distribución estadística
muestra qué valores son comunes y poco comunes.

Hay muchos tipos de distribuciones estadísticas, incluyendo la distribución normal en


forma de campana. Utilizamos una distribución estadística para determinar la
probabilidad de que sea un valor particular. Por ejemplo, si tenemos un valor chi-
cuadrado, podemos utilizar la distribución chi-cuadrado para determinar qué
probabilidad tiene este valor chi-cuadrado.

La probabilidad de cada uno de los posibles valores que puede tomar un estadístico en
muestras extraídas al azar viene dada por una función matemática denominada
distribución muestral, que depende del estadístico en cuestión. Se habla así, por
ejemplo, de la distribución muestral de la media aritmética o de la distribución muestral
de la proporción.

Una distribución muestral es una función de probabilidad, ya que asigna a cada posible
valor de un estadístico su probabilidad de aparecer en una muestra extraída al azar. En
realidad, esta definición es estrictamente cierta solo cuando la variable toma valores
discretos; por ejemplo, cuando procede de un contaje y sus posibles valores son 0, 1,
2, 3, etc. Cuando el valor del estadístico muestral es una variable continua, la
distribución muestral correspondiente se denomina función de densidad de
probabilidad. La probabilidad en este caso corresponde gráficamente a un área bajo la
curva de esa función, delimitada por un cierto intervalo de la variable. Analíticamente,
esa área se calcula como la integral de la función entre los límites del intervalo de la
variable, que en la práctica se obtiene con un ordenador o se consulta en una tabla. El
área total bajo la curva, que se extiende a todos los posibles valores de la variable, es
siempre uno, que corresponde a la probabilidad de un suceso seguro.

 Definición de error típico:

Sirve para establecer un margen en torno a la puntuación real obtenida por un


estudiante en una prueba. Dentro de dicho margen deberían localizarse todas sus
posibles puntuaciones en caso de que el estudiante repitiese varias veces la prueba. El
error estándar vendría siendo la desviación típica (desviación estándar) de una
distribución hipotética de puntuaciones posibles.
En estadística, el error típico o estándar sirve para indicar el intervalo de confianza con
respecto a la fiabilidad de los cálculos realizados sobre una muestra; en otras palabras,
determina el grado en que la estimación de una muestra puede diferir con respecto al
parámetro de una población. El término se emplea comúnmente para aludir al llamado
error estándar de la media, que se refiere a cuánto puede desviarse la media de la
muestra analizada con respecto a la media de la población total. Se halla dividiendo la
desviación típica entre la raíz cuadrada del número de individuos de la muestra. Un
buen intervalo para estimar la media de la población es el que resulta de restar y sumar
a la media de la muestra dos veces su error estándar.

Un error típico se refiere a las variaciones que son a menudo inevitables. El error típico
puede definirse también como la variación producida por factores distorsionantes tanto
conocidos como desconocidos. Se pueden definir los siguientes tipos de error:

 Error de tratamiento, debido a la incapacidad de replicar o repetir el


tratamiento desde una aplicación a la siguiente.
 Error de estado, debido a cambios aleatorios en el estado físico de las
unidades experimentales.
 Error de medida, debido a las impresiones en el proceso de medición o
recuento.
 Error de muestreo, debido a la selección aleatoria de unidades
experimentales para la investigación.
 Error experimental, está asociado a una unidad experimental, refleja las
diferencias entre las múltiples unidades experimentales, es decir, una unidad
experimental no puede ser replicada en forma exacta.
 Error observacional, está asociado a las unidades observacionales; es un
reflejo del error de medición y del error del muestreo (además de otros
factores).

 Definición y características de distribución muestral de una media:

Cada muestra de tamaño n que podemos extraer de una población proporciona una
media. Si consideramos cada una de estas medias como valores de una variable
aleatoria podemos estudiar su distribución que llamaremos distribución muestral de
medias.

En la práctica cotidiana de la investigación no trabajamos para ubicar en una


distribución los datos individuales que ya tenemos; para saber si un valor tiene alta o
baja probabilidad de ocurrencia bastaría en este caso con ordenar todos los valores de
menor a mayor y ver qué lugar ocupa en la distribución, cuán cercano está a la media o
la mediana.
Cuando hacemos investigación nos interesa inferir si los hallazgos de un grupo de
pacientes son similares a los de la población general, o a los de otro grupo, o bien si se
trata de valores distintivos. Para inferir si hay o no diferencias es que resulta
fundamental trabajar con la distribución muestral de medias.

Cuando en una población se toma una muestra y se mide una variable continua, se
obtiene un conjunto de mediciones que puede resumirse en un valor de media. Si se
toma otra muestra de la misma medición se obtendrá otra media. Puede intuirse
entonces que podemos tomar infinitas muestras y obtener por lo tanto infinitas medias.
Esas medias por lo tanto constituyen a su vez una variable continua, que como toda
variable continua tiene determinada distribución de probabilidades.

Algunas características de la distribución muestral de la media son:

 La variación de la distribución muestral es menor cuanto mayor sea


n (tamaño de la muestra) siempre que la varianza de la población sea la
misma.
Explicación: La fórmula de la Varianza de la distribución muestral de la Media
es:

Cuanto mayor es el denominador (n), más pequeño es el valor del término a


la izquierda del "igual".
 Cuando la distribución de medias muestrales aproxima la distribución normal,
podemos obtener probabilidades de las medias muestrales.
 Si tenemos una población normal N (m,s) y extraemos de ella muestras de
tamaño n, la distribución muestral de medias sigue también una distribución
normal.

 Si la población no sigue una distribución normal pero n>30, aplicando el


llamado Teorema central del límite la distribución muestral de medias se
aproxima también a la normal anterior.
 La distribución muestral es una estadística que se obtiene mediante un
muestreo repetido de una población más grande.
 Describe un rango de posibles resultados de una estadística, como media o
método de alguna variable, porque en realidad hay una población.
 La mayoría de los datos que los investigadores analizan en realidad se
extraen de muestras y no de poblaciones.
 Definición y características de distribución muestral de la diferencia entre
dos medias:

Dos poblaciones que sigan distribuciones normales N(μ1, σ1) y N(μ2, σ2), o bien, si
ambas poblaciones tienen distribuciones cualesquiera con media μ1 y μ2, desviaciones
típicas σ1 y σ2, y las respectivas muestras son de tamaño n1 y n2, suficientemente
grandes, entonces la distribución muestral de diferencia de medias sigue una
distribución normal.

La diferencia de medias, o diferencia de medias, mide la diferencia absoluta entre el


valor medio en dos grupos diferentes. En los ensayos clínicos, te da una idea de cuánta
diferencia hay entre los promedios del grupo experimental y los grupos de control.

Aunque muchos autores usan el término diferencia de medias, tiene más sentido
intuitivo decir diferencia entre medias. Eso es porque en realidad no estás calculando
ningún medio; Ya tendrá dos o más medios, y todo lo que necesita hacer es encontrar
una diferencia entre ellos. En otras palabras, estás encontrando una diferencia entre
medias y no una media de diferencias.

La distribución muestral de la diferencia entre medias son todas las posibles diferencias
que puede tener un conjunto de dos medias. La fórmula para la media de la distribución
muestral de la diferencia entre medias es:

μ metro 1 – metro 2 = μ 1 – μ 2

Por ejemplo, supongamos que la puntuación media en una prueba de depresión para
un grupo de 100 hombres de mediana edad es 35 y para 100 mujeres de mediana
edad es 25. Si tomó una gran cantidad de muestras de ambos grupos y calculó la
media diferencias, la media de todas las diferencias entre todas las medias de la
muestra sería 35 – 25 = 10.

TEMA N°2: ESTIMACIÓN

 Diferencia entre estimador y estimación:

En estadística, un estimador es un estadístico (esto es, una función de la muestra)


usado para estimar un parámetro desconocido de la población. Por ejemplo, si se
desea conocer el precio medio de un artículo (el parámetro desconocido) se recogerán
observaciones del precio de dicho artículo en diversos establecimientos (la muestra) y
la media aritmética de las observaciones puede utilizarse como estimador del precio
medio. Ahora bien, no es un estadístico cualquiera. Es un estadístico con ciertas
propiedades. Un ejemplo podría ser la media o la varianza. Estas métricas tan
conocidas, son estimadores.

Mientras que una estimación es el conjunto de técnicas que permiten dar un valor
aproximado de un parámetro de una población a partir de los datos proporcionados por
una muestra. Para llevar a cabo una estimación, entonces, es necesario primero contar
con una serie de datos. Además, es común que los investigadores se sustenten en un
marco teórico. Por ejemplo, podemos estimar la inflación definiéndola como la
diferencia entre los precios (de la economía) del periodo A y los precios del periodo B.
Entonces, se calcula una variación porcentual entre los datos registrados en ambos
puntos del tiempo.

 Definición de estimación puntual:

Una estimación es puntual cuando se usa un solo valor extraído de la muestra para
estimar el parámetro desconocido de la población. El objetivo inmediato de la
estimación puntual es el de obtener estimaciones razonables de parámetros de alguna
distribución (p.e., la media) desconocida —o parcialmente desconocida— de la que se
tiene una muestra, así como las correspondientes estimaciones del error cometido.
Cuando estimamos un parámetro de forma puntual, podemos saber con certeza, cuál
es ese valor.

Un ejemplo paradigmático de la estimación puntual es el de la estimación de la tasa de


paro, que es una magnitud desconocida θ. Para ello, sobre la población española se
realiza una encuesta, la EPA, con la que se construye un estimador ^θ de θ.

No obstante, los principios y métodos sirven igualmente para la estimación de


parámetros en modelos y son precisamente de base teórica para el ajuste de modelos
en ciencia de datos.

 La media de la población se puede estimar puntualmente mediante la media


de la muestra:

 La proporción de la población se puede estimar puntualmente mediante la


proporción de la muestra:
 La desviación típica de la población se puede estimar puntualmente mediante
la desviación típica de la muestra, aunque hay mejores estimadores:

 Características de un buen estimador puntual:


 El primero de los requisitos que se le deben exigir a un buen estimador es
que recoja toda la información que contiene la muestra acerca del parámetro,
(estimador suficiente).
 Dicho estimador puntual debe presentar la insesgadez o ausencia de sesgo.
 Debe ser eficiente o poseer variabilidad reducida más no nula, por no ser un
estimador ideal.
 Debe existir consistencia o comportamiento probabilístico del estimador a
medida que aumenta el tamaño de la muestra.

 Estimación por intervalo para: una media, la diferencia entre dos medias
(muestras independientes y muestras dependientes):

La estimación por intervalos consiste en establecer el intervalo de valores donde es


más probable que se encuentre el parámetro. La obtención del intervalo se basa en las
siguientes consideraciones:

a) Si conocemos la distribución muestral del estimador podemos obtener las


probabilidades de ocurrencia de los estadísticos muestrales.

b) Si conociéramos el valor del parámetro poblacional, podríamos establecer la


probabilidad de que el estimador se halle dentro de los intervalos de la
distribución muestral.

c) El problema es que el parámetro poblacional es desconocido, y por ello el


intervalo se establece alrededor del estimador. Si repetimos el muestreo un
gran número de veces y definimos un intervalo alrededor de cada valor del
estadístico muestral, el parámetro se sitúa dentro de cada intervalo en un
porcentaje conocido de ocasiones. Este intervalo es denominado "intervalo
de confianza".

Para una media, la estimación por intervalos para una media permite conocer el rango
de valores en que podemos confiar que está el verdadero valor poblacional a partir de
la introducción de datos provenientes del promedio de la muestra; por lo tanto, permite
dimensionar la imprecisión de la estimación puntual y este es su principal propósito.

 Muestra Dependiente
Las muestras dependientes son mediciones pareadas de un conjunto de elementos.

 Muestra Independiente
Las muestras independientes son mediciones realizadas en dos conjuntos de
elementos distintos.

Si los valores de una muestra no revelan información sobre los valores de la


otra muestra, entonces las muestras son independientes.

Un intervalo de confianza (IC) para una diferencia entre medias es un rango de valores
que probablemente contenga la verdadera diferencia entre dos medias poblacionales
con un cierto nivel de confianza.

Para estimar esta diferencia, saldrán y recopilarán una muestra aleatoria de cada
población y calcularán la media de cada muestra. Luego, pueden comparar la
diferencia entre las dos medias.

Sin embargo, no pueden saber con certeza si la diferencia en las medias de la muestra
coincide con la verdadera diferencia en las medias de la población, por lo que pueden
crear un intervalo de confianza para la diferencia entre las dos medias. Esto
proporciona un rango de valores que probablemente contenga la verdadera diferencia
entre las medias poblacionales.

 Una varianza y la razón de dos varianzas:

Una varianza es una medida de dispersión que se utiliza para representar la


variabilidad de un conjunto de datos respecto de la media aritmética del mismo. Así, se
calcula como la suma de los residuos elevados al cuadrado y divididos entre el total de
observaciones. No obstante, se trata de una medida que también puede calcularse
como la desviación típica al cuadrado. Es ampliamente utilizada en los sectores de la
economía y las finanzas, interpretándose como el riesgo de que el rendimiento de
algún procedimiento en concreto sea distinto del rendimiento esperado de dicho
procedimiento.

La varianza, junto con la desviación estándar -ambas medidas muy relacionadas entre
sí- son las medidas de dispersión de datos por excelencia, sobre todo en el mundo de
las finanzas.

La razón entre dos varianzas no es más que el cociente entre dos medidas de
dispersión para determinar la diferencia o el grado de incertidumbre entre los dos
valores de varianza; evidentemente si plantemos medir la diferencia entre las
varianzas, cuanto más próximo sea la razón a la unidad menor diferencia habrá entre
las varianzas y lógicamente cuando la razón entre estas difiera mucho de 1, la
diferencia entre varianzas será más ostensible.

También podría gustarte