Está en la página 1de 11

TECNOLOGICO NACIONAL DE MEXICO

TECNOLOGICO NACIONAL DE ORIZABA

Carrera: ingeniería electrónica

Examen segunda parte

Probabilidad y estadística

Estudiante: Tania luna Ángel (19011016)


4. ESTADÍSTICA INFERENCIAL
Se llama estadística inferencial o inferencia estadística a la rama de la
Estadística encargada de hacer deducciones, es decir, inferir propiedades,
conclusiones y tendencias, a partir de una muestra del conjunto. Su papel es
interpretar, hacer proyecciones y comparaciones.
La estadística inferencial emplea usualmente mecanismos que le permiten llevar a
cabo dichas deducciones, tales como pruebas de estimación puntual (o de
intervalos de confianza), pruebas de hipótesis, pruebas paramétricas (como de
media, de diferencia de medias, proporciones, etc.) y no paramétricas (como la
prueba del chi-cuadrado, etc.). También le son útiles los análisis de correlación y
de regresión, las series cronológicas, el análisis de varianza, entre otros.
Por ende, la estadística inferencial es sumamente útil en el análisis de
poblaciones y tendencias, para hacerse una idea posible de las acciones y
reacciones de la misma de cara a condiciones específicas. Esto no significa que
se las pueda predecir fielmente, ni que estemos en presencia de una ciencia
exacta, pero sí de una aproximación posible al resultado final.
Ejemplos de estadística inferencial
Sondeos de tendencia de voto. Antes de una elección importante, diversas
encuestadoras sondean la opinión pública para recabar datos relevantes y luego,
teniendo la muestra analizada y desglosada, inferir tendencias: quién es el
favorito, quién va segundo, etc.
Análisis de mercado. Las empresas a menudo contratan otras empresas
especializadas en marketing para que analicen sus nichos de mercado a través de
diversas herramientas estadísticas y diferenciales, como encuestas
y focus groups, a partir de las cuales deducir qué productos prefiere la gente y en
qué contexto, etc.
Epidemiología médica. Teniendo los datos concretos de afectación de una
población determinada por una o varias enfermedades puntuales, los
epidemiólogos y especialistas en salud pública pueden llegar a
conclusiones respecto a qué medidas públicas son necesarias para evitar que
dichas enfermedades se esparzan y contribuir a su erradicación.
4.1 LA INFERENCIA ESTADÍSTICA
La inferencia estadística es el conjunto de métodos que permiten inducir, a través
de una muestra estadística, el comportamiento de una determinada población. La
inferencia estadística, estudia entonces como, a través de la aplicación de dichos
métodos sobre los datos de una muestra, se pueden extraer conclusiones sobre
los parámetros de la población de datos. De la misma manera estudia también el
grado de fiabilidad de los resultados extraídos del estudio.
Para entender el concepto es importante entender tres conceptos:
Inferencia:  Inferir significa, literalmente, extraer juicios o conclusiones a partir de
ciertos supuestos, sean estos generales o particulares.
Población: Una población de datos, es el conjunto total de datos que existen sobre
un variable.
Muestra estadística: Una muestra es una parte de la población de datos.
Teniendo claro a lo que nos referimos con el concepto de inferir, una de las dudas
fundamentales recae en el hecho de elegir una muestra en lugar de una población.
Normalmente, en estadística, se trabaja con muestras debido a la gran cantidad
de datos que tiene una población. Por ejemplo, si queremos sacar conclusiones,
esto es, inferir, los resultados de las elecciones generales, es imposible preguntar
a toda la población del país. Para solventar ese problema se escoge una muestra
variada y representativa. Gracias a la cual se puedan extraer una estimación del
resultado final. Escoger una muestra adecuada corre a cargo de las distintas
técnicas de muestreo.
La otra gran rama de la estadística es la estadística descriptiva.
Métodos de la inferencia estadística
Los métodos y técnicas de la inferencia estadística se pueden dividir en dos:
métodos de estimación de parámetros y métodos de contraste de hipótesis.
Métodos de estimación de parámetros: Se encarga de asignar un valor al
parámetro o al conjunto de parámetros que caracterizan el campo sujeto a estudio.
Claro que al ser una estimación existe cierto error. Para obtener estimaciones
adaptadas a esa realidad, se crean intervalos de confianza.
Métodos de contraste de hipótesis: Su objetivo es comprobar si una estimación
corresponde con los valores poblacionales. En todo contraste de hipótesis existen
dos supuestos. La hipótesis nula (H0) que recoge la idea de que un valor tiene un
valor predeterminado. Si se rechaza la hipótesis nula (H0), entonces se acepta
la hipótesis alternativa (H1).
4.2 MUESTREO ESTADISTICO
El muestreo es un proceso o conjunto de métodos para obtener una muestra finita
de una población finita o infinita, con el fin de estimar valores de parámetros o
corroborar hipótesis sobre la forma de una distribución de probabilidades o sobre
el valor de un parámetro de una o más poblaciones.
El muestreo además de ser una ciencia Estadística, es un arte, donde no solo los
elementos se seleccionan al azar con una medida de probabilidad, si no que,
además, requiere pericia por parte de investigador/a en el diseño de la muestra a
la hora de determinar:
La técnica de selección de elementos de investigación.
La selección de los estimadores apropiados.
La elección de un tamaño adecuado de la muestra con precisión (margen de error)
y un nivel de confianza aceptable.
Y el uso de marcos muestrales actualizados.
Existen muchas formas de seleccionar muestras dentro de una población. Entre
los principales métodos o técnicas de muestreo se encuentran:
Muestreo Aleatorio Simple (MAS), donde todos los elementos de la población
tienen la misma posibilidad de ser seleccionados.
Muestreo Aleatorio Estratificado (MAE), cuando se tienen varios grupos o estratos
separados y se desea asegurar que todos los estratos están correctamente
clasificados.
Muestreo Sistemático (MS), aquel donde primero se listan todos los elementos de
la población y después se elige uno de ellos de manera aleatoria y se van
escogiendo los siguientes siguiendo un intervalo sistemático

Muestreo por Conglomerados (MPC), cuando los elementos que van a formar
parte de la muestra son una colección o conglomerado de unidades de análisis o
elementos.
Otros tipos de muestreo no probabilísticos serían el muestreo por conveniencia o
el muestro por bola de nieve.
En las Ciencias Sociales y Humanas, el diseño de muestras resulta fundamental a
la hora de realizar cualquier investigación pues, en comparación con otras
ciencias, no es posible ejercer control exhaustivo de las variables y la conducta
humana tiene facetas donde hay alta variabilidad.
Sin embargo, todavía hoy sigue siendo una de las áreas mas débiles dentro de la
Estadística, dado que son pocas las personas que están especializadas en esta
materia. De ahí que desde la Fundación iS+D nos hayamos animado a dar a
conocer todo tipo de investigadores/as y profesionales en qué consiste y para qué
sirven las técnicas de muestreo estadístico.
4.3 ESTIMULADOR
Los estadísticos de una muestra tienen como finalidad realizar una estimación de
los parámetros poblacionales. Entendemos por estimación el valor aproximado
que podemos asignar al parámetro poblacional en función del estadístico
correspondiente. El estadístico que permite inferir el valor de un parámetro se
denomina estimador. Sabemos que usar estimadores lleva una posibilidad de
error, por ello, es importante seleccionar el estimador más adecuado de acuerdo a
los siguientes criterios:
Imparcialidad, cuando en promedio el estimador tiende a tomar valores por arriba
y por abajo del parámetro estimado. Decimos que el estimador es insesgado.
Eficiencia: se mide con el error estándar o desviación estándar del estimador.
Congruencia: indica que al aumentar el tamaño de la muestra se asegura que el
valor del estadístico se acerca al valor del parámetro de la población.
Suficiencia: cuando el estimador utiliza la información contenida en la muestra de
manera que ningún otro estimador podría extraer más información de la misma.
Estos criterios se enumeran para considerar el cuidado que tienen los estadísticos
al seleccionar los estimadores. La estimación se puede realizar de dos formas: a
partir de un solo valor o dentro de un rango. El primero se llama estimación
puntual y el segundo se llama estimación por intervalo.
4.4 ESTIMADOR PUNTUAL
Una estimación puntual de un parámetro poblacional es cuando se utiliza un único
valor para estimar ese parámetro, es decir, se usa un punto en concreto de la
muestra para estimar el valor deseado.
Cuando estimamos un parámetro de forma puntual, podemos saber con certeza,
cual es ese valor. Imaginemos una población de 30 personas de las que
seleccionamos una muestra de 20 para las que conocemos sus edades. Estimar
de forma puntual la media de edad, sería tan sencillo como sumar esos 20 datos y
dividirlos entre el total de la muestra estadística.
Pensemos ahora en que queremos estimar la altura media de esa muestra. Al
contrario que antes, no tenemos el valor de la altura de cada persona. En este
caso no podríamos realizar una estimación puntual, es decir, no podríamos hallar
un valor concreto de esa altura media. En este caso tendríamos que realizar una
estimación por intervalos, es decir, podríamos acotar el valor más alto y más bajo
de las alturas de las personas con cierta seguridad o lo que en estadística se
conoce como cierto nivel de confianza.
Propiedades deseables de un estimador
Las propiedades deseables de un estimador son las siguientes:
Insesgadez: Un estimador es insesgado cuando la esperanza matemática del este
es igual al parámetro que se desea estimar. Por tanto, la diferencia entre el
parámetro a estimar y la esperanza de nuestro estimador tendría que ser 0.
Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de forma
precisa cuando su varianza es reducida. Por lo tanto ante 2 estimadores, siempre
elegiremos el que tenga una varianza menor.
Consistencia: Un estimador consistente es aquel que a medida que la medida que
la muestra crece se aproxima cada vez más al valor real del parámetro. Por lo
tanto, cuantos más y valores entran en la muestra, el parámetro estimado será
más preciso
Ejemplos de estimaciones puntuales
Para obtener una estimación puntual se usa un estadístico que recibe el nombre
de estimador o función de decisión. Algunos ejemplos de estadísticos son:
La media muestral que sirve como estimación puntual de la media poblacional.

La desviación típica muestral que sirve de estimación para la desviación típica de


la población.

4.5 ESTIMACIÓN POR INTERVALOS


 La estimación por intervalos consiste en establecer el intervalo de valores donde
es más probable se encuentre el parámetro. La obtención del intervalo se basa en
las siguientes consideraciones:
a) Si conocemos la distribución muestral del estimador podemos obtener las
probabilidades de ocurrencia de los estadísticos muestrales.
b) Si conociéramos el valor del parámetro poblacional, podríamos establecer la
probabilidad de que el estimador se halle dentro de los intervalos de la distribución
muestral.
c) El problema es que el parámetro poblacional es desconocido, y por ello el
intervalo se establece alrededor del estimador. Si repetimos el muestreo un gran
número de veces y definimos un intervalo alrededor de cada valor del estadístico
muestral, el parámetro se sitúa dentro de cada intervalo en un porcentaje conocido
de ocasiones. Este intervalo es denominado "intervalo de confianza".
 Ejemplo
Se generan 100000 muestras aleatorias (n=25) de una población que sigue la
distribución Normal, y resulta:

La distribución de las Medias muestrales aproxima al modelo Normal:

En consecuencia, el intervalo dentro del cual se halla el 95% de las Medias


muestrales es

(Nota: Los valores +-1.96 que multiplican la Desviación Típica de la distribución


muestral son los valores cuya función de distribución es igual a 0.975 y 0.025
respectivamente y se pueden obtener en las tablas de la distribución Normal
estandarizada o de funciones en aplicaciones informáticas como Excel).
Seguidamente generamos una muestra de la población y obtenemos su Media,
que es igual a 4.5. Si establecemos el intervalo alrededor de la Media muestral, el
parámetro poblacional (5.1) está incluido dentro de sus límites:

Ahora bien, la distancia de un punto A a un punto B es la misma que de B a A. Por


esa razón, la distancia desde m a la Media muestral es la misma que va de la
Media muestral a m. En consecuencia, si hacemos un muestreo con un número
grande de muestras observamos que el 95% de las veces (aproximadamente) el
valor de la Media de la población (m) se encuentra dentro del intervalo definido
alrededor de cada uno de los valores de la Media muestral. El porcentaje de veces
que el valor de m se halla dentro de alguno de los intervalos de confianza es del
95%, y es denominado nivel de confianza.
Si queremos establecer un intervalo de confianza en que el % de veces que m se
halle dentro del intervalo sea igual al 99%, la expresión anterior es:

(Obtenemos el valor +-2.58 que multiplica la Desviación Típica de la distribución


muestral en las tablas de la distribución Normal estandarizada o de funciones en
aplicaciones informáticas como Excel), y son los valores cuya función de
probabilidad es igual a 0.995 y 0.005 respectivamente).
 Ejemplo
La siguiente imagen muestra la distribución de las Medias muestrales obtenidas
de 100000 muestras aleatorias y los intervalos alrededor de cada una de las
Medias obtenidas de diez de las muestras:

Donde es y le simbolizan los límites superior e inferior del intervalo de confianza al
95%.
Nueve de los diez intervalos (salvo el definido alrededor de la Media muestral igual
a 3.7) incluyen el valor del parámetro dentro sus límites.
4.6 ERROR DE TIPO I
Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de tipo I.
La probabilidad de cometer un error de tipo I es α, que es el nivel de significancia
que usted establece para su prueba de hipótesis. Un α de 0.05 indica que usted
está dispuesto a aceptar una probabilidad de 5% de estar equivocado al rechazar
la hipótesis nula. Para reducir este riesgo, debe utilizar un valor menor para α. Sin
embargo, usar un valor menor para alfa significa que usted tendrá menos
probabilidad de detectar una diferencia si esta realmente existe.
ERROR DE TIPO II
Cuando la hipótesis nula es falsa y usted no la rechaza, comete un error de tipo II.
La probabilidad de cometer un error de tipo II es β, que depende de la potencia de
la prueba. Puede reducir el riesgo de cometer un error de tipo II al asegurarse de
que la prueba tenga suficiente potencia. Para ello, asegúrese de que el tamaño de
la muestra sea lo suficientemente grande como para detectar una diferencia
práctica cuando está realmente exista
Ejemplo de error de tipo I y tipo II
Un error de tipo I se produce si el investigador rechaza la hipótesis nula y concluye
que los dos medicamentos son diferentes cuando, en realidad, no lo son. Si los
medicamentos tienen la misma eficacia, el investigador podría considerar que este
error no es muy grave, porque de todos modos los pacientes se beneficiarían con
el mismo nivel de eficacia independientemente del medicamento que tomen. Sin
embargo, si se produce un error de tipo II, el investigador no rechaza la hipótesis
nula cuando debe rechazarla. Es decir, el investigador concluye que los
medicamentos son iguales cuando en realidad son diferentes. Este error puede
poner en riesgo la vida de los pacientes si se pone en venta el medicamento
menos efectivo en lugar del medicamento más efectivo.
Cuando realice las pruebas de hipótesis, considere los riesgos de cometer errores
de tipo I y tipo II. Si las consecuencias de cometer un tipo de error son más graves
o costosas que cometer el otro tipo de error, entonces elija un nivel de
significancia y una potencia para la prueba que reflejen la gravedad relativa de
esas consecuencias.
4.7 CONTRASTES UNILATERALES Y BILATERALES
El contraste bilateral sitúa la región de rechazo en los dos extremos (colas) de la
distribución muestral. En cambio, el contraste unilateral sitúa la región de rechazo
en uno de los dos extremos (colas) de la distribución muestral. El contraste
bilateral (o de dos colas) se utiliza cuando la Hipótesis Alternativa asigna al
parámetro cualquier valor diferente al establecido en la Hipótesis Nula.
Ejemplo de contraste bilateral:

La Hipótesis Alternativa establece que, caso de rechazar la Hipótesis Nula,


decidimos que la proporción de la población a que pertenece la muestra no es 0.5
Ejemplo de contraste unilateral:

La Hipótesis Alternativa establece que, caso de rechazar la Hipótesis Nula,


decidimos que la proporción de la población a que pertenece la muestra es inferior
a 0.5

También podría gustarte