Está en la página 1de 11

IFERECIA ESTADISTICA

ACT 10 TRABAJO COLABORATIVO 2

ITEGRATES:
DAYAA ADREA BUITRAGO VILLAMIL COD: 1053.333.563
JOS HARBEY SALAZAR GOZLEZ

CD: 1.053.604.692

GRUPO: 100403_59

TUTOR:
DAYS BRITO

UIVERSIDAD ACIOAL ABIERTA Y A DISTACIA UAD


ECBTI
IGEIERIA DE SISTEMAS

ITRODUCCIO

La intencin de este trabajo es el dar a conocer ciertos conceptos de la inferencia


estadstica con el fin de mostrar los conocimientos adquiridos, sobre los diferentes
conceptos relacionados en la unidad 2 del Modulo de Inferencia Estadstica.
Este trabajo tiene a continuacin diferentes preguntas ya establecida por el Tutor y que
el fin de este es la resolucin de problemas Aplicando los diferentes mtodos de
solucin.

OBJETIVOS

Aplicar los fundamentos tericos en los que se basa la prueba de hiptesis


estadstica, considerada como alternativa para toma de decisiones.

Explicar los elementos conceptuales esenciales que tiene la inferencia


estadstica en las pruebas de hiptesis
Aplicar las diferentes pruebas de Hiptesis en los ejercicios propuestos
Medir los anlisis de varianza dentro de cada problema

1. Establezca la diferencia entre: ivel de significacin y potencia de una


prueba; pruebas paramtricas y pruebas o paramtricas
ivel de significacin: Cuando se prueba determinada hipotesis, a la probabilidad
maxima con la que se esta dispuesto a cometer un error tipo I se llama nivel de
significacion de la prueba. Esta probabiliada axostumbra denotarse y por lo general se
especifica antes detomar cualquier muestra para evitar que los resultados onbtenidos
influyan sobre la eleecion del valor de esta probabilidad.
En la prctica, se acostumbran los niveles de significacion 0.05 o 0.01 aunque tambien
se usasn otros valores. Si poir ejemplo, al disear la regla de decision se elige el nivel de
significacion 0.05 (o bien 5%), entonces exiaten 5 probabilades en 100 de que se
rechace una hipotesis que debia ser aceptada; es decir, se tiene una confianza de
aproximadamente 95% de que se ha tomado la decicsion correcta. En tal caso se dice
que la hipotesis ha sido rechazadaal nivel de significancia 0.05, lo que significa que la
hipotesis tiene una probabiliodad de 0.05 de ser erronea.
Potencia de una prueba: Si sospechamos que una moneda ha sido trucada para que se
produzcan ms caras que cruces al lanzarla al aire, podramos realizar 30 lanzamientos,
tomando nota del nmero de caras obtenidas. Si obtenemos un valor demasiado alto, por
ejemplo 25 o ms, consideraramos que el resultado es poco compatible con la hiptesis
de que la moneda no est trucada, y concluiramos que las observaciones contradicen
dicha hiptesis.
La aplicacin de clculos probabilsticos permite determinar a partir de qu valor
debemos rechazar la hiptesis garantizando que la probabilidad de cometer un error es
un valor conocido a priori. Las hiptesis pueden clasificarse en dos grupos, segn:
Especifiquen un valor concreto o un intervalo para los parmetros del modelo.
Determinen el tipo de distribucin de probabilidad que ha generado los datos.
Un ejemplo del primer grupo es la hiptesis de que la media de una variable es 10, y del
segundo que la distribucin de probabilidad es la distribucin normal
Aunque la metodologa para realizar el contraste de hiptesis es anloga en ambos
casos, distinguir ambos tipos de hiptesis es importante puesto que muchos problemas
de contraste de hiptesis respecto a un parmetro son, en realidad, problemas de
estimacin, que tienen una respuesta complementaria dando un intervalo de confianza
(o conjunto de intervalos de confianza) para dicho parmetro. Sin embargo, las hiptesis
respecto a la forma de la distribucin se suelen utilizar para validar un modelo
estadstico para un fenmeno aleatorio que se est estudiando.

Pruebas paramtricas Se llaman as porque su clculo implica una estimacin de los


parmetros de la poblacin con base en muestras estadsticas. Mientras ms grande sea
la muestra ms exacta ser la estimacin, mientras ms pequea, ms distorsionada ser
la media de las muestras por los valores raros extremos.

Suposiciones que subyacen a la utilizacin de las pruebas paramtricas.


1. El nivel de medicin debe ser al menos de intervalo. Debemos tomar una
decisin a cerca de nuestra variable dependiente. Es realmente un nivel de
intervalo? Si es una escala no estandarizada, o si se basa en estimaciones o
calificaciones con humanos. Frecuentemente aparecen como intervalo pero lo
reducimos a nivel ordinal al darles rango.
2. Los datos de la muestra se obtienen de una poblacin normalmente distribuida.
Este principio suele mal entenderse como: la muestra debe distribuirse
normalmente, "no es as". La mayora de las muestras son demasiado pequeas
para siquiera parecerse a una distribucin normal, la cual solo obtiene su
caracterstica en forma de campana con la acumulacin de muchas puntuaciones.
3. La varianza de las 2 muestras no son significativamente diferentes, esto se
conoce como el principio de homogeneidad de la varianza, Los especialistas en
estadstica han investigado ms sobre ese requisito, el cual sabia exigir varianzas
muy similares. Estos se ignoran cuando tratamos con muestras relacionadas sin
gran riesgo de distorsionar nuestro resultado. Para muestras no relacionadas
necesitamos ser ms cuidadosos cuando los tamaos de las muestras sean
bastante diferentes.

Pruebas o paramtricas: La mayor parte de las pruebas de hipotesis y significacion,


requieren varias supociciones acreca de la poblacionde la que se toma la muestra. Por
ejemplo, en la clasificaion se requiere que las poblaciones tengana una distribucion
normal y desviacion estandar iguales.
En la practica, hay sitiaciones en las que tales suposiciones no se justifica o en las que
se dudaque se satisfagan como es el caso de poblaciones muy sesgadas. Denbido a esto,
se han desarrollado diversas pruebas y metodos que son independientes tanto de la
distribuacion de las poblaciones como de sus corespondiente parametros. Estas pruebas
se cponocen como pruebas no parametricas.
Las pruebas no parametricas se emplean como sustitutos sencillos de pruebas mas
cpmplicadasson especialmete utiles cuando se tienen datos no numericos, como en el
caso de consumidores que ordenan cerelaes u otros productos de acuerdo a su
preferencia.
2. Para tomar la decisin en un contraste de hiptesis se puede comparar el PValor con el nivel de significacin. Explique cules son las condiciones en trminos
de magnitud de estos factores para rechazar una hiptesis unilateral derecha o
unilateral izquierda.
3. Qu significan el error tipo I y el error tipo II. Explique su interpretacin con un
ejemplo
Cuando se tiene una hiptesis esta puede ser verdadera o falsa y la decisin que se toma
en la prueba es aceptar o rechazar la hiptesis. Si la decisin que se toma est de
acuerdo con la realidad, no se cometen errores, en este caso las dos buenas decisiones
son: aceptar la hiptesis nula cuando es cierta o rechazarla cuando es falsa.
Pero cuando la decisin no est de acuerdo con la realidad, se pueden cometer dos tipos
de errores:

ERROR TIPO I: Rechazar la hiptesis nula cuando en realidad es cierta. Su


planteamiento se representa de la siguiente manera: (Consideremos que la hiptesis
nula se representa HO)
Probabilidad de rechazar HO cuando es verdadera, se llama Nivel de Significancia
(1-) Probabilidad de aceptar HO cuando es verdadera, se denomina Nivel de Confianza
ERROR TIPO II: Aceptar la hiptesis nula cuando en realidad es falsa. Se representa
as:
probabilidad de aceptar HO cuando es falsa

4. Explique cules son los supuestos de homogeneidad, homocedasticidad,


independencia y normalidad, que deben cumplirse para validar un anlisis de
varianzas.
HOMOGEEIDAD: Hace referencia a la igualdad de las variables dependientes
HOMOCEDASTICIDAD: Las varianzas poblacionales de los diversos grupos en las
variables dependientes, han de ser homogneas, lo que implica que tambin lo sean las
varianzas mustrales
IDEPEDECIA: Las puntuaciones de los diversos grupos en la variable
dependiente han de ser independientes, lo que asegura que la razn entre la varianza
debida al efectos de las variables independientes y la varianza debida al efecto del error
siga una distribucin con el alfa nominal estipulado y los grados de libertad asociados al
numerador y al denominador de dicha razn.
ORMALIDAD: Las puntuaciones de los diversos grupos en la variable dependiente
se deben distribuir normalmente, lo que implica que son muestras representativas de
poblaciones con distribucin normal en esa variable dependiente

5. Comprueben a partir de dos muestras independientes de igual tamao de


hombres y mujeres, la opinin de acuerdo o desacuerdo con algn tema de su
inters, a travs del contraste de una hiptesis, en la se establezca si existen
diferencias de opinin entre los hombres y mujeres sobre el tema de inters
consultado. Interprete los resultados a que diere lugar este caso. Para dar
respuesta a este caso utilice los pasos para el contraste de una hiptesis.
6. Establezca las consideraciones que deben hacerse para seleccionar entre un
modelo paramtrico o su correspondiente no para mtrico.
Los mtodos no paramtricos tienen ventajas sobre los paramtrico. Los mtodos
paramtricos en muchas ocasiones no cumplen con los supuestos acerca de la forma
funcional del conjunto de variables aleatorias de las cuales provienen los datos,
produciendo as modelos no muy confiables que generan sesgos y deterioran la calidad
de los pronsticos. En el campo no para mtrico se evita este problema al permitir una

forma funcional flexible, y no un conjunto pequeo de modelos rgidos como lo hacen


los para mtricos.
Consideraciones de las pruebas no paramtricas sobre las pruebas paramtricas:
- Por lo general, son fciles de usar y entender.
- Eliminan la necesidad de suposiciones restrictivas de las pruebas para mtricas.
- Se pueden usar con muestras pequeas.
- Se pueden usar con datos cualitativos.
Consideraciones de las pruebas para mtricas sobre las pruebas no para mtricas:
- A veces, ignoran, desperdician o pierden informacin.
- No son tan eficientes como las paramtricas.
- Llevan a una mayor probabilidad de no rechazar una hiptesis nula falsa (incurriendo
en un error de tipo II).
Por lo general, las pruebas paramtricas son ms poderosas que las pruebas no
paramtricas y deben usarse siempre que sea posible. Es importante observar, que
aunque las pruebas no paramtricas no hacen suposiciones sobre la distribucin de la
poblacin que se muestrea, muchas veces se apoyan en distribuciones mustrales como
la normal o la chi cuadrada.

7. Una de las opciones que tiene la estadstica para realizar inferencia sobre los
parmetros de una poblacin es la prueba de hiptesis. Explique las ventajas y
desventajas con respecto al otro mtodo de estimacin.
PRUEBA DE HIPOTESIS.
CONSIDERACIONES:

Las hiptesis siempre son proposiciones sobre la poblacin o distribucin bajo


estudio, no proposiciones sobre la muestra.
El valor del parmetro puede ser resultado de la experiencia pasada, entonces el
objetivo de la prueba es determinar si ha cambiado el valor del parmetro.
El valor del parmetro puede obtenerse a partir de una teora o modelo, en
relacin con el proceso bajo estudio. En este caso el objetivo de la prueba es
verificar la teora o modelo.
Cuando el valor del parmetro proviene de consideraciones externas, como
especificaciones de diseo o ingeniera. En esta situacin el objetivo de la prueba
de hiptesis es probar el cumplimiento de las especificaciones.

Formular la hiptesis en base a los objetivos del estudio, pero siempre antes de
extraer la muestra y calcular el estimador puntual del parmetro desconocido,
para no verse influenciado por este resultado.
Como en todo proceso de inferencia, existe algn grado de subjetividad en la
realizacin de una prueba, particularmente en la eleccin del nivel de
significancia y del tamao de la muestra.
Una vez fijadas las condiciones de la prueba, el resultado de la misma es
totalmente objetivo.
Para fijar el nivel de significancia de la prueba, hay que tener en cuenta que
cuando la probabilidad del error tipo I aumenta, la del error tipo II disminuye. La
forma de minimizar el error tipo II independientemente del nivel de
significancia, es aumentando el tamao de la muestra.

8. Los dos mtodos no paramtrico para realizar una bondad de ajuste de los datos
de una variable con respecto a una distribucin de probabilidad son: el de chicuadrado y el de kolmogorov - smirnov. Explique en qu condiciones debe usarse
cada uno de ellos.
CHI CUADRADO:
Se utiliza:

Cuando los datos puntualizan a las escalas nominal u ordinal.


Se utiliza solo la frecuencia.
Poblaciones pequeas.
Cuando se desconocen los parmetros media, moda, etc.
Cuando los datos son independientes.
Cuando se quiere contrastar o comparar hiptesis.
Investigaciones de tipo social - muestras pequeas no representativas >5.
Cuando se requiere de establecer el nivel de confianza o significativita en las
diferencias.
Cuando la muestra es seleccionada no probabilsticamente.
X2 permite establecer diferencias entre f y se utiliza solo en escala nominal.
Poblacin > a 5 y < a 20.

KOLMOGOROV SMIROV:
Se aplica:

A distribuciones de tipo ordinal.


Tambin se usa para probar hiptesis acerca de distribuciones discretas.
Se basa en calcular las diferencias, en valor absoluto, entre las frecuencias
acumuladas relativas observadas y las esperadas, en cada clase.
La prueba de Kolmogorov puede usarse con muestras muy pequeas, en
donde no se pueden aplicar otras pruebas paramtricas.
Podemos usar la prueba de Kolmogorov para verificar la suposicin de
normalidad subyacente en todo anlisis de inferencia.

9. El anlisis de varianza es una tcnica estadstica utilizada para medir el efecto


que tiene cada uno de los niveles en que se clasifica una variable sobre otra
variable que representa las repuestas a las mediciones realizadas una
experimentacin. explique las condiciones que se deben imponer a las dos variables
y los supuestos que deben cumplirse para que tenga validez el uso de esta tcnica.
Supuestos del anlisis de varianza.
F Para cada poblacin la variable de respuesta est normalmente distribuida.
F La varianza de la variable respuesta es la misma para todas las poblaciones.
F Las observaciones deben ser independientes.

El anlisis de varianza es una prueba que nos permite medir la variacin de las
respuestas numricas como valores de evaluacin de diferentes variables nominales.
La prueba a realizar es de s existe diferencia en los promedios para la los diferentes
valores de las variables nominales; esta prueba se realiza para variables donde una tiene
valores nominales y la otra tiene valores numricos.
En estadstica, el anlisis de la varianza o anlisis de varianza es una coleccin de
modelos estadsticos y sus procedimientos asociados, en el cual la varianza esta
particionada en ciertos componentes debidos a diferentes variables explicativas.
Las tcnicas inciales del anlisis de varianza fueron desarrolladas por el estadstico y
genetista R. A. Fisher en los aos 1920 y 1930s y es algunas veces conocido como
Anova de Fisher o anlisis de varianza de Fisher, debido al uso de la distribucin F de
Fisher como parte del test de significancia estadstica.
El anlisis de varianza sirve para comparar si los valores de un conjunto de datos
numricos son significativamente distintos a los valores de otro o ms conjuntos de
datos. El procedimiento para comparar estos valores est basado en la varianza global
observada en los grupos de datos numricos a comparar. Tpicamente, el anlisis de
varianza se utiliza para asociar una probabilidad a la conclusin de que la media de un
grupo de puntuaciones es distinta de la media de otro grupo de puntuaciones.

Supuestos previos:
El ANOVA parte de algunos supuestos que han de cumplirse:

La variable dependiente debe medirse al menos a nivel de intervalo.


Independencia de las observaciones. La distribucin de los residuales debe ser
normal.
Homocedasticidad: homogeneidad de las varianzas.

La tcnica fundamental consiste en la separacin de la suma de cuadrados (SS, 'sum of


squares') en componentes relativos a los factores contemplados en el modelo. Como
ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en

diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede
resultar apropiado un anlisis de regresin lineal)
Estatal = SSError + SSFactores
El nmero de grados de libertad (gl) puede separarse de forma similar y se corresponde
con la forma en que la distribucin chi-cuadrado describe la suma de cuadrados
asociada.
glTotal = glError + glFactores
10 Existen dos tipos de modelo de anlisis de varianza: de efectos fijos y de efectos
aleatorios. Explique el significado cada uno de ellos en un anlisis de varianza.
Un modelo de anlisis de varianza es de efectos fijos cuando los resultados obtenidos
solo son validos para esos determinados niveles del factor estudiado y lo que ocurra a
otros niveles del factor puede ser diferente y de Efecto Aleatorio cuando un factor se ha
considerado tan solo una muestra de los posibles valores que este puede tomar, es decir
cuando los resultados obtenidos son validos para cualquier nivel del factor estudiado.
Un modelo de anlisis de varianza es de efectos fijos cuando los resultados obtenidos
slo son vlidos para esos determinados niveles del factor estudiado y lo que ocurra a
otros niveles del factor puede ser diferente.
Un modelo de anlisis de varianza es de efectos aleatorios cuando los resultados
obtenidos son vlidos para cualquier nivel del factor estudiado.
Un modelo es replicado si el experimento se repite varias veces para cada nivel del
factor; en caso contrario se dice que el modelo es por unidad de casilla.

COCLUSIOES

El desarrollo de anterior trabajo nos dio a conocer conceptos de la inferencia estadstica


y de igual forma adquirimos nuevos conocimientos y los colocmos en prctica con la
solucin de diferentes tipos de preguntas.
En este trabajo plasmamos un anlisis y la respectiva solucin, a los ejercicios y
preguntas propuestas en la guia.

BIBLIOGRAFIA
Modulo versin final agosto 2008.pdf
es.wikipedia.org/wiki/Estadstica_inferencial
recursostic.educacion.es/.../inferencia_estadistica/index_inferencia.h
biplot.usal.es/problemas/confianza/INFERENCIA.pdf

También podría gustarte