Está en la página 1de 17

DISEO EXPERIMENTAL

Trabajo colaborativo No.1


Aporte Individual

Presentado por:
YUNEIDYS OATE PERPIAN Cdigo: 49787591

Tutor:
JEYSSON SNCHEZ

Grupo No. 72

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD


PROGRAMA INGENIERIA DE ALIMENTOS

9 de octubre de 2013
INTRODUCCIN

El presente trabajo consta del desarrollo de dos actividades como describimos a


continuacin:

Actividad 1 (individual): Se desarrollaron cinco (5) preguntas tericas y un


ejercicio (Base de datos 1) correspondiente a la revisin de la unidad 1.

Actividad 2 (Grupal): Posteriormente se construir un documento en forma grupal


donde se mostrara el desarrollo de todos los puntos del 1 al 6, en este ltimo punto
se incluir un ejercicio que se desarrollar grupalmente segn las indicaciones
dadas en la tabla 1 de la gua del trabajo colaborativo.

En este documento se presenta el desarrollo de la Actividad 1, Individual. Parte 1


con el desarrollo de las cinco primeras preguntas.
DESARROLLO DEL TRABAJO

1. Qu diferencias existen entre hacer un contraste de hiptesis con una


prueba paramtrica con respecto a una no paramtrica? (Mximo 150
palabras).

Una hiptesis estadstica es cualquier conjetura sobre una o varias caractersticas


de inters de un modelo de probabilidad. Puede ser: paramtrica (simple o
compuesta) y no paramtrica.

Pruebas paramtricas: Son pruebas de hiptesis estadstica que asumen cierto


comportamiento de: Muestras obtenidas aleatoriamente, distribucin normal de las
observaciones, existe un parmetros de inters que se busca estimar, analzalos
datos obtenidos con una escala de medida de intervalo o razn, exige el
cumplimiento de determinados supuestos sobre poblaciones originales de las que
se extrae, los datos (generalmente normalidad y homocedasticidad). Permite
contrastar hiptesis referidas a algn parmetro (, , , etc.)

Pruebas NO paramtricas: Son pruebas de hiptesis estadstica que No asumen


lo mencionado anterior total o parcialmente. No usan los valores, sino los rangos.
No se base en la media sino en la mediana. Pueden ser datos que estn en una
escala ordinal. No se reduce al valor de un parmetro poblacional, sino que es
mucho ms amplio.

2. Cmo se puede definir s los datos obtenidos deben ser evaluados


mediante pruebas paramtricas o pruebas no paramtricas? (Mximo 200
palabras).
1La distribucin de la variable que nos interesa comparar tambin es importante a
la hora de establecer la prueba estadstica que nos permita evaluar la hiptesis nula

http://www.google.com.co/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=3&ved=0CDkQFjAC&url=ht
de igualdad, de forma que si la distribucin es normal y cumple algunas otras
condiciones, utilizaremos los denominados test paramtricos y si no cumple dichos
criterios tenemos la opcin de usar los llamados test no paramtricos o de
distribucin libre, que se basan en los rangos de distribucin de la variable. Las
pruebas no paramtricas son menos potentes, es decir, son ms exigentes al
rechazar la hiptesis nula de igualdad y por tanto tienen menos posibilidades de
acertar cuando no la rechazan (ms posibilidades de cometer un error tipo beta).

Se dice que una prueba es paramtrica cuando:

Mtodo donde la distribucin de muestreo es conocida

Se trata de variables cuantitativas cuyo nmero es mayor de 30 datos o


proveniente de una curva normal.

Pueden ser menos de 30 datos si es que se tiene la seguridad que viene de


una curva normal.

Si son seis o menos datos, usar pruebas no paramtricas. Algunos indican


11 o menor de 20.

Se dice que una prueba es No paramtrica cuando:

Mtodo que no requiere conocimiento de la distribucin del muestreo


estadstico.

Se trata de variables cualitativas.

Se trata de variables cuantitativas, con menos de 30 datos y no provienen de


la curva normal

Si son seis o menos datos. Algunos indican 11 o menor de 20

tp%3A%2F%2Fwww.ugr.es%2F~rruizb%2Fcognosfera%2Fsala_de_estudio%2Festadistica%2Fesquematest.d
oc&ei=i1BMUv3aBIK28wTP34HIBg&usg=AFQjCNHE4-WZ0Sn2B-CXblKFGDd8aPzj7w
3. Defina homocedasticidad y explquela mediante un ejemplo aplicado a su
profesin. (Mximo 150 palabras).

La homocedasticidad es una hiptesis muy habitual en algunas tcnicas


estadsticas como el Anlisis de la Varianza, el Anlisis Discriminante y el Anlisis
de Regresin. Dicha hiptesis se refiere a suponer la igualdad de varianzas de las
variables dependientes en diversos grupos formados por los distintos valores de las
variables independientes. Si dicha hiptesis no se verifica puede alterar la potencia
y el nivel de significacin de los contrastes utilizados por dichas tcnicas y de ah el
inters de analizar si se verifica o no y, en ste ltimo caso, poner los remedios
oportunos.

Para ello se utilizan contrastes de hiptesis cuya finalidad es analizar la existencia


de esta igualdad que, en muchas ocasiones, va ligada a una falta de normalidad de
las variables analizadas. En la literatura se han propuesto diversos test. Uno de los
ms utilizados es el test de Levene basado en aplicar un ANOVA a las diferencias
absolutas respecto a una medida de tendencia central de los diversos grupos. Dicho
test toma como hiptesis nula la de homocedasticidad y como alternativa la de
heterocedasticidad.

Ejemplo: La hiptesis o supuesto de homocedasticidad, en el modelo de regresin


lineal simple: La hiptesis de homocedasticidad implica que:

Var (i ) Constante

La de homocedasticidad se detecta fcilmente en el grfico de residuos (eij) frente a


las predicciones ( i) o, equivalentemente, en el grfico de los residuos (eij) frente a
la variable regresora (xi).

Lo ideal es que los residuos se siten en una banda horizontal, de lo contrario la


forma de embudo para los residuos es una indicacin de heterocedasticidad.
EJEMPLO: Tenemos en la siguiente tabla el balance de las ventas realizadas de un
producto alimenticio para nios como es el queso pettit.

ao Renta _X_ Ventas al por menor _Y_


1 9098 5492
2 9138 5540
3 9094 5305
4 9282 5507
5 9229 5418
6 9347 5320
7 9525 5538
8 9756 5692
9 10282 5871
10 10662 6157
11 11019 6342
12 11307 5907
13 11432 6124
14 11449 6186
15 11697 6224
16 11871 6496
17 12018 6718
18 12523 6921
19 12053 6471
20 12088 6394
21 12215 6555
22 12494 6755

Como determinar con el Statgraphics el cumplimiento de la hiptesis de


Homocedasticidad se introducen los datos anteriores en programa, modelos con un
factor, regresin Simple:
Se procesan los datos

Se seleccionan las variables


Al dar aceptar obtenemos

Al dar aceptar obtenemos

Al dar aceptar obtenemos


Cada ventana da unas explicaciones respecto a los datos obtenidos, a continuacin
detallamos dos ventanas de las presentadas en el anterior pantallazo:

Regresin Simple - Ventas al por menor_Y_ vs. Renta_X_


Variable dependiente: Ventas al por menor_Y_
Variable independiente: Renta_X_
Lineal: Y = a + b*X

Coeficientes
Mnimos Cuadrados Estndar Estadstico
Parmetro Estimado Error T Valor-P
Intercepto 1922,39 274,949 6,99181 0,0000
Pendiente 0,381517 0,0252931 15,0838 0,0000

Anlisis de Varianza
Fuente Suma de Cuadrados Gl Cuadrado Medio Razn-F Valor-P
Modelo 4,96143E6 1 4,96143E6 227,52 0,0000
Residuo 436127, 20 21806,3
Total (Corr.) 5,39756E6 21

Coeficiente de Correlacin = 0,958749


R-cuadrada = 91,9199 porciento
R-cuadrado (ajustado para g.l.) = 91,5159 porciento
Error estndar del est. = 147,67
Error absoluto medio = 115,559
Estadstico Durbin-Watson = 1,47907 (P=0,0651)
Autocorrelacin de residuos en retraso 1 = 0,244342

El StatAdvisor
La salida muestra los resultados de ajustar un modelo lineal para describir la relacin entre Ventas al por menor_Y_ y
Renta_X_. La ecuacin del modelo ajustado es

Ventas al por menor_Y_ = 1922,39 + 0,381517*Renta_X_

Puesto que el valor-P en la tabla ANOVA es menor que 0,05, existe una relacin estadsticamente significativa entre
Ventas al por menor_Y_ y Renta_X_ con un nivel de confianza del 95,0%.
El estadstico R-Cuadrada indica que el modelo ajustado explica 91,9199% de la variabilidad en Ventas al por menor_Y_.
El coeficiente de correlacin es igual a 0,958749, indicando una relacin relativamente fuerte entre las variables. El error
estndar del estimado indica que la desviacin estndar de los residuos es 147,67. Este valor puede usarse para construir
lmites de prediccin para nuevas observaciones, seleccionando la opcin de Pronsticos del men de texto.

El error absoluto medio (MAE) de 115,559 es el valor promedio de los residuos. El estadstico de Durbin-Watson (DW)
examina los residuos para determinar si hay alguna correlacin significativa basada en el orden en el que se presentan en
el archivo de datos. Puesto que el valor-P es mayor que 0,05, no hay indicacin de una autocorrelacin serial en los
residuos con un nivel de confianza del 95,0%.

ANOVA Simple - RESIDUOS por Grupos


Variable dependiente: RESIDUOS (Residuos)
Factor: Grupos

Nmero de observaciones: 22
Nmero de niveles: 3

El StatAdvisor
Este procedimiento ejecuta un anlisis de varianza de un factor para RESIDUOS. Construye varias pruebas y grficas
para comparar los valores medios de RESIDUOS para los 3 diferentes niveles de Grupos. La prueba-F en la tabla
ANOVA determinar si hay diferencias significativas entre las medias. Si las hay, las Pruebas de Rangos Mltiples le
dirn cules medias son significativamente diferentes de otras. Si le preocupa la presencia de valores atpicos, puede
elegir la Prueba de Kruskal-Wallis la cual compara las medianas en lugar de las medias. Las diferentes grficas le
ayudarn a juzgar la significancia prctica de los resultados, as como le permitirn buscar posibles violaciones de los
supuestos subyacentes en el anlisis de varianza.

Tabla ANOVA para RESIDUOS por Grupos


Fuente Suma de Cuadrados Gl Cuadrado Medio Razn-F Valor-P
Entre grupos 24460,4 2 12230,2 0,56 0,5779
Intra grupos 411666, 19 21666,7
Total (Corr.) 436127, 21

El StatAdvisor

La tabla ANOVA descompone la varianza de RESIDUOS en dos componentes: un componente entre-grupos y un


componente dentro-de-grupos. La razn-F, que en este caso es igual a 0,56447, es el cociente entre el estimado entre-grupos
y el estimado dentro-de-grupos. Puesto que el valor-P de la razn-F es mayor o igual que 0,05, no existe una diferencia
estadsticamente significativa entre la media de RESIDUOS entre un nivel de Grupos y otro, con un nivel del 95,0% de
confianza.
Los residuos son las desviaciones de cada valor observado, para la variable
dependiente a la media de su grupo. Estos grficos son tiles para comprobar
visualemente la hiptesis de homocedasticidad. En este caso al observa en la
grfica los residuos se sitan en la banda horizontal, lo que indica que hay
homocedasticidad.

4. Mediante un ejemplo aplicado a su profesin explique: Dos muestras


independientes o no apareadas y Dos muestras dependientes o apareadas:

Se quiere estudiar el proceso de envasado de un yogur con una nueva mquina de


envasado durante un periodo de 48 hrs. Se quiere un Intervalo de confianza (IC) al
95% para Se proponen dos diseos (ambos validos) para investigar este asunto.

4.1) Dos muestras independientes o no apareadas

Se eligen al azar e independientemente n muestras de yogurt de una lnea de


envasado, que se producir en dos turnos de 24 horas. Supngase que usando
muestras independientes con n=10 se tiene para las primeras 24 horas y luego para
las otras 24horas. En total son 20 muestras a evaluar para su envasado con un
volumen o contenido de 170 ml.
Tabla 1

n 1 2 3 4 5 6 7 8 9 10 Media
Y 171,6 181,77 171,09 166,67 186,71 185,83 174,97 166,34 162,99 172,79 174,08
X 175,34 178,24 169,75 176,12 161,61 167,73 181,96 183,5 164,77 175,04 173,41

Calculamos medidas de resumen de uno y otro grupo y comparamos las diferencias.


Tenemos que = Y - X = 174,08 173,41=0.62 ml y la desviacin estndar de las
diferencias es: Sp2 = (Sy2 + Sx2)/2= (68,32 + 52,41)/2= 60,37

Resulta que el desvi del estimador es

Reemplazando la formula tenemos: (2Sp2/n) = (2*60,37/10)=5.10 ml, este valor


es muy grande ya que el desvo correspondiente a un Envasado estimado de
=0.67 ml. Adems usando la siguiente expresin

Se tiene un nivel de confianza del 95% que el envasado estar entre:


[0.62 2.101*5.10] = [-10.1; 11.34] ml, realmente muy amplio.

4.2) Dos muestras dependientes o apareadas.

Se utilizar el mismo ejercicio con el mismo nmero de muestras de yogurt 10 en


total. Entonces la muestra apareada ser: Zi = Yi - Xi.

Tabla 2

n 1 2 3 4 5 6 7 8 9 10
x 171,6 181,77 171,09 166,67 186,71 185,83 174,97 166,34 162,99 172,79
y 170,7 181,22 170,67 166,13 186,33 185,26 174,41 165,87 162,53 172,38

Se puede observar que ahora Z contiene el envasado de cada Yogurt. En este caso
=Z=0:48ml; y el desvo de ese estimador es: (Sp2/n) =(0.004721/10)=0.02173 ml
real mente muy razonable, y el intervalo de confianza ser [0.48 2.26*0.02173] =
[0.43;0.53]ml

4.3) Qu diferencias existen en cuanto al tratamiento estadstico de los datos


entre estos dos tipos de muestras? (Mximo 200 palabras).

Para hacer inferencias estadsticas sobre dos poblaciones, se necesita tener una
muestra de cada poblacin. Las dos muestras sern dependientes o
independientes de acuerdo a la forma de seleccionarlas.

Si las muestras se seleccionan de manera que cada medida en una de ellas pueda
asociarse naturalmente con una medida en la otra muestra, se llaman muestras
dependientes. Cada dato sale de alguna fuente; una fuente es algo, una persona o
un objeto, que produce datos. Si dos medidas se obtienen de la misma fuente, se
puede pensar que las medidas estn pareadas. En consecuencia dos medidas que
se obtienen del mismo conjunto de fuentes son dependientes. Si dos muestras son
dependientes, entonces necesariamente tienen el mismo tamao. Las muestras
pareadas nos ayudan a reducir el sesgo por variables confundentes. Generalmente
las variables que se eligen para parear son variables que pueden influenciar la
respuesta. Cuando comparamos los resultados de observaciones pareadas, los
efectos de estas variables de pareamiento se cancelan.

Si la seleccin de los datos de una poblacin no est relacionada con la de los datos
de la otra, son muestras independientes. Sus datos provienen de grupos diferentes
que no guardan ninguna relacin entre s. Si ambas muestras se obtienen de
distintos individuos, mquinas, empresas, objetos, etcno hay nada en comn en
dichas muestras lo que hace que ambas sean independientes.
5. Qu es una anlisis post hoc? Cundo y para qu se efecta? Nombre al
menos 4 pruebas post hoc. (Mximo 150 palabras).

5. 1Qu es una anlisis post hoc? En el diseo y anlisis de experimentos, el


anlisis post-hoc consiste en buscar en el banco de datos despus de que el
experimento ha concluido los patrones que no se especificaron a priori. A veces se
llama por dragado de datos crticos para evocar el sentido de que cuanto ms se
busca se puede encontrar la ms probable algo.

De manera ms sutil, cada vez que un patrn en los datos se considera, se lleva a
cabo efectivamente una prueba estadstica. Esto infla en gran medida el nmero
total de pruebas estadsticas y requiere el uso de mltiples procedimientos de
prueba para compensar. Sin embargo, esto es difcil de hacer con precisin y, de
hecho, la mayora de los resultados de los anlisis post-hoc son reportados como lo
estn con los valores de p no ajustada. Estos valores de p se deben interpretar a la
luz del hecho de que son un pequeo subconjunto y seleccionado de un grupo
potencialmente grande de los valores de p. Resultados de los anlisis post-hoc se
deben etiquetar explcitamente como tal en informes y publicaciones para evitar
lectores engaosas2.

5.2) Cundo y para qu se efecta? Cuando el resultado del ANOVA es p 0,05


permiten estimar entre qu tratamientos hay diferencia significativa. Ejemplo 4
grupos: A, B, C, D ANOVA de 1 va: p < 0,05

5.3) Pruebas post hoc:

Mnima diferencia significativa de Fisher


Correccin de Bonferroni
Nueva prueba de rangos mltiples de Duncan

2
http://centrodeartigos.com/articulos-educativos/article_11117.html
Mtodo de Newman-Keuls
El mtodo de Rodger
El mtodo de Scheff
Prueba de rangos de Tukey
Prueba de Dunnett

REFERENCIAS BIBLIOGRFICAS.

Riao Luna C. E. (diciembre de 2011). Mdulo de Diseo Experimental. Universidad


Nacional Abierta y a Distancia UNAD, Bogot, Colombia.

Gua Trabajo Colaborativo 1 Diseo experimental. (Septiembre de 2013).


Universidad Nacional Abierta y a Distancia UNAD, Bogot, Colombia

Post-hoc de anlisis, Student-Newman-Keuls post hoc ANOVA, Lista de las pruebas


post hoc. Revisado el 1 de octubre de 2013 desde internet:
http://centrodeartigos.com/articulos-educativos/article_11117.html

Captulo 19. Anlisis no paramtrico. El procedimiento de pruebas no paramtricas.


Revisado el 1 de octubre de 2013 desde internet:
http://aprendeenlinea.udea.edu.co/lms/moodle/file.php/322/Noparametrica/No_Par
ametrica_2010.pdf

Captulo 4. Chequeo y validacin del modelo con un factor. Revisado el 1 de octubre


de 2013 desde internet: http://dm.udc.es/asignaturas/estadistica2/secres_4.html
Pruebas paramtricas y no paramtricas para comparar distribuciones de variables
numricas. Revisado el 2 de octubre de 2013 desde internet:
http://www.slideshare.net/leamotoya/clase-6-dr-segura

Caso particular: Contraste de homocedasticidad. Revisado el 2 de octubre de 2013


desde internet: http://www.bioestadistica.uma.es/libro/node125.htm

Estadstica para los clnicos. III. Pruebas estadsticas para el contraste de hiptesis.
Revisado el 2 de octubre de 2013 desde internet:
http://www.google.com.co/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=3&v
ed=0CDkQFjAC&url=http%3A%2F%2Fwww.ugr.es%2F~rruizb%2Fcognosfera%2
Fsala_de_estudio%2Festadistica%2Fesquematest.doc&ei=i1BMUv3aBIK28wTP3
4HIBg&usg=AFQjCNHE4-WZ0Sn2B-CXblKFGDd8aPzj7w

Berlanga Silvente V. y Rubio Hurtado M. J. (4 de julio de 2011).Artculo


metodolgico. Clasificacin de pruebas no paramtricas. Cmo aplicarlas en SPSS.
Revisado el 2 de octubre de 2013 desde internet:
http://www.google.com.co/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=4&v
ed=0CD8QFjAD&url=http%3A%2F%2Frevistes.ub.edu%2Findex.php%2FREIRE%
2Farticle%2Fdownload%2F528%2F4085&ei=i1BMUv3aBIK28wTP34HIBg&usg=A
FQjCNEaoDhaOYFb1uZC_dbYgp5lklrKVw

Inferencia respecto a la diferencia de dos medias cuando se usan muestras


dependientes pequeas. Revisado el 2 de octubre de 2013 desde internet:
http://www.itch.edu.mx/academic/industrial/estadistica1/cap03e.html
Captulo 9: Comparacin de medias. Revisado el 3 de octubre de 2013 desde
internet:http://ftp.utalca.cl/profesores/gicaza/Apuntes%20PDF/Apuntes%20Cap%2
09%20Comparacion%20de%20dos%20grupos.pdf

Salvador Figueras, M y Gargallo, P. (2003): "Anlisis Exploratorio de Datos", [en


lnea] 5campus.com, Estadstica <http://www.5campus.com/leccion/aed> [Revisado
el 3 de octubre de 2013 desde internet: Bioestadistica. Revisado el 3 de octubre de
2013 desde internet: http://www.slideshare.net/Prymer/bioestadstica-3631215

También podría gustarte