Está en la página 1de 23

DISEÑO EXPERIMENTAL

POR: CRISTIAN E GRANADOS MARTÍNEZ


LAS VARIABLES Y LAS HIPÓTESIS
DISTRIBUCIÓN

• Otra información importante es la relacionada con la


distribución que tiene una variable.
• Se puede dar el caso de que dos variables tengan
exactamente la misma media y la misma dispersión,
pero que el tipo de distribución sea completamente
diferente.
• Para estudiar la distribución de una variable, e incluso
comparar medias y varianzas entre variables, lo que se
hace es comparar las frecuencias de los valores de la
variable con las probabilidades resultantes de modelos
teóricos de distribuciones. El modelo teórico de
distribución a utilizar variara en función del tipo de
variable con la que estemos trabajando.
VARIABLES
• Existen básicamente dos tipos de
variables: cualitativas y
cuantitativas.

• Las primeras no se expresan


numéricamente (sexo, especie a la
que pertenece un individuo,
provincia de nacimiento) aunque
pueden utilizarse códigos
numéricos para representar sus
valores (por ejemplo en la variable
sexo, en vez de macho y hembra
se pueden nombrar como 1 y 2).

• Las cuantitativas se expresan


directamente en términos
numéricos (número de hojas de
una planta, edad, longitud,
temperatura, etc.).
VARIABLES

• Las variables cualitativas a


su vez pueden ser de dos
tipos: nominales, si sus
valores no están
ordenados de modo
natural (lugar de
nacimiento, especie), y
ordinales si sus valores
tienen un orden (por
ejemplo una variable
“toxicidad” que toma los
valores nada, poco,
bastante y muy toxico).
VARIABLES
• Las variables cuantitativas pueden ser
también de dos tipos: discretas y
continuas.

• Son discretas cuando solo pueden


tomar valores específicos, y no es
posible ningún valor entre dos
consecutivos (numero de hijos que
puede tener una familia, numero de
hojas de una planta, etc.).

• En el caso de variables discretas a


cada valor de la variable le
corresponde una probabilidad, de la
cual dependerá el numero de veces
que se repita ese valor en relación con
los valores restantes.

• A la correspondencia entre los valores y


sus respectivas probabilidades se le
llama función de probabilidad.
VARIABLES
• Las variables cuantitativas
continuas son aquellas que
pueden tomar cualquier valor a lo
largo de un continuo, de modo
que no hay valores consecutivos,
ya que entre dos valores
cualesquiera siguen existiendo
infinitos valores posibles
(temperatura, longitud).

• Las variables continuas se pueden


agrupar en categorías, pero de
una forma arbitraria. Por ejemplo,
la variable altura se puede dividir
en categorías como pequeño,
normal y alto, y los limites de cada
una de estas categorías se pueden
establecer de forma arbitraria.
VARIABLES
• A diferencia de lo que ocurría con
las variables discretas, para las
variables continuas no es útil
establecer la correspondencia
entre valores y probabilidades.

• Lo que se hace es calcular la


probabilidad contenida en un
determinado segmento o rango
de valores, que dividida por la
amplitud del segmento es la
densidad media de probabilidad
del segmento, a partir de la cual
se determina la densidad de
probabilidad para cada valor. La
correspondencia entre los valores y
su respectiva densidad de
probabilidad se llama función de
densidad.
VARIABLES
• La distinción entre estos cuatro tipos
de variables es importante por varios
motivos:

• 1. El calculo de algunas medidas de


posición o de dispersión no tiene
sentido con variables cualitativas,
por ejemplo en el caso de la
variable sexo.

• 2. Para la aplicación correcta de


técnicas de análisis estadísticos: así
la mayoría de las pruebas no
paramétricas requieren que la
variable sea al menos ordinal, y
muchos métodos de análisis
multivalente exigen que las variables
sean cuantitativas (por ejemplo
análisis factorial o análisis
discriminante).
VARIABLES

Medidas
Nominales (dicotómicas ,
policotómicas

Cualitativas

Ordinales

Lo que se obtiene no puede ser manejado matemáticamente, no se


pueden hacer operaciones matemáticas, la mejor manera de expresarla
es mediante porcentajes, proporciones o tasas, para finalmente
comprender su significado.
VARIABLES

Medidas

Continuas (Peso, talla)


Cuantitativas
Discretas (# de hijos)

Se les puede aplicar operaciones matemáticas , se pueden


expresar con los promedios, dispersiones, diferencias significativas,
etc.
VARIABLES

Efecto

• Dependiente

• Independiente Peso-talla, “Especies”

• Confusoras

Tiene que ver con las relaciones entre variables.


CONTRASTE DE HIPOTEIS

• Uno de los aspectos más


importantes en cualquier
tratamiento de datos es el
contraste de hipótesis,
que comenzaremos a
emplear en los capítulos
siguientes. El contraste de
hipótesis se define como
el procedimiento
estadístico que permite
determinar la verdad o
falsedad de una
afirmación acerca de
uno o más parámetros.
CONTRASTE DE HIPOTEIS

• Por ejemplo, cuando nos


planteamos si existen
diferencias entre las
medias de dos variables,
tenemos que proponer
una hipótesis de partida
y, por medio del método
estadístico más
apropiado, concluir en
términos probabilísticos, si
la hipótesis inicial se
acepta o se rechaza.
TIPOS DE HIPÓTESIS

• La base de los planteamientos de contraste es formular


una hipótesis y determinar si es verdadera o falsa.
Existen dos tipos de hipótesis:

• 1. La hipótesis nula (H0). Es la hipótesis básica que se


formula y se quiere contrastar y, por tanto, es la hipótesis
que se acepta o se rechaza.

• 2. La hipótesis alternativa (Ha). Es distinta de H0 e


incompatible con ella. Puede haber varias hipótesis
alternativas, y se elige la más adecuada a partir de la
información disponible.
ESTADÍSTICO DE CONTRASTE

• Una vez planteada la hipótesis tenemos que elegir


el estadístico de contraste más apropiado, el cual
es una variable aleatoria que seguirá una función
de probabilidad y para cada muestra de datos
tomará un determinado valor, que al compararlo
con los valores críticos de esa función de
probabilidad, nos permitirá aceptar o rechazar la
hipótesis nula.
TIPOS DE ERRORES
• Existen dos tipos de errores:

• 1. El error tipo I es el que cometemos cuando rechazamos la hipótesis nula siendo


verdadera. Su probabilidad se representa generalmente por y se conoce como
nivel de significación. El valor máximo que se le suele dar a es 0,05, lo cual significa
que rechazamos un 5% de las veces la hipótesis nula siendo cierta. Se puede fijar
un valor de más bajo, como por ejemplo 0,01, pero el problema es que
aumentamos la probabilidad de cometer el siguiente tipo de error.

• 2. El error tipo II es el que cometemos cuando aceptamos la hipótesis nula siendo


falsa. Su probabilidad se representa por β. Este error se tiene en cuenta
determinando el tamaño de muestra necesario para garantizar el valor de β
prefijado. En el supuesto de que no se tenga en cuenta el tamaño de muestra
necesario y, por tanto, se omita el error de tipo II, entonces el procedimiento se
suele denominar contraste de significación, ya que solo tiene en cuenta el error de
tipo I.

• El error de tipo II no se suele tener en cuenta porque, normalmente, se desconoce


la información necesaria para ello.
REGIONES CRÍTICAS Y DE ACEPTACIÓN

• El error de tipo I (probabilidad ) nos define la región de valores


del estadístico que se denomina región crítica. Cuando el valor
del estadístico de contraste que hemos utilizado está dentro de
la región crítica se rechaza la hipótesis nula.
REGIONES CRÍTICAS Y DE ACEPTACIÓN

La región complementaria recibe el nombre de


región de aceptación. Cuando el valor del
estadístico de contraste que hemos utilizado está
dentro de la región de aceptación, lo que ocurrirá
con probabilidad 1 - si H0 es cierta, se acepta la
hipótesis nula.
REGIONES CRÍTICAS Y DE ACEPTACIÓN

• Cuando el valor de probabilidad es menor de 0,05


rechazamos la hipótesis nula H0. Cuando no lo es,
¿significa eso que H0 es cierta? No
necesariamente. A menudo ocurre que la muestra
es demasiado pequeña para rechazar H0 pero con
una muestra más grande obtendríamos otro valor
de probabilidad que nos haría rechazarla. Se suele
decir que “no rechazamos H0”, más correcto que
“aceptamos H0”. El rechazo de H0 con una
probabilidad muy pequeña es concluyente, pero
la aceptación –cuando la probabilidad es mayor
que el nivel de significación (normalmente 0,05)–
no lo es.
TIPOS DE CONTRASTES

• La mayoría de los contrastes de hipótesis pueden


agruparse en alguno de los siguientes tipos:

• 1. El contraste de bondad de ajuste consiste en el


planteamiento de hasta qué punto una muestra se
puede considerar como perteneciente a una
población con una distribución teórica ya
conocida. Es un método que se utiliza
frecuentemente para determinar si una serie de
datos presenta una distribución Normal, de Poisson,
etc.
TIPOS DE CONTRASTES

• La mayoría de los contrastes de hipótesis pueden


agruparse en alguno de los siguientes tipos:

• 2. El contraste de independencia o asociación


determina si dos caracteres X e Y de una población
son dependientes o independientes. Por ejemplo,
queremos determinar si la presencia de pesticidas
en las personas tiene alguna relación con la zona
geográfica.
TIPOS DE CONTRASTES

• La mayoría de los contrastes de hipótesis pueden


agruparse en alguno de los siguientes tipos:

• 3. El contraste de homogeneidad permite


determinar si varias muestras tomadas de la misma
población o de poblaciones diferentes se
diferencian en un determinado carácter A. Por
ejemplo, hemos seleccionado varios grupos de
individuos de una población a los que hemos
sometido a la misma dosis de diferentes metales y
queremos determinar si los metales afectan de
forma diferente a la supervivencia de los individuos.

También podría gustarte