Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Medina
Vásquez
Arenas
2017.
INTRODUCCIÓN
A través de la historia, la estadística se nos ha presentado como una herramienta que nos
permite resolver una serie de problemas que sin la misma sería muy difícil. Uno de estos es el
planteamiento de una hipótesis, y la aprobación o rechazo de la misma, para así poder
comprobarla en cualquier campo de estudio (ya sea en el área social, de la salud, de la
ingeniería, etc.); se puede usar las posibilidades que proporciona la estadística en estos casos,
pero la psicología en especial usa este tipo de pruebas al hacer investigaciones cuantitativas.
Las hipótesis son explicaciones tentativas del fenómeno investigado, formuladas a
manera de proposiciones. Son sólo proposiciones sujetas a comprobación empírica y a
verificación de la realidad (en investigación cuantitativa) o a observación en el campo (en
investigación cualitativa). Esto resulta ser un elemento esencial que nos brinda la estadística: el
poder resolver las incógnitas que se puedan tener sobre algunas hipótesis que puedan surgir en
este campo y así poder llegar a una conclusión en base a una serie de procesos.
En el presente trabajo daremos a conocer las diferentes definiciones, como lo es la
hipótesis y los tipos de pruebas que pueden arrojar; también debemos echar de ver la serie de
hipótesis estadísticas, así como la serie de errores que pueden surgir en los distintos
planteamientos de las hipótesis, bien sea al momento de su aceptación o negación. También se
complementara el tema incluyendo términos que van de la mano con el proceso de pruebas
estadísticas y el tema de hipótesis en general.
De esta manera y con la información proporcionada se podrá tener un mayor
entendimiento sobre el tema y así manejar la terminología necesaria que nos permitirá
sumergirnos en esta interesante área de la estadística y, si se quiere, también comenzar a
implementarla en cuanto a las hipótesis que se puedan presentar en los trabajos.
HIPÓTESIS DE INVESTIGACIÓN Y SU IMPORTANCIA.
Según Guerrero (2012), son proposiciones tentativas acerca de las posibles relaciones
entre dos o más variables y que cumplen con ciertos requisitos. Se les suele simbolizar como Hi
o H1, H2, H3. También se les denomina como hipótesis de trabajo.
Asimismo, una hipótesis de investigación es una declaración que realizan los
investigadores cuando especulan sobre el resultado de una investigación o experimento
(Shuttleworth, 2008).
Sabiendo el significado de la hipótesis de investigación es necesario hablar sobre la
importancia de la misma, Moreno (2009) señala que en tal sentido, la hipótesis sirve para
orientar y delimitar una investigación, dándole una dirección definitiva a la búsqueda de la
solución de un problema. En efecto, uno de los propósitos cumplidos por las hipótesis es servir
de ideas directrices a la investigación. En efecto, cuando se emplean para diseñarlas se llaman
con frecuencia hipótesis de trabajo, puesto que investigador puede formular diversas hipótesis
para ser sometidos a prueba.
Aunado a esto, cuando la hipótesis de investigación ha sido bien elaborada, y en ella se
observa claramente la relación o vínculo entre dos o más variables, es posible que el
investigador pueda seguir lo siguiente:
Elaborar el objetivo, o conjunto de objetivos que desea alcanzar en el desarrollo de la
investigación.
Seleccionar el tipo de diseño de la investigación factible con el problema planteado.
Elegir los métodos, instrumentos y las técnicas de investigación acorde con el problema
que se desea resolver.
Distinguir los recursos tanto humanos como materiales, que se emplearan para llevar a el
término de la investigación planteada.
Otra perspectiva al respecto es de Kerlinger (1996) quien considera la importancia de las
hipótesis por tres razones:
Son instrumentos de trabajo de la teoría
Son susceptibles de demostración en cuanto a su falsedad o veracidad.
Son poderosas herramientas para el avance del conocimiento porque permiten a los
científicos percibir el mundo desde fuera.
Por estos fundamentos creemos que las hipótesis constituye un rol primordial en el
proceso de producción de conocimientos, así como la solución de los diversos problemas
fácticos, en tanto en cuanto significan instrumentos teóricos y metodológicos que guían y
orientan al investigador en las etapas de proceso de investigación.
Según Zambrano (2009), el procedimiento que conduce a una decisión sobre una
hipótesis en particular recibe el nombre de prueba de hipótesis. Los procedimientos de una
prueba de hipótesis dependen del empleo de la información contenida en la muestra aleatoria de
la población de interés. Si esta información es consistente con la hipótesis, se concluye que ésta
es verdadera; sin embargo si esta información es inconsistente con la hipótesis, se concluye que
esta es falsa. Debe hacerse hincapié en que la verdad o falsedad de una hipótesis en particular
nunca puede conocerse con certidumbre, a menos que pueda examinarse a toda la población.
Usualmente esto es imposible en muchas situaciones prácticas. Por tanto, es necesario
desarrollar un procedimiento de prueba de hipótesis teniendo en cuenta la probabilidad de llegar
a una conclusión equivocada.
En el planteamiento de hipótesis estadísticas pueden ocurrir dos errores los cuales son el
error tipo 1 y el error tipo 2, cada uno denota una elección o error del investigador, entendiendo
esto podemos detallar cada uno de ellos:
El error de tipo I también denominado error de tipo alfa (α) o falso positivo, es el error
que se comete cuando el investigador no acepta la hipótesis nula siendo ésta verdadera en la
población. Es equivalente a encontrar un resultado falso positivo, porque el investigador llega a
la conclusión de que existe una diferencia entre las hipótesis cuando en realidad no existe. Se
relaciona con el nivel de significancia estadística.
El error de tipo II también llamado error de tipo beta (β) o falso negativo, es el error
que se comete cuando el investigador no rechaza la hipótesis nula siendo ésta falsa en la
población. Es equivalente a la probabilidad de un resultado falso negativo, ya que el
investigador llega a la conclusión de que ha sido incapaz de encontrar una diferencia que existe
en la realidad.
Contrariamente al error tipo I, en la mayoría de los casos no es posible calcular la
probabilidad del error tipo II. La razón de esto se encuentra en la manera en que se formulan las
hipótesis en una prueba estadística. Mientras que la hipótesis nula representa siempre una
afirmación enérgica.
Los errores tipo I y tipo II están relacionados. Una disminución en la probabilidad de uno
por lo general tiene como resultado un aumento en la probabilidad del otro.
T-STUDENT: Fermín (2015) lo define como el cociente entre una variable normal
estandarizada y la raíz cuadrada positiva de una variable 2 dividida por sus grados de libertad.
Se aplica cuando la población estudiada sigue una distribución normal pero el tamaño muestral
es demasiado pequeño como para que el estadístico en el que está basada la inferencia esté
normalmente distribuido, utilizándose una estimación de la desviación típica en lugar del valor
real.
Tiene características similares a la distribución normal, su diferencia principal radica en
las áreas de los extremos las cuales son más amplias, como consecuencia de que usualmente se
trabaja con muestras pequeñas.
Prueba T para muestra única:
En esta se evalúa la hipótesis nula de que la media de la población estudiada es igual a un
𝑥−𝜇0
valor especificado μ0, se hace uso del estadístico: 𝑇 = donde 𝑥 es la media muestral, S es
𝑆/√𝑛
Curva de la función
¿Cómo se aplica?
El procedimiento de aplicación de la t-Student obedece a los 6 pasos esenciales para una
prueba de hipótesis, y va a depender del caso, es decir, si se asumen varianzas iguales o
varianzas diferentes en las muestras
Asumiendo varianzas iguales:
- Paso 1. Plantear Hipótesis Nula (Ho) e Hipótesis Alternativa (Hi): Las cuales pueden ser: A)
Unilaterales de cola derecha (H0:μ1=μ2, H1:μ1>μ2). B) Unilaterales de cola izquierda (H0:
μ1=μ2, H1:μ1<μ2). C) Bilaterales o de dos colas (H0: μ1=μ2, H1:μ1≠μ2).
- Paso 2. Determinar Nivel de Significancia: Generalmente se selecciona α=0.05.
- Paso 3. Se establece el estadístico de prueba
̅1− X
X ̅2 (𝑛1 −1) 𝑆12 +(𝑛2 −1) 𝑆12
tc = Donde Sp = √
Sp√
1
+
1 𝑛1 +𝑛2 −2
n1 n2
- Paso 4. Establecer el criterio de rechazo, el cual puede ser: A) Rechazar la hipótesis nula, H0,
si y solo si tc > tα; n1+n2 -2. B) Rechazar la hipótesis nula, H0 si y solo si –tc < -tα; n1+n2 -2.
C) Rechazar la hipótesis nula, H0, si y solo si tc > tα/2; n1+n2 -2, o bien, si –tc < -tα/2; n1+n2 -
2.
- Paso 5. Cálculos, valor tabulado y gráfica: Donde se realizan los cálculos con el estadístico de
prueba, se busca por medio de los grados de libertad y el nivel de significancia el valor “t
tabulado” utilizando la tabla de la t de Student, y por último se realiza el gráfico.
- Paso 6. Conclusión: Se llega a ella por medio del criterio de rechazo establecido y la gráfica.
Si el valor de “tc” cae dentro de la región de rechazo de la gráfica se rechazaría la hipótesis nula,
si por el contrario, cae dentro de la región de aceptación, no se rechazaría la hipótesis nula.
¿Cuándo se puede aplicar?
La Prueba de Hipótesis para medias usando Distribución t de Student se usa cuando se cumplen
las siguientes condiciones: 1) Es posible calcular las media y la desviación estándar a partir de la
muestra. 2) El tamaño de la muestra es menor a 30
¿Cómo se aplica?
El estadístico de Chi Cuadrado, se calcula a través de una fórmula y los cálculos son
fáciles de hacer. Si el valor de Chi Cuadrado da cero, indica que las frecuencias observadas son
exactamente iguales a las frecuencias esperadas. Si el valor es diferente de cero, entonces este
valor obtenido refleja, que hay diferencia entre los valores observados y los valores esperados,
es importante mencionar que este valor es comparado con otro estadístico de Chi Cuadrado, que
se determina cuando se calculan los grados de libertad y se tiene el nivel de significancia
escogido; este valor es buscado en la tabla de Distribución Chi Cuadrado, correspondiente al
extremo derecho y así se determina si se rechaza la hipótesis nula o se acepta.
La fórmula que da el estadístico es la siguiente:
(𝑓𝑜 −𝑓𝑒 )2
Dónde: 𝑋 2 = Chi Cuadrado. 𝑋2 = ∑ 𝑓𝑒
divididas a su vez, por sus correspondientes grados de libertad tendremos que la función F
corresponde a una distribución F de Snedecor con m y n grados de libertad; es decir una 𝐹𝑚,𝑛
Queda claro por tanto que la distribución F de Snedecor tiene dos parámetros, que son m
y n; grados de libertad del numerador, grados de libertad del denominador.
Dado que se trata de un cociente entre dos chi cuadrado su forma (gráfica de la función
de densidad) será parecida a la de ésta distribución, por lo que estará sólo definida para el campo
positivo de la variable y su apariencia variará según los grados de liberta; estando más próxima
la densidad de probabilidad a los valores próximos a cero de la variable, cuando los grados de
libertad (sus parámetros) sean bajos
.
Curva de la Función
¿Cómo se aplica?
- Paso 1. Plantear Hipótesis Nula (Ho) e Hipótesis Alternativa (Hi): Las cuales pueden ser: A)
Unilaterales de cola derecha (H0:σ12=σ22, H1:σ12>σ22). B) Unilaterales de cola izquierda
(H0:σ12=σ22, H1:σ12<σ22). C) Bilaterales o de dos colas (H0:σ12=σ22, H1:σ12≠σ22).
- Paso 2. Determinar Nivel de Significancia: Generalmente se selecciona α=0.05
- Paso 3. Se establece el estadístico de prueba
𝑆12
𝐹𝑐 =
𝑆22
1
Inverso del Caso Unilateral: 𝐹1 − 𝛼 ; (𝑛1 − 1), (𝑛2 − 1) = 𝐹𝛼;(𝑛2 −1),(𝑛1 −1)
- Paso 4. Establecer el criterio de rechazo, el cual puede ser: A) Rechazar la hipótesis nula, H0,
si y solo si Fc>Fα; (n1-1), (n2-1). B) Rechazar la hipótesis nula, H0 si y solo si Fc<F1-α; (n1-1),
(n2-1). C) Rechazar la hipótesis nula, H0, si y solo si Fc>Fα/2; (n1-1), (n2-1), o bien, si Fc<F1-
α/2; (n1-1), (n2-1).
- Paso 5. Cálculos, valor tabulado y gráfica: Donde se realizan los cálculos con el estadístico de
prueba, se busca por medio de los grados de libertad y el nivel de significancia el valor “F
tabulado” utilizando la tabla de la F de Snedecor, y por último se realiza el gráfico.
- Paso 6. Conclusión: Se llega a ella por medio del criterio de rechazo establecido y la gráfica. Si
el valor de “Fc” cae dentro de la región de rechazo de la gráfica se rechazaría la hipótesis nula,
si por el contrario, cae dentro de la región de aceptación, no se rechazaría la hipótesis nula.
¿Cuándo se puede aplicar?
Se usa la distribución f de Snedecor cuando se necesita hacer una prueba de hipótesis para la
varianza, con poblaciones normales y muestras menores a 30. Se utiliza principalmente para
probar la igualdad entre dos varianzas poblacionales.
Grados de Libertad: son una cantidad que permite introducir una corrección
matemática en los cálculos estadísticos para restricciones impuestas en los datos. Un caso
común en estadística es el cálculo de la varianza, donde aparece en el denominador de dicho
cálculo una cantidad denominada grados de libertad, no del todo distinta de la cantidad de datos
que se procesan. Gonzáles (2012).
Valor Crítico: es un punto en la distribución de la prueba que se compara con el
estadístico de prueba para determinar si puede rechazarse la hipótesis nula. Si el valor absoluto
del estadístico de prueba es mayor que el valor crítico, se puede gdeclarar significancia
estadística y rechazar la hipótesis nula. Los valores críticos están asociados con el nivel de
significancia (α), así que sus valores se fijan cuando se elige el α de la prueba. Moncada (2010).
P-Valor: es una medida directa de lo verosímil que resulta obtener una muestra como la
actual si es cierta H0. Los valores pequeños indican que es muy infrecuente obtener una muestra
como la actual, en cambio, los valores altos que son frecuente. Moncada (2010) expone que el p-
valor se emplea para indicar cuánto (o cuán poco) contradice la muestra actual la hipótesis
alternativa.
Referirse al p-valor tiene la ventaja de permitir que cualquiera decida qué hipótesis
acepta basándose en su propio nivel de riesgo α. Esto no es posible cuando se informa, como ha
sido tradicional, indicando sólo el resultado de la decisión, es decir, si se acepta o se rechaza H0
con un α fijo.
Al proporcionar el p-valor obtenido con la muestra actual, la decisión se hará de acuerdo
a la regla siguiente:
Si pv ≤ α, aceptar H1
Si pv > α, aceptar H0
INTERVALO DE CONFIANZA. EJEMPLO DE CASO PARA LA MEDIA DE UNA
POBLACIÓN NORMAL.
El tamaño del efecto nos dice cuánto de la variable dependiente se puede controlar,
predecir o explicar por la variable independiente o en qué grado la hipótesis nula es falsa; en
definitiva el tamaño del efecto, como la misma palabra lo indica, nos va permitir hablar de
magnitudes, de diferencias grandes o pequeñas y consiguientemente de la relevancia de la
diferencia encontrada. Morales (2012).
Según la opinión del mencionado autor, existen dos fórmulas muy similares para calcular
el tamaño del efecto, y cada una con su propio símbolo (aunque en ambos casos se usa con
frecuencia e impropiamente el mismo símbolo "d"). Estas dos fórmulas son:
a) La fórmula de Cohen, en el que se utilizan las desviaciones típicas de las muestras
(dividiendo por N), y que por lo tanto tiene más un carácter descriptivo.
b) La fórmula de Hedges y Olkin, en el se utilizan estimaciones de las desviaciones
típicas de las poblaciones (dividiendo por N-1), y que por lo tanto tiene un carácter inferencial.
Las fórmulas de Cohen y Hedges para calcular la desviación típica del denominador son
las que suelen utilizarse cuando no hay un diseño experimental, y simplemente se comparan las
medias de dos grupos. Cuando hay un grupo de control y otro experimental también suelen
utilizarse estas fórmulas, aunque ya veremos que hay otras alternativas. Ambas fórmulas dan
resultados muy similares con muestras grandes; la más utilizada es la de Cohen.
a) Fórmula de Cohen El mencionado autor explica que en el tamaño del efecto propuesto
por Cohen y cuyo símbolo apropiado es d, la desviación típica es la desviación típica
combinada de los dos grupos (que pueden ser también grupos experimental y de control).
Aquí simbolizamos estas desviaciones típicas de las muestras como σn.
2 2
𝑋̅1 −𝑋̅2 (𝑁1 )𝜎𝑛(1) +(𝑁2 )𝜎𝑛(2)
𝑑= [4] Donde 𝜎 = √ [5]
𝜎 𝑁1 +𝑁2 −2
Además, las varianzas de la fórmula [5] son las de las muestras (dividiendo las sumas de
cuadrados por N, no por N-1). Con muestras de tamaño idéntico o no muy distinto, la fórmula
[5] (denominador de la fórmula [4]) queda muy simplificada:
2 +𝜎 2
𝜎𝑛(1)
𝜎= √ 𝑛(2)
2