Está en la página 1de 18

Falcón

Medina
Vásquez
Arenas
2017.
INTRODUCCIÓN

A través de la historia, la estadística se nos ha presentado como una herramienta que nos
permite resolver una serie de problemas que sin la misma sería muy difícil. Uno de estos es el
planteamiento de una hipótesis, y la aprobación o rechazo de la misma, para así poder
comprobarla en cualquier campo de estudio (ya sea en el área social, de la salud, de la
ingeniería, etc.); se puede usar las posibilidades que proporciona la estadística en estos casos,
pero la psicología en especial usa este tipo de pruebas al hacer investigaciones cuantitativas.
Las hipótesis son explicaciones tentativas del fenómeno investigado, formuladas a
manera de proposiciones. Son sólo proposiciones sujetas a comprobación empírica y a
verificación de la realidad (en investigación cuantitativa) o a observación en el campo (en
investigación cualitativa). Esto resulta ser un elemento esencial que nos brinda la estadística: el
poder resolver las incógnitas que se puedan tener sobre algunas hipótesis que puedan surgir en
este campo y así poder llegar a una conclusión en base a una serie de procesos.
En el presente trabajo daremos a conocer las diferentes definiciones, como lo es la
hipótesis y los tipos de pruebas que pueden arrojar; también debemos echar de ver la serie de
hipótesis estadísticas, así como la serie de errores que pueden surgir en los distintos
planteamientos de las hipótesis, bien sea al momento de su aceptación o negación. También se
complementara el tema incluyendo términos que van de la mano con el proceso de pruebas
estadísticas y el tema de hipótesis en general.
De esta manera y con la información proporcionada se podrá tener un mayor
entendimiento sobre el tema y así manejar la terminología necesaria que nos permitirá
sumergirnos en esta interesante área de la estadística y, si se quiere, también comenzar a
implementarla en cuanto a las hipótesis que se puedan presentar en los trabajos.
HIPÓTESIS DE INVESTIGACIÓN Y SU IMPORTANCIA.

Según Guerrero (2012), son proposiciones tentativas acerca de las posibles relaciones
entre dos o más variables y que cumplen con ciertos requisitos. Se les suele simbolizar como Hi
o H1, H2, H3. También se les denomina como hipótesis de trabajo.
Asimismo, una hipótesis de investigación es una declaración que realizan los
investigadores cuando especulan sobre el resultado de una investigación o experimento
(Shuttleworth, 2008).
Sabiendo el significado de la hipótesis de investigación es necesario hablar sobre la
importancia de la misma, Moreno (2009) señala que en tal sentido, la hipótesis sirve para
orientar y delimitar una investigación, dándole una dirección definitiva a la búsqueda de la
solución de un problema. En efecto, uno de los propósitos cumplidos por las hipótesis es servir
de ideas directrices a la investigación. En efecto, cuando se emplean para diseñarlas se llaman
con frecuencia hipótesis de trabajo, puesto que investigador puede formular diversas hipótesis
para ser sometidos a prueba.
Aunado a esto, cuando la hipótesis de investigación ha sido bien elaborada, y en ella se
observa claramente la relación o vínculo entre dos o más variables, es posible que el
investigador pueda seguir lo siguiente:
 Elaborar el objetivo, o conjunto de objetivos que desea alcanzar en el desarrollo de la
investigación.
 Seleccionar el tipo de diseño de la investigación factible con el problema planteado.
 Elegir los métodos, instrumentos y las técnicas de investigación acorde con el problema
que se desea resolver.
 Distinguir los recursos tanto humanos como materiales, que se emplearan para llevar a el
término de la investigación planteada.
Otra perspectiva al respecto es de Kerlinger (1996) quien considera la importancia de las
hipótesis por tres razones:
 Son instrumentos de trabajo de la teoría
 Son susceptibles de demostración en cuanto a su falsedad o veracidad.
 Son poderosas herramientas para el avance del conocimiento porque permiten a los
científicos percibir el mundo desde fuera.
Por estos fundamentos creemos que las hipótesis constituye un rol primordial en el
proceso de producción de conocimientos, así como la solución de los diversos problemas
fácticos, en tanto en cuanto significan instrumentos teóricos y metodológicos que guían y
orientan al investigador en las etapas de proceso de investigación.

Ejemplo de hipótesis de investigación:


Entre el 60% y 70% de la población venezolana, debido a su decadente calidad de vida,
decide abandonar el país.

PRUEBA DE HIPÓTESIS ESTADÍSTICA.

Según Zambrano (2009), el procedimiento que conduce a una decisión sobre una
hipótesis en particular recibe el nombre de prueba de hipótesis. Los procedimientos de una
prueba de hipótesis dependen del empleo de la información contenida en la muestra aleatoria de
la población de interés. Si esta información es consistente con la hipótesis, se concluye que ésta
es verdadera; sin embargo si esta información es inconsistente con la hipótesis, se concluye que
esta es falsa. Debe hacerse hincapié en que la verdad o falsedad de una hipótesis en particular
nunca puede conocerse con certidumbre, a menos que pueda examinarse a toda la población.
Usualmente esto es imposible en muchas situaciones prácticas. Por tanto, es necesario
desarrollar un procedimiento de prueba de hipótesis teniendo en cuenta la probabilidad de llegar
a una conclusión equivocada.

TIPO DE HIPÓTESIS ESTADÍSTICA

Según Rusu (2009) las hipótesis estadísticas representan la transformación de las


hipótesis de investigación, nulas y alternativas en símbolos estadísticos. Son exclusivas del
enfoque cuantitativo y se pueden formular sólo cuando los datos del estudio son cuantitativos..
Seguidamente Elorza (2008) indica que la hipótesis estadística es una afirmación acerca de la
distribución de cierta variable aleatoria. En dichas hipótesis se considera el valor de un
parámetro correspondiente a la distribución poblacional conocida o supuestamente conocida o la
forma de la distribución. A su vez, una prueba estadística es un procedimiento para decidir si se
rechaza o no la hipótesis estadística considerando el resultado de un experimento aleatorio (con
base en el valor observado de la variable aleatoria en una muestra). Lo anterior está en
contraposición con los resultados de los experimentos no aleatorios (o sea, determinísticos)
utilizados para comprobar una hipótesis científica.
De acuerdo a esto podemos puntualizar cada una de las hipótesis:
 Hipótesis nula (H0): La H0 establece una afirmación acerca del valor de ciertos
parámetros poblacionales y por lo general se expresa como la negación de una relación posible
entre la variable independiente y la dependiente. Si H0 es verdadera, se niega la posibilidad de
que la hipótesis de investigación también lo sea. Se supone que H0 es cierta, a menos que los
resultados de la significancia de una prueba estadística posibiliten rechazarla con explicaciones
alternativas.
 Hipótesis alternativa (H1): La H1 se manifiesta acerca del valor de ciertos parámetros
poblacionales y se expresa de modo que contradice la hipótesis nula. El rechazo de H0 conduce
al no rechazo de H1 y a la posibilidad de que la hipótesis de investigación sea cierta aunque no
necesariamente, por existir algunos factores de confusión.
En general, se propone y contrasta una hipótesis alternativa con la nula para decidir, entre dos
posibles acciones, una apropiada si la nula es verdadera y otra si es falsa.

TIPO DE ERRORES O RIESGOS QUE SE COMETEN AL PLANTEARSE UNA


HIPÓTESIS ESTADÍSTICA

En el planteamiento de hipótesis estadísticas pueden ocurrir dos errores los cuales son el
error tipo 1 y el error tipo 2, cada uno denota una elección o error del investigador, entendiendo
esto podemos detallar cada uno de ellos:
 El error de tipo I también denominado error de tipo alfa (α) o falso positivo, es el error
que se comete cuando el investigador no acepta la hipótesis nula siendo ésta verdadera en la
población. Es equivalente a encontrar un resultado falso positivo, porque el investigador llega a
la conclusión de que existe una diferencia entre las hipótesis cuando en realidad no existe. Se
relaciona con el nivel de significancia estadística.
 El error de tipo II también llamado error de tipo beta (β) o falso negativo, es el error
que se comete cuando el investigador no rechaza la hipótesis nula siendo ésta falsa en la
población. Es equivalente a la probabilidad de un resultado falso negativo, ya que el
investigador llega a la conclusión de que ha sido incapaz de encontrar una diferencia que existe
en la realidad.
Contrariamente al error tipo I, en la mayoría de los casos no es posible calcular la
probabilidad del error tipo II. La razón de esto se encuentra en la manera en que se formulan las
hipótesis en una prueba estadística. Mientras que la hipótesis nula representa siempre una
afirmación enérgica.
Los errores tipo I y tipo II están relacionados. Una disminución en la probabilidad de uno
por lo general tiene como resultado un aumento en la probabilidad del otro.

DEFINICIÓN, CARACTERÍSTICAS Y PROPIEDADES DE LAS DISTRIBUCIONES T-


STUDENT, CHI-CUADRADO Y F-SNEDECOR. CURVA DE FUNCIÓN. ¿CÓMO SE
APLICA? ¿CUÁNDO SE PUEDE APLICAR?

 T-STUDENT: Fermín (2015) lo define como el cociente entre una variable normal
estandarizada y la raíz cuadrada positiva de una variable 2 dividida por sus grados de libertad.
Se aplica cuando la población estudiada sigue una distribución normal pero el tamaño muestral
es demasiado pequeño como para que el estadístico en el que está basada la inferencia esté
normalmente distribuido, utilizándose una estimación de la desviación típica en lugar del valor
real.
Tiene características similares a la distribución normal, su diferencia principal radica en
las áreas de los extremos las cuales son más amplias, como consecuencia de que usualmente se
trabaja con muestras pequeñas.
Prueba T para muestra única:
En esta se evalúa la hipótesis nula de que la media de la población estudiada es igual a un
𝑥−𝜇0
valor especificado μ0, se hace uso del estadístico: 𝑇 = donde 𝑥 es la media muestral, S es
𝑆/√𝑛

la desviación estándar muestral y n es el tamaño de la muestra. Los grados de libertad utilizados


en esta prueba se corresponden al valor n − 1.
Propiedades de la distribución T-Student:
Cada curva T tiene forma de campana con centro en 0. - Cada curva T está más dispersa que la
curva normal estándar. - A medida que (G.L) aumenta la dispersión de la curva T
correspondiente disminuye. - A medida que (G.L) disminuye la secuencia de curvas T se
aproxima a la curva normal estándar.

Curva de la función

¿Cómo se aplica?
El procedimiento de aplicación de la t-Student obedece a los 6 pasos esenciales para una
prueba de hipótesis, y va a depender del caso, es decir, si se asumen varianzas iguales o
varianzas diferentes en las muestras
Asumiendo varianzas iguales:
- Paso 1. Plantear Hipótesis Nula (Ho) e Hipótesis Alternativa (Hi): Las cuales pueden ser: A)
Unilaterales de cola derecha (H0:μ1=μ2, H1:μ1>μ2). B) Unilaterales de cola izquierda (H0:
μ1=μ2, H1:μ1<μ2). C) Bilaterales o de dos colas (H0: μ1=μ2, H1:μ1≠μ2).
- Paso 2. Determinar Nivel de Significancia: Generalmente se selecciona α=0.05.
- Paso 3. Se establece el estadístico de prueba
̅1− X
X ̅2 (𝑛1 −1) 𝑆12 +(𝑛2 −1) 𝑆12
tc = Donde Sp = √
Sp√
1
+
1 𝑛1 +𝑛2 −2
n1 n2

- Paso 4. Establecer el criterio de rechazo, el cual puede ser: A) Rechazar la hipótesis nula, H0,
si y solo si tc > tα; n1+n2 -2. B) Rechazar la hipótesis nula, H0 si y solo si –tc < -tα; n1+n2 -2.
C) Rechazar la hipótesis nula, H0, si y solo si tc > tα/2; n1+n2 -2, o bien, si –tc < -tα/2; n1+n2 -
2.
- Paso 5. Cálculos, valor tabulado y gráfica: Donde se realizan los cálculos con el estadístico de
prueba, se busca por medio de los grados de libertad y el nivel de significancia el valor “t
tabulado” utilizando la tabla de la t de Student, y por último se realiza el gráfico.
- Paso 6. Conclusión: Se llega a ella por medio del criterio de rechazo establecido y la gráfica.
Si el valor de “tc” cae dentro de la región de rechazo de la gráfica se rechazaría la hipótesis nula,
si por el contrario, cae dentro de la región de aceptación, no se rechazaría la hipótesis nula.
¿Cuándo se puede aplicar?
La Prueba de Hipótesis para medias usando Distribución t de Student se usa cuando se cumplen
las siguientes condiciones: 1) Es posible calcular las media y la desviación estándar a partir de la
muestra. 2) El tamaño de la muestra es menor a 30

 CHI CUADRADO: es una prueba de hipótesis que compara la distribución observada


de los datos con una distribución esperada de los datos. Por lo tanto es una distribución de
probabilidad continua con un parámetro k que representa los grados de libertad de la variable
aleatoria, Sevilla (2004).
La forma de la distribución es asimétrica positiva, y se acerca a la distribución Normal
como mayor sea el número de grados de libertad.
Las puntuaciones no pueden tomar valores negativos.
La función de distribución de la distribución Ji Cuadrado está tabulada para algunos
valores que son de interés en Estadística Inferencial.
𝑎𝑝 𝑒 −𝑎𝑥 𝑥 𝑝−1
F(x)= Concretamente, si se considera α = 1/2 y p = r/2, donde r es un entero
𝜎(𝑝)

positivo, el modelo de probabilidad resultante se denomina 𝑥 2 , Chi-cuadrado, con r grados de


libertad.
Características de la distribución Chi-Cuadrado
Los mencionados autores afirman que esta distribución posee 3 características
fundamentales:
- La forma de la distribución es asimétrica positiva, y se acerca a la distribución Normal como
mayor sea el número de grados de libertad (G.L.).
- Las puntuaciones Chi Cuadrado no pueden tomar valores negativos.
- La función de distribución de la distribución Ji Cuadrado está tabulada para algunos valores
que son de interés en Estadística Inferencial.

Propiedades de las distribuciones Chi-Cuadrada


- Los valores de X2 son mayores o iguales que 0. - La forma de una distribución X2 depende
del G.L=n-1.En consecuencia, hay un número infinito de distribuciones X2.
- El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.
- Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la derecha;
esto es, están sesgadas a la derecha.
- Cuando n > 2, la media de una distribución X2 es n-1y la varianza es 2(n-1)
. - El valor modal de una distribución X2 se da en el valor (n-3).
Curva de la función

¿Cómo se aplica?
El estadístico de Chi Cuadrado, se calcula a través de una fórmula y los cálculos son
fáciles de hacer. Si el valor de Chi Cuadrado da cero, indica que las frecuencias observadas son
exactamente iguales a las frecuencias esperadas. Si el valor es diferente de cero, entonces este
valor obtenido refleja, que hay diferencia entre los valores observados y los valores esperados,
es importante mencionar que este valor es comparado con otro estadístico de Chi Cuadrado, que
se determina cuando se calculan los grados de libertad y se tiene el nivel de significancia
escogido; este valor es buscado en la tabla de Distribución Chi Cuadrado, correspondiente al
extremo derecho y así se determina si se rechaza la hipótesis nula o se acepta.
La fórmula que da el estadístico es la siguiente:
(𝑓𝑜 −𝑓𝑒 )2
Dónde: 𝑋 2 = Chi Cuadrado. 𝑋2 = ∑ 𝑓𝑒

∑ = “La suma de”


𝑓𝑜 = Frecuencia Observada
𝑓𝑒 = Frecuencia Esperada
Se calcula a través de una serie de pasos, los mismos se pueden observar a través de la fórmula,
estos son:
- Restar fe a fo.
- Elevar al cuadrado cada una de la diferencias.
- Dividir entre fe cada diferencia elevada al cuadrado.
- Sumar las respuestas.
Cuanto mayor sea el valor o el resultado de X2, es menor la posibilidad de que la
hipótesis sea correcta. De la misma forma, cuanto más se aproxima a cero el valor de Chi-
Cuadrado, más ajustadas están ambas distribuciones
¿Cuándo se puede aplicar?
Estudios previos revelan que la distribución del chi-cuadrado se aplica cuando se desea
medir la discrepancia entre una distribución observada y otra teórica (bondad de ajuste),
indicando la medida de las diferencias existentes entre ambas, y de haberlas, se deben al azar en
el contraste de hipótesis, también se emplea cuando se quiere probar la independencia de dos
variables entre sí, mediante la presentación de los datos en tablas de contingencia.

 F-SNEDECOR: según Suarez (2010) es una distribución de probabilidad de gran


aplicación en la inferencia estadística , fundamentalmente en la contrastación de la igualdad de
varianzas de dos poblaciones normales, y, fundamentalmente en el análisis de la varianza ,
técnica que permite detectar la existencia o inexistencia de diferencias significativas entre
muestras diferentes y que es, por tanto esencial, en todos aquellos casos en los que se quiere
investigar la relevancia de un factor en el desarrollo y naturaleza de una característica.
La distribución se plantea partiendo de dos variables X e Y tales que:
2
𝑋 → 𝑋𝑚 Es decir una chi2 con m grados de libertad
𝑌 → 𝑌𝑛2 Es decir una chi2 con n grados de libertad
𝑋
𝑚
De manera que si establecemos el cociente F= 𝑌 es decir el cociente entre ambas chi2
𝑛

divididas a su vez, por sus correspondientes grados de libertad tendremos que la función F
corresponde a una distribución F de Snedecor con m y n grados de libertad; es decir una 𝐹𝑚,𝑛
Queda claro por tanto que la distribución F de Snedecor tiene dos parámetros, que son m
y n; grados de libertad del numerador, grados de libertad del denominador.
Dado que se trata de un cociente entre dos chi cuadrado su forma (gráfica de la función
de densidad) será parecida a la de ésta distribución, por lo que estará sólo definida para el campo
positivo de la variable y su apariencia variará según los grados de liberta; estando más próxima
la densidad de probabilidad a los valores próximos a cero de la variable, cuando los grados de
libertad (sus parámetros) sean bajos
.

Curva de la Función

¿Cómo se aplica?
- Paso 1. Plantear Hipótesis Nula (Ho) e Hipótesis Alternativa (Hi): Las cuales pueden ser: A)
Unilaterales de cola derecha (H0:σ12=σ22, H1:σ12>σ22). B) Unilaterales de cola izquierda
(H0:σ12=σ22, H1:σ12<σ22). C) Bilaterales o de dos colas (H0:σ12=σ22, H1:σ12≠σ22).
- Paso 2. Determinar Nivel de Significancia: Generalmente se selecciona α=0.05
- Paso 3. Se establece el estadístico de prueba
𝑆12
𝐹𝑐 =
𝑆22
1
Inverso del Caso Unilateral: 𝐹1 − 𝛼 ; (𝑛1 − 1), (𝑛2 − 1) = 𝐹𝛼;(𝑛2 −1),(𝑛1 −1)

Inverso del Caso Bilateral:


1
𝐹1 − 𝛼/2; (𝑛1 − 1), (𝑛2 − 1) = 𝐹𝛼/ 2;(𝑛2 −1),(𝑛1 −1)

- Paso 4. Establecer el criterio de rechazo, el cual puede ser: A) Rechazar la hipótesis nula, H0,
si y solo si Fc>Fα; (n1-1), (n2-1). B) Rechazar la hipótesis nula, H0 si y solo si Fc<F1-α; (n1-1),
(n2-1). C) Rechazar la hipótesis nula, H0, si y solo si Fc>Fα/2; (n1-1), (n2-1), o bien, si Fc<F1-
α/2; (n1-1), (n2-1).
- Paso 5. Cálculos, valor tabulado y gráfica: Donde se realizan los cálculos con el estadístico de
prueba, se busca por medio de los grados de libertad y el nivel de significancia el valor “F
tabulado” utilizando la tabla de la F de Snedecor, y por último se realiza el gráfico.
- Paso 6. Conclusión: Se llega a ella por medio del criterio de rechazo establecido y la gráfica. Si
el valor de “Fc” cae dentro de la región de rechazo de la gráfica se rechazaría la hipótesis nula,
si por el contrario, cae dentro de la región de aceptación, no se rechazaría la hipótesis nula.
¿Cuándo se puede aplicar?
Se usa la distribución f de Snedecor cuando se necesita hacer una prueba de hipótesis para la
varianza, con poblaciones normales y muestras menores a 30. Se utiliza principalmente para
probar la igualdad entre dos varianzas poblacionales.

DEFINA NIVEL DE SIGNIFICACIÓN ESTADÍSTICA Y NIVEL DE CONFIANZA.

 Nivel de Significancia: Torres (2011) establece el límite de la región de rechazo, por


tanto la hipótesis nula en un estudio se rechaza cuando el valor p asociado a la prueba estadística
utilizada para contrastar la hipótesis, es inferior al valor alfa establecido por el investigador
(valor p < nivel de significancia). De lo que podemos inferir que valores altos de la significancia
observada constituyen evidencia a favor de la hipótesis nula, valores “bajos” apoyan la hipótesis
alterna.
 Nivel de Confianza: El nivel de confianza indica según Juárez (2015) qué tan probable
es que el parámetro de población, como por ejemplo la media, esté dentro del intervalo de
confianza.

GRADOS DE LIBERTAD Y VALOR CRÍTICA, “P-VALOR” EN PRUEBAS DE


HIPÓTESIS.

 Grados de Libertad: son una cantidad que permite introducir una corrección
matemática en los cálculos estadísticos para restricciones impuestas en los datos. Un caso
común en estadística es el cálculo de la varianza, donde aparece en el denominador de dicho
cálculo una cantidad denominada grados de libertad, no del todo distinta de la cantidad de datos
que se procesan. Gonzáles (2012).
 Valor Crítico: es un punto en la distribución de la prueba que se compara con el
estadístico de prueba para determinar si puede rechazarse la hipótesis nula. Si el valor absoluto
del estadístico de prueba es mayor que el valor crítico, se puede gdeclarar significancia
estadística y rechazar la hipótesis nula. Los valores críticos están asociados con el nivel de
significancia (α), así que sus valores se fijan cuando se elige el α de la prueba. Moncada (2010).
 P-Valor: es una medida directa de lo verosímil que resulta obtener una muestra como la
actual si es cierta H0. Los valores pequeños indican que es muy infrecuente obtener una muestra
como la actual, en cambio, los valores altos que son frecuente. Moncada (2010) expone que el p-
valor se emplea para indicar cuánto (o cuán poco) contradice la muestra actual la hipótesis
alternativa.
Referirse al p-valor tiene la ventaja de permitir que cualquiera decida qué hipótesis
acepta basándose en su propio nivel de riesgo α. Esto no es posible cuando se informa, como ha
sido tradicional, indicando sólo el resultado de la decisión, es decir, si se acepta o se rechaza H0
con un α fijo.
Al proporcionar el p-valor obtenido con la muestra actual, la decisión se hará de acuerdo
a la regla siguiente:
Si pv ≤ α, aceptar H1
Si pv > α, aceptar H0
INTERVALO DE CONFIANZA. EJEMPLO DE CASO PARA LA MEDIA DE UNA
POBLACIÓN NORMAL.

Barón (2014) plantea que el intervalo de confianza es un rango de valores, derivado de


los estadísticos de la muestra, que posiblemente incluya el valor de un parámetro de población
desconocido. Debido a su naturaleza aleatoria, es poco probable que dos muestras de una
población en particular generen intervalos de confianza idénticos. Sin embargo, si se repitiera
muchas veces su muestra, un determinado porcentaje de los intervalos de confianza resultantes
incluiría el parámetro de población desconocido.
Ejemplo en población normal:
Como consecuencia de la falta de gas registrada en la ciudad de Chicago, en los meses de
invierno, la Empresa Camuzzi - Gas Pampeana decide hacer un estudio para determinar la
cantidad gastada en este combustible para calefacción casera en un año en particular. Con tal
motivo se selecciona una muestra de n = 64 hogares de la ciudad. La media muestral del gasto
en gas para calefacción resultó de $83,6. Se sabe por experiencia que la desviación estándar de
la población es $17,8. Hallar el intervalo de confianza del 95% para el gasto promedio anual en
este tipo de combustible en las viviendas de la ciudad de Chicago.
Solución: La estimación puntual de la media es de 83,6. El valor de z, a la derecha del cual se
tiene un área de 0,025/ 2= 0,05 y por lo tanto, de 0,975 a la izquierda es Z0, 025 = 1,96. De aquí
que el intervalo de confianza del 95% es: 87,95≤ 𝜇 ≤79,24.

TAMAÑO DEL EFECTO Y ECUACIÓN PARA SU CÁLCULO SEGÚN COHEN Y


HEDGES, EN PRUEBAS DE HIPÓTESIS PARA LA MEDIA EN UNA Y DOS
POBLACIONALES NORMALES.

El tamaño del efecto nos dice cuánto de la variable dependiente se puede controlar,
predecir o explicar por la variable independiente o en qué grado la hipótesis nula es falsa; en
definitiva el tamaño del efecto, como la misma palabra lo indica, nos va permitir hablar de
magnitudes, de diferencias grandes o pequeñas y consiguientemente de la relevancia de la
diferencia encontrada. Morales (2012).
Según la opinión del mencionado autor, existen dos fórmulas muy similares para calcular
el tamaño del efecto, y cada una con su propio símbolo (aunque en ambos casos se usa con
frecuencia e impropiamente el mismo símbolo "d"). Estas dos fórmulas son:
a) La fórmula de Cohen, en el que se utilizan las desviaciones típicas de las muestras
(dividiendo por N), y que por lo tanto tiene más un carácter descriptivo.
b) La fórmula de Hedges y Olkin, en el se utilizan estimaciones de las desviaciones
típicas de las poblaciones (dividiendo por N-1), y que por lo tanto tiene un carácter inferencial.
Las fórmulas de Cohen y Hedges para calcular la desviación típica del denominador son
las que suelen utilizarse cuando no hay un diseño experimental, y simplemente se comparan las
medias de dos grupos. Cuando hay un grupo de control y otro experimental también suelen
utilizarse estas fórmulas, aunque ya veremos que hay otras alternativas. Ambas fórmulas dan
resultados muy similares con muestras grandes; la más utilizada es la de Cohen.
a) Fórmula de Cohen El mencionado autor explica que en el tamaño del efecto propuesto
por Cohen y cuyo símbolo apropiado es d, la desviación típica es la desviación típica
combinada de los dos grupos (que pueden ser también grupos experimental y de control).
Aquí simbolizamos estas desviaciones típicas de las muestras como σn.
2 2
𝑋̅1 −𝑋̅2 (𝑁1 )𝜎𝑛(1) +(𝑁2 )𝜎𝑛(2)
𝑑= [4] Donde 𝜎 = √ [5]
𝜎 𝑁1 +𝑁2 −2

Además, las varianzas de la fórmula [5] son las de las muestras (dividiendo las sumas de
cuadrados por N, no por N-1). Con muestras de tamaño idéntico o no muy distinto, la fórmula
[5] (denominador de la fórmula [4]) queda muy simplificada:
2 +𝜎 2
𝜎𝑛(1)
𝜎= √ 𝑛(2)
2

b) Fórmula de Hedges utiliza las desviaciones típicas estimadas de la población (dividiendo


por N-1); aquí las simbolizamos como σn-1; el símbolo apropiado es del tamaño del
efecto de Hedges es g.
2
(𝑁1 −1)𝜎𝑛−1(1) 2
+(𝑁2 −1)𝜎𝑛−1(2)
𝑋̅1 −𝑋̅2
𝑔= Donde 𝜎 = √
𝛼 𝑁1 +𝑁2 −2
CONCLUSIÓN

La estadística nos proporciona un amplio repertorio de herramientas, y en este caso nos


suministró información sobre este tema de hipótesis, las cuales son explicaciones tentativas del
fenómeno investigado, formuladas a manera de proposiciones; esta debe ser sometida a un
procedimiento que conduce a una decisión sobre una hipótesis en particular, la cual recibe el
nombre de prueba de hipótesis.
Ahora que nos paseamos por toda la terminología ya planteada, se puede manejar a
cabalidad lo referente a las hipótesis, también sabiendo que para que esta pueda ser probada
debe reunir ciertas características y, en conjunto a esto, que las técnicas de investigación sean
adecuadas, claras y precisas con el fin de que cualquier investigador o incluso aficionado en el
área que desee comprobar una hipótesis esté en la posibilidad de hacerlo, esto le permitirá
resolver cada hipótesis planteada en cualquier trabajo y campo de investigación.
Es por esto que nos atrevemos a afirmar que ahora se conoce cómo abordar cada
hipótesis según sea el caso, y que en el planteamiento de esta pueden ocurrir dos errores, los
cuales son el error tipo I y el error tipo II: cada uno denota una elección o error del investigador.
Esta información posee gran valor para cualquier persona interesada en el campo de la
estadística y es útil ante la presencia de la necesidad de aprobar o rechazar hipótesis en cualquier
ámbito académico y científico.
REFERENCIAS
 Barón, F. (2014). Intervalos de Confianza. Bioestadistica.uma.es. Recuperado de:
https://www.bioestadistica.uma.es/baron/apuntes/ficheros/cap02.pdf
 Elorza, H (2008). Estadística para las ciencias sociales, del comportamiento y de la salud.
3ra ed. Cengage Learning
 Fermín, F. (2015). Prueba T de Student. Pruebatstudentf.blogspot.com. Recuperado de:
http://pruebatstudentf.blogspot.com/
 Gonzales, J. (2012). Máquinas y Mecanismos. Blogspot.com. Recuperado de:
http://grraadoslibertad.blogspot.com/
 Guerrero, E. (2012). Unidad IV el marco teórico en una investigación (hipótesis).
Recuperado de http://www.medic.ula.ve/tsues/Hipotesis.pdf
 Juárez, A. (2015). Nivel de Confianza. Ditutor.com. Recuperado de:
http://www.ditutor.com/inferencia_estadistica/nivel_confianza.html
 Kerlinger, F. (1996). Investigación del comportamiento. 3ra. Edición. México: Editorial
Mc Graw Hill. P.35.
 Moncada, D. (2010). El P-Valor. Ub.edu. Recuperado de:
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo9/B0C9m1t18.hht
 Morales, P. (2012). Estadística aplicada a las Ciencias Sociales (1era ed.). Madrid,
España: Universidad Pontificia Comillas.
 Moreno, E. (2009). Metodología de investigación, pautas para hacer Tesis. [Tesis-
investigacion-cientifica.blogspot.com]. Recuperado de http://tesis-investigacion-
cientifica.blogspot.com/2013/08/importancia-de-hipotesis-en-una.html
 Ramos. (2012). Prueba de Hipótesis. Slideshare.net Recuperado de:
http://www.slideshare.net/crg110886/prueba-de-hiptesis-12589447
 Romero, C. (2012). Estadística II. Es.slideshare.net Recuperado de:
http://es.slideshare.net/gonzalagunes/caracteristicas-de-las-curvas-de-operacin
 Rusu, C. (2009). Metodología de la investigación. Recuperado de
http://zeus.inf.ucv.cl/~rsoto/cursos/DII711/Cap5_DII711.pdf
 Sevilla, C. (2004). Distribución de Chi Cuadrado. Es.slideshare.net Recuperado de:
http://es.slideshare.net/sevilla_carlos2004/distribucion-de-chi-cuadrado
 Shuttleworth, M. (2008). Hipótesis de investigación. Recuperado de
https://explorable.com/es/hipotesis-de-investigacion
 Suarez, M. (2010). Prueba de Distribución de F. Estadistica2.bligoo.es Recuperado de:
http://estadistica2.bligoo.es/prueba-de-distribucion-fisher#.WER8ntLhDIU
 Torrealba, M. (2005) Estadística. Foropir.es Recuperado de:
http://www.foropir.es/hemeroteca/todo/vere139.html
 Torres, J. (2011). Nivel de Significación. Unalmed.edu.co. Recuperado de:
http://www.unalmed.edu.co/~jarueda/Significancia.htm
 Zambrano, A. (2009). Prueba de hipótesis. Recuperado de
http://webdelprofesor.ula.ve/economia/angelz/archivos/PRUEBA%20DE%20HIPOTESIS.doc.

También podría gustarte