PRUEBAS PARAMÉTRICAS
Alumnos: Melissa Araya, Rodrigo Solar
Docente: Valeska Pérez
Resumen
En el presente trabajo se busca dar cuenta de las diferentes pruebas estadísticas
paramétricas existentes, así como de su importancia para el análisis y comprensión del
mismo, además de dar a conocer sus criterios de aplicación, principales características,
planteamiento de hipótesis y prueba de hipótesis, según corresponda.
Palabras claves: estadística, pruebas paramétricas, hipótesis.
Abstract
In the present work we try to give an account of the different statistical parametric
tests that exist, as well as their importance for the analysis and understanding of the
same, as well as their application criteria, main characteristics, hypothesis testing and
hypothesis testing, as appropriate.
Key words: statistics, parametric, hypothesis tests.
Introducción
Las técnicas que agrupa la estadística inferencial se dividen principalmente en dos
partes: las técnicas paramétricas y no paramétricas. Las primeras se basan en
suposiciones específicas acerca de la población de la que se desea hacer algún tipo de
inferencia, mientras que en cambio las técnicas no paramétricas hacen supuestos muy
generales respecto a la distribución poblacional de la que se desea hacer inferencias.
Tradicionalmente lo que separa ambas técnicas estadísticas es el supuesto de que la
población toman los datos y sigue una distribución normal Puede apreciarse una
característica de las pruebas paramétricas: puede demostrarse teóricamente que son las
pruebas que producen la región crítica más potente, ello relega teóricamente a las
pruebas no paramétricas en lo que respecta a potencia de explicación.
Durante mucho tiempo los estadísticos han preferido las técnicas paramétricas o han
optado por diversas transformaciones a fin de poder aplicarlas, dejando como recuerdo
final a las pruebas no paramétricas cuando no se ha podido encontrar evidencia
estadística, de que la población sigue una distribución normal.
teóricamente las pruebas paramétricas superan a las pruebas no paramétricas en
potencia de explicación cuando la población es normal como se indicó anteriormente,
entonces recurriremos para poder comprender estas pruebas las definiciones de cada
una, que es lo que miden, cuáles son sus elementos y su fórmula en la cual se trabaja;
también no olvidando su hipótesis tanto de investigación y la hipótesis nula.
Pruebas Paramétricas
T de student:
George C. Canavo (1988) afirmo que, T se define como el cociente entre una
variable aleatoria normal estándar y la raíz cuadrada de una variable aleatoria Chi
cuadrada dividida por sus grados de libertad. El conjunto de todos los posibles valores
de la variable aleatoria T es el intervalo.
El estadístico de prueba y la fórmula del intervalo de confianza están basados en
la misma variable estandarizada, pero la distribución pertinente ahora es t en lugar de z.
(Jay l. Devore, 2008).
Que mide: si dos grupos difieren entre sí de manera significativamente respecto a
sus medias.
Hipótesis
H1: Establece que los grupos difieren significativamente entre sí.
Ho: Establece que los grupos NO difieren significativamente entre sí.
Formula
Prueba T para una muestra:
Contrasta si la media de una variable difiere en una constante específica.
Esta prueba asume que los datos están normalmente distribuidos.
Nos permite verificar si una muestra puede acceder de una población, presentando una
media determinada.
Prueba T
Estadísticas de muestra única
Media de
Desviación error
N Media estándar estándar
Edad 50 2,58 ,928 ,131
Desesperanza sobre el
50 6,46 1,373 ,194
futuro
Prueba de muestra única
Valor de prueba = 6
95% de intervalo de
Diferencia de confianza de la diferencia
t gl Sig. (bilateral) medias Inferior Superior
Edad -26,065 49 ,000 -3,420 -3,68 -3,16
Desesperanza sobre el
2,368 49 ,022 ,460 ,07 ,85
futuro
Con fines Académicos, deliberadamente se asignó: 6 como valor de prueba.
Podemos comprobar que asumiendo un nivel de significación del 5 % con un
intervalo de confianza del 95% y una significación de 0,022 rechazamos la
hipótesis nula y aceptamos la hipótesis de investigación asumiendo que
existen diferencias significativas entre la media muestral y la media de la
población.
Prueba T para muestras independientes:
Comprobar la hipótesis nula, aludiendo que las medias de las dos muestras no
difieren entre sí.
Se utiliza cuando no existe relación entre ambos grupos.
Contrasta a la hipótesis nula, la prueba de levene.
Prueba T
Estadísticas de grupo
Desviación Media de
Sexo N Media estándar error estándar
Hombre 28 5,57 ,742 ,140
Sentimientos de Mujer
22 4,82 1,220 ,260
depresión
Prueba de muestras independientes
Prueba de Levene de igualdad
de varianzas prueba t para la igualdad de medias
Diferencia
F Sig. t gl Sig. (bilateral) medias
Sentimi Se asumen varianzas
10,425 ,002 2,697 48 ,010 ,753
entos iguales
de No se asumen varianzas
depresi iguales 2,549 32,813 ,016 ,753
ón
Con un intervalo de confianza del 95% y una significación inferior a 0,05. Rechazamos
la hipótesis nula y aceptamos la hipótesis de investigación, asumiendo que existen
diferencias significativas entre los sentimientos de depresión de los distintos grupos
divididos por sexo
Correlación de Pearson
El coeficiente de correlación de Pearson proporciona un valor, el cual indica el nivel de
relación entre dos variables (Rivera & Garcia,2012).
El coeficiente de correlación se simboliza con una “p” cuando se hace referencia
a la población y una “r” cuando se utilizan datos muestrales para su cálculo (Aguilar,
Altamira & García, 2010).
El coeficiente de correlación expresa numéricamente, tanto la fuerza, como la
dirección de la correlación. La cual se encuentra entre -1 a 1 (Matus, Hernández, García
& Franco, 2006).
Una correlación de -1 significa una correlación lineal perfecta negativa; una
correlación de 0 significa que no existe relación lineal y una correlación de 1 significa una
relación lineal perfecta positiva (Aguilar et al., 2010).
Formula
𝒏𝜮𝒙𝒚 − (∑𝒙)(𝜮𝒚)
√[𝒏𝜮𝒙𝟐 − (Σ𝑥)2 ][𝑛𝛴𝑦 2 − (∑𝑦)2 ]
Hipótesis
Hi: no existe correlación entre las variables.
Ho: existe correlación entre las variables.
CORRELATIONS
/VARIABLES=Desesperanza Depresión Intención
/PRINT=TWOTAIL NOSIG
/MISSING=PAIRWISE.
Correlaciones
Correlaciones
Desesperanz
a sobre el Sentimientos Intención
futuro de depresión suicida
Desesperanza sobre el Correlación de
1 ,621** ,471**
futuro Pearson
Sig. (bilateral) ,000 ,001
N 50 50 50
Sentimientos de Correlación de
,621** 1 ,405**
depresión Pearson
Sig. (bilateral) ,000 ,004
N 50 50 50
Intención suicida Correlación de
,471** ,405** 1
Pearson
Sig. (bilateral) ,001 ,004
N 50 50 50
**. La correlación es significativa en el nivel 0,01 (bilateral).
Con un intervalo de confianza del 95% y un coeficiente de correlacion positivo
desde 0.405-0.401-1 podemos asumir que existe correlacion positiva entre las variables
desde media, hasta muy buena correlacion
Regresión lineal
El concepto de análisis de regresión se refiere a encontrar la relación entre Y e X,
cuantificando la fuerza de dicha relación, empleando métodos que permitan predecir los
valores de la respuesta dados los valores del regresor X (Walpole, Myers, Myers & Ye,
2012).
La variable a predecir pasara a constituirse como variable dependiente, la cual
está ligada a la variable independiente (Córdova, 2003).
Myers et al. (2012) afirma que en algunos casos habrá más de una variable
regresora, es decir más de una de variable independiente que explique Y.
Por lo tanto, Myers et al. (2012) menciona que en cuyo caso el análisis resultante
se denomina regresión lineal múltiple, en contra parte, el análisis con un solo regresor
recibe el nombre de regresión lineal simple.
Formula
𝒃 = 𝒏(𝜮𝑿𝒀) − (𝜮𝑿)(𝒀)
𝒏(𝜮𝑿𝟐 ) − (𝜮𝑿)𝟐
𝒀 𝜮𝑿
𝒂= −𝒃
𝒏 𝒏
Regresión
Variables entradas/eliminadasa
Variables Variables
Modelo entradas eliminadas Método
1 Edadb . Entrar
a. Variable dependiente: Desesperanza sobre el
futuro
b. Todas las variables solicitadas introducidas.
Resumen del modelo
Error
R cuadrado estándar de la
Modelo R R cuadrado ajustado estimación
1 ,021a ,000 -,020 1,387
a. Predictores: (Constante), Edad
ANOVAa
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión ,043 1 ,043 ,022 ,882b
Residuo 92,377 48 1,925
Total 92,420 49
a. Variable dependiente: Desesperanza sobre el futuro
b. Predictores: (Constante), Edad
Coeficientesa
Coeficientes
Coeficientes no estandarizad
estandarizados os
Error
Modelo B estándar Beta t Sig.
1 (Constante) 6,542 ,585 11,183 ,000
Edad -,032 ,214 -,021 -,149 ,882
a. Variable dependiente: Desesperanza sobre el futuro
Anova Oneway
Según Gómez, (2005) el análisis de la varianza pretende comprar la hipótesis
nula, para k poblaciones normales, independientes con una varianza desconocida .
Por otra parte, Hernández et al. (2014) la define como una prueba estadística para
comparar si dos o más grupos difieren entre si en cuanto a sus medias y varianzas.
Además, Hernández et al. (2014) refiere dos tipos de variables para esta prueba,
definidas como variables independientes de tipo categórica e independiente por intervalo
o razón.
Formula
𝑺𝑺𝒕𝒐𝒕𝒂𝒍 = 𝑺𝑺𝒇𝒂𝒄𝒕 + 𝑺𝑺𝒊𝒏𝒕
Hipótesis
Hi: Todas las medias de los k grupos son iguales.
Ho: Las medias de los k grupos son diferentes.
Unidireccional
Descriptivos
Intención suicida
Desviación Error 95% del intervalo de Máxim
N Media estándar estándar confianza para la media Mínimo o
Límite Límite
inferior superior
Hombr
28 5,64 ,678 ,128 5,38 5,91 3 6
e
Mujer 22 5,32 ,646 ,138 5,03 5,60 4 6
Total 50 5,50 ,678 ,096 5,31 5,69 3 6
ANOVA
Intención suicida
Suma de Media
cuadrados gl cuadrática F Sig.
Entre grupos 1,299 1 1,299 2,940 ,093
Dentro de
21,201 48 ,442
grupos
Total 22,500 49
Referencias
Álvarez R. (2007). Estadística aplicada a las ciencias de la salud. (1° edición). España: Diaz de
Santos.
Aguilar, A. Altamira, J. & García, O. (2010). Introducción a la inferencia estadística. (1° edición).
Naucalpan de Juárez, México: Pearson Educación.
Bouza, C. N. & Sistachs, V. (2002). Estadística: teoría básica y ejercicios. Cuba: Félix Varela.
Berlanga Silvente, V. y Rubio Hurtado, M.J. (2012) Clasificación de pruebas no paramétricas.
Cómo aplicarlas en SPSS. [En línea] REIRE, Revista d’Innovació i Recerca en Educació,
Vol. 5, núm. 2, 101-113. Accesible en: http://www.ub.edu/ice/reire.htm.
Córdova, M. (2003). Estadística descriptica e inferencial. (5°ta edición). Lima, Perú: Moshera
S.R.L.
Colaboradores de Wikipedia. Correlación [en línea]. Wikipedia, La enciclopedia libre,
2008 [Citado 3 abr 2008]. Disponible en: <http://es.wikipedia.org/w/index.php?title=
Correlaci%C3%B3n&oldid=16339013>.
Daniel W. (1995). Bioestadística, Base para el análisis de las ciencias de la salud. México: 5
edición. Editorial Uteha.
Gibbons, J.D., & Chakraborti, S. (1991). Comparisons of the Mann‐Whitney, Studentʹs t, and
alternate t tests for means of normal distributions. Journal of Experimental Education,
59(3), 258‐267.
George C. Canavos. (1988). Probabilidad y Estadística Aplicaciones y Método. México:
McGraw-Hill.
Gómez, M. (2005). Inferencia estadística. (1° edición). España: Diaz de Santos.
Gómez-Gómez, M., Danglot-Banck, C. & Vega-Franco, L. (2003) Sinopsis de pruebas
estadísticas no paramétricas. Cuando usarlas. Revista mexicana de pediatría. 70(2), 91-
99.
Gómez-Gómez M, Danglot-Banck C, Velásquez-Jones, L. (2003). Sinapsis de pruebas
estadísticas no paramétricas. Cuando usarlas. Revista mexicana de Pediatría, 70(2),91-
99.
Hernández, R. Fernández, C. & Baptista, M. (2014). Metodología de la investigación. (6ta
edición). México: McGraw-Hill.
Jiménez, P. Astudillo, J. Mata, B. Jorge, F. & Correia, d’ O. (2011). Depresión y
drogodependencia: efectos sobre la salud dental Av. Odontoestomatol, 27(1), 41-46.
Lay L. Devore. (2008). Probabilidad y Estadística para la Ingeniería y Ciencias. México: Abril
Vega Orozco.
Matus, R. Hernández, M. García, E. & Franco, G. (2006). Estadística. (1° edición). México:
Instituto politécnico nacional.
Martínez-Gonzalez M, Sánchez-Villegas A, Fajardo J.(2008) Bioestadística amigable. España
3ra edición. Editorial: Diaz de Santos. 5(6),206-206.
Pearson, E.S. (1947). The choice of statistical test illustrated on the interpretation
of data in a 2 x 2 table. Biometrika, (34)139-67.
Quintin, M. & María, T. (2007). Tratamiento estadístico de datos con SPSS. Madrid: Maria, D.R.
Reynaga-Obregón, J. (2001). Estadística básica en ciencias de la salud. México: DEMSA.
Ribera, S. & García, M. (2012). Aplicación de la estadística a la psicología. (1° edición). México:
Miguel Ángel Porrúa.