Está en la página 1de 70

DISEÑO ESTADÍSTICO

en Investigación Cuantitativa

Prof. Lic. Carlos F. Riego C.


Psicometría Aplicada I
Kish, L. (2.004) Statistical Design for Research. Wiley Classics Library Cortada de Kohan, N. (1.994) Diseño Estadístico (Para investigadores de las
Edition Published. New Jersey. Ciencias Sociales y de la Conducta). Editorial Universidad de Buenos Aires
(EUDEBA). Buenos Aires.
“Al tomar en la mano un volumen cualquiera…
preguntémonos:

¿Contiene algún razonamiento abstracto con


respecto a cantidad o número? No.

¿Contiene algún razonamiento experimental


referente a hechos y la existencia? No.

Entonces entreguémoslo a las llamas: ¡pues no puede


contener otra cosa que sofistería e ilusión!”

David Hume, An Emquiry concerning Human Understanding (1977).


(Citado por Henry E. Garrett, 1971, en Estadística en Psicología y Educación)
Diseño

Comparativo Correlacional

Dos grupos Más de dos grupos Dos o más variables

Poseen:
1° Puntaje de intervalo, razón, nominal u ordinal?
2° Distribución normal (simétrica) o asimétrica?
3° Homogeneidad de las Varianzas (homocedasticidad) u
heterocedasticidad?

OBS: Se comparan grupos. Se correlacionan variables.


Algunos estadísticos para contrastar hipótesis
(estadística inferencial)

Pruebas Paramétricas Pruebas No Paramétricas


•r de Pearson •Correlación rho de
(correlación entre 2 variables continuas) Spearman
(variables categóricas)

•Prueba “t” de Student •Ji cuadrada (X2)


(diferencia entre 2 medias de nivel (correlación entre 2 variables
de medición intervalo o razón) categóricas)
• U Mann Whitney
•Análisis de varianza (evaluar 2 grupos por diferencia
entre rango medio)
(ANOVA)
(diferencia entre 3 o más medias) •Prueba de la Mediana
(evaluar 2 o más grupos por
- Prueba POST HOC diferencia entre sus medianas)
DSH de Tukey
Algunos estadísticos para contrastar hipótesis
(estadística inferencial)

Pruebas Paramétricas Pruebas No Paramétricas


•r de Pearson •Correlación rho de
(correlación entre 2 variables continuas) Spearman
(variables categóricas)

•Prueba “t” de Student •Ji cuadrada (X2)


(diferencia entre 2 medias de nivel (correlación entre 2 variables
de medición intervalo o razón) categóricas)
• U Mann Whitney
•Análisis de varianza (evaluar 2 grupos por diferencia
entre rango medio)
(ANOVA)
(diferencia entre 3 o más medias) •Prueba de la Mediana
(evaluar 2 o más grupos por
- Prueba POST HOC diferencia entre sus medianas)
DSH de Tukey
OBS: Se deben cumplir los supuestos (Requisitos) para el empleo de las pruebas
Paramétricas. De no cumplirse se puede recurrir a las pruebas No Paramétricas.

Pruebas No Paramétricas
• Correlación rho de Spearman (Variables categóricas).
• Ji cuadrada (X2) (Correlación entre 2 variables categóricas).
• McNemar o la prueba de signo de Wilcoxon (Evaluar 2 muestras
relacionadas).
• U Mann Whitney (Evaluar 2 grupos independientes por diferencias
entre rango medio).
• Kruskal-Wallis (Evaluar más de 2 grupos por diferencias de rango
medio).
•Prueba de la Mediana (Evaluar 2 o más grupos por diferencia entre sus
medianas).
Ji Cuadrada (X2)
Caso 1: Validación de la prueba proyectiva Bender Clínico en indicadores emocionales

Expansión

Ausencia Presencia n1yn2 Chi P


Grupo Control (Normal) 54 1 55
14,94 < .001
Grupo Casos (Problemas Emocionales) 38 17 55
Expansión (Uso de dos o más hojas de papel): Este indicador está asociado en los niños con impulsividad y tendencia a
la actuación (Acting out).
Caso 2: Niveles de depresión con el BDI-II (Inventario de Depresión de Beck 2)

Nivel de Depresión

Ausencia Leve Moderada Grave n1yn2 Chi P

Femenino 12 38 42 8 100
85,97 < .00
Masculino 44 10 5 41 100
Ji Cuadrada (X2)
Caso 1: Validación de la prueba proyectiva Bender Clínico en indicadores emocionales

Expansión

Ausencia Presencia n1yn2 Chi P


Grupo Control (Normal) 54 1 55
14,94 < .001
Grupo Casos (Problemas Emocionales) 38 17 55
Expansión (Uso de dos o más hojas de papel): Este indicador está asociado en los niños con impulsividad y tendencia a
la actuación (Acting out).
Caso 2: Niveles de depresión con el BDI-II (Inventario de Depresión de Beck 2)

Nivel de Depresión

Ausencia Leve Moderada Grave n1yn2 Chi P

Femenino 12 38 42 8 100
85,97 < .00
Masculino 44 10 5 41 100
Ji Cuadrada (X2)
Caso 1: Validación de la prueba proyectiva Bender Clínico en indicadores emocionales

Expansión

Ausencia Presencia n1yn2 Chi P


Grupo Control (Normal) 54 1 55
14,94 < .001
Grupo Casos (Problemas Emocionales) 38 17 55
Expansión (Uso de dos o más hojas de papel): Este indicador está asociado en los niños con impulsividad y tendencia a
la actuación (Acting out).
Caso 2: Niveles de depresión con el BDI-II (Inventario de Depresión de Beck 2)

Nivel de Depresión

Ausencia Leve Moderada Grave n1yn2 Chi P

Femenino 12 38 42 8 100
85,97 < .00
Masculino 44 10 5 41 100
Ji Cuadrada (X2)
Caso 3: Validación de la prueba proyectiva Persona Bajo la Lluvia - indicadores emocionales.

Paraguas

Ausencia Presencia n1yn2 Chi P

Alta Tolerancia (Puntaje Alto) 40 15 55


Test
14,94 < .003
Psicométrico Baja Tolerancia (Puntaje Bajo) 27 23 55

➢ Prueba Proyectiva:
✓ Presencia de paraguas está asociado a baja tolerancia a la frustración.
✓ Ausencia de paraguas está asociado a tolerancia a la frustración.

➢ Prueba Psicométrica:
✓ Puntajes elevados indican alta tolerancia a la frustración.
✓ Puntajes bajos indican baja tolerancia a la frustración.
Ji Cuadrada (X2)
Caso 4: Tipo de paternidad (Medido en los padres) y autoestima en niños (Medido en los niños).

Autoestima

Baja Media Alta n 1, n 2 y n 3 Chi P

Autoritario 31 9 10 50
Tipo de
21,07 < .03
Paternidad Permisivo 5 28 17 50

Democrático 9 14 27 50

➢ Correlaciones:
✓ Es importante recalcar que, en la mayoría de los casos, las mediciones en las variables a
correlacionar provienen de los mismos sujetos..
✓ No es común que se correlacionen mediciones de una variable hechas en personas o
eventos con mediciones de otra variable realizadas en otras personas.
TIPOS DE TÉCNICAS DE ANÁLISIS DE
DATOS DESDE EL PUNTO DE VISTA
ESTADÍSTICO
1. Análisis Paramétrico:
• Supone que los datos obtenidos se distribuyen
normalmente.
• Las variables a medir son continuas y su nivel
de medición es por intervalo o por razón.
• La varianza poblacional debe ser homogénea y
con dispersión similar.
TIPOS DE TÉCNICAS DE ANÁLISIS DE
DATOS DESDE EL PUNTO DE VISTA
ESTADÍSTICO

2. Análisis No Paramétrico:
• Supone que los datos obtenidos no se
distribuyen normalmente.
• Las variables son categóricas, con nivel de
medición nominal u ordinal

OBS: Se comparan grupos. Se correlacionan variables.


Estos tipos de análisis (Paramétrico y no paramétrico) se consideran para
investigaciones de comprobación de hipótesis.
Pruebas Normalidad y Homogeneidad de las Varianzas

Normalidad Homocedasticidad
•Shapiro y Wilk •Levene
(tamaño muestral igual o menor que 50) (Varianzas iguales)

•Kolmogorov - Smirnov •Box


(tamaño muestral superior a 50) (Igualdad entre matrices de
varianza y covarianza)
•Prueba Z
(de la desviación normalizada)
Distinción entre poblaciones y muestras:

• En la ciencia buscamos hacer generalizaciones sobre todos los humanos.


Las características de las poblaciones se llaman parámetros, y las
características de las muestras se llaman estadísticos o estadígrafos.
• Un parámetro es una medida que se averigua con base en todas las
observaciones posibles de una población, mientras que un estadígrafo o
estadístico es un valor calculado solamente a partir de una muestra.

• La distinción entre parámetros y estadísticos se marca utilizando letras


griegas como símbolos para los parámetros. Ejemplo:
✓  = media de la población → Parámetro.
✓ 𝐱ത = media de la muestra → Estadígrafo o estadístico.
✓  = letra griega minúscula rho que señala correlación en la población.
✓ r = correlación para la muestra.
✓  = desviación estándar de la población.
✓ S = desviación estándar de la muestra.
DISTRIBUCIÓN NORMAL
OBS: Distribución ≠ Dispersión.
Puntajes de la Escala f Puntajes de la Escala f
10 1 10 ?
9 2 9 ?
8 3 8 ?
7 4 7 ?
6 6 6 ?
5 5 5 ?
4 4 4 ?
3 3 3 ?
2 2 2 ?
1 1 1 ?

- Grupo de Casos. - Grupo de Control.


- Grupo Experimental. - Grupo de Control.
- Variable “x”. - Variable “y”.
DISTRIBUCIÓN NORMAL

f
7

0
1 2 3 4 5 6 7 8 9 10

Puntaje Crudo del Test


DISTRIBUCIÓN NORMAL

Puntajes de la Escala f f
10 1 7
9 2
6
8 3
5
7 4
4
6 6
5 5 3

4 4 2
3 3 1
2 2 0
1 1 1 2 3 4 5 6 7 8 9 10
DISTRIBUCIÓN ASIMÉTRICA

Puntajes de la Escala f
10 1
9 1
8 2
7 2
6 3
5 3
4 4
3 4
2 5
1 6
DISTRIBUCIÓN ASIMÉTRICA
f
7
6
5
4
3
2
1
0
1 2 3 4 5 6 7 8 9 10

Puntaje Crudo del Test

SESGADO POSITIVAMENTE (+)


DISTRIBUCIÓN ASIMÉTRICA

Puntajes de la Escala f
10 6
9 5
8 4
7 4
6 3
5 3
4 2
3 2
2 1
1 1
DISTRIBUCIÓN ASIMÉTRICA
f
7
6
5
4
3
2
1
0
1 2 3 4 5 6 7 8 9 10

Puntaje Crudo del Test

SESGADO NEGATIVAMENTE (-)


MEDIDAS DE DISPERSIÓN: S y S2
Sujetos Participantes x S S²
X = Puntaje.
Sujeto 1 Lina 7 2 4 S → DS = Desvío Estándar.
Sujeto 2 Juana 3 -2 4 S² → DS² = Varianza.
Sujeto 3 Silvia 8 3 9
Sujeto 4 Adolfo 2 -3 9
Σ = 20 Σ=0 Σ = 26
20
xത = =5
4
Desvío Estándar (S) y Varianza (S2)
Desvío Estándar (S) y Varianza (S2)
Dispersión vs. Distribución
Significancia
Estadística
vs.
Relevancia
Clínica
Psicometría Aplicada I – Área Clínica
4to. Curso 2da. Sección - UNA
Ejemplo: Glucosa en sangre
• Normal: 60 a 110.
✓Grupo 1 (109) vs. Grupo 2 (111).

G1: 109

G2: 111
60 110

✓¿Existen diferencias clínicas?


✓¿Existen diferencias estadísticas?
Ejemplo: Glucosa en sangre
• Normal: 60 a 110.
✓Grupo 1 (61) vs. Grupo 2 (109).

G2: 109
G1: 61

60 110

✓¿Existen diferencias clínicas?


✓¿Existen diferencias estadísticas?
Ejemplo: Glucosa en sangre
• Normal: 60 a 110.
✓Grupo 1 (61) vs. Grupo 2 (120).

G2: 120
G1: 61

60 110

✓¿Existen diferencias clínicas?


✓¿Existen diferencias estadísticas?
Ejemplo: Glucosa en sangre
• Normal: 60 a 110.
✓Grupo 1 (121) vs. Grupo 2 (120).

G2: 120

G1: 121
60 110

✓¿Existen diferencias clínicas?


✓¿Existen diferencias estadísticas?
✓¿Es de relevancia c……?
✓ ¿Qué se necesita para que sea de relevancia c…?
Se pueden presentar:
✓Diferencias clínicas pero no estadísticas.
✓Diferencias estadísticas pero no clínicas.
✓Diferencias clínicas y estadísticas.
✓No existen diferencias clínicas ni estadísticas.
✓Relevancia clínica.
HIPÓTESIS ESTADÍSTICAS
• Hipótesis de Investigación Hi.
• Hipótesis Alternativa Ha.
• Hipótesis Nula.

ERRORES DE INVESTIGACIÓN EN INFERENCIA

• Error Tipo I: Rechazar la Ho cuando es verdadera.


• Error Tipo II: Aceptar la Ho cuando es falsa.
Tipos de Hipótesis

Metodología Estadística

Hipótesis Empleo de
Direccional una cola

Hipótesis No Empleo de
Direccional dos colas
Valores críticos de la Los valores enumerados en la tabla son los valores críticos de t para los grados de libertad dados
distribución t de (columna de la izquierda) y el nivel alfa (encabezado de la columna). Para los niveles alfa de dos
Student colas, tcrit es + y -. Para ser significativo, |tobt| ≥ |tcrít|. TABLA t

Nivel de significado para la prueba de una cola

.10 .05 .025 .01 .005 .0005


gl
Nivel de significado para la prueba de dos colas

.20 .10 .05 .02 .01 .001

1 3.078 6.314 12.706 31.821 63.657 636.619


2 1.886 2.920 4.303 6.965 9.925 31.598
3 1.638 2.353 3.182 4.541 5.841 12.941
4 1.533 2.132 2.776 3.747 4.604 8.610
5 1.476 2.015 2.571 3.365 4.032 6.859
6 1.440 1.943 2.447 3.143 3.707 5.959
7 1.415 1.895 2.365 2.998 3.499 5.405
8 1.397 1.860 2.306 2.986 3.355 5.041
9 1.383 1.833 2.262 2.821 3.250 4.781
10 1.372 1.812 2.228 2.764 3.169 4.587
11 1.363 1.796 2.201 2.718 3.106 4.437
12 1.356 1.782 2.179 2.681 3.055 4.318
13 1.350 1.771 2.160 2.650 3.012 4.221
14 1.345 1.761 2.145 2.624 2.977 4.140
15 1.341 1.753 2.131 2.602 2.947 4.073
16 1.337 1.746 2.120 2.583 2.921 4.015
17 1.333 1.740 2.110 2.567 2.898 3.965
18 1.330 1.734 2.101 2.552 2.878 3.922
19 1.328 1.729 2.093 2.539 2.861 3.883
20 1.325 1.725 2.086 2.528 2.845 3.850
21 1.323 1.721 2.080 2.518 2.831 3.819
22 1.321 1.717 2.074 2.508 2.819 3.792
23 1.319 1.714 2.069 2.500 2.807 3.767
24 1.318 1.711 2.064 2.492 2.797 3.745
25 1.316 1.708 2.060 2.485 2.787 3.725
26 1.315 1.706 2.056 2.479 2.779 3.707
27 1.314 1.703 2.052 2.473 2.771 3.690
28 1.313 1.701 2.048 2.467 2.763 3.674
29 1.311 1.699 2.045 2.462 2.756 3.659
30 1.310 1.697 2.042 2.457 2.750 3.646
40 1.303 1.684 2.021 2.423 2.704 3.551
60 1.296 1.671 2.000 2.390 2.660 3.460
120 1.289 1.658 1.980 2.358 2.617 3.373
00 1.282 1.645 1.960 2.326 2.576 3.291
TABLA A Los valores enumerados en la tabla son los valores críticos de r para los grados de libertad dados (columna de la
Valores críticos de izquierda) y el nivel alfa (encabezado de la columna). Para los niveles alfa de dos colas, r crít + y -. Para ser
la r de Pearson significativo, |r obt | ≥ |r crít|.

Nivel de significado para la prueba de una cola

.05 .025 .01 .005 .0005

Nivel de significado para la prueba de dos colas


gl = N - 2

.10 .05 .02 .01 .001

1 .9877 .9969 .9995 .9999 1.0000


2 .9000 .9500 .9800 .9900 .9990
3 .8054 .8783 .9343 .9587 .9912
4 .7293 .8114 .8822 .9172 .9741
5 .6694 .7545 .8329 .8745 .9507
6 .6215 .7067 .7887 .8343 .9249
7 .5822 .6664 .7498 .7977 .8982
8 .5494 .6319 .7155 .7646 .8721
9 .5214 .6021 .6851 .7348 .8471
10 .4973 .5760 .6581 .7079 .8233
11 .4762 .5529 .6339 .6835 .8010
12 .4575 .5324 .6120 .6614 .7800
13 .4409 .5139 .5923 .6411 .7603
14 .4259 .4973 .5742 .6226 .7420
15 .4124 .4821 .5577 .6055 .7246
16 .4000 .4683 .5425 .5897 .7084
17 .3887 .4555 .5285 .5751 .6932
18 .3783 .4438 .5155 .5614 .6787
19 .3687 .4329 .5034 .5487 .6652
20 .3598 .4227 .4921 .5368 .6524
25 .3233 .3809 .4451 .4869 .5974
30 .2960 .3494 .4093 .4487 .5541
35 .2746 .3246 .3810 .4182 .5189
40 .2573 .3044 .3578 .3932 .4896
45 .2428 .2875 .3384 .3721 .4648
50 .2306 .2732 .3218 .3541 .4433
60 .2108 .2500 .2948 .3248 .4078
70 .1954 .2319 .2737 .3017 .3799
80 .1829 .2172 .2565 .2830 .3568
90 .1726 .2050 .2422 .2673 .3375
100 .1638 .1946 .2301 .2540 .3211
Referencia Bibliográfica

• Anguera, M. T., Arnau, J., Alto, M., Martinez, R., Pascual,


J. y Vallejo, G. (2007) Métodos de Investigación en
Psicología. Madrid: Síntesis.
• Botella, J., León, O. G. y San Martín (1993) Análisis de
Datos en Psicología I. Madrid: Pirámide.
• Clark-Carter, D. (2002). Investigación Cuantitativa en
Psicología. Del diseño experimental al reporte de
investigación. México: Oxford.
• Coolican, H. (1997) Métodos de Investigación y Estadística
en Psicología (2ª ed.). México: Manual Moderno.
Referencia Bibliográfica
• Cortada de Cohan, N. (1994) Diseño Estadístico. Para
investigadores de las Ciencias Sociales y de la Conducta.
Buenos Aires: EUDEBA.
• Garret, H. (1971) Estadística en Psicología y Educación (2ª
ed.). Buenos Aires: Paidós.
• Kaplan, R. y Saccuzzo, D. (2006). Pruebas Psicológicas (6ª
ed.). México: Thomson.
• Kazdin, A. (2001) Métodos de Investigación en Psicología
Clínica (3ª ed.). México: Prentice Hall.
• Kerlinger, F. N. y Howard, B. L. (2002) Investigación del
Comportamiento. Métodos de Investigación en Ciencias
Sociales (4ª ed.). México: McGraw-Hill.
Referencia Bibliográfica
• Levin, J. y Levin, W. (1999) Fundamentos de Estadística en
la Investigación Social (2ª ed.). México: Oxford.
• McGuigan, F. J. (1996) Psicología Experimental. Métodos
de Investigación. (6ª ed.). México: Prentice Hall.
• Montero, I. y León, O. (2004). Sistema de Clasificación del
Método en los Informes de Investigación en Psicología.
International Journal o Clinical and Health Psychology, 5, 1,
pp. 115-127.
• Pagano, R. (1999) Estadística para la Ciencias del
Comportamiento (5ª ed.). México: Thomson.
• Pardo Merino, A. y Ruiz Díaz, M. A. (2002) SPSS 11 Guía
para el Análisis de Datos. Madrid: McGraw-Hill.
Referencia Bibliográfica

• Pardo, A. y San Martín, R. (1999) Análisis de Datos en


Psicología II (2ª ed.). Madrid: Pirámide.
• Polit, D. y Hungler, B. (2000) Investigación Científica en
Ciencias de la Salud (5ª ed.). México: McGraw-Hill.
Galton: Un caballero genial.
Galton: Un caballero genial.
• Francis Galton es considerado el inventor de cálculo
estadístico denominado correlación, aunque Karl Pearson y
otros desarrollaron las fórmulas.
• William S. Gosset, otro importante estadístico precursor,
inventor de la prueba t. Gosset era alumno y colega de Karl
Pearson.
• Karl Pearson, a su vez, fue alumno y colega de Galton (a
quien Pearson otorgó todo el crédito por el descubrimiento
de la correlación). En otras palabras, el mundo de la
estadística en ese momento pertenecía a un pequeño y
selecto club británico. De hecho, casi toda la ciencia en
generalera una especie de club apenas más amplio. Por
ejemplo, Galton estaba muy influenciado también por su
propio primo, Charles Darwin.
Galton: Un caballero genial.
• De todos los miembros de este club, Galton era tal vez el
más típico de su época, un caballero científico, excéntrico y
acaudalado. Además de su trabajo en estadística, poseía un
título en medicina, exploró el “África oscura”, inventó
anteojos para leer debajo del agua, experimentó con
mapas estereoscópicos, incursionó en la meteorología y
antropología y escribió un informe sobre la recepción de
señales inteligibles desde las estrella.
• Sobre todo, Galton era un contador compulsivo. Algunos de
sus recuentos eran infames. Una vez, mientras asistía a una
cátedra, contó las veces por minuto en que la audiencia se
impacientaba, buscando variaciones relacionadas con lo
aburrido del tema tratado. En dos oportunidades se hizo
retratar y se dedicó a contar las pinceladas que daba el….
Galton: Un caballero genial.
• artista por hora, llegando a la conclusión de que cada
retrato requería un promedio de 20.000 pinceladas. Y
mientras caminaba por las calles de varias ciudades de las
Islas Británicas, clasificó la belleza de los habitantes
femeninos pulsando un mecanismo de grabación que
llevaba en su bolsillo con el que registraba “bueno”,
“regular” o “malo”.
• Sin embargo, el interés que consumía a Galton era contar la
cantidad de genios, criminales y otros caracteres típicos
existentes en las distintas familias. Quería comprender
cómo se producía cada tipo para que la ciencia pudiera
mejorar la raza humana: la finalidad sería estimular a los
gobiernos a imponer la eugenesia, es decir, la procreación
selectiva orientada a lograr un mayor nivel de inteligencia,
Galton: Un caballero genial.
• comportamiento moral adecuado, y otras cualidades, que
serían determinadas, por supuesto, por el eugenista. (A
partir de esa época, la eugenesia cayó en el descrédito). El
concepto de correlación surgió directamente de los
primeros y sencillos esfuerzos de Galton en ese sentido: el
estudio de la relación entre la altura de los niños y sus
padres.
• En realidad, gran parte de la ciencia estadística, o
“biometría”, como la denominaba Galton, surgió como
aplicación de la matemática a temas relacionados con la
biología y las ciencias sociales. Y de todos los cálculos
estadísticos, la correlación fue una herramienta
especialmente útil para estas ciencias en las que, por lo
general, no podían realizarse experimentos de procreación
Galton: Un caballero genial.
• en humanos. Al principio, el método de Galton para medir
la tendencia con que “una cosa ocurría junto con otra”
parecía ser casi el mismo que para probar la causa de algo.
Por ejemplo, si podía demostrarse matemáticamente que la
mayoría de las personas más brillantes provenían de unas
pocas familias británicas de alta alcurnia, y la mayoría de
las personas menos inteligentes provenían de las familias
pobres, aparentemente se probaría que la inteligencia era
producto de la herencia de ciertos genes (siempre que uno
fuera lo suficientemente prejuicioso como para pasar por
alto las diferencias en cuanto a oportunidades educativas).
• El mismo estudio podría probar en forma más convincente
que si uno era miembro de una de las mejores familias
británicas, la historia lo convertiría en un excelente ejemplo
Galton: Un caballero genial.
• de la facilidad con que se malinterpreta el significado de la
correlación.
Referencia Bibliográfica

• Peters, W. S. (1987). Counting for something: Statistical


principles and personalities. New York: Springer-Verlag.
• Tankard, J., Jr. (1984). The statistical Pioneer. Cambridge,
MA: Schenkman.
• Aron, A. y Aron, E. N. (2001) Estadística para psicología
(2ª ed.). Buenos Aires: Pearson Education.
Karl Pearson: Centro de controversias.
Karl Pearson: Centro de controversias.
• Karl Pearson, hijo de un abogado de Yorkshire, nació en el
año 1.857. Pearson es muchas veces aclamado como el
fundador de la ciencia estadística. La mayoría de sus
virtudes y sus vicios se revelan en lo que él relató a su
colega Julia Bell como sus primeros recuerdos: estaba
sentado en su sillita alta, con el pulgar en la boca, cuando le
dijeron que dejara de hacerlo o si no su pulgar iba a
desaparecer. Pearson miró sus dos pulgares y
silenciosamente concluyó: “No veo que el pulgar que me
llevo a la boca sea para nada más pequeño que el otro; me
pregunto si me estarán mintiendo.” Lo anterior refleja la
confianza que Pearson tenía en sí mismo y en las pruebas
obtenidas por la observación, como también su negación a
la autoridad. También podemos observar su tendencia a
Karl Pearson: Centro de controversias.
• dudar del carácter de las personas con quienes no estaba
de acuerdo.
• Pearson estudió matemática gracias a una beca en
Cambridge. Poco después de ingresar, pidió que se lo
excusara de las clases obligatorias de teología y del servicio
religioso. Sin embargo, en cuanto accedieron a su pedido,
Pearson asistió al servicio religioso. El Decano lo convocó
para que diera una explicación, y Pearson declaró que no
había pedido que se lo excusara del servicio religioso,
“¡sino del servicio religiosos obligatorio!”
• Después de graduarse, Pearson viajó y estudió en
Alemania, donde practicó la doctrina socialista y, como él
mismo lo describía, se convirtió en un “libre pensador”. Al
regresar a Inglaterra, elaboró un trabajo escrito bajo un
Karl Pearson: Centro de controversias.
• seudónimo, en el que atacaba a la cristiandad, y en 1.885
fundó un club de hombres y mujeres para promover la
discusión de las relaciones entre los sexos. El club
desapareció, pero gracias a él conoció a su esposa, María
Sharp.
• Pearson finalmente se volcó a la estadística debido a su
interés por probar la teoría de la evolución, y además
estaba especialmente influenciado por la obra de Sir
Francis Galton. Pearson, que era mejor matemático, vio en
las ideas de correlación de Galton, una forma de convertir
la psicología, la antropología y la sociología en campos tan
científicos como lo eran la física y la química. Esperaba
evitar la cuestión de la causalidad a través de la utilización
de esta categoría más amplia de correlación, asociación,
Karl Pearson: Centro de controversias.
• o contingencia (con un rango de 0, independencia a 1,
“unidad de causalidad”. “Ningún fenómeno es causal” –
expresó. “Todos los fenómenos son contingentes, y el
problema que enfrentamos es el de medir el grado de
contingencia”.
• Durante toda su vida, Pearson fue muy controvertido y tuvo
una fuerte voluntad, especialmente cuando se trataba de
“seudo ciencia” y de la mascarada de la teología, la
metafísica o las apelaciones a la autoridad bajo el pretexto
de la ciencia. Incluso pensaba que la física debía dejar de
utilizar palabras como átomo, fuerza y materia porque no
eran fenómenos observables.
• La mayor parte de su investigación, entre 1.893 y 1.901, se
concentró en las leyes de la herencia y la evolución, pero
Karl Pearson: Centro de controversias.
• necesitaba mejores métodos estadísticos para realizar su
trabajo. Entonces se volcó a otros temas, realizando
finalmente su más famosa contribución, la prueba chi-
cuadrado.
• Pearson también inventó el método de cálculo de la
correlación utilizado en la actualidad y acuñó los términos
histograma, asimetría y correlación espuria. Cuando sintió
que las revistas especializadas en biología no apreciaban
adecuadamente su trabajo, fundó la famosa revista
especializada en estadística, llamada Biométrika. Durante
su vida, Pearson llevó la estadística de la situación de
materia ampliamente ignorada a una posición primordial
para el método científico, especialmente en las ciencias
naturales.
Karl Pearson: Centro de controversias.
• Lamentablemente, Pearson era fanático de la eugenesia, el
“perfeccionamiento” de la raza humana a través de la
reproducción selectiva y, más tarde, su obra fue utilizada
por los nazis como justificación de su trato a los judíos y
otras minorías étnicas. Pero a medida que Pearson
envejecía, sus opiniones enfrentaron fuerte resistencia y
mucho descrédito por parte de otros estadísticos más
jóvenes, lo que sólo sirvió para poner a Pearson en contra
de cada vez una mayor cantidad de colegas.
• De hecho, a lo largo de su vida, Pearson fue un hombre que
provocó amistades devotas o, por el contrario, profunda
aversión. William S. Gosset el inventor de la prueba t, fue
uno de sus amigos. Sir Ronald Fisher, inventor del análisis
de varianza y hombre relacionado con actitudes aún más
Karl Pearson: Centro de controversias.
• extremas, fue uno de los peores enemigos de Pearson (y el
amable, pacífico Gosset, amigo de ambos, estaba siempre
intentando suavizar los problemas entre ellos). En 1.933,
Pearson finalmente se retiró, y fue Fisher, nada menos,
quien tomó su lugar en la cátedra de Eugenesia de Galton
en la Universidad de Londres. En 1.936, lo dos comenzaron
su más punzante discusión; Pearson murió ese mismo año.
Referencia Bibliográfica

• Peters, W. S. (1987). Counting for something: Statistical


principles and personalities. New York: Springer-Verlag.
• Stigler, S. M. (1986). The history of statistics. Cambridge,
MA: Belknap Press.
• Tankard, J., Jr. (1984). The statistical Pioneer. Cambridge,
MA: Schenkman.
• Aron, A. y Aron, E. N. (2001) Estadística para psicología
(2ª ed.). Buenos Aires: Pearson Education.
William Sealy Gosset (1.876-1.937)“Student”:
no era matemático sino un “hombre práctico”.
William Sealy Gosset, alias “Student”
• William Sealy Gosset fue un estadístico, mejor conocido
por su sobrenombre literario Student.
• Nacido en Canterbury, hijo de Agnes Sealy Vidal y el
coronel Frederic Gosset, asistió a la famosa escuela privada
Winchester College, antes de estudiar química y
matemática en el New College de Oxford. Tras graduarse en
1899, se incorporó a las destilerías Guinness en Dublín.
• Guinness era un negocio agroquímico progresista y Gosset
podría aplicar sus conocimientos estadísticos tanto a la
destilería como a la granja (para seleccionar las mejores
variedades de cebada. Gosset adquirió ese conocimiento
mediante estudio, prueba y error así como pasando dos
temporadas durante 1906/7 en el laboratorio bioquímico
de Karl Pearson. Gosset y Pearson tenían una buena
William Sealy Gosset, alias “Student”
• relación y este último ayudó a Gosset con la matemática de
sus artículos.
• Pearson contribuyó a los artículos de 1908, pero no apreció
lo suficiente su importancia. Los artículos se referían a la
importancia de las pequeñas muestras para la destilería,
mientras que el biólogo disponía normalmente de cientos
de observaciones y no veía la urgencia en el desarrollo de
métodos basados en unas pocas muestras.
• Otro investigador de Guinness había publicado
anteriormente un artículo que contenía secretos
industriales de la destilería. Para evitar futuras exposiciones
de información confidencial, Guinness prohibió a sus
empleados la publicación de artículos independientemente
de la información que contuviesen.
William Sealy Gosset, alias “Student”
• Esto significaba que Gosset no podía publicar su trabajo
usando su propio nombre. De ahí el uso de su pseudónimo
Student en sus publicaciones, para evitar que su empleador
lo detectara.
• Por tanto, su logro más famoso se conoce ahora como la
distribución t de Student, que de otra manera hubiera sido
la distribución t de Gosset.
• Gosset publicó El error probable de una media y casi todos
sus artículos usando el pseudónimo Student en la
publicación Biometrika creada por Pearson.
• Sin embargo, fue R.A. Fisher quien apreció la importancia
de los trabajos de Gosset sobre muestras pequeñas, tras
recibir correspondencia de Gosset en la que le decía le
envío una copia de las Tablas de Student,
William Sealy Gosset, alias “Student”
• ¡ya que es la única persona que probablemente las use
jamás!.
• Fisher creyó que Gosset había efectuado una "revolución
lógica". Irónicamente la estadística t por la que Gosset es
famoso fue realmente creación de Fisher.
• La estadística de Gosset era z = t/√(n - 1). Fisher introdujo la
forma t debido a que se ajustaba a su teoría de grados de
libertad. Fisher es responsable también de la aplicación de
la distribución t a la regresión.
• Aunque fueron introducidos por otros, los residuos
estudentizados reciben su nombre en honor a Student
porque, al igual que con el problema que llevó a la
distribución t de Student, la idea de ajustar usando las
desviaciones estándar estimadas la base del concepto.
William Sealy Gosset, alias “Student”
• El interés de Gosset en el cultivo de la cebada le llevó a
especular que el diseño de experimentos debería dirigirse
no sólo a mejorar la producción media, sino también a
desarrollar variedades cuya producción no se viese
afectada (robusta) por las variaciones en el suelo y el clima.
• Este principio sólo aparece más adelante en las ideas de
Fisher y luego en el trabajo de Genichi Taguchi en los años
1950.
• En 1935 dejó Dublín para ocupar el puesto de Destilador
Jefe (Head Brewer), a cargo de la parte científica de la
producción, en la nueva destilería Guinness de Londres.
Murió en Beaconsfield, Inglaterra.
William Sealy Gosset, alias “Student”
• Gosset fue amigo tanto de Pearson como de Fisher, un gran
logro, ya que ambos se profesaban un intenso desprecio
mutuo.
• Gosset fue un hombre modesto que cortó a un admirador
con el comentario "Fisher lo hubiera descubierto de todas
maneras".
Referencia Bibliográfica

• Peters, W. S. (1987). Counting for something: Statistical


principles and personalities. New York: Springer-Verlag.
• Stigler, S. M. (1986). The history of statistics. Cambridge,
MA: Belknap Press.
• Tankard, J., Jr. (1984). The statistical Pioneer. Cambridge,
MA: Schenkman.
• Aron, A. y Aron, E. N. (2001) Estadística para psicología
(2ª ed.). Buenos Aires: Pearson Education.
• William Sealy Gosset. (2016). En Wikipedia. Recuperado el
22 de mayo de 2017 de
https://es.wikipedia.org/wiki/William_Sealy_Gosset

También podría gustarte