Está en la página 1de 48

Historia 

de la Estadística
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández
                               
Historia de la Estadística
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández

Estadística proviene del término alemán Statistik y significa Ciencia de Estado,
por qué en sus orígenes se utilizaba únicamente con fines estatales, al ser los
gobiernos de las naciones los que siempre han tenido la necesidad de conocer
las características de la población para gestionar el reparto de tierras o bienes,
prestación de servicios públicos, pago de impuestos, etc.
Los gobernantes, por razones de organización, tuvieron y tienen que recoger y procesar la
información de alguna forma, o hacer estadísticas de la población.
Los Censos son los primeros estudios estadísticos,  se inician en  la Edad Antigua y
siguen actualmente, son estudios descriptivos sobre todos los integrantes de la
población. En los Censos se pregunta a toda la población, aportando mucha
información. Tienen el inconveniente que dura mucho tiempo en ejecutarse y el
proceso suele ser caro. Después de preguntar hay que procesar los datos.

Para agilizar la recogida de datos y analizar la información recogida de algunas
características de la población se utilizan los Registros, que son listados en donde
los ciudadanos tienen que inscribirse, como sucede en el nacimiento de un hijo o
hija, en un matrimonio o en una defunción, etc.

Con el tiempo surgen las Encuestas como alternativas a los Censos.
Las Encuestas recogen información de solo una parte de la población, después
se generalizan los resultados obtenidos en la muestra para toda la población.
George Gallup en 1935 hace sondeos electorales para conocer los gustos de la
gente y estudiar la opinión de la masa social en Estados Unidos.

Antes de llegar a las Encuestas fue necesario desarrollar la Teoría
de la Probabilidad (rama de las Matemáticas), de la Inferencia
Estadística y del Muestreo (rama de las Estadística).

En la Edad Moderna matemáticos como Pierre de Fermat (1601‐1665) y  Blaise
Pascal (1623‐1662)  iniciaron las bases de la Teoría de la Probabilidad, que se utilizó
para  estudiar "fenómenos aleatorios", donde pueden aparecer varios resultados no
pudiendo predecirse un resultado particular (lanzamiento de un dado). Después
comenzó a aplicarse a sucesos demográficos y económicos.
John Graunt  (1620‐1674) fue el primer demógrafo, fundador de la actual bioestadística y el precursor de
la epidemiología, estableció investigaciones actuariales y demográficas.
El profesor alemán Gottfried Achenwall (1719‐1772) acuñó el término de Estadística como ciencia de
recopilación y análisis de datos, herramienta muy útil para políticos y gobernantes de una nación.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 1
En la Edad Contemporánea (1789 ‐ actualidad) hay un desarrollo científico y filosófico
propiciando la aplicación de la Estadística a las Ciencias Sociales. Por otra parte,
aparecen nuevas técnicas ampliando su utilidad, además de estudios descriptivos,
estudiando y cuantificando relaciones entre variables (Análisis de datos).
Se continúan haciendo estudios de Censos. En España:  el Censo de Conde de  Floridablanca (1787)
con una finalidad demográfica y  económica y no fiscal.  El Censo de Manuel Godoy (1797)
presentando los datos de la población española por Intendencias o provincias.

Los estudios demográficos, económicos y sociales, con fines políticos o no,
adquieren cada vez más importancia. El desarrollo de las Matemáticas y de
otras Ciencias proporcionan técnicas analíticas que facilitan establecer
relaciones entre variables, el grado de influencia de una variable sobre otra
y hacer predicciones.
La recogida y procesamiento de la información experimenta un gran avance.
El desarrollo de la Inferencia estadística y del Muestreo hace posible que se
pueda estudiar la población a través de solo una parte de ella (se conoce
como Muestra), con ello se facilita y abarata la recogida de datos (son menos
individuos) y procesamiento de los datos (hay menos).

Los trabajos de Pierre Simon Laplace ( 1749‐1827) , Johann Carl Friedrich
Gauss (1777‐1855) y  Adrien Marie Legendre (1752‐1833) desarrollaron
conceptos como la teoría de los errores en la observación y el método de
los mínimos cuadrados, muy utilizados en el análisis matemático.
 
El científico belga Lambert Adolphe Jacques Quételet (1796‐1874) fue uno de los primeros en aplicar de
forma rigurosa estas nuevas técnicas estadísticas a las Ciencias Sociales, con el objetivo de descubrir las
Leyes Naturales que regían determinados sucesos sociales y demográficos (tasa de criminalidad o de
nupcialiadad).

A finales del siglo XIX y XX  la Teoría de la Probabilidad y la Estadística
tienen un gran impulso.
En Probabilidad destacan los trabajos de Andréi Markov (1856‐1922) y
Pafnuti Lvóvich Chebyshev (1821‐1894).
En el campo de la Estadística los trabajos de Irving Fisher (1867‐1947)  y de John Wilder Tukey (1915‐2000).
Sir Ronald Aylmer Fisher (1890‐1962) desarrolló ideas originales en el campo de la Inferencia estadística y
en el Diseño de Experimentos.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 2
El primer gran avance aparece con la Estadística Paramétrica, estadísticos, como Karl
Pearson (1857 ‐ 1936) , Irving Fisher (1867‐1947) y William Sealy Gosset (1876 ‐ 1937) ,
junto con otros, crearon procedimientos de decisión estadística (estimación puntual,
estimación por intervalos y contrastes de hipótesis) con supuestos prefijados sobre la
distribución de las variables analizadas, en especial el supuesto de normalidad.

El segundo gran avance consiste en introducir la Estadística No Paramétrica,
considerando que el Método Paramétrico se fundamentaba en tomar decisiones con
unos criterios que no eran ciertos, era necesario  construir procedimientos de decisión
que no dependieran de supuestos tan exigentes. Se crearon estadísticos con una
distribución dependiente de los cálculos realizados en la muestra, no de la distribución
de la población.
El tercer gran avance surge con la simulación, el remuestreo y  las posibilidades que
brindan   la informática y la programación. Estos procedimientos simulando permiten
encontrar la distribución del estadístico de cualquier test bajo el supuesto de ser cierta
la hipótesis nula.  Se desarrollan  estadísticos considerando la muestra como una
población,  para después, desde esta población artificial, generar posibles muestras bajo
las condiciones que se quiera.
De este modo, se puede encontrar cuál es la distribución simulada de un estadístico y construir intervalos
de confianza, realizar contrastes de hipótesis, etc.

      

En la Edad Antigua (desde el nacimiento de la escritura hasta la Caída del
Imperio Romano en el 476 d. C.) la actividad estadística consistió en elaborar
Censos de población y de tierras. La finalidad de los Censos era obtener datos
sobre personas que podrían ir al ejército, establecer reparto de tierras u
otros bienes  y  facilitar gestiones tributarias.

BABILONICOS:  Hacía el año 3.000 a.C. los babilonios utilizaban pequeñas tablillas de
                          arcilla para recopilar datos en tablas sobre la producción agrícola y de
                          los artículos vendidos o cambiados mediante el trueque.

En Egipto la actividad estadística comenzó en la Dinastía I (3050 ‐ 2890 a. C.) ,
según el historiador griego Herodoto, algunos faraones ordenaban Censos de
riqueza y población para planificar la construcción de pirámides.
En la Dinastía XIX, el faraón Ramsés II (1279‐1214 a. C.) mandó elaborar un
Censo para establecer un nuevo reparto de tierras.

En China, el emperador Yao mandó elaborar un Censo general (2238 a. C.)  recogiendo datos
sobre la actividad agrícola, comercial  e industrial.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 3
En Asiria (Alta Mesopotamia),  el rey Sargón II fundó la Biblioteca Asurbanipal en
Ninive, donde se guardaron una recopilación de hechos históricos, religiosos,
importantes datos estadísticos sobre producción, cuentas; así como también datos de
medicina, astronomía, etc.

Grecia tuvo importantes observaciones estadísticas en lo que refiere a distribución
de terreno, servicio militar, etc. Destacar entre los griegos a Sócrates, Herodoto y
Aristóteles, quienes a través de sus escritos incentivaron la Estadística por su
importancia para el Estado.
Los griegos efectuaron Censos periódicamente con fines tributarios, sociales (división de tierras) y militares
(cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos
para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Los romanos, maestros de la organización política, fueron quienes mejor supieron emplear
los recursos de la Estadística.
El rey romano Servio Tulio (578  – 535 a.C.) elaboró un Catastro de todos los dominios de
Roma. Mandó crear un registro en el que los propietarios debían inscribir sus fincas,
personal de servidumbre, esclavos y bestias de tiro que se poseyeran.
Los Censos y  la actividad Estadística tuvieron especial importancia. Cada cinco años se establecieron registros
de nacimientos, defunciones y matrimonios, se elaboraron recuentos periódicos sobre el ganado y riquezas
contenidas en las tierras conquistadas.

Durante la Edad Media (476 –1453 d.C.) se realizaron muy pocas operaciones
Estadísticas, con las notables excepciones del Censo de tierras pertenecientes a
la Iglesia compiladas por Pipino el Breve en el 758, el  Censo de Carlomagno en el
762 de tierras pertenecientes a la Iglesia y en 1085 el Registro de propiedades,
extensión y valor de las tierras de la Iglesia de Guillermo I el Conquistador.

Destacar el trabajo de Isidoro de Sevilla que en su obra Originum sive Etymologiarum
(634), más conocida bajo su título abreviado Las Etimologías, recopiló una extraordinaria
cantidad de datos, resultando ser la obra más consultada y copiada por los estudiosos de
la Europa medieval hasta la recepción de la ciencia árabe.

En la Edad Moderna (1454 ‐ 1789)  la obtención de información es a
través de los  Censos.

Durante este período en España destacar, entre otros, el Censo de Pecheros (1528) durante el reinado de
Carlos I, el Censo de los Obispos (1587) durante el reinado de Felipe II, el Censo de los Millones (1591)
donde Felipe II como consecuencia de la pérdida de la Armada Invencible aprueba a través
de las Cortes de Castilla un donativo extraordinario de ocho millones de ducados a pagar en seis
anualidades desde el segundo semestre de 1590, o el Censo del Conde de Aranda (1768) con objetivos
distintos de los anteriores censos de vecinos.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 4
En la década de 1500  la epidemia en Inglaterra origina que comiencen a publicarse semanalmente datos
sobre defunciones, y en 1662 apareció el primer estudio estadístico notable de población añadiendo datos
de nacimientos por sexo, titulado Observations on the London Bills of Mortality.

Por el año 1540 el alemán Sebastian Münster (1488 ‐ 1562) realizó una
compilación estadística de los recursos nacionales, adjuntando datos sobre
organización política, instrucciones sociales, comercio y poderío militar. Durante
el siglo XVII aportó indicaciones más concretas de métodos de observación y
análisis cuantitativo y amplió los campos de la Inferencia y la Teoría Estadística.

La Iglesia después del Concilio de Trento (1545 ‐ 1563) estableció una organización
archivística obligando al registro de nacimientos, matrimonio y defunciones.

Científicos de la talla de Leonardo da Vinci (1452 ‐ 1519), Nicolás Copérnico (1473 ‐ 1543) , John Neper (1550
‐ 1617) , Sir Francis Bacon (1561 ‐ 1626) , Galileo Galilei (1564 ‐ 1642),  William Harvey (1578 ‐ 1657) , y René
Descartes (1596 ‐ 1650), hicieron grandes aportaciones al método científico, de tal forma que cuando se
crearon los Estados Nacionales y surgió con fuerza el comercio internacional existía ya un método capaz de
aplicarse a los datos económicos.

En 1662, el capitán John Graunt (1620 ‐ 1674) usó documentos que abarcaban treinta años y efectuó
predicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones de
nacimientos de varones y mujeres que cabría esperar.
El trabajo de Graunt, condensado en su obra Natural and Political Observations Made Upon the Bills of
Mortality  (Observaciones Naturales y Políticas hechas sobre las Cuentas de Mortalidad) fue un esfuerzo
innovador en el análisis estadístico.

El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1691  a cargo del
profesor alemán Gaspar Neumann (1648 ‐ 1715).
Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Edmund Halley (1656 ‐ 1742) ,
quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que
hoy utilizan todas las compañías de seguros.

Matemáticos como Pierre de Fermat (1607‐
1665) y Blaise Pascal (1623 ‐ 1662) sentaron
las bases de la Teoría de la Probabilidad,
utilizada para estudiar fenómenos aleatorios.

El profesor alemán Gottfried Achenwall (1719 –1772) acuñó el término "Estadística" como ciencia de
recopilación y análisis de datos.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 5
Al principio de la  Edad Contemporánea (1789 ‐ Actualidad)  se
comienzan a asentar las bases teóricas de la Teoría de Probabilidades
con los trabajos de Joseph‐Louis Lagrange (1736 ‐ 1813) , Pierre‐Simon
de Laplace (1749‐1827) , Carl Friedrich Gauss (1777 ‐ 1855) y Siméon
Denis Poisson (1781 ‐ 1840).
Previamente, destacar el descubrimiento de la distribución normal por Abraham de Moivre (1667 ‐ 1754),
distribución que será posteriormente "redescubierta" por Gauss y Poisson.

En el período (1800 ‐ 1820) se
desarrollaron dos conceptos
fundamentales para la Teoría Estadística:
la teoría de los errores de observación que
aportan Laplace y Gauss, y la teoría de los
Mínimos cuadrados realizada por Laplace,
Gauss y  Legendre.

Previamente, destacar el descubrimiento de la distribución normal por Abraham de Moivre (1667 ‐ 1754),
Sir Francis Galton (1822 ‐ 1911) ideó el método conocido como correlación que tenía por objeto medir la
influencia relativa de los factores sobre las variables. De aquí partió el desarrollo del coeficiente de
correlación creado por Karl Pearson (1857 ‐ 1936) y otros estudiosos de la ciencia biométrica, tales como
John Pease Norton, Richard Hooker y George Udny Yule, que efectuaron amplios estudios sobre la medida
de las relaciones.

Establecidas las bases de la Teoría de Probabilidades surgieron la Estadística Moderna y su
empleo en el Análisis de Experimentos con los trabajos de Francis Galton y Karl Pearson.
Este último publicó en 1892 el libro The Grammar of Science (La Gramática de la Ciencia),  y
fue él quien ideó el conocido test de Chi‐cuadrado. El hijo de Pearson, Egon Sharpe
Pearson  (1895 ‐ 1980) y el matemá co polaco Jerzy Neyman (1894‐1981) pueden
considerarse los fundadores de las pruebas modernas de contraste de hipótesis.

Ronald Arnold Fisher (1890 ‐ 1962)  es la figura más importante de la Estadística,
situándola como una poderosa herramienta de Análisis de Experimentos. Desarrolló el
análisis de varianza y fue pionero en el desarrollo de numerosas técnicas de Análisis
Multivariante y en la introducción del método de Máxima Verosimilitud para la
estimación de parámetros. Su libro Statistical Methods for Research Workers (Métodos
estadísticos para los investigadores), publicado en 1925, ha sido probablemente el libro
de Estadística más utilizado a lo largo de muchos años.

La Escuela rusa de Matemáticas y Estadística,  desde finales del
siglo XVIII y comienzos del XIX, aportó destacados científicos,
resaltando a Pafnuti Lvóvich Chebyshev (1821 ‐ 1849), Andréi
Andréyevich Márkov (1856 ‐ 1922) y Aleksandr Liapunov (1857 ‐
1918), y posteriormente las de Aleksandr Khinchin (1894 ‐ 1959)
y  Andrey Nikoláyevich Kolmogorov (1903 ‐ 1987).

                                                       Portal Estadística Aplicada:  Historia de la Estadística 6
Jean Paul Benzécri (1932 ‐ 2019)  y  John Wilder Tukey (1867‐1947)  fueron  pioneros en relacionar la
Estadística en función de computadoras. Mejoraron, adaptaron y crearon nuevas técnicas y  herramientas
gráficas para estudiar grandes volúmenes de datos.

Actualmente, en todos los países hay oficinas de Estadística y otros organismos
similares que se encargan de elaborar estadísticas oficiales del país, como pueden
ser, tasa de paro, índices de precios, índice de actividad económica, etc.
La oficina de Estadística de España es el INE (Instituto Nacional de Estadística), además hay otros organismos
(Ministerios) que elaboran estadísticas nacionales.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 7
Historia de la Estadística
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández

                     CIENTÍFICOS QUE CONTRIBUYERON AL DESARROLLO DE LA ESTADÍSTICA

Fermat (1601‐1665) Graunt (1620‐1674) Pascal (1623‐1662) Huygens (1629‐1695)

Neumann (1648‐1715) Bernoulli (1654‐1705) Moivre (1667‐1754) Bayes (1702‐1761)

Achenwall (1719‐1772) Laplace (1749‐1827) Legendre (1752‐1833) Gauss (1777‐1857)

Bessel (1784‐1846) Quételet (1796‐1874) Cournot (1801‐1877) Morgan (1806‐1871)

                                                       Portal Estadística Aplicada:  Historia de la Estadística 8
Boole (1815‐1864) Chebyshev (1821‐1894) Galton (1822‐1911) Dedekind (1831‐1916)

Laspeyres (1834‐1913) Kiær (1838‐1919) Peirce (1839‐1914) Edgeworth (1845‐1926)

Pareto (1848‐1923) Paasche (1851‐1925) Markov (1856‐1922) Lyapunov (1857‐1918)

Pearson (1857‐1936) Spearman (1863‐1945) I. Fisher (1867‐1947) Bowley (1869‐1957)

Yule (1871‐1951) Borel (1871‐1956) Gosset (1876‐1937) Snedecor (1881‐1974)

                                                       Portal Estadística Aplicada:  Historia de la Estadística 9
von Mises (1883‐1953) Gini (1884‐1965) Thurstone (1887‐1955) Weibull (1887‐1979)

Chapman (1888‐1970) R. Fisher (1890‐1962) Shewhart (1891‐1967) Wilcoxon (1892‐1965)

Bonferroni (1892‐1960) Cramér (1893‐1985) Neyman (1894‐1981) Hotelling (1895‐1973)

Pearson (1895‐1990) Smirnov (1900‐1966) McNemar (1900‐1986) Gallup (1901‐1984)

       
Wald (1902‐1950) Yates (1902‐1994) von Neumann (1903‐1957) Kolmogórov (1903‐1987)

                                                       Portal Estadística Aplicada:  Historia de la Estadística 10
Mann (1905‐2000) Scheffé (1907‐1977) Kendall (1907‐1983) Cochran (1909‐1980)

Wolfowitz (1910‐1981) Haenszel (1910‐1998) Bartlett (1910‐2002) Wallis (1912‐1998)

Friedman (1912‐2006) Levene (1914‐2003) Tukey (1915‐2000) Whitney (1915‐2007)

Darling (1915‐2014) Siegel (1916‐1961) H. Simon (1916‐2001) Anderson (1916‐2016)

Savage (1917‐1971) Hurwicz (1917‐2008) Lehmann (1917‐2009) Mantel (1919‐2002)

                                                       Portal Estadística Aplicada:  Historia de la Estadística 11
Kruskal (1919‐2005) Box (1919‐2013) Kaplan (1920‐2006 ) Rao (1920 ‐ )

Dunnett (1921‐2007) Brown (1921‐2014) Hodges (1922‐2000) Wilk (1922‐2013)

Cohen (1923‐1998) Olkin (1924‐2016) Cox (1924 ‐ ) Lilliefors (1928‐2008)

Nash (1928‐2015) Goodman (1928‐ 2020) Somers (1929‐ 2004) Jenkins (1932‐ 1982)

Benzécri (1932‐2019) Tiao (1933 ‐ ) Sen (1937 ‐) Bradley (1938 ‐ )

                                                       Portal Estadística Aplicada:  Historia de la Estadística 12
Pierre de Fermat (1601‐1665)
Inició junto a Blaise Pascal la Teoría de las Probabilidades. Es más conocido por sus
aportaciones a la Teoría de los Números, en particular por el conocido como "último
teorema de Fermat".

John Graunt (1620‐1674)
Estadístico inglés fundador de la bioestadística y precursor de la epidemiología. Sus
actividades sociales en Londres le permitieron acceder a los boletines de mortalidad
(Bills of Mortality) que fueron la base documental sobre la que estableció sus
investigaciones estadísticas, actuariales y demográficas.

Blaise Pascal (1623‐1662)
Matemático, físico, filósofo, teólogo y apologista francés. Sus importantes
contribuciones a la Teoría de la Probabilidad, a la Matemática y a la Historia Natural
incluyen el diseño y construcción de calculadoras mecánicas. Con investigaciones
sobre los fluidos y la aclaración de conceptos como la presión y el vacío.

Cristiaan Huygens (1629‐1695)
Astrónomo, físico, matemático e inventor neerlandés. Con importantes
aportaciones a la Teoría de la Probabilidad, explicó la naturaleza de los anillos de
Saturno, descubridor de Titán, inventó el reloj de péndulo moderno, formuló la
naturaleza ondulatoria de la luz, perfeccionó el telescopio y estableció las leyes del
choque entre cuerpos elásticos.

Gaspar Neumann (1648‐1715)
Profesor y clérigo alemán de Breslau, con un interés científico especial en las tasas
de mortalidad de la ciudad dando lugar al tratado " Reflexionen über Leben und Tod
bey denen in Breslau Geborenen und Gestorbenen" que envió a Leibniz. En 1706 fue
elegido miembro de la Academia de Ciencias de Berlín.

Jacob Bernoulli (1654‐1705)
Destacado matemático y científico suizo. A partir de los planteamientos de Leibniz
desarrolló problemas de cálculo infinitesimal. En 1690 inició la técnica para resolver
ecuaciones diferenciales separables.

Su obra más importante fue Ars Conjectandi (Arte de la Conjetura), un trabajo pionero en la Teoría
de la Probabilidad.  Resultado de su trabajo son los términos ensayo de Bernoulli y números de
Bernoulli.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 13
Abraham de Moivre (1667‐1754)

Matemático francés, conocido por la fórmula de Moivre y por su trabajo en la
distribución normal y probabilidad. Publicó el libro de probabilidad The Doctrine of
Chances. Fue elegido miembro de la Royal Society de Londres en 1697

.
Thomas Bayes (1702‐1761)
Matemático británico y ministro presbiteriano. Su obra más conocida es el
Teorema de Bayes. Estudió el problema de la determinación de la probabilidad de
las causas a través de los efectos observados. El teorema que planteó se refiere a la
probabilidad de un suceso condicionado por la ocurrencia de otro suceso.
Concretamente, resuelve el problema conocido como «de la probabilidad inversa»
Fue uno de los primeros en utilizar la probabilidad inductivamente y establecer una base matemática
para la inferencia probabilística. Miembro de la Royal Society desde 1742.

Godofredo Achenwall (1719‐1772)
Economista prusiano, conocido como el "inventor de la estadística". Escribió obras
sobre la historia de los Estados europeos: "Elementos de Estadística de los
principales Estados de Europa" y "Principios de Economía Política".

Destacar su trabajo en la estadística cuántica.  En el planteamiento global de los diferentes países
europeos, describe el estado de su agricultura, las manufacturas y el comercio, y con frecuencia
suministra estadísticas en relación con estas materias.
Los economistas alemanes reclamaron por él el título de "padre de la estadística", siendo
cuestionado por escritores ingleses alegando que había reclamaciones anteriores en ese sentido.

Pierre Simon Laplace (1749‐1827)
Astrónomo, físico y matemático francés. Continuador de la mecánica newtoniana,
descubrió y desarrolló la transformada de Laplace y la ecuación de Laplace, como
estadístico sentó las bases de la teoría analítica de la probabilidad; y como astrónomo
planteó la teoría nebular sobre la formación del sistema solar.
Su antiguo alumno Napoleón Bonaparte en 1805  le otorgó la Legión de honor y el título de conde
del Imperio en 1806. Publicó "Teoría analítica de las probabilidades, 1812" y el "Ensayo filosófico
sobre la probabilidad, 1814".
En 1816 fue elegido miembro de la Academia Francesa. En 1817, tras la restauración de los
Borbones,  fue nombrado marqués.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 14
Adrien Marie Legendre (1752‐1833)
Destacado matemático francés,  con importantes contribuciones a la estadística, a la
teoría de números, al álgebra abstracta y al análisis matemático. Intervino en
geodesia y en la comisión que estableció el metro como unidad de medida
internacional.
En 1811 concibió la función gamma, e introdujo el símbolo  Γ . Desarrolló y fue el primero en publicar
el Método de los mínimos cuadrados (Méthode des moindres carrés), en un apéndice de su libro
sobre la "Trayectoria de los cometas", adelantándose a Gauss, que al parecer había llegado a los
mismos resultados con anterioridad. Este método tiene un gran número de aplicaciones en regresión
lineal, procesamiento de señales, estadística y ajuste de curva.  .
Desarrolló un impresionante trabajo sobre funciones elípticas, incluyendo la clasificación de
integrales elípticas. Señalar los polinomios de Legendre, soluciones a la ecuación diferencial de
Legendre que se utiliza con frecuencia en aplicaciones de física e ingeniería. En mecánica, creó la
transformada de Legendre, utilizada para pasar de la formulación lagrangiana a la formulación
hamiltoniana de la mecánica clásica.

Johann Carl Friedrich Gauss (1777‐1855)
Matemático, astrónomo, y físico alemán,  con contribuciones significativas en la teoría
de números, el análisis matemático, la geometría diferencial, la estadística, el álgebra,
la geodesia, el magnetismo y la óptica. En vida ya era considerado como "Príncipe de
las Matemáticas".
Sus trabajos matemáticos revolucionaron la aritmética, la astronomía y la estadística.
En 1801 publicó el libro "Disquisitiones arithmeticae", con seis secciones dedicadas a la teoría de
números, proporcionando a esta rama de las matemáticas una estructura sistematizada.  Ese mismo
año predijo la órbita de Ceres aproximando parámetros por mínimos cuadrados.
Hacia 1820 mientras trabajaba en la determinación matemática de la forma y el tamaño del globo
terráqueo, desarrolló distintas herramientas para el tratamiento de datos. La más importante fue la
función gaussiana o campana de Gauss, que constituye uno de los pilares de la estadística.
En 1835 introduce la Ley de Gauss, una de las contribuciones más importantes en el campo del
electromagnetismo.

Friedrich Wilhelm Bessel (1784‐1846)
Matemático y astrónomo alemán, introdujo la corrección de Bessel, utilizando
(n − 1) en lugar de n en las fórmulas de la varianza muestral y de la desviación típica
muestral (siendo n el número de observaciones de una muestra). Sistematizador de
las funciones de Bessel (descubiertas por Daniel Bernoulli). En Astronomía fue el
primero en determinar el paralaje de una estrella.

Lambert Adolphe Jacques Quételet  (1796‐1874)
Matemático sociólogo, estadístico, astrónomo y naturalista belga. Aplicó los métodos
estadísticos a las Ciencias Sociales. En 1834 fue nombrado secretario permanente de
la Real Academia de Bélgica. En 1853 presidió el primer Congreso Internacional de
Estadística y participó en la primera Conferencia Marítima Internacional en Bruselas
para promover el intercambio de datos meteorológicos.
Esta cooperación condujo en 1873 a la creación de la Organización Meteorológica Internacional.
Fue el primer miembro no estadounidense de la American Statistical Association.  

                                                       Portal Estadística Aplicada:  Historia de la Estadística 15
Antoine Augustin Cournot (1801‐1877)
Matemático y economista francés impulsor del marginalismo, se le considera como
el matemático que comenzó la sistematización formal de la economía. Fue el
primero en utilizar funciones matemáticas para describir conceptos económicos
como la demanda, la oferta o el precio. Contribuyó notablemente a la ciencia
estadística, sus aportes tuvieron mucha influencia sobre Jevons, Walras y Marshall.
Analizó los mercados monopolistas, estableciendo el punto de equilibrio del monopolio, llamado el
punto de Cournot. También estudió el duopolio y el oligopolio.
Cournot  plantea un modelo sencillo de duopolio donde el producto es homogéneo y las empresas
actúan sobre las cantidades, a diferencia de Bertrand, que afirma que las empresas actúan sobre los
precios.
El modelo de Cournot de 1838, el modelo de Bertrand de 1883 y el de Edgeworth de 1887 (una
adaptación del modelo de Bertrand, suponiendo que la capacidad productiva es limitada) sirven para
señalar y comprender los conceptos esenciales del mercado oligopolístico.

Augustus De Morgan (1806‐1871)
Matemático y lógico británico nacido en la India, primer presidente de la Sociedad
Matemática de Londres. Conocido por formular las llamadas Leyes de  "De Morgan"
y establecer un concepto riguroso del procedimiento, inducción matemática. En
1847 publica un trabajo notable por su desarrollo del silogismo.
En 1849 publica un trabajo titulado "Trigonometry and Double Algebra", la primera parte es un
tratado de trigonometría, y la segunda un tratado de álgebra generalizada, a la que llamó "Álgebra
doble". En 1860 descubrió el álgebra de relaciones en su obra "Syllabus of a Proposed System of
Logic", prueba crítica del Principia Mathematica de Bertrand Russell y Alfred North Whitehead.
De Morgan promovió la obra del matemático indio Ramchundra, supervisó la publicación de su libro
"Máximos y mínimos, 1859" en Londres.

George Boole (1815‐1864)

Matemático y lógico británico. Como inventor del álgebra de Boole, que marca los
fundamentos de la aritmética computacional moderna, es considerado como uno
de los fundadores del campo de las ciencias de la computación.

Su obra fue extensa:  En 1847 publicó The Mathematical Analysis of Logic (Análisis matemático de la
lógica), donde desarrolló un sistema de reglas que le permitían expresar, manipular y simplificar
problemas lógicos y filosóficos cuyos argumentos admiten dos estados (verdadero o falso) por
procedimientos matemáticos.
En 1857 su tratado "On the Comparison of Transcendents, with Certain Applications to the Theory of
Definite Integrals" (Comparación de transcendentes, con ciertas aplicaciones a la teoría de integrales
definidas), estudiando la suma de residuos de una función racional. Entre otros resultados, probó la
conocida como identidad de Boole.
En 1859 un Tratado de ecuaciones diferenciales "A Treatise on Differential Equations"  y en 1860 un
Tratado del cálculo de las diferencias finitas  "A Treatise on the Calculus of Finite Differences".

                                                       Portal Estadística Aplicada:  Historia de la Estadística 16
Pafnuti Lvóvich Chebyshev (1821‐1894)
Matemático ruso, su principal contribución al conocimiento es en el área de la
probabilidad y estadística con la desigualdad que lleva su nombre.
En matemáticas destacan sus trabajos sobre Distancia de Chebyshev, Función de
Chebyshev (en teoría de números), los Polinomios de Chebyshev y la Integral de
Chebyshev.
Entre sus estudiantes señalar a Aleksandr Korkin, Aleksandr Liapunov y Andréi Márkov.

Francis Galton (1822‐1911)
Investigador inglés, fue el primero en aplicar métodos estadísticos para el estudio
de las diferencias humanas y la herencia de la inteligencia, introdujo el uso de
cuestionarios y encuestas para recoger datos sobre las comunidades humanas,
necesarios para sus trabajos genealógicos y biográficos y para sus estudios
antropométricos.
Sus investigaciones fueron fundamentales para la constitución de la ciencia de la estadística:
Inventó  el uso de la línea de regresión, siendo el primero en explicar el fenómeno de la regresión a
la media.
En las décadas de 1870 y 1880 fue pionero en el uso de la distribución normal. Inventó la máquina
Quincunx, un instrumento para demostrar la ley del error y la distribución normal.
Descubrió las propiedades de la distribución normal bivariada y su relación con el análisis de
regresión.
En 1888 introdujo el concepto de correlación, posteriormente desarrollado por Pearson y Spearman
En 1901, fue cofundador de la revista científica Biometrika, junto con Karl Pearson y Walter Weldon.

Julius Wilhelm Richard Dedekind  (1831‐1916)
Matemático alemán, dejó una huella muy importante en los elementos de la
matemática, conocido sobre todo por su aportación a los fundamentos del sistema
numérico (definiciones de los números reales y naturales), aunque su principal
contribución como investigador fue en el terreno del álgebra y sobre todo la teoría
de números algebraicos.

Ernst Louis Étienne Laspeyres (1834‐1913)
Economista, administrador público y estadístico alemán, conocido sobre todo por
el desarrollo en 1871 de la fórmula y el método para determinar el índice de
precios, que se utiliza para el cálculo de la tasa de inflación.
El índice de Laspeyres, es una forma de mostrar la evolución en el tiempo, a partir
de un año base, de un conjunto de magnitudes, ponderando en cada una su
importancia dentro del conjunto.
Los índices de precios al consumo en muchos países se elaboran actualmente utilizando el índice de
Laspeyres.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 17
Anders Nicolai Kiær  (1838‐1919)
Estadístico noruego que propuso por primera vez utilizar una muestra
representativa para recopilar información sobre una población, en lugar de una
encuesta de enumeración completa.
En 1877 fue nombrado director de la oficina recién creada de Estadística de
Noruega.

Charles Sanders Peirce (1839‐1914)
Científico estadounidense, lógico matemático y un fundador de la estadística.,
Introduce el pragmatismo y padre de la semiótica moderna o teoría de los signos.
Su trabajo fue relevante para muchas áreas del conocimiento, tales como
astronomía, metrología, geodesia, matemáticas, lógica, filosofía, teoría e historia
de la ciencia, semiótica, lingüística, econometría y psicología.

Francis Ysidro Edgeworth  (1845‐1926)
Economista y estadístico británico, su teorema del límite se relaciona con el
equilibrio de la oferta y la demanda en un mercado libre. En 1897 mostró cómo
la competencia de precios entre dos empresas con limitaciones de capacidad y /
o curvas de costos marginales crecientes resulta en una indeterminación.
Durante el período (1912–1914) desempeñó el cargo de presidente de la Royal
Statistical Society.

Vilfredo Federico Pareto (1848‐1923)
Ingeniero, sociólogo, economista y filósofo italiano. En 1909 introdujo el índice
de Pareto (medida de la desigualdad de la distribución del ingreso) y mostró el
modo de distribución de la riqueza (distribución de Pareto).
En sus estudios sobre la eficiencia económica y distribución de la renta introduce
la "Eficiencia u Óptimo de Pareto" con aplicaciones en ingeniería y diferentes
ciencias sociales.
Una de sus aportaciones importantes a la teoría neoclásica es la Curva de Indiferencia (The Curve of
Incomes):  Una curva de indiferencia es un conjunto de puntos en el espacio de bienes ‐ o conjuntos
de bienes ‐ entre los que el consumidor se siente indiferente.

Hermann Paasche (1851‐1925)
Estadístico y economista alemán, conocido por su índice Paasche, que
proporciona un cálculo del índice de precios. Se diferencia del índice de
Laspeyres en que utiliza una ponderación del período actual.
El índice de precios de Paasche tiende a subestimar los aumentos de precios,
se fundamenta en que un mayor consumo de bienes indicará precios relativos
reducidos.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 18
Andréi Andréyevich Márkov (1856‐1922)
Matemático ruso conocido por sus trabajos en la teoría de los números y la
teoría de probabilidades. Tiene aportaciones muy importantes en diversos
campos de las matemáticas:  En sus trabajos sobre fracciones continuas, obtuvo
resultados relacionados con la teoría de la probabilidad.  En 1887 completó la
prueba que permitía generalizar el teorema central del límite y que ya había
avanzado Chebyshev.
La aportación más conocida se encuentra en su trabajo teórico en el campo de los procesos en los
que están involucrados componentes aleatorios (procesos estocásticos),  introduciendo un
instrumento matemático que se conoce como Cadenas de Márkov.
En la actualidad, las Cadenas de Márkov son una herramienta esencial en disciplinas como la
economía, la ingeniería, la investigación de operaciones y muchas otras.
En estadística, el Teorema de Gauss‐Márkov, formulado por Carl Friedrich Gauss y Andréi Márkov,
tiene una amplia aplicación en un modelo lineal general (MLG).

Aleksandr Mijáilovich Lyapunov (1857‐1918)
Matemático y físico ruso. Ha cobrado una gran relevancia su trabajo en el campo
de las ecuaciones diferenciales, la teoría del potencial, la estabilidad de sistemas
y la teoría de la probabilidad. Fue miembro honorario de muchas universidades,
miembro honorario de la Academia de Roma y miembro de la  la Academia de
Ciencias en París.
En la teoría de la probabilidad, generalizó los trabajos de Chebyshev y Márkov, y demostró el
Teorema  Central del Límite en condiciones más generales que sus predecesores. El método de
funciones características que utilizó para la demostración encontró más tarde un uso generalizado
en la teoría de la probabilidad.
Creó la teoría moderna de la estabilidad de un sistema dinámico, introdujo la función de Lyapunov, la
estabilidad de Lyapunov, exponente de Lyapunov, tiempo de Lyapunov o teorema de Lyapunov‐
Malkin. Se le debe también la Ecuación de Lyapunov en teoría del control, así como los fractales de
Markus‐Lyapunov (fractales bifurcacionales derivados de la función logística).

Karl Pearson (1857‐1936)
Extraordinario científico, matemático y pensador británico, estableció la
disciplina de la estadística matemática. Desarrolló una intensa investigación
sobre la aplicación de los métodos estadísticos en la biología y fue el fundador
de la bioestadística. Los análisis de Pearson se han revelado como
imprescindibles para una correcta interpretación de los datos estadísticos.
A partir de 1890 estableció la disciplina de la estadística matemática, su investigación colocó en gran
medida las bases de la estadística del siglo XX, definiendo los significados de análisis de la regresión,
desviación estándar, correlación, la teoría de la probabilidad, elaborando los métodos gráficos y
muestreo aleatorio.
En 1900 publicó su prueba de Chi‐cuadrado, una medida de la bondad de una cierta distribución al
ajustarse a un grupo determinado de datos. La prueba permite determinar, entre otras cosas, si dos
caracteres hereditarios eran transmitidos de forma dependiente o independiente.
En 1901, fue cofundador de la revista científica Biometrika, junto con Francis Galton (del que fue
alumno) y Walter Weldon.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 19
Charles Edward Spearman (1863‐1945)

Psicólogo inglés, pionero en el desarrollo del análisis factorial y del coeficiente de
correlación. Desarrolló importantes modelos en el ámbito de la inteligencia
humana, formulando que la inteligencia se compone de un factor general G y
otros factores específicos.

Fue el primer autor en ofrecer una definición psicométrica sostenible de la inteligencia, y es
considerado el padre de la teoría clásica de los tests. Propuso la idea de que el comportamiento
inteligente es generado por una cualidad singular dentro del cerebro humano.
A partir de este concepto, que llamaría inteligencia general o simplemente G desarrolló una nueva
técnica estadística que le permitiera analizar las correlaciones entre distintas variables, el llamado
análisis factorial. Esta técnica demostraba que todas las medidas en las pruebas mentales estaban
positivamente correlacionadas. A pesar de que los teóricos de la inteligencia múltiple rechazan su
interpretación, no cabe duda de que el análisis factorial es una de las herramientas más importantes
del siglo XXI para la investigación en inteligencia.

Irving Fisher (1867‐1947)
Economista, estadístico, inventor, y eugenista estadounidense que contribuyó a
difundir las ideas económicas neoclásicas en Estados Unidos. Célebre por sus
trabajos sobre el capital y por contribuir a las modernas teorías monetarias sobre
la inflación. Incorporó formulaciones muy modernas para su época:  fue el
inventor de los índices económicos y un pionero de la econometría.
Varios conceptos estadísticos toman su nombre:  la ecuación de Fisher, la hipótesis de Fisher, la tasa
de Fisher y el teorema de separabilidad de Fisher.
En su más importante obra de economía, The Making of Index Numbers (1922), desarrolló la idea de
establecer números índices como técnica para medir valores bursátiles y precios de mercancías.
Entre sus obras,  Mathematical Investigations in the Theory of Value and Prices (1892) , The Nature
of Capital and Income (1906) ,  Rate of Interest (1907) , The Theory of Interest (1930) , Booms and
Depressions (1932) ,  100% Money (1935) y The Theory of Constructive Income Taxation (1942).

Arthur Lyon Bowley (1869‐1957)
Estadístico y economista inglés que trabajó en Estadística Económica y fue
pionero en el uso de técnicas de muestreo en encuestas sociales. En teoría
estadística siguió los trabajos de Karl Pearson, George Udny Yule y Francis Ysidro
Edgeworth. Sus enseñanzas presagiarían futuros desarrollos en Análisis
exploratorio de datos luego popularizados por John Wilder Tukey.
Sus Elementos de Estadística se considera como el primer libro de texto sobre estadística en inglés.
En él se describen las técnicas de la estadística descriptiva muy útil para la economía y las ciencias
sociales.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 20
George Udny Yule  (1871‐1951)

Estadístico escocés, pionero en la estadística moderna, haciendo contribuciones
fundamentales a la teoría de correlación, regresión lineal y series históricas. Entre
sus trabajos, la distribución de Yule‐Simon, la distribución discreta toma su nombre
y el de Herbert Alexander Simon.

Yule estaba interesado en aplicar técnicas estadísticas a los problemas sociales y rápidamente se
convirtió en miembro de la Royal Statistical Society. 
En 1897‐1899, Yule escribió artículos importantes sobre correlación y regresión. En 1900 trabajó en
una teoría de la asociación paralela, su enfoque de la asociación era bastante diferente al de Pearson
y las relaciones entre ellos se deterioraron. 
En la década de 1920 escribió tres artículos influyentes sobre el análisis de series temporales, sobre
el problema de la correlación temporal (1921) y un método de investigación de periodicidades en
series perturbadas  (1927) con especial referencia al número de manchas solares de Wolfer, para
modelar la serie temporal de manchas solares utilizó un modelo autorregresivo en lugar del método
del periodograma establecido de Franz Arthur Friedrich Schuster.
Fue pionero en el uso de procesos estocásticos de apego preferencial para explicar el origen de la
distribución de la ley de potencia.

Félix Édouard Justin Émile Borel (1871‐1956)
Matemático y político francés, uno de los pioneros de la teoría de la medida
(junto a Henri Lebesgue y René Louis Baire) y sus aplicaciones a la Teoría de la
Probabilidad, con aportaciones en la estrategia de Teoría de Juegos. Trabajó en
series convergentes y teoría de funciones. Con un trabajo divulgativo entre (1913‐
1914) relacionó la geometría hiperbólica y la relatividad especial. Sus aportaciones
culminaron con el Teorema de Heine‐Borel.

George Waddel Snedecor (1881‐1974)
Matemático y estadístico estadounidense. Fundó el primer departamento
académico de estadística de los Estados Unidos, y fue un pionero de la moderna
estadística aplicada en los EE.UU.
Su libro de Métodos estadísticos (1938)  se convirtió en un recurso esencial, en la
década de 1970 fue el libro más frecuentemente citado.
Contribuyó a los fundamentos del análisis de la varianza, análisis de datos, diseño de experimentos y
metodología estadística. Da nombre a la Distribución F que lleva su nombre.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 21
William Sealy Gosset (1876‐1937)
Matemático y químico inglés, conocido por su sobrenombre Student. Publicó el
error probable de una medida y en casi todos sus artículos publicados en la
revista Biometrika firmaba con el seudónimo Student (estudiante).
Fue Ronald Aylmer Fisher, al recibir correspondencia de Gosset con las tablas
de Student, quien apreció la importancia de los trabajos en muestras pequeñas
al considerar que había efectuado una revolución lógica.
Fisher introdujo la forma "t " debido a que se ajustaba a su teoría de grados de libertad.
La distribución t de Gosset comenzó a conocerse como la distribución t de Student. Fisher es
responsable también de la aplicación de la "distribución t" a la regresión.
Los residuos estudentizados, aunque fueron introducidos por otros, reciben su nombre en honor a
Student, la idea es ajustar la base del concepto usando  las desviaciones estándar estimadas.
El germen de la distribución t de Student se inicia a principios del siglo XX con los trabajos de Gosset
en la compañía cervecera Guinness en Dublín.
La investigación sobre el efecto de diversas condiciones del suelo y del tipo de cebada sobre el
rendimiento de los cultivos y la calidad de la cerveza, para lo que contaba con muestras pequeñas,
de alrededor de diez datos. La población de la que se extraían las muestras no se conocía demasiado
bien, por lo que su varianza se estimaba a partir de la varianza de las muestras.
Gosset se dio cuenta de que las medias de sus muestras no seguían una distribución de probabilidad
normal, y desarrolló una distribución más adecuada. Como los datos con los que realizó las pruebas
eran confidenciales y no debían caer en manos de la competencia, evitó que pudieran relacionarse
con su compañía publicándolos con el seudónimo Student (estudiante).

Richard Edler von Mises (1883‐1953
Físico y matemático austríaco que trabajó en mecánica de sólidos, mecánica de
fluidos, aerodinámica, estadística y teoría de la probabilidad. Propuso una
axiomatización de la teoría de la probabilidad basada en el concepto de
probabilidad definida como valor límite de la frecuencia relativa. Desarrolló, junto a
Harald Cramér, el test no paramétrico de bondad de ajuste Cramér‐von Mises.
En mecánica del sólido deformable dio una interpretación de la fractura a partir de energía elástica
(Criterio de Von Mises) que sustituyó al más tosco Criterio de Tresca. Da también nombre a la
tensión de Von Mises, una medida escalar de dicha energía.
Fue el hermano más joven del economista liberal clásico Ludwig Heinrich Edler von Mises, que
defendía que el protagonista de la economía es el emprendedor, de manera que tendrá éxito
siempre que los precios generados en el mercado cubran sus pérdidas, de este modo irán
arruinándose los empresarios menos competitivos favoreciendo la innovación y el progreso.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 22
Corrado Gini  (1884‐1965)
Estadístico, demógrafo y sociólogo italiano que definió el índice de concentración o
coeficiente de Gini, utilizado universalmente como medida de la equidad en la
distribución de las rentas de una sociedad.
Sus principales aportaciones científicas pertenecen al campo de la estadística: en la
teoría de las distribuciones, en la estimación de parámetros en la medida del valor
y márgenes de error de variables, medidas de variabilidad, etc.
En el campo de la demografía prestó una atención especial a los fenómenos migratorios. Desarrolló
una teoría del metabolismo social que proporciona una visión cíclica del desarrollo de la población, y
un conjunto de teorías que denominaba fisiopatología económica para el estudio de las crisis
económicas y sociales.
En 1926, fue nombrado Presidente del Instituto Central de Estadística en Roma, quien Gini organizó
como centro único de los servicios estadísticos italianos.

Louis Leon Thurstone (1887‐1955)
Ingeniero mecánico y psicólogo estadounidense conocido por ser el psicometrista
más famoso de su tiempo. Trabajó en el estudio de la psicometría, la psicofísica y la
creación de pruebas para la medición de la inteligencia humana con métodos
cuantitativos. Desarrolló métodos estadísticos para realizar medidas psicológicas,
evaluar actitudes y capacidades mentales, entre muchas otras contribuciones.

Introdujo el desarrollo de nuevas técnicas analíticas de factores para determinar el número y la
naturaleza de las construcciones latentes dentro de un conjunto de variables observadas.
En su obra "Multiple Factor Analysis" se plantea un análisis factorial con más de un factor común y se
introducen la estructura simple y las rotaciones de factores. La existencia de varias dimensiones
latentes hacía imposible una ordenación de los individuos en función de su inteligencia.
Incorporó la media estandarizada y la desviación estándar de las puntuaciones de CI que se utilizan
en la actualidad, a diferencia del sistema de prueba de inteligencia utilizado originalmente por
Alfred Binet. También es conocido por el desarrollo de la escala Thurstone.

Ernst Hjalmar Waloddi Weibull (1887‐1979)
Ingeniero, científico y matemático sueco, es conocido por su trabajo en el área de la
fatiga de materiales y en estadística por la distribución de Weibull (1939).
La distribución de Weibull se utiliza:  en análisis de la supervivencia, teoría de valores
extremos, meteorología, telecomunicaciones, sistemas de radar para simular la
dispersión de la señal recibida, para modelar la distribución de la velocidad del
viento, en seguros para modelar el tamaño de las pérdidas, en la hidrología para analizar variables
aleatorias como valores máximos de la precipitación y la descarga de ríos, y para describir épocas de
sequía.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 23
Sydney Chapman (1888‐1970)
Matemático y geofísico británico, conocido por sus trabajos en procesos
estocásticos. En el estudio de los procesos de Andréi Andréyevich Márkov,
Chapman y el ruso Andréi Nikoláyevich Kolmogórov desarrollaron
independientemente el conjunto fundamental de igualdades conocido como
"ecuación de Chapman‐Kolmogórov".
Su implicación por la geofísica le llevó a estudiar las tormentas magnéticas y las variaciones del
campo magnético de la Tierra, descubriendo que el campo geomagnético se genera al menos en
parte en la atmósfera.

Ronald Aylmer Fisher (1890‐1962)
Estadístico y biólogo inglés, por su trabajo en estadística, ha sido descrito como
"un genio que casi sin ayuda creó las bases de la ciencia estadística moderna" y
"la figura más importante de las estadísticas del siglo XX". Entre sus grandes
contribuciones desarrolló: el análisis de la varianza (ANOVA, 1921) y  principios
del diseño de experimentos (1923‐1924).
En genética,  su trabajo utilizó las matemáticas para combinar la genética mendeliana y la selección
natural; esto contribuyó al renacimiento del darwinismo en la revisión de principios del siglo XX de la
teoría de la evolución conocida como síntesis moderna. Por sus contribuciones a la biología, Fisher
ha sido llamado "el mayor de los sucesores de Darwin". 
Siendo un opositor prominente a la estadística bayesiana, Fisher fue el primero en utilizar el término
"bayesiano" en 1950.
En 1956 publica el libro "Statistical Methods and Scientific Inference", dando la impresión de ser un
manual para principiantes más que un libro de texto, pero en eso radicó su éxito.
A lo largo del libro, anima a trabajar con ejemplos, discute problemas prácticos y términos teóricos,
todo a partir de ejemplos numéricos. En él se separa de los matemáticos diciendo que en estadística
hay que hacer razonamiento inductivo, en lugar de razonamiento deductivo, para lo cual es
necesaria una gran formación matemática, para aplicarla y obtener conclusiones de los datos con
que se trabaja.
Contribuciones a la Inferencia Estadística:  Publicó 140 artículos sobre genética, 129 sobre estadística
y 16 sobre otros temas. Las contribuciones que más impacto ha producido serían:  La calibración del
nivel de significación con el p‐valor, la diferencia entre muestra y población, el método de la máxima
verosimilitud, la construcción de estimadores, el análisis de la varianza y el diseño de experimentos.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 24
Walter Andrew Shewhart  (1891‐1967
Físico, ingeniero y estadístico estadounidense, a veces conocido como el padre del
control estadístico de la calidad.
Mientras Shewhart trabajaba para la Western Electric, su innovador trabajo de
control de calidad se centró en la reducción de la variación y gráficos. Su trabajo
alteró el curso de la historia industrial, encabezó una revolución de la calidad y lanzó
la calidad como profesión.
Definió el problema de la variabilidad del proceso en términos de causas asignables y el azar, y se
encargó de establecer los principios esenciales del control de la variación a través de la aplicación de
gráficos de control.
En 1931, publicó el trabajo "Control de Economista de Calidad de productos manufacturados".
Se desafió el enfoque basado en la inspección de la calidad e introdujo la era moderna de la gestión
de la calidad. El libro popularizó el control estadístico y su uso luego se extendió en toda la industria.
A partir de la década de 1930, los intereses de Shewhart se expandieron de calidad industrial a las
preocupaciones más amplias de la ciencia y la inferencia estadística..
Shewhart fue el núcleo de un grupo del  departamento de garantía de calidad de Bell Hawthorne,
formado, entre otros, por Harold French Dodge y Harry Romig.
Se desarrollaron los conceptos básicos del muestreo de aceptación, tales como: riesgo del
consumidor, riesgo del productor, doble muestreo, porcentaje de tolerancia de lote defectuoso y
límite de calidad saliente promedio.

Frank Wilcoxon (1892‐1965)
Químico y estadístico estadounidense, aportó el desarrollo de dos pruebas
estadísticas no paramétricas:  la prueba de la suma de los rangos de Wilcoxon y
la prueba de los signos de Wilcoxon. Ambas pruebas son alternativas a la prueba t
de Student.

Carlo Emilio Bonferroni (1892‐1960)
Matemático italiano, conocido por la  prueba de Bonferroni, también conocida
como "corrección de Bonferroni" o "ajuste de Bonferroni". Es una prueba de
comparación múltiple utilizada en el análisis de la varianza.
Otras pruebas de comparación múltiple son:  la prueba de Scheffé, la prueba de
Tukey‐Kramer y la prueba de Dunnett. La prueba de Bonferroni es demasiado
conservadora y puede que no alcance algunos resultados significativos.

Harald Cramér (1893‐1985)
Matemático sueco, conocido por el coeficiente V de Cramér y la prueba Cramér‐
von Mises (1920‐1930).
El coeficiente V cuantifica la relación de asociación entre dos o más variables para
la prueba de la Chi‐cuadrado, varía entre cero y uno (siendo cero un valor nulo de
asociación.
El test Cramér‐von Mises es una prueba de análisis de la varianza que se utiliza para obtener la
bondad de ajuste entre una distribución teórica comparada con una distribución empírica, o para
comparar dos distribuciones empíricas. La prueba  es una alternativa al test de Kolmogórov‐Smirnov.
La generalización de las dos muestras se debe a Theodore Wilbur Anderson.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 25
Jerzy Neyman (1894‐1981)
Matemático y estadístico polaco, es uno de los principales arquitectos de la
estadística moderna, introdujo el concepto moderno de intervalo de confianza,
desarrolló (junto a Egon Sharpe Pearson, hijo de Karl Pearson) la teoría de la
prueba de hipótesis estadísticas creando lema de Neyman‐Pearson, hizo
aportaciones en diseños de experimentos y teoría del muestreo.
Al desarrollar su teoría, Neyman y Pearson reconocieron la necesidad de incluir hipótesis alternativas
y observaron los errores al probar hipótesis sobre valores de población desconocidos basados en
observaciones de muestra que estaban sujetas a variación.
Al desarrollar su teoría, Neyman y Pearson reconocieron la necesidad de incluir hipótesis alternativas
y observaron los errores al probar hipótesis sobre valores de población desconocidos basados en
observaciones de muestra que estaban sujetas a variación.
Al error de rechazar una hipótesis verdadera le designaron como error tipo uno y al error de aceptar
una hipótesis falsa como error tipo dos.
Dieron importancia a la probabilidad de rechazar una hipótesis cuando es falsa. Llamaron a esta
probabilidad el poder de prueba.
Propusieron el término, 'región crítica' para denotar un conjunto de valores estadísticos de muestra
que conducen al rechazo de la hipótesis que se está probando.
El 'tamaño' de una región crítica es la probabilidad de cometer un error tipo uno, al que llamaron
nivel de significancia.
Llamaron hipótesis simple a una hipótesis que especifica completamente una distribución de
probabilidad. Una hipótesis que no es una hipótesis simple es una hipótesis compuesta.  De este
modo, una hipótesis sobre la media de una distribución normal con una desviación estándar
conocida, por ejemplo, es una hipótesis simple. La hipótesis es una hipótesis compuesta si se
desconoce la desviación estándar.
Después de haber establecido una base matemática sólida para su teoría, la aplicaron al problema de
dos muestras (1930) y al problema de k muestras (1931).
En uno de sus artículos conjuntos (1933) utilizaron la "razón de verosimilitud" para establecer un
criterio objetivo para determinar la mejor región crítica (en el sentido del poder de la prueba) para
probar una hipótesis simple y una hipótesis compuesta.  A partir de entonces, cambiaría el estudio
de las pruebas de hipótesis estadísticas.

Harold Hotelling (1895‐1973)
Matemático, estadístico e influyente economista estadounidense, conocido en
estadística por introducir la distribución T‐cuadrado, desarrollada como una
generalización de la t de Student,  se utiliza en contraste de hipótesis y en
regiones de confianza. También introdujo el análisis de la correlación canónica
(una extensión de la regresión múltiple).
Hotelling fue crucial para el desarrollo y crecimiento de la economía matemática. Varias áreas de
investigación activa estuvieron influenciadas con sus aportaciones:  la Ley de Hotelling, el Lema de
Hotelling y la Regla de Hotelling.
Entre sus alumnos de estadística, Milton Friedman (Nobel de Economía, 1976) y  Kenneth Joseph
Arrow (Nobel de Economía, 1972) y  Abraham Wald.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 26
Egon Sharpe Pearson (1895‐1980)

Estadístico británico (hijo del estadístico Karl Pearson),conocido por el desarrollo del
Lema de Neyman‐Pearson. Sucedió a su padre como profesor de estadística en el
University College de Londres y como editor de la revista Biometrika.

El Lema de Neyman‐Pearson establece cómo encontrar la prueba más poderosa de una hipótesis
nula simple contra una alternativa simple. Muestra que, para tal prueba, la región crítica tiene un
límite en el que la razón de verosimilitud es constante.

Nikolai Vasilyevich Smirnov (1900‐1966)
Matemático ruso, sus importantes trabajos en estadística matemática y teoría de  la
probabilidad se dedicaron a la investigación de distribuciones límite mediante el
comportamiento asintomático de integrales múltiples a medida que la multiplicidad
aumenta con el límite. Fue uno de los creadores de los métodos no paramétricos y
de la teoría de distribuciones límite de estadística de orden.
Junto con el matemático ruso Andréi Nikoláyevich Kolmogórov, Smirnov desarrolló la prueba de
Kolmogórov‐Smirnov , a veces llamado criterio de consentimiento de Kolmogórov, y participó en la
creación del test de Cramér‐von Mises‐Smirnov.
El test de Kolmogórov‐Smirnov (prueba K‐S), es una prueba no paramétrica que determina la bondad
de ajuste de dos distribuciones de probabilidad entre sí, es un test más sensible a los valores
cercanos a la mediana que a los extremos de la distribución. En caso de querer verificar la normal de
una distribución, la prueba de Hubert Lilliefors Whitman conlleva algunas mejoras con respecto a la
de Kolmogórov‐Smirnov; y, en general, el test de Shapiro–Wilk o la prueba de Anderson‐Darling  son
opciones más potentes.

Quinn Michael McNemar (1900‐1986)

Psicólogo y estadístico estadounidense, conocido por su trabajo en pruebas de CI,
por la prueba de McNemar (1947)  y por su libro Psychological Statistics (1949).

La prueba de McNemar se utiliza con datos nominales emparejados, se aplica a tablas de
contingencia 2 × 2 con un rasgo dicotómico con pares de sujetos emparejados, para determinar si las
frecuencias marginales de fila y columna son iguales (es decir, sí existe "homogeneidad marginal").
En las ciencias médicas los parámetros comúnmente utilizados para evaluar una prueba de
diagnóstico son la sensibilidad y la especificidad. La sensibilidad es la capacidad de una prueba para
identificar correctamente a las personas con la enfermedad. La especificidad es la capacidad de la
prueba para identificar correctamente a quienes no tienen la enfermedad. La prueba de McNemar
compara la sensibilidad y la especificidad de dos pruebas de diagnóstico en el mismo grupo de
pacientes.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 27
George Horace Gallup (1901‐1984)
Periodista, matemático y estadístico estadounidense. En 1935 fundó el American
Institute of Public Opinion, Instituto de Opinión Pública estadounidense, para
realizar sondeos electorales en Estados Unidos, conocer los gustos de la gente y
estudiar la opinión de la masa social. Fue pionero en la medición de la audiencia
tanto de radio como de televisión mediante encuestas.
Los métodos de análisis de Gallup, basados en las encuestas y la explotación estadísticas de sus
resultados, fueron requeridos por numerosas empresas para conocer los signos de la demanda y
adaptar sus ofertas.

Abraham Wald (1902‐1950)

Matemático húngaro que hizo importantes contribuciones a la teoría de la
decisión, estadística, programación lineal, geometría y econometría y  fundó la
teoría del análisis secuencial (aplicada a la II Guerra Mundial para mejorar los
estudios de control de la calidad).

Propuso varias aplicaciones matemáticas a la economía de cierta relevancia, siendo colaborador de
Oskar Morgenstern (fundó el campo de teoría de juegos y sus aplicaciones económicas, con el
matemático John Von Neumann).   
Se interesó en la Econometría, proponiendo modelos para suavizar la estacionalidad de las series
temporales. En 1939 creó  la "Prueba de Wald" utilizada en una gran variedad de modelos,
incluyendo modelos con variables dicotómicas y modelos con variables continuas.
Aportó soluciones de unicidad a los modelos de equilibrio general competitivo de Marie Ésprit Léon
Walras  y los posteriores de Kenneth Joseph Arrow (Nobel Economía, 1972)  y Gérard Debreu (Nobel
Economía, 1983), así como para el modelo de duopolio al estilo de Antoine Augustin Cournot. No
obstante, se centró en un modelo derivado del de Walras‐Cassel.

Frank Yates (1902‐1994)

Estadístico inglés,  en 1934  introdujo la corrección de continuidad de Yates para
pasar de una distribución de probabilidad discreta a una  distribución de
probabilidad continua. Se aplica también en la prueba de Chi‐cuadrado en tablas
de contingencia 2x2.

Durante la Segunda Guerra Mundial trabajó en la disciplina que más tarde recibiría el nombre de
Investigación Operativa.
Frank Yates y Ronald Fisher en 1934 demostraron una larga data sobre los cuadrados latinos de 6 × 6
y publicaron un volumen extremadamente importante de tablas estadísticas.
En 1945 contribuyó a la incipiente computación estadística.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 28
John von Neumann (1903‐1957)
Matemático húngaro, considerado como uno de los matemáticos más importantes
del siglo XX, realizó contribuciones fundamentales en estadística, teoría de juegos,
ciencias de la computación, análisis funcional, análisis numérico, economía, física
cuántica, cibernética, hidrodinámica y muchos otros campos.

Incorporó una prueba de autocorrelación "Razón de von Neumann", utilizada cuando los
estimadores obtenidos con mínimos cuadrados no son de varianza mínima, aunque sean insesgados
(las pruebas t y  F dejen de ser válidas).
Propuso el lenguaje de la teoría de juegos y la teoría del equilibrio general para la economía.
En 1928  estableció el teorema del "minimax", que establece que en ciertos juegos de suma cero,
que involucran información perfecta (cada jugador conoce de antemano la estrategia de su
oponente y sus consecuencias), existe una estrategia que permite a ambos jugadores minimizar su
máxima pérdida. Este trabajo culminó en 1944 con el libro clásico "Theory of Games and Economic
Behavior" (Teoría de juegos y comportamiento económico), escrito con Oskar Morgenstern, fue el
primero en emplear el método de prueba, utilizado en teoría de juegos, conocido como Inducción
hacia atrás (backward induction).
En 1937 da solución a la existencia de situaciones de equilibrio en modelos matemáticos de
desarrollo del mercado basado en oferta y demanda (descrito por Léon Walras en 1874).
Primero reconoció que el modelo tendría que estar expresado por medio de inecuaciones y no de
ecuaciones (como solía hacerse), y aplicó un teorema de punto fijo (derivado del trabajo del
matemático holandés Luitzen Egbertus Jan Brouwer).
La importancia perdurable del trabajo en equilibrio general y la metodología de los teoremas de
punto fijo es resaltada por la concesión del Premio Nobel de Economía (1972).
Introdujo la "Máquina de von Neumann" en ciencia computacional, virtualmente cada computadora
personal, microcomputadora, minicomputadora y supercomputadora es una máquina de von
Neumann.
Creó el campo de los autómatas celulares sin computadores, construyendo los primeros ejemplos de
autómatas autorreplicables con lápiz y papel.  El concepto de constructor universal fue presentado
en su trabajo póstumo "Teoría de los autómatas autorreproductivos". El término «máquina de von
Neumann» se refiere alternativamente a las máquinas autorreplicativas, para aprovechar el
crecimiento exponencial de tales mecanismos.
Donald Ervin Knuth  (experto en ciencias de la computación, famoso por su fructífera investigación
dentro del análisis de algoritmos y compiladores) considera a von Neumann el inventor del conocido
algoritmo merge sort, en el cual la primera y segunda mitad de un array (vector) se clasifican
recursivamente por separado y luego se fusionan juntas.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 29
Andrey Nikolaevich Kolmogórov (1903‐1987)
Matemático ruso, con grandes aportaciones en teoría de la probabilidad y
topología. Estructuró el sistema axiomático de la teoría de la probabilidad,
utilizando el lenguaje teoría de conjuntos. Trabajó en lógica constructivista;
en series de Fourier; en turbulencias y mecánica clásica.
Fundó la teoría de la complejidad algorítmica.
En 1924 publicó la potente "Desigualdad de Kolmogórov" desarrollando una nueva metodología que
sería muy fructífera en el futuro.
En 1931 publicó "Métodos Analíticos en la Teoría de las Probabilidades" estudiando, en forma
abstracta, lo que actualmente se denominan "Procesos de Markov", este trabajo sentó las bases
teóricas necesarias para el futuro desarrollo de esta rama de las matemáticas.
En 1933 publicó el libro "Fundamentos de la Teoría de la Probabilidad", presenta la construcción
axiomática de la teoría de probabilidades que actualmente es ampliamente aceptada. Desarrolla de
forma clara y matemáticamente precisa los principales conceptos que ofrecen base para la
fundamentación de los Procesos Estocásticos.
Desarrolló una teoría para la programación de instrucciones, y elaboró un procedimiento para
conducir la información a través de los canales de comunicación. Después centró su investigación en
el área de la turbulencia, donde sus publicaciones a partir de 1941 tuvieron una influencia
significativa en este campo.
En 1949 publicó, junto a  su alumno Boris Vladimirovich Gnedenko, el libro "Distribuciones Limites
para Sumas de Variables Aleatorias Independientes",  cuyo centro es la noción de ley infinitamente
divisible y ley de estabilidad.
En mecánica clásica,  es más conocido por el Teorema de Kolmogórov‐Arnold‐Moser (presentado por
primera vez en 1954 en el Congreso Internacional de Matemáticos). En 1957 resolvió el decimotercer
problema de Hilbert (un trabajo conjunto con su alumno Vladímir Ígorevich Arnold).
En 1963, Kolmogórov expone la idea de proporcionar una base algorítmica a las nociones básicas de
la Teoría de Información y la Teoría de Probabilidades. Surge así la idea de complejidad algorítmica
de un objeto, que hoy se conoce como complejidad según Kolmogórov.
Otros conceptos o resultados que aporta: Ecuación de Fischer‐Kolmogórov, Axiomas de Kolmogórov,
Teorema de continuidad de Kolmogórov, Teorema de Fréchet‐Kolmogórov, Teorema de
superposición de Kolmogórov, Espacio de Kolmogórov, Paradoja de Borel‐Kolmogórov.

Henry Berthold Mann (1905‐2000)
Matemático y estadístico austríaco, en teoría de números aditivos demostró la
"Conjetura de Schnirelmann‐Landau" sobre la densidad asintótica de conjuntos de
sumas, estableciendo el "Teorema de Mann (1942)". En 1949 publicó  "Análisis y
diseño de experimentos:  Análisis de varianza y análisis de diseños de varianza",
primer libro matemático sobre el diseño de experimentos.
Desarrolló la prueba no paramétrica "U de Mann‐Whitney", junto a su alumno Donald Ransom
Whitney, que se aplica a muestras independientes para comparar dos grupos (o condiciones o
tratamientos), mientras que la "Prueba de rango o signo de Frank Wilcoxon" se aplica a muestras
emparejadas o dependientes.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 30
Henry Scheffé (1907‐1977)
Estadístico estadounidense, con importantes contribuciones  a las pruebas de hipótesis
no paramétricas, conocido por el Teorema de "Lehmann‐Scheffé", desarrollado junto a
Erich Leo Lehmann, y el "Método de Scheffé" para ajustar los niveles de significancia en
un análisis de regresión lineal para tener en cuenta las comparaciones múltiples.

Maurice George Kendall (1907‐1983)

Matemático inglés, introdujo en 1938  el "Coeficiente de correlación tau de Kendall",
denominado "Coeficiente τ de Kendall", aunque Gustav Theodor Fechner  había
propuesto una medida similar en 1897 en el contexto de series de tiempo.

Es una prueba no paramétrica para medir la asociación ordinal entre dos cantidades medidas.
Una medida de correlación de rango:  Intuitivamente, la correlación de Kendall entre dos variables
será alta cuando las observaciones tengan un rango similar (idéntico para una correlación de 1)  y
bajo cuando las observaciones tienen un rango diferente (completamente diferente para una
correlación de ‐1).

William Gemmell Cochran (1909‐1980)

Matemático y estadístico escocés, conocido por:  La "Prueba C de Cochran",  para
decidir si una sola estimación de una varianza (o una desviación estándar) es
significativamente más grande que un grupo de varianzas (o desviaciones estándar)
con el que la estimación única se supone que debe ser comparable.
"Prueba Q de Cochran", prueba estadística no paramétrica para verificar si k tratamientos tienen
efectos idénticos.
"Teorema de Cochran", utilizado para justificar los resultados relacionados con las distribuciones de
probabilidad de estadísticas que se utilizan en el análisis de varianza.
"Prueba Cochran–Mantel–Haenszel", utilizada en el análisis de datos categóricos estratificados o
coincidentes.

William Manning Haenszel (1910‐1998)
Epidemiólogo estadounidense, junto con William Gemmell Cochran y  Nathan
Mantel,  introdujó la prueba "Cochran‐Mantel‐Haenszel ", utilizada en el análisis
de datos categóricos estratificados o coincidentes. Permite a un investigador
probar la asociación entre un tratamiento binario y un resultado binario, como el
estado de caso o control, mientras se tiene en cuenta la estratificación.
La prueba CMH maneja tamaños de estratos arbitrarios, a diferencia de la prueba de Quinn Michael
McNemar que solo puede manejar pares.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 31
Jacob Wolfowitz (1910‐1981)

Matemático estadounidense de origen polaco, con importantes contribuciones en
teoría de la decisión, estadística no paramétrica, análisis secuencial y teoría de la
información.

En inferencia no paramétrica presenta formas de calcular los intervalos de confianza que no son
necesariamente de ancho fijo, basado en las observaciones empíricas independientes distribuidas de
manera idéntica en  la distribución F.
En un artículo de 1942 introduce por primera vez la palabra "no paramétrico".
Incorporó la prueba de "Rachas de Wald‐Wolfowitz", lleva los nombres de Abraham Wald y Jacob
Wolfowitz, que permite contrastar la hipótesis nula de que dos muestras independientes proceden
de poblaciones con distribuciones contínuas idénticas contra la hipótesis alternativa de que las
poblaciones difieren en algún aspecto, que puede ser tanto la tendencia central como cualquier otra
característica.
La prueba de Kolmogórov‐Smirnov es más poderosa que la prueba de Wald‐Wolfowitz para detectar
diferencias entre distribuciones que difieren únicamente en su ubicación.
La prueba de Rachas de Wald – Wolfowitz se ha ampliado para su uso con varias muestras.
En teoría de la información, iniciada por Claude Elwood Shannon, hizo importantes contribuciones en
su libro "Teoremas de codificación de la teoría de la información".

Maurice Stevenson Bartlett (1910‐2002)
Estadístico inglés, con contribuciones en análisis de datos, teoría de la
inferencia estadística y análisis multivariado. Conocido por  la "Prueba de
Bartlett" para estudiar la homocedasticidad (homogeneidad).
En análisis de la varianza ANOVA se supone que las varianzas de k muestras
provienen de poblaciones con la misma varianza (homocedasticidad), la
"Prueba de Bartlett" se utiliza para verificar esta suposición.
La prueba es sensible a las desviaciones de la normalidad, cuando las muestras provienen de
distribuciones no normales, entonces la prueba de Bartlett puede ser simplemente para probar la
no‐normalidad.  La "Prueba de Levene" y  la  "Prueba Brown‐Forsythe", menos sensibles a las
desviaciones de la normalidad, son alternativas a la "Prueba de Bartlett".

Wilson Allen Wallis (1912‐1998)
Economista y estadístico estadounidense,  conocido por la "Prueba Kruskal‐Wallis",
desarrollada junto a William Kruskal, método no paramétrico para probar si un
grupo de datos proviene de la misma población. Intuitivamente, es idéntico al
ANOVA con los datos reemplazados por categorías. Es una extensión de la prueba
de la "U de Mann‐Whitney " para tres o más grupos.
Al ser una prueba no paramétrica, no asume normalidad en los datos, en oposición al tradicional
ANOVA. Sí asume, bajo la hipótesis nula, que los datos vienen de la misma distribución, violando con
el supuesto el principio de  heterocedasticidad  (la varianza de los errores no es constante en todas
las observaciones realizadas).

                                                       Portal Estadística Aplicada:  Historia de la Estadística 32
Milton Friedman (1912‐2006)

Economista y  estadístico estadounidense,  uno de los economistas más
influyentes del siglo XX. Fundador de la Escuela de Economía de Chicago
(defensora del libre mercado), junto a Ludwig Von Mises y Friedrich Hayek.
Premio Nobel de Economía de 1976.

Desarrolló  la "Prueba de Friedman", prueba no paramétrica de comparación de tres o más muestras
relacionadas.  Se utiliza para comparar más de dos mediciones de rangos (medianas) y determinar
que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).
El método consiste en ordenar los datos (considerando la existencia de datos idénticos) por filas o
bloques, reemplazándolos por su respectivo orden.

Howard  Levene (1914‐2003)

Estadístico y genetista estadounidense, conocido por desarrollar la "Prueba de
Levene", utilizada para probar homocedasticidad  (homogeneidad) de las varianzas
de dos o más poblaciones, se basa en la distribución F.

Algunos procedimientos estadísticos asumen que las varianzas de las poblaciones de las que se
extraen diferentes muestras son iguales, la prueba de Levene evalúa este supuesto.
Cuando el p‐valor resultante de la prueba es inferior a cierto nivel de significación (típicamente 0,05)
se rechaza la hipótesis nula de igualdad de varianzas.

John Wilder Tukey (1915‐2000)

Estadístico estadounidense, conocido por introducir el algoritmo para el cálculo
de la Transformada de Fourier discreta y trabajos en topología. Acuñó muchos
términos estadísticos que actualmente son de uso común.
En 1946 introdujo la palabra "bit" como contracción de "dígito binario".

En 1958, en el American Mathematical Monthly,  planteó  por primera vez el término "Software de
Computación" (Computer Software).
Creó el método "Lines Media‐Media" para obtener la línea de regresión.
En 1970, contribuyó significativamente en la "Estimación Jackknife", técnica para corregir el sesgo de
estimación, aproximación lineal del Bootstrapping.
En 1977 introdujo el diagrama de caja y bigotes o Blox plot.
Propuso el uso de la mediana móvil (running median) para el análisis de series de tiempos, que
derivó en el filtro mediano, usado en el tratamiento de señales en ingeniería, y también en el
tratamiento de imágenes como filtro alisador (smoothing filter).
Incorporó la "Prueba Tukey" para comparar la media entre cada combinación de grupos por pares,
utilizada conjuntamente con ANOVA, en experimentos que implican un número elevado de
comparaciones.  Su cálculo resulta sencillo porque define un solo comparador, resultante del
producto del error estándar de la media por el valor tabular en la tabla de Tukey, usando como
numerador el número de tratamientos y como denominador los grados de libertad del error.
La prueba Tukey se usa en experimentos que implican un número elevado de comparaciones de
medias o se desea usar un test más riguroso que la "Prueba Duncan".
Se conoce como "Prueba de Tukey‐Kramer" cuando las muestras no tienen el mismo número de
datos.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 33
Donald Ransom Whitney  (1915‐2007)

Matemático y estadístico estadounidense, conocido por desarrollar la prueba no
paramétrica "U de Mann‐Whitney", junto con Henry Berthold Mann, que se aplica
a muestras independientes para comparar dos grupos (o condiciones o
tratamientos). Es el equivalente no paramétrico de la Prueba t de Student.

Mientras que la "Prueba de rango o signo de Frank Wilcoxon" se aplica a muestras emparejadas o
dependientes.

Donald Allan Darling (1915‐2014)

Estadístico estadounidense, en 1952 publicó la  prueba no paramétrica de
"Anderson‐Darling", junto a Theodore Wilbur Anderson, que determina si una
muestra de datos dada se ajusta a una distribución de probabilidad conocida.

Es una de las tres pruebas no paramétricas diseñadas para detectar la normalidad de los datos, junto
a las pruebas de "Kolmogórov‐Smirnov" y  de "Shapiro‐Wilk".
La prueba de "Anderson‐Darling" se ve gravemente afectada con los empates en los datos debido a
la poca precisión. Cuando existe un número significativo de vínculos, rechazará con frecuencia los
datos como no normales, independientemente de que se ajusten a la distribución normal.

Sidney Siegel (1916‐1961)
Psicólogo estadounidense conocido por su trabajo en la divulgación de estadísticas no
paramétricas para su uso en las ciencias del comportamiento. Publicó en 1960, en el
Journal of the American Statistical Association, junto a John Wilder Tukey, la prueba
estadística no paramétrica "Siegel‐Tukey" con aplicación a datos medidos al menos en
una escala ordinal. Prueba las diferencias de escala entre dos grupos.
La prueba determina si uno de los dos grupos de datos tiende a tener valores más dispersos que el
otro. En consecuencia, la prueba determina si uno de los dos grupos tiende a moverse, a veces a la
derecha, a veces a la izquierda, pero alejándose del centro (de la escala ordinal).

Herbert Alexander Simon (1916‐2001)
Economista, politólogo y teórico de las ciencias sociales estadounidense. Nobel de
Economía en 1978. Es innovador en teoría de juegos y estrategias racionales. Sus
principales contribuciones fueron en los campos del equilibrio general y la
econometría.
Pionero en el campo de la inteligencia artificial, creó con Allen Newell,  los programas Logic Theory
Machine (1956) y General Problem Solver (GPS) (1957).  Desarrolló, junto a Edward Feigenbaum
(padre de los sistemas expertos), la teoría EPAM (Perceptor Elemental y Memorizador), una de las
primeras teorías del aprendizaje que se implementará como un programa de computadora.
El trabajo de Simon ha influido fuertemente en John Mighton, impulsor de un programa que ha
logrado un éxito significativo en la mejora del rendimiento en matemáticas entre los estudiantes de
primaria y secundaria.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 34
Theodore Wilbur Anderson (1916‐2016)
Matemático y estadístico estadounidense que se especializó en el análisis de datos
multivariados. En 1958 publicó el libro "Una introducción al análisis multivariante",
convirtiéndose en una guía para generaciones de estadísticos teóricos, planteando
la prueba de hipótesis a través de pruebas de razón de verosimilitud y propiedades
de las funciones de potencia.
Planteó, junto a Donald Allan Darling, la  prueba de "Anderson‐Darling", que determina si una
muestra de datos dada se ajusta a una distribución de probabilidad conocida.
Estructuró, junto al estadístico indio Raghu Raj Bahadur, el algoritmo "Anderson‐Bahadur ", que se
utiliza en estadística e ingeniería para resolver problemas de clasificación binaria cuando los datos
subyacentes tienen distribuciones normales multivariadas con diferentes matrices de covarianza.

Leonard Jimmie Savage (1917‐1971)
Matemático estadounidense, en 1954 publica "The Foundations of Statistics",  donde
expone ideas sobre la estadística bayesiana y, en particular, explica su teoría de la
probabilidad subjetiva y una función de utilidad (von Neumann y Oskar Morgenstern
habían introducido un caso especial de función de utilidad en Teoría de Juegos).
En varios artículos se relaciona con la inferencia estadística,  introdujó pruebas de hipótesis
bayesianas y la estimación bayesiana,  oponiéndose a las opiniones de Ronald Fisher y Jerzy Neyman.
En Teoría de la Decisión propuso el "Modelo de Savage" o mínima penalización,  que se basa en una
dualidad, se busca la máxima ganancia a través de la mínima perdida. Para cada una de las
soluciones hay diferentes  resultados,  se consideran todos los escenarios (columnas)  como
referente y dentro de éstos, para cada solución se elige el mayor valor para restarlo de cada valor
dentro de esa misma columna.
Pierre Simon Laplace planteó en 1825 el criterio de "Razón insuficiente", como a priori no existe
ninguna razón para suponer que un estado se puede presentar antes que los demás, se puede
considerar que todos los estados tienen la misma probabilidad de ocurrencia.  Es decir, la ausencia
de conocimiento sobre el estado de la naturaleza equivale a afirmar que todos los estados son
equiprobables.
Así, para un problema de decisión con n posibles estados de la naturaleza, se asigna la probabilidad
1/n a cada uno de ellos.

Leonid Hurwicz  (1917‐2008)
Economista y matemático de origen polaco,  con importantes contribuciones en
Diseño de Mecanismos y Teoría de la Empresa. Pionero en el valor de la Teoría de
Juegos y sus aplicaciones. Nobel de Economía en 2007. Trabajó con Kenneth Joseph
Arrow (Nobel Economía, 1972) en programación no lineal.
La programación no lineal es un método que optimiza, ya sea maximizando o minimizando, una
función objetivo teniendo en cuenta distintas restricciones dadas. Se caracteriza porque la función
objetivo, o alguna de las restricciones, pueden ser no lineales.
En 1951 aportó en Teoría de la Decisión el "Modelo de Hurwicz", criterio intermedio entre el modelo
Maximin (pesimista) de Wald y el modelo Maximax (optimista), como hay pocas personas que son
tan extremadamente pesimistas u optimistas como sugieren dichos criterios,  considera que el
decisor debe ordenar las alternativas de acuerdo con una media ponderada de los niveles de
seguridad y optimismo.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 35
Erich Leo Lehmann (1917‐2009)

Estadístico estadounidense, con importantes contribuciones a las pruebas de
hipótesis no paramétricas. Planteó el "Teorema de Lehmann–Scheffé", junto a
Henry Scheffé, que determina el estimador insesgado de varianza mínima.

Formuló el "Estimador de Hodges‐Lehmann", junto a Joseph Lawson Hodges, que para  poblaciones
no simétricas estima la " pseudo‐mediana". Es un estimador robusto y no paramétrico del parámetro
de localización de una población.
En poblaciones que son simétricas alrededor de una mediana, como la distribución normal
(Gaussiana) o la distribución t de Student, el estimador de Hodges‐Lehmann es una estimación
consistente y mediana de la media de la población.
Para poblaciones no simétricas, el estimador de Hodges‐Lehmann estima la " pseudo‐mediana", que
está estrechamente relacionada con la mediana de la población
Se propuso originalmente para estimar el parámetro de localización de poblaciones
unidimensionales, pero se ha utilizado para muchos más propósitos,  como para estimar las
diferencias entre los miembros de dos poblaciones. Se ha generalizado a partir de poblaciones
univariadas a poblaciones multivariadas, que producen muestras de vectores.
Se basa en la "Prueba de los rangos con signo" de Frank Wilcoxon,  fue un ejemplo temprano de un
estimador basado en el rango, una clase importante de estimadores tanto en estadística no
paramétrica como en estadística robusta (alternativa a los métodos estadísticos clásicos).
También recibe el nombre de "Estimador de Hodges‐Lehmann‐Sen",  al ser propuesto
independientemente en 1963 por Pranab Kumar Sen y por Joseph Hodges y Erich Leo Lehmann.

Nathan Mantel (1919‐2002)

Bioestadístico estadounidense, introdujo el "Test de Mantel" de la correlación
entre dos matrices, y la prueba de Cochran‐Mantel‐Haenszel", junto a William
Manning Haenszel  y William Gemmell Cochran, que se utiliza en el análisis de
datos categóricos estratificados o emparejados.
La  prueba permite probar la asociación entre un tratamiento binario y un resultado binario, como el
estado de caso o control, teniendo en cuenta la estratificación.  A diferencia de la prueba de Quinn
McNemar que solo puede manejar pares, la prueba CMH maneja tamaños arbitrarios de estratos.
La prueba de Cochran Mantel‐Haenszel (CMH) y sus extensiones pueden combinar datos de varias
fuentes o grupos evitando la confusión. A menudo se utiliza en estudios observacionales en los que
no se puede controlar la asignación aleatoria de sujetos a diferentes tratamientos, pero se pueden
medir las covariables de confusión.

William Henry Kruskal (1919‐2005)

Matemático y estadístico estadounidense, introdujo en estadística no paramétrica,
junto a Wilson Allen Wallis, la prueba de "Kruskal‐Wallis",  que prueba si un grupo de
datos proviene de la misma población.

Intuitivamente, es idéntico al ANOVA con los datos reemplazados por categorías. Es una extensión de
la prueba de la "U de Mann‐Whitney" para 3 o más grupos
Al ser una prueba no paramétrica no asume la normalidad en los datos, en oposición al tradicional
ANOVA, este supuesto se esquiva con datos heterocedásticos (la varianza de los errores no es
constante en todas las observaciones realizadas).

                                                       Portal Estadística Aplicada:  Historia de la Estadística 36
George Edward Pelham Box (1919‐2013)
Estadístico británico, trabajó en las áreas de control de calidad, análisis de series
temporales, diseño de experimentos, y la inferencia bayesiana. Es una de las
mentes más brillantes de la estadística del siglo XX.
Publicó, junto a George Tiao, "Bayesian Inference in Statistical Analysis”,  libro
influyente en muchos estadísticos.
En análisis discriminante introdujo, la  prueba "M de Box" compara la covarianza entre grupos,
contrasta la igualdad de las matrices de varianzas‐covarianzas poblacionales.
En series temporales, la prueba "Q de Ljung‐Box", junto a Greta Marianne Ljung.
En diseño de experimentos, la prueba "Box‐Behnken", junto a Donald Behnken, para mejorar el
rendimiento del análisis conjunto en estudios experimentales de mercado.

Edward Lynn Kaplan  (1920‐2006)
Matemático estadounidense. En 1958,  junto a Paul Meier, desarrolló el método de
"Kaplan‐Meier", estimador no paramétrico de la función de supervivencia, un
método para medir cuántos pacientes sobreviven a un tratamiento médico de una
duración a otra, teniendo en cuenta que la población de la muestra cambia a lo
largo de tiempo.
El estimador admite una representación gráfica por medio de una función escalonada.
En las enfermedades crónicas, tales como el cáncer, la supervivencia se mide como una probabilidad
de permanecer vivo durante una determinada cantidad de tiempo. Típicamente, el pronóstico del
cáncer se valora determinando el porcentaje de pacientes que sobrevive al menos cinco años
después del diagnóstico.
La prueba de "Kaplan‐Meier" calcula la supervivencia cada vez que un paciente muere, se utiliza
cuando la muestra es menor de 30 o para muestras mayores cuando se conocen los tiempos
individuales de los censurados y no censurados.

Calyampudi Radhakrishna Rao (1920 ‐ )
Estadístico indio, alumno de Ronald Aylmer Fisher, hizo aportaciones en la calidad de
los estimadores, como  la "Cota de Cramér‐Rao", junto a Harald Cramér, que expresa
una cota inferior para la varianza de un estimador insesgado, partiendo de la
información de Fisher; y el "Teorema de Rao‐Blackwell", junto a David Harold
Blackwell, que transforma un estimador crudo arbitrario en uno optimizado mediante el criterio del
error cuadrático medio u otro similar.
Desarrolló trabajos en análisis multivariante y geometría diferencial.

Charles William Dunnett ( (1921‐2007)
Estadístico canadiense, introdujo el "Contraste Dunnett",  un método de
comparaciones múltiples, comparando distintos tratamientos con un control
utilizado en determinados campos de investigación, por ejemplo en estudios
epidemiológicos.
El contraste de Duncan utiliza, como el test HSD (Honestly Significant Difference) de John Wilder
Tukey, la distribución del recorrido estudentizado. Se diferencia de ese test en que su aplicación es
secuencial, en el sentido de no utilizar un único valor crítico para todas las diferencias de medias,
como el de Tukey, sino un valor crítico que depende del número de medias comprendido entre las
dos medias que se comparan, habiendo ordenado previamente las medias en orden creciente.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 37
Morton B. Brown (1921‐2014)

Introdujo en análisis de la varianza la prueba "Brown‐Forsythe" para la igualdad de
medias cuando las varianzas son distintas. Se utiliza siempre que se necesita probar
el supuesto de igualdad de varianzas.

Al realizar un análisis de la varianza (ANOVA) de una vía o de un factor entre grupos, se supone que
las varianzas son iguales. Cuando esto no ocurre, la prueba F de Fisher no es válida. El test de
"Brown‐Forsythe" es una prueba robusta que se basa en las diferencias absolutas dentro de cada
grupo de la mediana del grupo. Es una modificación de la prueba de "Levene", que utiliza la media.
La prueba "Brown‐Forsythe" es una alternativa adecuada a la prueba de "Bartlett" para varianzas
iguales, ya que no es sensible a la falta de normalidad y tamaños de muestra desiguales.

Joseph Lawson Hodges (1922‐2000)
Estadístico estadounidense, conocido por sus contribuciones con el "Estimador de
Hodges‐Lehmann", el algoritmo del  "Vecino más cercano", junto Evelyn Fix (1904‐
1965), publicado en el innovador artículo "Discriminatory Analysis. Nonparametric
Discrimination: Consistency  Properties" (Análisis discriminatorio. Discriminación no
paramétrica: Propiedades de Consistencia), y el "Estimador de Hodges".
Estimador no paramétrico de "Hodges‐Lehmann", propuesto en 1963 por Joseph Lawson Hodges  y
Erich Leo Lehmann, es un estimador robusto de localización de una población. Para poblaciones
simétricas alrededor de una mediana, como la distribución normal o la t de Student, es una
estimación consistente y mediana de la media de la población. En poblaciones no simétricas estima
la "pseudo‐mediana", relacionada estrechamente con la mediana de la población.
También se le conoce como el "Estimador de Hodges‐Lehmann‐Sen", al ser propuesto de forma
independiente por Pranab Kumar Sen.
El algoritmo no paramétrico del "Vecino más cercano" fue uno de los primeros algoritmos utilizados
para determinar una solución para el "problema del viajante", genera rápidamente un camino corto,
pero generalmente no ideal.
Un método importante que se convertiría en una pieza clave de las tecnologías del aprendizaje
automático, el algoritmo de los "k vecinos más cercanos".
El algoritmo fue ampliado por Thomas M. Cover (1938‐2012),  siendo una de las principales
motivaciones teóricas para el uso de "Métodos de Kernel" no lineales en aplicaciones de aprendizaje
automático.
El "Estimador de Hodges" es un estimador supereficiente (más preciso), alcanza una varianza
asintótica menor que estimadores eficientes regulares. En general, cualquier estimador
supereficiente puede superar a un estimador regular como máximo en un conjunto de medidas de
Lebesgue cero.
El Análisis Discriminantes es una técnica multivariante de clasificación, con el objetivo de obtener
una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de
ciertas variables discriminadoras.
El Análisis Clusters y el Análisis Discriminante son métodos de clasificación de individuos en
categorías. La principal diferencia entre ellos estriba en que en el análisis discriminante se conoce a
priori el grupo de pertenencia, mientras que el análisis cluster sirve para formar grupos
(conglomerados, clusters, racimos, etc.) lo más homogéneos posibles.
El Análisis Discriminante define una regla o esquema de clasificación que permita predecir la
población a la que es más probable que tenga que pertenecer una nueva observación.
El "Vecino más próximo o cercano" mide la proximidad entre dos grupos calculando la distancia
entre sus objetos más próximos o la similitud entre sus objetos más semejantes.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 38
Martin Bradbury Wilk (1922‐2013)
Estadístico canadiense, conocido por desarrollar en 1965, junto a Samuel Sanford
Shapiro, la prueba no paramétrica  de "Shapiro‐Wilk" para contrastar la normalidad
de un conjunto de datos (cuando el tamaño de la muestra es menor que 50, en
muestras grandes es equivalente al test de Kolmogórov‐Smirnov).
Desarrolló, con Ramanathan Gnanadesikan (1932‐2015), varias técnicas gráficas importantes para el
análisis de datos, que incluyen los gráficos de probabilidad "Q‐Q" y "P‐P".
La idea básica de los métodos "Q‐Q" y "P‐P" consiste en representar, en un mismo gráfico, los datos
empíricos observados, frente a los datos que se obtendrían en una distribución normal teórica. Si la
distribución de la variable es normal, los puntos quedarán cerca de una línea recta. Es frecuente
observar una mayor variabilidad (separación) en los extremos.
El gráfico de probabilidad "Q‐Q",  Q viene de cuantil,  es un método para el diagnóstico de
diferencias de los cuantiles entre la distribución de probabilidad de una población de la que se ha
extraído una muestra aleatoria y la distribución normal usada para la comparación.
El gráfico de probabilidad "P‐P" es similar al "Q‐Q", la diferencia es que confronta las proporciones
acumuladas de una variable que se ha extraído una muestra aleatoria con las proporciones de una
distribución normal.

Jacob Cohen (1923‐1998)

Psicólogo y estadístico estadounidense, dio su nombre a medidas como la "kappa
de Cohen", "d de Cohen" y "h de Cohen".

Desarrolló trabajos sobre el poder estadístico (potencia de una prueba de hipótesis) y el tamaño del
efecto (número que mide la fuerza de la relación entre dos variables en una población, o una
estimación basada en una muestra de esa cantidad), que ayudaron a sentar las bases
del metaanálisis estadístico actual y métodos de estimación de estadísticas (conjunto de métodos de
análisis de datos relacionados con los tamaños del efecto).
El Coeficiente "kappa de Cohen" es una medida que ajusta el efecto del azar en la proporción de la
concordancia observada para elementos cualitativos (variables categóricas). 
La "d de Cohen" es una medida del tamaño del efecto como diferencia de medias estandarizada.
Informa de cuántas desviaciones típicas de diferencia hay entre los resultados de los dos grupos que
se comparan (grupo experimental y grupo de control, o el mismo grupo antes y después de la
intervención).
La "h de Cohen" es una medida de distancia entre dos proporciones o probabilidades, se puede
utilizar para describir la diferencia entre dos proporciones (pequeña, mediana o grande), determinar
si la diferencia entre dos proporciones es significativa, o para calcular el tamaño de la muestra para
un estudio futuro.
Al medir la diferencia entre dos proporciones, se puede utilizar como prueba de hipótesis.
Entendiendo que una diferencia estadísticamente significativa entre dos proporciones significa que,
dados los datos, es probable que exista una diferencia en las proporciones de la población. Sin
embargo, la diferencia puede ser demasiado pequeña para ser significativa. Por otro lado, cuantifica
el tamaño de la diferencia por lo que permite decidir si es significativa.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 39
Ingram Olkin (1924‐2016)
Estadístico estadounidense,  conocido por el desarrollo de análisis estadístico para
evaluar las políticas, en particular la educativa, y por sus contribuciones al
metaanálisis, la educación estadística, el análisis multivariante, y la teoría de la
mayorización. Introdujo la prueba "Kaiser‐Meyer‐Olkin (KMO)", medida de cuán
adecuados son los datos para el análisis factorial.
La prueba mide la adecuación del muestreo para cada variable en el modelo y para el modelo
completo.  El estadístico es una medida de la proporción de varianza entre variables que podrían ser
varianza común. Cuanto menor sea la proporción, más adecuados serán sus datos para el análisis
factorial.
El Análisis Factorial (AF) y el Análisis de Componentes Principales (ACP) están muy relacionados, son
una técnica de análisis multivariante de reducción de datos.
El método de Componentes Principales (ACP) tiene como objetivo transformar un conjunto de
variables originales, en un nuevo conjunto de variables (sin perder información), combinación lineal
de las originales, denominadas componentes principales (factores).
Trata de hallar estos componentes o factores, que se caracterizan por estar incorrelacionadas entre
sí, que sucesivamente expliquen la mayor parte de la varianza total. El primer factor o componente
será aquel que explica una mayor parte de la varianza total, el segundo factor sería aquel que explica
la mayor parte de la varianza restante, es decir, de la que no explicaba el primero y así
sucesivamente. De este modo sería posible obtener tantos componentes como variables originales
aunque esto en la práctica no tiene sentido.
El Análisis Factorial  (AF) busca factores que expliquen la mayor parte de la varianza común,
distinguiendo varianza común y varianza única.
La varianza común es la parte de la variación de la variable que está compartida con las otras
variables y se puede cuantificar con la denominada "comunalidad".  La varianza única es la parte de
la variación de la variable que es propia de esa variable.
Diferencias entre ACP y AF:  El Análisis de Componentes Principales no hace distinción entre los dos
tipos de varianzas de AF, busca hallar combinaciones lineales de las variables originales que
expliquen la mayor parte de la variación total. Mientras que el Análisis Factorial pretende hallar un
nuevo conjunto de variables, menor en número que las variables originales, que exprese lo que es
común a esas variables.
En algunos programas, como el SPSS, ambas técnicas están dentro del mismo procedimiento general.
Existen varios contrastes que pueden realizarse para evaluar sí el modelo factorial (o la extracción de
los factores) en su conjunto es significativo.
El test KMO (Kaiser, Meyer y Olkin) relaciona los coeficientes de correlación  rjh  y  los coeficientes de
correlación parcial  a jh , entre las variables  X j y  Xh .
Con un valor próximo a 1 del test KMO  se tiene una correlación alta,  con  KMO ≥ 0,9  la correlación
es muy buena, con  KMO ≥ 0,8  la correlación es notable, con  KMO ≥ 0,7  la correlación es mediana,
con  KMO ≥ 0,6  la correlación es baja, y muy baja para   KMO < 0,5.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 40
David Roxbee Cox (1924 ‐ )

Estadístico inglés, conocido por sus trabajos en la regresión de Cox (análisis de la
supervivencia),  procesos estocásticos, diseño experimental y análisis de data
binaria. Editor de la revista Biometrika entre (1966‐1991).

La regresión de Cox, conocida como modelo del riesgo proporcional, es una técnica inferencial que
se utiliza para modelar los riesgos que afectan a la supervivencia de una población de sujetos.
El modelo genera una función de supervivencia que pronostica la probabilidad de que se haya
producido el evento de interés en un momento dado t  para determinados valores de las variables
predictoras.
La forma de la función de supervivencia y los coeficientes de regresión de los predictores se estiman
mediante los sujetos observados. Después, se puede aplicar el modelo a los nuevos casos que tengan
mediciones para las variables predictoras.
Señalar que la información de los sujetos censurados, es decir, aquellos que no han experimentado
el evento de interés durante el tiempo de observación, contribuye de manera útil a la estimación del
modelo.

Hubert Lilliefors Whitman (1928‐2008)

Estadístico estadounidense, conocido por introducir la "Prueba de Lilliefors. En
cálculos estadísticos fue uno de los pioneros de la Tecnología Informática, a finales
de 1960 utilizó una computadora para calcular la "Distribución de Lilliefors".

Fue alumno del criptoanalista y matemático estadounidense Solomon Kullback (1907‐1994), que
introdujo, junto a Richard A. Leibler (1914‐22003), la "Divergencia Kullback‐Leibler" o "Entropía
relativa", una medida de cómo una distribución de probabilidad es diferente de una segunda
distribución de probabilidad de referencia.
La "Prueba de Lilliefors" es una prueba de normalidad basada en la prueba de "Kolmogórov‐
Smirnov", que utiliza para probar la hipótesis nula de que los datos provienen de una población con
distribución normal con varianza desconocida.
Cuando la prueba de "Kolmogórov‐Smirnov" es la normal y se estiman sus parámetros, los valores
críticos se obtienen aplicando la corrección de significación propuesta por Lilliefors.
La tabla para la  "Distribución de Lilliefors" se calcula mediante el Método de Montecarlo
(introducido por Stanisław Marcin Ulam y  John von Neumann).

John Forbes Nash (1928‐2015)
Matemático estadounidense, experto en teoría de juegos, geometría diferencial y
ecuaciones en derivadas parciales. Premio Nobel de Economía (1994) , junto a
Reinhard Selten y John Charles Harsanyi, y Premio Abel (2015).
Identificó puntos básicos sobre estrategias y posibilidades de predicción del comportamiento que se
dan en juegos no cooperativos.
El denominado "Equilibrio de Nash" define la confrontación entre la cooperación y el deseo de
obtener el máximo beneficio.
Los notables logros de Nash inspiraron a generaciones de matemáticos, estadísticos, economistas y
científicos. Ganó un lugar especial en la historia por sus contribuciones revolucionarias en áreas tan
diversas de las matemáticas como teoría de juegos, geometría, topología y ecuaciones diferenciales
parciales.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 41
Leo Aria Goodman (1928‐2020)

Estadístico estadounidense,  conocido por desarrollar métodos estadísticos para las
ciencias sociales y  herramientas para que los investigadores analicen datos
categóricos y datos de encuestas estadísticas.

Introdujo, junto a William Henry Kruskal, dos medidas basadas en la reducción del error (RPE):  La
"Lambda de Goodman‐Kruskal" y  la "Tau de Goodman‐Kruskal", y una medida de correlación de
rango "Gamma de Goodman‐Kruskal" para variables en escala ordinal.
La "Tau de Goodman‐Kruskal" se basa en la asignación aleatoria de las categorías. Mide la mejora
porcentual en la capacidad de predicción de la variable dependiente (variable de columna o fila)
dado el valor de otras variables (variables de fila o columna).
La "Lambda de Goodman‐Kruskal" se basa en las probabilidades modales. Mide la mejora porcentual
en la probabilidad de la variable dependiente (variable de columna o fila) dado el valor de otras
variables (variables de fila o columna).
La "Gamma de Goodman‐Kruskal" es una medida de la correlación de rango, mide la fuerza de
asociación de los datos de tabla cruzada cuando ambas variables se miden en escala ordinal,  varía
entre  −1 y  +1 , se puede interpretar como la reducción proporcional del error cometido al predecir
el ordenamiento de los casos de una variable mediante el conocimiento de la ordenación en la otra
variable.

Robert Hough Somers (1929‐2004)

Sociólogo y estadístico estadounidense,  en 1962 introdujo la "d de Somers", una
medida de dependencia entre variables ordinales.

Es una medida de asociación para datos ordinales, el estadístico considera que las variables pueden
ser simétricas o dependientes. En el primer caso, el estadístico "d de Somers" coincide con la "Tau‐b
de Kendall". En el segundo supuesto, se diferencia del estadístico "Gamma" en que incluye los
empates de la variable que considera dependiente.
Toma valores entre ‐1 y +1, y alcanza los valores extremos cuando existe concordancia o discordancia
perfecta, valores próximos a 0 indican ausencia de asociación.

Gwilym Jenkins (1932‐1982)

Ingeniero de sistemas y estadístico británico, desarrolló, con George Edward Pelham
Box, el método de "Box‐Jenkins" en el análisis de series de tiempo.

El método "Box‐Jenkins" se aplica a los modelos autorregresivos de media móvil ARMA (dos
componentes:  autorregresiva AR, y media móvil MA) o a los modelos autorregresivos integrados de
media móvil ARIMA (tres componentes: AR autorregresiva,  integrado I, y medias móviles MA) para
encontrar el mejor ajuste de una serie temporal de valores, con el objetivo de que los pronósticos
sean más acertados
La estimación de los parámetros de los modelos de "Box‐Jenkins" es un problema no lineal bastante
complicado. La estimación de parámetros lo realiza un programa de software estadístico.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 42
Jean Paul Benzécri (1932‐2019)

Matemático y estadístico francés, desarrolló técnicas estadísticas, destacando la del
análisis de correspondencias. Fundador, entre 1960‐1990,  de la escuela francesa de
análisis estadístico de datos.

El análisis de correspondencias (AC) es una técnica multivariante descriptiva, utilizada en el estudio
de tablas de contingencia y es conceptualmente similar al análisis de componentes principales, se
diferencia porque identifica las dimensiones básicas mediante el análisis de tablas de contingencia o
correspondencias obtenidas del cruce de las categorías de las variables cualitativas (escala nominal y
ordinal) observadas en una muestra
El análisis de correspondencias asume que las variables son nominales y permite describir las
relaciones entre las categorías de cada variable, así como la relación entre las variables. Además, se
puede utilizar para analizar cualquier tabla de medidas de correspondencia que sean positivas.
Cuando en el estudio hay implicadas más de dos variables, se utiliza el análisis de correspondencias
múltiple. Si se deben escalar las variables de forma ordinal, se utiliza el análisis de componentes
principales categórico.

George C Tiao (1933 ‐ )
Economista inglés,  con importantes investigaciones en análisis bayesiano, análisis
de series temporales y el estudio estadístico de los datos meteorológicos y
climatológicos. Fue uno de los creadores del prestigioso  NBER/NSF Time Series
Seminar y el fundador de la conferencia anual Making Statistics more effective in
schools of business.
Durante (1962‐1972) fue uno de los pioneros en el campo del análisis bayesiano gracias a una labor
de investigación reflejada en 25 artículos en las mejores revistas de Estadística y en un libro escrito
conjuntamente con George Edward Pelham Box.
La mayoría de las agencias de Estadística y  Bancos Centrales de los países  industrializados utilizan
sus procedimientos para desestacionalizar las series temporales económicas.
Desarrolló, junto a Box, el análisis de intervención, empleando el modelamiento ARIMA propuesto
inicialmente por Box y Tiao (1965) y en 1970 por Box y Jenkins. Fue responsable del procedimiento
para detectar sucesos atípicos en series temporales y evaluar sus efectos.
Desarrolló, junto a Box, el análisis de intervención. Siendo responsable del procedimiento para
detectar sucesos atípicos en series temporales y evaluar sus efectos.
Sus trabajos en el estudio de los datos meteorológicos y climatológicos han afectado a la política
industrial y energética de todos los países industrializados, es miembro del equipo que descubrió y
midió los cambios en la capa de ozono.
Entre otras contribuciones importantes, creó una Escuela de Investigación para promocionar el
conocimiento y la investigación estadística en Asía (China y Taiwan).                                                             
Fundó The International Chinese Statistical Associationy , así como la revista Statistica Sinica, la más
prestigiosa sobre Estadística creada en los últimos 50 años.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 43
Pranab Kumar Sen (1937 ‐ )
Estadístico indio, con importantes contribuciones a la investigación estadística,
incluidas la estadística de orden, la no paramétrica,  inferencia sólida, métodos
secuenciales, bioestadística, ensayos clínicos, estudios bioambientales y la
bioinformática. Coeditor fundador de dos revistas: Sequential Analysis y Statistics
and Decisions, y Journal of Statistical Planning and Inference.
En estadística no paramétrica introdujó, junto al econométrico holandés Henri Theil, el estimador
"Theil‐Sen" para ajustar de manera robusta una línea a puntos de muestra en el plano (regresión
lineal simple) eligiendo la mediana de las pendientes de todas las líneas a través de pares de puntos.
Este estimador se calcula de manera eficiente y es sensible a valores atípicos, significativamente más
preciso que la regresión lineal simple no robusta (mínimos cuadrados) para datos asimétricos y
heterocedásticos, compitiendo bien contra mínimos cuadrados para datos distribuidos normalmente
en términos de poder estadístico.                                                                                                                           
Se le considera la técnica no paramétrica más popular para estimar una tendencia lineal.
Desarrolló, de forma independiente a Hodges y Erich Leo Lehmann, el estimador no paramétrico de
"Hodges‐Lehmann‐Sen", estimador robusto del parámetro de localización de una población.                  
En poblaciones que son simétricas alrededor de una mediana, como la distribución normal o la
distribución t de Student, es un estimador consistente y mediana de la media de la población.                
En poblaciones no simétricas, estima la "pseudo‐mediana", que se encuentra estrechamente
relacionada con la mediana de la población.                                                                                                        
Tiene aplicaciones para estimar las diferencias entre los miembros de dos poblaciones.                            
Se ha generalizado a partir de poblaciones univariadas a poblaciones multivariadas, que producen
muestras de vectores.

Bradley Efron (1938 ‐ )
Estadístico estadounidense,  en 1979 desarrolló  la técnica de remuestreo
Bootstrapping (o bootstrap) para aproximar la distribución en el muestreo de un
estadístico. Se utiliza frecuentemente para aproximar el sesgo o la varianza de un
análisis estadístico, así como para construir intervalos de confianza o realizar
contrastes de hipótesis sobre parámetros de interés.
El bootstrap fue una de las primeras técnicas estadísticas de uso intensivo de computadoras,
sustituyendo a derivaciones algebraicas con simulaciones por ordenador basadas en datos.                     
Tiene un impacto importante en el campo de la estadística y prácticamente en todos los ámbitos de
su aplicación.
En el mundo de Big Data, cuando no solo la ciencia, sino también la tecnología y la economía se
alimentan de grandes cantidades de datos, el trabajo de David Roxbee Cox y Bradley Efron adquiere
aún más importancia al trabajar con conjuntos de datos cada vez más grandes. Cox y Efron
publicaron sus contribuciones más célebres en la década de 1970.
Desarrolló métodos estadísticos que han resultado imprescindibles para obtener resultados fiables
en muchas áreas:  medicina, astrofísica, y  física de partículas.

                                                       Portal Estadística Aplicada:  Historia de la Estadística 44
                                                       Portal Estadística Aplicada:  Historia de la Estadística 45
Historia de la Estadística
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández

                                                       Portal Estadística Aplicada:  Historia de la Estadística 46

También podría gustarte