Está en la página 1de 31

Historia de la

estadística

Se puede afirmar que la Historia de la estadística comienza alrededor de 1750, aunque con el
tiempo, ha habido cambios en la interpretación de la palabra "estadística". En un principio, el
significado estaba restringido a la información acerca de los estados. Este fue extendido
posteriormente para incluir toda colección de información de cualquier tipo, y más tarde fue
extendido para incluir el análisis e interpretación de los datos. En términos modernos,
"estadística" significa tanto conjuntos de información recopilada, por ejemplo registros de
temperatura, contabilidad nacional, como trabajo analítico que requiera inferencia estadística.

Introducción
En el siglo xviii el término "estadística" designaba la colección sistemática de datos
demográficos y económicos por los estados. A principios del siglo xix, el significado de
"estadística" fue ampliado para incluir la disciplina ocupada de recolectar, resumir y analizar los
datos. Hoy la estadística es ampliamente usada en el gobierno, los negocios y todas las ciencias.
Las computadoras electrónicas han acelerado la estadística computacional y ha permitido a los
estadísticos el desarrollo de métodos que usan recursos informáticos intensivamente.

El término "estadística matemática" designa las teorías matemáticas de la probabilidad e


inferencia estadística, las cuales son usadas en la estadística aplicada. La relación entre
estadística y probabilidades se fue desarrollando con el tiempo. En el siglo xix, las estadísticas
usaron de forma gradual la teoría de probabilidades, cuyos resultados iniciales fueron
encontrados en los siglos xvii y xviii, particularmente en el análisis de los juegos de azar
(apuestas). Para 1800, la astronomía usaba modelos probabilísticos y teorías estadísticas,
particularmente el método de los mínimos cuadrados, el cual fue inventado por Legendre y Gauss.
La incipiente teoría de las probabilidades y estadísticas fue sistematizada y extendida por
Laplace; después de este, las probabilidades y estadísticas han experimentado un continuo
desarrollo. En el siglo xix, el razonamiento estadístico y los modelos probabilísticos fueron
usados por las ciencias sociales para el avance las nuevas ciencias de psicología experimental y
sociología, y por las ciencias físicas en termodinámica y mecánica estadística. El desarrollo del
razonamiento estadístico estuvo fuertemente relacionado con el desarrollo de la lógica inductiva
y el método científico.

La estadística puede ser considerada no como una rama de las matemáticas, sino como una
ciencia matemática autónoma, como las ciencias de la computación y la investigación de
operaciones. A diferencia de las matemáticas, la estadística tuvo sus orígenes en la
administración pública. Fue usada en la demografía y la economía. Con el énfasis en el
aprendizaje de los datos y en la elaboración de las predicciones más acertadas, la estadística se
ha solapado con la teoría de la decisión y la microeconomía. Con el enfoque de los datos, la
estadística se ha solapado con la ciencia de la información y las ciencias de la computación.

Etimología
El término «estadística», en última instancia, deriva la palabra del neolatín statisticum collegium
(consejo de estado) y la palabra italiana statista (‘hombre de estado’ o político). La palabra
alemana statistik, introducida primeramente por Godofredo Achenwall (1749), originalmente
designaba el análisis de datos acerca del estado, significando la ‘ciencia del estado’ (llamado
posteriormente «aritmética política» en idioma inglés). A principios del siglo xix, adquirió el
significado de colección y clasificación de datos. El término fue introducido en Inglaterra en 1792
por sir John Sinclair cuando publicó el primero de los 21 volúmenes titulados Statistical account
of Scotland.[1]

De esta forma, el propósito original principal de la statistik eran los datos usados por el gobierno
y los cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados
y localidades continúa, en mayor parte a través de servicios estadísticos nacionales e
internacionales. En particular, los censos proveen frecuentemente información actualizada acerca
de la población.
El primer libro en tener ‘estadísticas’ en su título fue “Contributions to Vital Statistics” por Francis
GP Neison, registrado a la Medical Invalid and General Life Office (1 era edición 1845, 2.ª ed.
1846, 3.ª ed. 1857).[cita requerida]

Orígenes en probabilidades
El uso de los métodos estadísticos se remonta al menos al siglo v a. C.. El historiador Tucídides
en su Historia de la Guerra del Peloponeso[2] ​describe como los atenienses calculaban la altura
de la muralla de Platea, contando el número de ladrillos de una sección expuesta de la muralla
que estuviera lo suficientemente cerca como para contarlos. El conteo era repetido varias veces
por diferentes soldados. El valor más frecuente (la moda en términos más modernos) era tomado
como el valor del número de ladrillos más probable. Multiplicando este valor por la altura de los
ladrillos usados en la muralla les permitía a los atenienses determinar la altura de las escaleras
necesarias para trepar las murallas.

En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el rey Ritupama estimaba el
número de frutas y hojas (2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un
árbol Vibhitaka contándolos en un solo vástago. Este número era luego multiplicado por el número
de vástagos en las ramas. Este estimado fue posteriormente verificado y se halló que estaba
muy cerca del número verdadero. Con el conocimiento de este método Nala pudo
subsecuentemente reconquistar su reino.

El primer escrito de estadística fue encontrado en un libro del siglo ix titulado Manuscrito sobre
el descifrado de mensajes criptográficos, escrito por Al- Kindi (801- 873). En su libro, Al- Kindi da
una descripción detallada sobre el uso de las estadísticas y análisis de frecuencias en el
descifrado de mensajes, este fue el nacimiento tanto de la estadística como del criptoanálisis.[3]
[4]

La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a
cabo regularmente desde el siglo xii. La prueba en sí misma está basada en métodos de
muestreo estadístico. Después de acuñar una serie de monedas ―originalmente de 10 libras de
plata― una moneda singular era colocada en el Pyx (una caja en la Abadía de Westminster).
Después de un tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego, una
muestra de monedas retiradas de la caja es probada por pureza.

La Nuova Crónica, una historia de Florencia del siglo xiv escrita por el banquero florentino y
oficial Giovanni Villani, incluye mucha información estadística.sobre la población, ordenanzas,
comercio, educación y edificaciones religiosas, y ha sido descrito como la primera introducción
de la estadística como elemento positivo en la historia,[5] ​aunque ni el término ni el concepto de
la estadística como campo específico existía aún. Esto se demostró que era incorrecto después
del hallazgo del libro de Al- Kindi sobre análisis de frecuencias.[3] [4]

Aunque era un concepto conocido por los griegos, la media aritmética no fue generalizada a más
de dos valores hasta el siglo xvi. La invención del sistema decimal por Simon Stevin en 1585
parece haber facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía
por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de
varios cuerpos celestiales.

La idea de la mediana se originó en el libro de navegación de Edward Wright (Certaine errors in


navigation) en 1599 en una sección concerniente a la determinación de una localización con un
compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una
serie de observaciones.

John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality,
estimó la población de Londres en 1662 a través de registros parroquiales. Él sabía que había
cerca de 13 000 funerales al año en Londres y que de cada once familias tres personas morían
por año. Estimó de los registros parroquiales que el tamaño promedio de las familias era 8 y
calculó que la población de Londres era de cerca de 384 000. Laplace en 1802 estimó la
población de Francia con un método similar.

Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene


sus raíces en la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christiaan
Huygens (1657) proveyó el primer tratamiento científico sobre el tema que se conozca hasta la
fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo 1713) y La doctrina de las
probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas.
En su libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la
probabilidad como un número entre cero y uno.

Galileo luchó contra el problema de errores en las observaciones y había formulado


ambiguamente el principio de que los valores más probables de cantidades desconocidas serían
aquellos que hicieran los errores en las ecuaciones razonablemente pequeños. El estudio formal
en teoría de errores puede ser originado en el libro de Roger Cotes (Opera Miscellanea, póstumo
1750). Tobias Mayer, en su estudio de los movimientos de la Luna (Kosmographische
Nachrichten, Núremberg, 1750), inventó el primer método formal para estimar cantidades
desconocidas generalizando el promedio de las observaciones bajo circunstancias idénticas al
promedio de los grupos de ecuaciones similares.

Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por
Abraham de Moivre, quien trazó esta curva el 12 de noviembre de 1733.[6] ​De Moivre estaba
estudiando el número de caras que ocurrían cuando una moneda “justa” era lanzada.

En sus memorias ―Un intento por mostrar la emergente ventaja de tomar la media de un número
de observaciones en astronomía práctica― preparada por Thomas Simpson en 1755 (impreso en
1756) aplicaba por primera vez la teoría a la discusión de errores en observaciones. La
reimpresión (1757) de sus memorias sostiene el axioma que errores positivos y negativos son
igualmente probables, y que hay ciertos valores límites dentro de los cuales todos los errores se
encuentran; los errores continuos son discutidos y se provee una curva de probabilidad. Simpson
discutió varias posibles distribuciones de error. Primero consideró la distribución uniforme y
después la distribución triangular discreta simétrica, seguida por la distribución triangular continua
simétrica.

Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la Tierra propuesto en el libro De
litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire
et Boscovicli para proponer que el verdadero valor de una serie de observaciones sería aquel que
minimizara la suma de los errores absolutos. En terminología moderna este valor es la media.

Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicírculo
como una distribución de errores:

con –1 = x = 1.

Pierre- Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinación de
observaciones desde los principios de la teoría de las probabilidades. El representó la ley de a
probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres
observaciones.

Laplace en 1774 notó que la frecuencia de un error podía ser expresada como una función
exponencial de su magnitud una vez descartado el signo.[7] [8] ​Esta distribución es ahora
conocida como distribución de Laplace.

Lagrange propuso una distribución


parabólica de errores en 1776:
con - 1 = x = 1.

Laplace en 1778 publicó su segunda ley de errores en la cual notó que la frecuencia de un error
era proporcional a la función exponencial del cuadrado de su magnitud. Esto fue descubierto
subsecuentemente por Gauss (posiblemente en 1797) y es ahora conocida como distribución
normal, la cual es de importancia central en la estadística.[9] ​Esta distribución fue referida como
«normal» por primera vez por Pierce en 1873, quien estaba estudiando las medidas de error
cuando un objeto era dejado caer sobre una superficie de madera.[10] ​Escogió el término «normal»
debido a su ocurrencia frecuente en variables que ocurrían en la naturaleza.

Lagrange también sugirió en 1781 otras dos distribuciones para errores ―una distribución
coseno―:

con - 1 = x = 1 y una distribución logarítmica

con - 1 = x = 1 donde || es el - - valor absoluto- - de x.

Laplace obtuvo una fórmula (1781) para la ley de facilidad de un error (un término acuñado por
Joseph Louis Lagrange, 1774), pero esta conllevaba a ecuaciones inmanejables. Daniel Bernoulli
(1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores
concurrentes.

Laplace, en una investigación del movimiento de Saturno y Júpiter en 1787, generalizó el método
de Mayer usando diferentes combinaciones lineales de un grupo de ecuaciones.

En 1802 Laplace estimó la población en Francia a 28,328,612.[11] ​Él calculó este número usando la
cantidad de nacimientos del año anterior y el dato del censo de tres comunidades. Los datos de
los censos de estas comunidades mostraron que tenían 2,037,615 personas y que el número de
nacimientos era de 71,866. Suponiendo que estas muestras eran representativas de Francia,
Laplace produjo un estimado para la población entera.

El método de los mínimos cuadrados, el cual era usado para minimizar errores en la medición de
datos, fue publicado independientemente por Adrien- Marie Legendre (1805), Robert Adrain
(1808), y Carl Friedrich Gauss (1809).Gauss había usado el método en su famosa predicción en
1801 de la localización del planeta enano Ceres. Las observaciones en las que Gauss basó sus
cálculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones
por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826), Hagen (1837), Bessel (1838), Donkin
(1844, 1856), Herschel (1850), Crofton (1870), y Thiele (1880, 1889).

El término «error probable» (der wahrscheinliche Fehler) ―la desviación media― fue introducido
en 1815 por el astrónomo alemán Frederik Wilhelm Bessel.

Antoine Augustin Cournot en 1843 fue el primero en usar el término «mediana» (valeur médiane)
para el valor que divide la distribución de probabilidad en dos mitades iguales.

Otros contribuyentes a la teoría de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872),
y Giovanni Schiaparelli (1875).[cita requerida] La fórmula de Peters (1856) para , el "error probable"
de una sola observación fue ampliamente usada e inspiró tempranamente la estadística robusta
(resistente a valores atípicos: ver criterio de Peirce).

En el siglo xix los autores de la teoría estadística incluían a Laplace, S. Lacroix (1816), Littrow
(1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion, De Morgan, Boole,
Edgeworth,[12] ​y K. Pearson.[13]

Gustav Theodor Fechner usó la mediana (centralwerth) en fenómenos sociológicos y


sociológicos.[14] ​Anteriormente había sido usado solamente en astronomía y campos
relacionados.

Las primeras pruebas de la distribución normal fueron inventadas por el estadístico alemán
Wilhelm Lexis en 1870. El único conjunto de datos disponible para él, en que le era posible
mostrar que estaba normalmente distribuido, era la frecuencia de nacimientos.

Francis Galton estudió una variedad de características humanas ―altura, edad, peso, tamaño de
las pestañas, entre otras― y encontró que muchos de estos factores podían ser ajustados a una
distribución normal.[15]

Francis Galton en 1907 entregó un artículo a la revista Nature acerca de la utilidad de la


mediana.[16] ​El examinó la precisión de 787 intentos de adivinar el peso de un buey en una feria
de campo. El peso real era de 1208: la mediana de todas las conjeturas fue 1198 libras. Las
conjeturas fuern marcadamente no normales en su distribución.

El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895.[17]


Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. [20] Jerzy Neyman en 1934 hizo
evidente que el muestreo aleatorio estratificado era en general un mejor método de estimación
que el muestreo intencional (por cuota).[18]

El nivel de significación del 5 % parece ser introducido por Fisher en 1925.[19] ​Fisher expresó que
las desviaciones que excedían dos veces la desviación estándar eran consideradas
significativas. Previamente a esto las desviaciones que excedían tres veces el error probable
eran consideradas significativas. Para una distribución simétrica el error probable la mitad del
rango intercuantil. El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67, su
error probable es aproximadamente 2/3 de la desviación estándar. Parece que el criterio de
Fisher del 5% tenía sus raíces en la práctica previa.

En 1929 Wilso y Hilferty re- examinaron los datos de Pierce de 1873 y descubrieron que en
realidad no estaba realmente normalmente distribuida.[20]

Inferencia
Charles S. Peirce (1839- 1914) formuló teorías frecuentistas de estimación y prueba de hipótesis
(1877- 1878) y (1883), cuando introdujo la “confianza”. Pierce también introdujo experimentos
aleatorios controlados y a ciegas con diseño de medidas repetidas.[21] ​Pierce inventó un diseño
óptimo para experimentos sobre gravedad.
Estadísticas bayesianas

Pierre-Simon, marqués de Laplace,


uno de los principales
desarrolladores de la estadística
bayesiana.

El término "bayesiano" se refiere a Thomas Bayes (1702 – 1761), quién probó un caso especial de
lo que se conoce hoy como Teorema de Bayes. Sin embargo fue Pierre- Simon Laplace (1749–
1827) quien introdujo una visión general del teorema y lo aplicó a mecánica celeste, estadísticas
médicas, confiabilidad y jurisprudencia. Cuando el conocimiento disponible era insuficiente para
especificar una prior informada, Laplace usaba priores uniformes, de acuerdo a su principio de
razón insuficiente.[22] ​Laplace asumió priores uniformes más por claridad matemática que por
razones filosóficas.[22] ​Laplace también introdujo versiones primitivas de priores conjugadas y el
teorema de von Mises y Bernstein, de acuerdo a los cuales, las posteriores correspondientes a
priores inicialmente diferentes convergen asintóticamente con el crecimiento del número de
observaciones.[23] ​Esta temprana inferencia bayesiana, que usaba priores uniformes de acuerdo
con el principio de Laplace de razón insuficiente, fue llamado “probabilidad inversa” (debido a su
inferencia hacia atrás desde las observaciones a los parámetros, o de efectos a causas).[24] ​).

Después de los años veinte, la probabilidad inversa fue suplantada en su mayoría por una
colección de métodos desarrollados por Ronald A. Fisher, Jerzy Neyman y Egon Pearson. Sus
métodos fueron llamados estadística frecuentista.[24] ​Fisher rechazó el enfoque bayesiano,
escribiendo que “la teoría de la probabilidad inversa está fundada sobre un error, y debe ser
rechazada por completo”.[25] ​Al final de su vida, sin embargo, Fisher expresó un gran respeto por
los ensayos de Bayes, los cuales Fisher creía que habían anticipado su propio enfoque fiducial a
la probabilidad; Fisher aún mantenía que la visión de Laplace de las probabilidades era
“sinsentido falaz”.[25] ​Neyman comenzó como un “cuasibayesiano”, pero con el tiempo desarrolló
los intervalos de confianza (un método clave estadísticas frecuentistas) porque “la teoría
completa sería mejor si estuviera construida desde el comienzo sin referencia al bayesianismo y
las priores”.[26] ​La palabra bayesiano apareció en 1930 y para 1960 se convirtió en el término
preferido por aquellos que no estaban satisfechos con las limitaciones de las estadísticas
frecuentistas.[24] [27]

En el siglo xx, las ideas de Laplace fueron desarrolladas posteriormente en dos direcciones,
dando origen a las corrientes objetivas y subjetivas en la páctica bayesiana. En la corriente
objetiva, el análisis estadístico depende solo del modelo asumido y el dato analizado.[28] ​No hay
necesidad de involucrar decisiones subjetivas. En contraste, los estadísticos “subjetivos” niegan
la posibilidad de un análisis completamente objetivo en el caso general.

En el subsiguiente desarrollo de las ideas de Laplace, las ideas subjetivas predominaron sobre
las objetivas. La idea de que la “probabilidad” debería ser interpretada como el ¨grado de creencia
subjetivo en una proposición¨ fue propuesto, por ejemplo, por John Maynard Keynes a comienzos
de la década de 1920. Esta idea fue llevada más lejos por Bruno de Finetti en Italia (Fondamenti
Logici del Ragionamento Probabilistico, 1930) y Frank Ramsey en Cambridge (The Foundations of
Mathematics, 1931).[29] ​El enfoque fue diseñado para resolver problemas con la definición
frecuentista de la probabilidad, pero también con el anterior enfoque objetivo de Laplace.[28] ​El
método subjetivo bayesiano fue sucesivamente desarrollado y popularizado en los años
cincuenta por L. J. Savage.

La inferencia objetiva bayesiana fue desarrollada con posterioridad por Harold Jeffreys, cuyo
libro "Theory of probability" apareció en 1939. En 1957, Edwin Thompson Jaynes promovió el
concepto de entropía máxima para construir priores, el cual es un principio importante en la
formulación de métodos objetivos, principalmente para problemas discretos. En 1965, el segundo
volumen de Dennis Lindley "Introduction to probability and statistics from a bayesian viewpoint"
llevó los métodos bayesianos a un público más amplio. En 1979, José- Miguel Bernardo introdujo
el análisis referencial,[28] ​el cual ofrece un marco de trabajo general aplicable para el análisis
objetivo. Otros de los más populares proponentes del bayesianismo incluyen a I. J. Good,
B. O. Koopman, Howard Raiffa, Robert Schlaifer y Alan Turing

En los años ochenta hubo un crecimiento dramático en investigaciones y aplicaciones de


métodos bayesianos, mayormente atribuibles al descubrimiento de los métodos Markov chain
Monte Carlo, los cuales eliminaron, muchos de los , y al creciente interés en aplicaciones
complejas y no estándares.[30] ​A pesar del crecimiento de la investigación bayesiana, la mayoría
de la enseñanza universitaria está basada en estadísticas frecuentistas.[31] ​Sin embargo, los
métodos bayesianos son ampliamente aceptados y usados, por ejemplo, en el campo de
aprendizaje de máquinas.[32]
Estadísticas en la actualidad
Durante el siglo xx, la creación de instrumentos precisos para la investigación en agricultura,
problemas de salud pública (epidemiología, bioestadísticas, etc.), control de calidad industrial y
propósitos económicos y sociales (tasa de desempleo, econometría, etc.) necesitaron de los
avances substanciales en la práctica de la estadística.

Hoy el uso de la estadística se ha ampliado más allá de sus orígenes. Individuos y


organizaciones usan las estadísticas para entender los datos y hacer decisiones informadas a
través de las ciencias naturales y sociales, medicina, negocios y otras áreas.

La estadística es generalmente considerada no como una rama de las matemáticas, sino como un
campo distintivo e independiente. Muchas universidades mantienen separados los
departamentos de matemática y estadística. La estadística es también enseñada en
departamentos tan diversos como psicología, pedagogía y salud pública.

Importantes contribuyentes a
la estadística

Thom Georg Pafnut David


as e E. P. i R. Cox
Bayes Box Cheby Gertru
shov de
Cox Ronal (stude Liapun

Harald d A. nt) ov

Cramé Fisher Andréi Abrah


r Franci Kolmo am de

Franci s górov Moivre

s Galton Pierre- Jerzy


Ysidro Carl Simon Neym
Edgew Friedri Laplac an
orth ch e Blaise
Bradle Gauss Erich Pasca
y Willia L. l
Efron m Lehma Karl
Bruno Sealey nn Pears
de Gosse Aleksa on
Finetti t ndr
Charle C. R. Spear Abrah
s S. Rao man am
Peirce Walter Thorv Wald

Adolp A. ald N. Al-


he Shewh Thiele Kindi
Quetel art John
et Charle W.
s Tukey

Referencias

1. Ball, Philip (2004). Critical Mass (http


s://archive.org/details/criticalmassh
owo0000ball) . Farrar, Straus and
Giroux. p. 53 (https://archive.org/deta
ils/criticalmasshowo0000ball/page/5
3) . ISBN 0-374-53041-6.

2. Thucydides (1985). History of the


Peloponnesian War. Nueva York:
Penguin Books, Ltd. p. 204.

3. Singh, Simon (2000). The code book :


the science of secrecy from ancient
Egypt to quantum cryptography (http
s://archive.org/details/codebook00si
mo) (1st Anchor Books ed. edición).
Nueva York: Anchor Books. ISBN 0-385-
49532-3.

4. Ibrahim A. Al-Kadi "The origins of


cryptology: The Arab contributions”,
Cryptologia, 16 (2), abril de 1992; pp.
97-126.

5. Villani, Giovanni. Encyclopædia


Britannica. Encyclopædia Britannica
2006 Ultimate Reference Suite DVD.
Consultado el 4 de marzo de 2008.

6. de Moive A (1738) The doctrine of


chances. Woodfall

7. Laplace, P.-S. (1774)ː "Mémoire sur la


probabilité des causes par les
évènements". Mémoires de
l'Académie Royale des Sciences
Présentés par Divers Savants, 6,
págs. 621-656.
8. Wilson, Edwin Bidwell (1923) "First
and second laws of error", Journal of
the American Statistical Association,
18 (143), 841-851

9. Havil J (2003): Gamma: Exploring


Euler's Constant. Princeton (New
Jersey): Princeton University Press,
pág. 157.

10. Peirce CS (1873) Theory of errors of


observations. Report of the
Superintendent US Coast Survey,
Washington, Government Printing
Office. Appendix no. 21: 200-224

11. Cochran W.G. (1978) "Laplace’s ratio


estimators". pp 3-10. En David, H. A.
(ed.): Contributions to survey
sampling and applied statistics:
papers in honor of H. O. Hartley.
Nueva York: Academic Press,
ISBN 122047508.

12. (Stigler 1986, Chapter 9: The Next


Generation: Edgeworth)

13. Stigler (1986, Chapter 10: Pearson


and Yule)

14. Keynes, JM (1921) A treatise on


probability. Pt II Ch XVII §5 (p 201)

15. Galton F (1877) Typical laws of


heredity. Nature 15: 492-553

16. Galton F (1907) One Vote, One Value.


Nature 75: 414
17. Bellhouse DR (1988) A brief history of
random sampling methods.
Handbook of statistics. Vol 6 pp 1-14
Elsevier

18. Neyman, J (1934) On the two


different aspects of the
representative method: The method
of stratified sampling and the method
of purposive selection. Journal of the
Royal Statistical Society, 97 (4):
págs. 557-625

19. Fisher RA (1925) Statistical methods


for research workers, Edinburgh:
Oliver & Boyd
20. Wilson EB, Hilferty MM (1929) Note
on C.S. Peirce’s experimental
discussion of the law of Errors. Proc
Nat Acad Sci USA, 15 (2) 120-125

21. Hacking, Ian (septiembre de 1988).


«Telepathy: Origins of Randomization
in Experimental Design». Isis 79 (3):
427-451. JSTOR 234674 (https://www.jsto
r.org/stable/234674) . MR 1013489 (https://

www.ams.org/mathscinet-getitem?mr=1013

489) . doi:10.1086/354775 (https://dx.doi.or

g/10.1086%2F354775) .

22. Hald (1998)

23. Lucien Le Cam (1986) Asymptotic


methods in statistical decision
theory: páginas 336 y 618-621 (von
Mises and Bernstein).

24. Fienberg, Stephen. E. (2006): «When


did bayesian inference become
"bayesian"?» (http://ba.stat.cmu.edu/j
ournal/2006/vol01/issue01/fienberg.
pdf) Archivado (https://web.archive.
org/web/20140910070556/http://ba.
stat.cmu.edu/journal/2006/vol01/iss
ue01/fienberg.pdf) el 10 de
septiembre de 2014 en Wayback
Machine., artículo en inglés en
Bayesian Analysis, 1 (1), págs. 1-40.
Ver la página 5.
25. Aldrich, A. (2008) "R. A. Fisher on
Bayes and Bayes' theorem" (http://ba.
stat.cmu.edu/journal/2008/vol03/iss
ue01/aldrich.pdf) Archivado (https://
web.archive.org/web/201409061900
25/http://ba.stat.cmu.edu/journal/20
08/vol03/issue01/aldrich.pdf) el 6
de septiembre de 2014 en Wayback
Machine., artículo en inglés en la
revista Bayesian Analysis, 3 (1),161–
170

26. Neyman, J. (1977). «Frequentist


probability and frequentist statistics».
Synthese 36 (1): 97-131.
doi:10.1007/BF00485695 (https://dx.doi.org/

10.1007%2FBF00485695) .

27. Jeff Miller, "Earliest Known Uses of


Some of the Words of Mathematics
(B)" (http://jeff560.tripod.com/b.htm
l)

28. Bernardo, JM. (2005). «Reference


analysis». Handbook of statistics 25:
17-90. doi:10.1016/S0169-7161(05)25002-
2 (https://dx.doi.org/10.1016%2FS0169-716

1%2805%2925002-2) .

29. Gillies, D. (2000), Philosophical


Theories of Probability. Routledge.
ISBN 0-415-18276-X pp 50–1
30. Wolpert, RL. (2004) "A conversation
with James O. Berger" (http://projecte
uclid.org/euclid.ss/1089808283) ,
Statistical Science, 9, 205–218
doi 10.1214/088342304000000053
(https://dx.doi.org/10.1214/0883423
04000000053) MR 2082155 (http://
www.ams.org/mathscinet-getitem?m
r=2082155)

31. Bernardo, J. M. (2006). «A bayesian


mathematical statistics primer» (htt
p://www.stat.auckland.ac.nz/~iase/p
ublications/17/3I2_BERN.pdf) .
Proceedings of the Seventh
International Conference on Teaching
Statistics [CDROM]. Salvador (Bahia),
Brazil: International Association for
Statistical Education.

32. Bishop, C.M. (2007) Pattern


Recognition and Machine Learning.
Springer ISBN 978-0-387-31073-2

Bibliografía

Freedman, D. (1999). «From association


to causation: Some remarks on the
history of statistics». Statistical Science
14 (3): 243-258. doi:10.1214/ss/1009212409
(https://dx.doi.org/10.1214%2Fss%2F10092124

09) . (Revised version, 2002 (http://www.

stat.berkeley.edu/~census/521.pdf) ).
Hald, Anders (2003). A History of
Probability and Statistics and Their
Applications before 1750. Hoboken, NJ:
Wiley. ISBN 0-471-47129-1.

Hald, Anders (1998). A History of


Mathematical Statistics from 1750 to
1930. Nueva York: Wiley. ISBN 0-471-
17912-4.

Kotz, S., Johnson, N.L.


(1992,1992,1997). Breakthroughs in
Statistics, Vols I, II, III. Springer ISBN 0-
387-94037-5, ISBN 0-387-94039-1, ISBN
0-387-94989-5

Pearson, Egon (1978). The History of


Statistics in the 17th and 18th Centuries
against the changing background of
intellectual, scientific and religious
thought (Lectures by Karl Pearson given
at University College London during the
academic sessions 1921-1933).
Nueva York: MacMillan Publishng Co.,
Inc. p. 744. ISBN 0-02-850120-9.

Salsburg, David (2001). The Lady


Tasting Tea: How Statistics
Revolutionized Science in the Twentieth
Century. ISBN 0-7167-4106-7

Stigler, Stephen M. (1986). The History


of Statistics: The Measurement of
Uncertainty before 1900. Belknap
Press/Harvard University Press. ISBN 0-
674-40341-X.

Stigler, Stephen M. (1999) Statistics on


the Table: The History of Statistical
Concepts and Methods. Harvard
University Press. ISBN 0-674-83601-4

David, H. A. (1995). «First (?) Occurrence


of Common Terms in Mathematical
Statistics» (https://archive.org/details/si
m_american-statistician_1995-05_49_2/
page/121) . The American Statistician
49 (2): 121. ISSN 0003-1305 (https://portal.iss
n.org/resource/issn/0003-1305) .

doi:10.2307/2684625 (https://dx.doi.org/10.230

7%2F2684625) .
Enlaces externos

Wikimedia Commons alberga una


categoría multimedia sobre Historia de
la estadística.

JEHPS: Recent publications in the


history of probability and statistics (htt
p://www.jehps.net/publications.htm)

Electronic Journ@l for History of


Probability and Statistics/Journ@l
Electronique d'Histoire des Probabilités
et de la Statistique (http://www.jehps.ne
t/indexang.html)

Figures from the History of Probability


and Statistics (Univ. of Southampton) (ht
tp://www.economics.soton.ac.uk/staff/
aldrich/Figures.htm)

Materials for the History of Statistics


(Univ. of York) (http://www.york.ac.uk/d
epts/maths/histstat)

Probability and Statistics on the Earliest


Uses Pages (Univ. of Southampton) (htt
p://www.economics.soton.ac.uk/staff/a
ldrich/Probability%20Earliest%20Uses.ht
m)

Earliest Uses of Symbols in Probability


and Statistics (http://jeff560.tripod.co
m/stat.html) on Earliest Uses of
Various Mathematical Symbols (http://je
ff560.tripod.com/mathsym.html)
Historia del razonamiento estadístico.
Páginas de bioestadística de la
Sociedad Española de Hipertensión
Arterial (https://web.archive.org/web/20
130330080028/http://www.seh-lelha.or
g/historiastat.htm)

Datos: Q1444687
Multimedia: History of statistics (http
s://commons.wikimedia.org/wiki/Categ
ory:History_of_statistics) / Q1444687
(https://commons.wikimedia.org/wiki/S
pecial:MediaSearch?type=image&searc
h=%22Q1444687%22)
Obtenido de
«https://es.wikipedia.org/w/index.php?
title=Historia_de_la_estadística&oldid=157869807
»

Esta página se editó por última vez el 30 ene 2024


a las 19:12. •
El contenido está disponible bajo la licencia CC
BY-SA 4.0 , salvo que se indique lo contrario.

También podría gustarte