Está en la página 1de 15

DESARROLLO HISTRICO DE LA ESTADSTICA

Extractado por Jorge Galbiati Riesco

Las fuentes de la Estadstica la constituyen los censos y recuentos, los juegos de


azar, la inferencia inductiva basada en datos empricos, y el tratamiento de los errores en
las mediciones.
Se sabe que Cesar Augusto decret que todo el imperio fuera sometido al pago
de impuestos, para lo cual previamente debera conducirse un censo de las personas. Mil
aos despus, Guillermo el Conquistador orden que se hiciera un registro de todos los
bienes que hubieran en Inglaterra, para fines tributarios y militares, el llamado
"Domesday Book". Una aplicacin de la probabilidad emprica a los seguros de buques se
encuentra en Flandes, en el siglo XIV.
La teora a de la probabilidad es una disciplina matemtica que fundamenta la
Estadstica como una lgica y una metodologa para la medicin y el estudio de la
incertidumbre, en la planeacin e interpretacin de la observacin y la experimentacin.
Los inicios de la probabilidad, como teora matemtica, puede rastrearse en la
correspondencia entre Fermat y Pascal, en la dcada de 1650.

Pierre de Fermat,

matemtico francs, naci en 1601; Blaise Pascal, matemtico, fsico y filsofo, tambin
francs, naci en Clermont-Ferrand en 1623.
Tambin hay antecedentes de los orgenes de la teora de la probabilidad en un
corto artculo escrito por Christian Huygens en 1657. Fue ste un fsico, gemetra y
astrnomo holands, nacido en La Haya en 1629. Previamente, Girolamo Cardano (15011576) y Galileo Galilei (1564-1642) haban hecho clculos de probabilidades numricas,
de diversas combinaciones de dados.
Estos trabajos tempranos de Fermat, Pascal y Huygens no abordan problemas de
estadstica inferencial, ni van ms all de los juegos de azar, que eran sus intereses
inmediatos.

Un comerciante ingls, John Graunt, public en 1662 un artculo titulado "Natural


and Political Observations upon the Bills of Mortality", en el que presenta clculos
demogrficos que evidencian el reciente descubrimiento de la regularidad de ciertas
proporciones. Pasaran dcadas antes que se tuviera conciencia de la existencia de
variabilidad de todos los fenmenos. Por sus trabajos en demografa, que incorporan
nociones de regularidad en el comportamiento de caractersticas de naturaleza aleatoria,
John Graunt es considerado por algunos, como el iniciador de la Estadstica. Fue socio
fundador de la Royal Society.
Jacob Bernoulli, (o James, o Jacques Bernoulli), un matemtico suizo nacido en
1654, es considerado el iniciador de la teora de la probabilidad, que hasta entonces slo
se haba ocupado de fenmenos experimentales con resultados equiprobables, motivados,
aparte de los juegos de azar, por problemas de las ciencias sociales, intereses Financieros,
seguros, meteorologa y medicina. En su obra "Ars Conjectandi", introduce lo que hoy se
conoce como la primera ley de los grandes nmeros. Es ste un principio fundamental,
que bsicamente establece que, bajo ciertas condiciones, un promedio muestral se
aproxima al promedio de la poblacin de donde se obtuvo la muestra, si el tamao de sta
es grande.
Entre los siglos XVIII y XIX, la Estadstica experiment lo que puede ser descrito
como un desarrollo horizontal y vertical simultneo. Horizontal, en el sentido que se
propag a travs de diversas disciplinas, desde la astronoma y la geodesia, la psicologa,
la biologa, hasta las ciencias sociales, sufriendo diversas transformaciones en el proceso.
Vertical, en el sentido de profundizar en el conocimiento del rol de la probabilidad, siendo
desplazada la analoga de los juegos de azar, por modelos probabilsticos apropiados para
efectuar medidas bajo incertidumbre. De este modo se llega a los inicios de la inferencia
estadstica, cuyo dominio de aplicacin se extiende gradualmente, desde fines de este
perodo.
Un matemtico francs nacido en 1667, que viva en Londres, refugiado de la
persecucin religiosa, Abraham De Moivre, public tres obras de contenidos sobre el tema
de la probabilidad, entre 1718 y 1730. Contribuy efectuando estudios sobre la ley de
probabilidad binomial, y formul una aproximacin para muestras grandes, que es
considerada por estadsticos de este siglo, como Karl Pearson, como la primera
formulacin de la ley de probabilidad normal. Pearson encontr la publicacin de De Moivre
en que presentaba la ley normal. Pero el autor no haba descubierto su aplicacin a la

descripcin del error en observaciones experimentales. Fueron Laplace y Gauss quienes lo


hicieron, independientemente, un siglo despus.
En 1761 muere un ingls, Thomas Bayes, ordenado ministro, pero con inters en
la matemtica, sin haber publicado un slo trabajo matemtico durante su vida. Su obra
"Ensayo sobre la Resolucin de un Problema en la Doctrina del Azar", publicada
pstumamente en 1764, fue ignorada por sus contemporneos, y parece haber tenido poca
influencia sobre el desarrollo temprano de la Estadstica. Irnicamente, sus contenidos,
estudios de la inversin de la probabilidad, sirvieron, dos siglos despus, para grabar su
nombre en toda una corriente estadstica, la moderna inferencia bayesiana.
La inferencia bayesiana permite asignar probabilidades a fenmenos que no son
de naturaleza aleatoria, pero cuyos resultados no son conocidos, lo que no es posible bajo
el punto de vista opuesto, el de los frecuentistas, que slo permiten asignar probabilidades
cuando es posible que stas puedan ser apoyadas por la experimentacin. El Teorema de
Bayes logra afinar la asignacin de estas probabilidades, a medida que se adquiere
conocimiento de la poblacin bajo estudio, a travs de la obtencin de observaciones.
En 1763 un ingls, Arthur Young, hered un fundo, y en l comenz a
experimentar para descubrir el mtodo agrcola ms rentable. Desarroll un gran nmero
de experimentos, publicando sus resultados en UN libro llamado "Un Curso de Agricultura
Experimental", en 1771. Las ideas que presenta sobre el Diseo de Experimentos, una
importante disciplina de la Estadstica actual, cuyas aplicaciones al campo industrial se
encuentran hoy en pleno desarrollo, son sorprendentemente modernas.
El fsico, matemtico, y astrnomo francs Pierre-Simon Laplace, hizo
contribuciones importantes a la aplicacin de la probabilidad a la inferencia estadstica,
contenidas fundamentalmente en dos obras "Memoria sobre la Probabilidad de las Causas
de Eventos", de 1774, y "Memoria sobre Probabilidades", de 1781. Se preocup de la
inversin de la probabilidad, como Bayes, pero sin conocer los resultados obtenidos por
este ltimo, llegando a formular un caso particular del teorema de Bayes, con la adopcin
tcita de probabilidades a priori iguales, con posterioridad a la publicacin pstuma de la
obra de Bayes. Contribuy en muchos temas estadsticos, entre ellos en la obtencin de
una "curva de errores", llegando a la formulacin de la ley de probabilidad normal.

En 1805, el matemtico francs Adrien Marie Legendre dio a conocer un sistema


para determinar las rbitas de los cometas, que involucra una descripcin del mtodo de
los mnimos cuadrados, tan utilizado en la Estadstica de hoy.

Es un mtodo de

estimacin de parmetros, que bsicamente consiste en asignarles los valores que


minimizan la suma de los cuadrados de las diferencias entre las observaciones y los
valores tericos entregados por el modelo propuesto.

El mtodo de los mnimos

cuadrados fue el tema dominante de los estadsticos del siglo XIX.


Karl Friederich Gauss, un matemtico nacido en Alemania, en 1777, tambin
interesado en el estudio de las rbitas de los planetas, contribuy al mtodo de los
mnimos cuadrados, desembocando, independientemente de Laplace, en la ley de
probabilidad normal, o curva de Gauss, como descripcin probabilstica del error. Pero
Gauss encontr su asociacin con el mtodo de mnimos cuadrados. Hacia 1830, Adolphe
Quetelet, astrnomo, meteorlogo, estadstico y socilogo, hizo los primeros intentos de
aplicar la probabilidad a la medicin de la incertidumbre en las ciencias sociales. Su
avance hacia el anlisis estadstico de datos sociales fue el hecho de introducir el concepto
del hombre promedio, motivado por sus investigaciones de datos demogrficos,
observando mltiples relaciones entre caractersticas contenidas en datos de poblaciones
humanas.

Su contribucin ms perdurable fue el hecho de ajustar distribuciones de

probabilidad a datos empricos.


Adolphe Quetelet era un belga, nacido en Gantes, en 1796, interesado en las
bellas artes. Se dedico a la pintura, escribi poesas, e incluso escribi una pera. Pero
despus desarroll una inclinacin a las matemticas, que lo llev a interesarse por el
estudio de la teora de la probabilidad y su aplicacin a los fenmenos sociales. Es as
como contribuy a impulsar la realizacin del primer censo nacional en Blgica y
Holanda, e hizo esfuerzos por que se uniformizaran los mtodos y la tecnologa utilizada
en la recoleccin y presentacin de datos, en Europa. Tuvo un liderazgo importante en la
creacin de organizaciones ligadas a la Estadstica, como la Statistical Society of London,
ahora Royal Statistical Society.
A Quetelet se le ha llamado el "padre de la Estadstica moderna", por una
publicacin suya, de 1835, en que observa la extraordinaria regularidad con que se
reproducan ciertos fenmenos sociales, como crmenes o suicidios, y argumenta que
esas regularidades slo pueden ser encontradas mediante el uso de tcnicas estadsticas,
las que incluso pueden llevar a conocer sus causas. Quetelet pensaba que casi todos los

fenmenos pueden ser representados probabilsticamente mediante la ley normal,


siempre que el nmero de casos estudiados fuese suficientemente grande.
Simen Denis Poisson, fsico matemtico nacido en Francia, en 1781, public un
gran tratado de probabilidad en 1837. Contiene el germen de dos elementos asociados
al nombre de Poisson: La ley de probabilidad conocida como distribucin de Poisson, y la
generalizacin de la ley de los grandes nmeros de Bernoulli.
Numerosos investigadores, provenientes de las ms diversas disciplinas, hicieron
contribuciones a la Estadstica, durante la segunda mitad del siglo XIX, construyendo de
a poco una disciplina que se ira perfilando cada vez ms como una ciencia
independiente.
Wilhelm Lexis, economista alemn, contribuy a la estadstica social, estudiando
datos presentados como series a travs del tiempo, hacia 1880.

Se inicia un tema

importante dentro de la Estadstica, el de las series de tiempo, muy utilizadas hoy en da,
en particular, en sus aplicaciones a la Economa.
John Arbuthnot, mdico de la reina Ana de Inglaterra, es ms conocido como
estadstico, por sus estudios sobre las proporciones de los sexos en los nacimientos.
Henry Buckle, ingls, precursor de la moderna ciencia histrica, utiliz mtodos
estadsticos para ayudar a hacer de la historia una ciencia.
Gustav Fechner, alemn con estudios Incompletos en medicina, incursion en las
tcnicas de la experimentacin, para describir la relacin entre estmulos y sensacin,
derivando la Estadstica hacia el campo de la psicologa experimental. Fechner introdujo
la medicin en la psicologa. Aparentemente cre el trmino psicofsica para describir la
psicologa experimental, que practic como disciplina formal, a mediados del siglo XIX.
Un psiclogo, Hermann Ebbinghaus, sigui la lnea de Fechner, compartiendo dos
ideas cruciales: Que el estudio cuantitativo era la nica manera de expresar con precisin
las vagas nociones que la psicologa manejaba antes, y el convencimiento que el apoyo de
un cuidadoso diseo experimental es fundamental para la experimentacin. Ebbinghaus
aplic estas ideas al estudio de la memoria.

A partir de 1880, tres hombres, Francis Galton, Francis Edgeworth y Karl Pearson,
crean una revolucin en la Estadstica, proporcionando una metodologa emprica que
sustituye a la experimentacin controlada, en disciplinas donde la experimentacin no es
posible de aplicar. Esta metodologa emprica ya haba sido utilizada en la psicologa. Lo
hicieron separadamente Galtori en la Antropologa, Edgeworth en la Economa y Pearson
en la filosofa de la ciencia.
Francis Galton, nacido en 1822, investig el carcter hereditario de la genialidad,
utilizando curvas normales inversas, que llam "ojivas", trmino que tom de la
arquitectura, y que aun se utiliza. Fue pionero en el tema de la regresin lineal simple, o
reversin, como l la llam, tcnica para obtener una expresin que relaciona en forma
lineal, dos caractersticas. Tambin se preocup de la estimacin de las componentes de
varianza, o partes de la variabilidad de un fenmeno observado, atribuibles a causas
identificables. El concepto estadstico por el que es ms conocido es el de la correlacin,
an cuando su interpretacin limitada a un coeficiente que mide el grado de asociacin
entre el comportamiento de dos variables, tan utilizado en el presente, jug un papel poco
importante en el trabajo de Galton.
Francis Galton tambin utiliz la ley de probabilidad normal, en su versin
bivariada, para describir el comportamiento probabilstico de los errores de dos
caractersticas que varan en forma conjunta.

Esta ya haba sido conocida por otros

investigadores, desde principios del siglo XVIII: Por el estadounidense Robert Adrain en
1808, por Laplace en 1811, y por Gauss en 1823, entre otros. Pero ellos no conocieron el
coeficiente de correlacin, presente en la normal bivariada, y que cuantifica el grado de
asociacin entre las dos caractersticas. La ley normal bivariada dara origen a la ley
normal multivariada.

Esta es fundamental en la rama de la estadstica denominada

anlisis multivariante, que se preocupa del estudio de observaciones con mltiples


variables.
Francis Ysidro Edgeworth se educ en literatura clsica, luego estudi derecho
comercial.

Pero despus se interes en aplicar los mtodos estadsticos previamente

aplicados en astronoma y geodesia, a la economa y sociologa. Contribuy al desarrollo


de la regresin y la correlacin. Edgeworth tambin trabaj en otra rea fundamental de
la Estadstica, que estudia las aproximaciones que se obtienen cuando los conjuntos de
datos crecen ilimitadamente. Aporta la aproximacin de Edgcworlh, cuya aplicacin se ha
intensificado en la actualidad. Desarroll una versin del teorema del lmite central, una

herramienta muy utilizada, que establece, en lneas generales, que bajo ciertas
condiciones, un promedio muestral sigue aproximadamente la ley probabilstica normal,
sin importar que comportamiento probabilstico tiene la poblacin de donde provienen las
observaciones, si el nmero de observaciones es grande.
Karl Pearson mostr inters en distribuciones probabilsticas asimtricas, en
contraposicin con las distribuciones normales, simtricas.

Lleg de esta manera a

introducir una familia de distribuciones probabilsticas, hoy conocida como Gama, que ya
haba sido descubierta independientemente por el estadounidense Erastus De Forest.
Pearson mostr inters en los ms diversos temas, adems de la estadstica, como la
filosofa, la religin, la historia, entre otros. Su "Gramtica de las Ciencias", de 1892,
ilustra su conviccin de que la estadstica analtica yace en los fundamentos de todo el
conocimiento.
Pearson, en su trabajo, dio ms importancia a la cuantificacin de la correlacin
entre dos variables, en la forma de un coeficiente, que la que le haba dado Galton. El y
otros investigadores desarrollaron varios coeficientes de correlacin, para el estudio de
diferentes problemas en gentica, biologa, y otras disciplinas. El ms comn y conocido
de ellos, hoy en da, lleva su nombre. A Karl Pearson se debe, tambin, el estadstico jicuadrado, introducido en 1900.

Este estadstico, es utilizado como medida de

comparacin entre dos tablas de frecuencia, y una de sus aplicaciones es el probar el


ajuste de una ley probabilstica a un conjunto de datos empricos.
George Udny Yule, inglis con estudios de ingeniera y fsica, fue un colaborador
de Pearson, que hizo algunos aportes a la obra de este ltimo. Trabaj en correlacin, y
tambin en curvas asimtricas, como su predecesor.

Colabor en la publicacin de

Pearson, proporcionando un ejemplo de la aplicacin de ajuste de una curva asimtrica a


datos sobre distribucin de pobreza en Inglaterra y Gales.
direcciones independientes.

Pero luego se movi en

Relacion la regresin con el mtodo de los mnimos

cuadrados, proporcionando un gran conjunto de algoritmos que haban desarrollado los


astrnomos, para la solucin de las ecuaciones normales, asociadas al clculo de la
regresin. Los trabajos publicados por Yule cubren hasta la primera dcada de este
siglo.
La idea de representatividad, en Estadstica, es decir, de seleccionar
aleatoriamente algunas unidades para llevar a cabo un estudio sobre una poblacin, es

antigua. En esta idea se fundamenta la tcnica de muestreo. Sin embargo, durante


mucho tiempo no fue aceptado, por la generalidad de los estadsticos. En 1895, fue
presentada formalmente en una reunin de! Instituto Internacional de Estadstica,
realizada en Berna, por el director de la Oficina Central de Estadstica de Noruega, A. N.
Kaier, bajo el nombre de mtodo representativo, en contraposicin a la investigacin
exhaustiva.
Despert gran inters, pero finalmente fue rechazado. No hubo ms informes a
favor del mtodo de muestreo sino hasta la reunin del Instituto Internacional de
Estadstica celebrada en Roma, en 1926. Tuvieron influencia favorable los trabajos sobre
representatividad en estudios sociales y econmicos, debidos a A. L. Bowley. A l se
debe una aplicacin de la teora de inferencia a las encuestas por muestreo, hecha en
1906. Aplic el teorema del lmite central, en la versin de Edgeworth, basada en el
teorema de Bayes, para evaluar la precisin de las estimaciones obtenidas con grandes
muestras aleatorias de poblaciones grandes, finitas. Tippet publica la primera tabla de
nmeros aleatorios, en 1927, para la obtencin de muestras al azar.
En 1934, el polaco Jerzy Neyman public en la Royal Statistical Society, de
Londres, lo que puede ser considerado el primer trabajo cientfico sobre el muestreo de
poblaciones finitas. Estableci, sin lugar a dudas, que la seleccin aleatoria es la base de
una teora cientfica que permite predecir la validez de las estimaciones mustrales.
Tambin dej establecida toda una filosofa sobre la eficiencia de la estrategia muestral.
Neyman y Egon Pearson, hijo de Karl Pearson, presentaron en 1936 una teora sobre la
forma de probar hiptesis estadsticas, en base a datos. Esta presentacin promovi
mucho inters, estimul una considerable cantidad de investigacin, y muchos de los
resultados hasta hoy aun se usan. Ellos resolvieron dificultades fundamentales para la
comprensin de las pruebas de hiptesis, introduciendo las nociones de hiptesis
alternativa, y los dos tipos de error, el de rechazar una hiptesis que es verdadera, y el de
no rechazar una hiptesis que es falsa. Surge un resultado fundamental, el Lema de
Neyman-Pearson, y se crea una larga controversia con R. A. Fisher, que visualizaba la
prueba de hiptesis como un procedimiento mediante el cual el investigador poda
formarse una opinin sobre alguna caracterstica de la poblacin, o parmetro. Neyman y
Pearson vieron la prueba de hiptesis como un medio para que el investigador tomara una
decisin sobre un parmetro de la poblacin.

Neyman introdujo, en 1934, la teora de los intervalos de confianza. Es una forma


de estimar un parmetro, contrapuesta a la estimacin puntual, que determina un
intervalo que contiene el parmetro, y un coeficiente de confianza, que representa la
probabilidad que el intervalo efectivamente contenga al parmetro. Los intervalos de
confianza y las pruebas de hiptesis son dos elementos de la inferencia estadstica.
En las dcadas de los aos 30 y 40 se centra el desarrollo de la tcnica del
muestreo estratificado, que asume que existen segmentos distintos, o estratos, en la
poblacin, que pueden ser identificados previamente, los cuales se muestrean
separadamente.

Jerzy Neyman fue un arduo defensor del mtodo de muestreo

estratificado, y su trabajo en este tema, abri nuevas reas de investigacin.


Tambin en la dcada del 40 se desarrolla el mtodo de muestreo por
conglomerados, que consiste en maestrear grupos, en lugar de unidades, para luego
censar estos grupos. En este periodo se establecen las condiciones bajo las cuales estos
mtodos, el muestreo estratificado y el muestreo por conglomerados, resultan ms
eficientes.
En 1908, el ingles William Gosset, quien fuera alumno de Pearson, publica un
artculo "El Error Probable de una Media", bajo el seudnimo de Student. Este artculo
constituye un paso importante en el sentido de cuantificar los resultados de la
experimentacin.

No est claro cuando Gosset se interes por la Estadstica, pero

trabajaba en la cervecera Guinness, en cuyo mbito se encontraba con problemas


relacionados con muestras pequeas, para las cuales la teora de muestras grandes,
existente entonces, proporcionaba slo una mala aproximacin. Esto lo llev a desarrollar
la ley probabilstica que hoy es conocida como t de Student, utilizada en lugar de la ley
normal de Gauss, en problemas con muestras pequeas. Y tambin lo llev a desarrollar
la prueba de hiptesis llamada hoy test de Student, para inferencias sobre medias
poblacionales, basadas en muestras pequeas.
Sin embargo, pasaron largos aos antes que el test de Student fuera
debidamente apreciado. Como seal McMullen, en el prlogo de la coleccin de artculos
de Gosset, publicados en 1942, "Por un largo tiempo despus de su descubrimiento y
publicacin, el uso de este test apenas sali de la cervecera Guinness".
El gran estadstico ingls Sir RonaId Aylmer Fisher ingres a la Estacin

Experimental de Rothamsted en 1919. Desde all entreg una importante cantidad de


conocimiento relacionado con el diseo de experimentos, contribuyendo a desarrollar
tcnicas que son consideradas claves para en la experimentacin comparativa: El diseo
experimental en bloques, que permite el control local del efecto introducido por factores
no deseados, sobre las variables observadas.

La aleatorizacin, que constituye una

proteccin contra la introduccin de factores impredecibles, en el experimento. El diseo


factorial, para el estudio del efecto de varios factores, simultneamente. Y el anlisis de
varianza, tcnica de anlisis de los resultados de la experimentacin que permite separar
las fuentes de variacin, y as determinar el grado de influencia de cada factor. Estas
tcnicas, a excepcin de la aleatorizacin, eran conocidas antes de Fisher, pero fue el
quien logr una clara comprensin de ellas, e inici su uso en forma masiva. dio a
conocer sus resultados en sucesivas publicaciones a partir de 1925, y hasta despus de
1940, sobre mtodos de experimentacin agrcola.
Posteriormente estas tcnicas fueron aplicadas a otras reas no agrcolas, como
la ms reciente, la industrial.

Esta se caracteriza por la utilizacin de experimentos

factoriales fraccionados, que utiliza en forma ptima la informacin proveniente de un


experimento desarrollado en forma parcial, debido al gran nmero de factores
involucrados, y de la metodologa del anlisis de superficies de respuesta, un
procedimiento fino para el estudio de los resultados experimentales.
Fisher desarroll una teora de estimacin, aun en uso hoy da, basada en resumir
los datos de un modo eficiente, que preserve la mayor cantidad de informacin contenida
en ellos.

Si se conoce la forma funcional de la ley de probabilidad que gobierna la

poblacin de donde provienen los datos, Fisher observ que la Funcin de Verosimilitud, la
probabilidad de obtener la muestra dada, es un resumen de la informacin contenida en
los datos. El mtodo de maximizar la verosimilitud, provee entonces, el estimador ms
eficiente, que no puede ser mejorado, segn su teora.
Hacia fines de la dcada del 1950 existan pocos libros escritos sobre el tema del
diseo de experimentos.

Entre ellos, un aporte importante aparece en el de Oscar

Kempthorne, y es el uso de matrices. Esta herramienta matemtica, tan utilizada en la


Estadstica de hoy, slo comenz a utilizarse en Estadstica a partir de esa dcada.
Permiti un tratamiento ms efectivo del anlisis de varianza y del diseo de
experimentos, en el contexto de un modelo lineal general. En esa misma dcada, con el
acceso a los primeros computadores, que permitieron invertir matrices relativamente

grandes, lo que demanda un alto volumen de clculo numrico, aparece la regresin


mltiple, cuyo desarrollo todava tiene lugar.
En el lema de regresin mltiple tambin incursion George Snedecor, nacido en
Estados Unidos en 1882, quien hizo grandes aportes al rea del diseo de experimentos,
en particular en aplicaciones a la agricultura.
tarjetas perforadas.

Hizo trabajo pionero en el uso de las

Ligado al nombre de Snedecor, aparece el de William Cochran,

nacido en 1909, en Escocia, quien hizo aportes al diseo de experimentos y a la teora del
muestreo. Ambos son coautores de un libro clsico sobre mtodos estadsticos.
Con posterioridad al desarrollo del concepto de correlacin, de Galton y de
Pearson, problemas de clasificacin en antropologa y botnica dieron origen a coeficientes
de similitud y a las funciones discriminantes del anlisis multivariante. Dentro de esta
misma rama de las estadstica, pero en otra direccin, el estudio de las respuestas de los
tests mentales dio origen a tcnicas de reduccin de dimensionalidad, es decir, el
reemplazo de un gran nmero de variables correlacionadas, por un pequeo grupo de
variables construidas a partir de las primeras, que contienen aproximadamente la misma
cantidad de informacin. Entre ellas se encuentra el anlisis factorial, que permite
encontrar y cuantificar factores que influyen sobre las respuestas observadas. Las races
del anlisis factorial se encuentran en la psicologa.
Otras tcnicas del anlisis multivariante se desarrollan como respuesta a
problemas surgidos en otros campos, como el escalamiento multidimensional, el anlisis
de conglomerados, y el anlisis de correspondencias, fuertemente relacionados con la
mercadotecnia cuantitativa actual. Todas estas tcnicas del anlisis multivariante tienen
un soporte matemtico poderoso en el clculo matricial, cuya utilizacin prctica en
problemas de grandes volmenes de observaciones y de variables se hace posible gracias
a la aparicin de los computadores. Entre quienes hicieron importantes aportes al anlisis
multivariante, se encuentra el estadounidense Harold Hotelling, estadstico, economista,
con un entrenamiento inicial como periodista. Desarroll la tcnica de las componentes
principales, que haba sido iniciada por Karl Pearson.

Hotelling hizo contribuciones

importantes, adems, al campo de la bioeconoma.


Otra rama de la estadstica es la de los mtodos no paramtricos, que traa con
modelos estadsticos en que se hacen supuestos muy dbiles sobre las distribuciones
probabilsticas subyacentes.

Un modelo paramtrico involucra el supuesto que esta

distribucin pertenece a alguna familia, cuya forma general es conocida, pero de la cual se
desconocen algunas caractersticas, o parmetros.

Cuando no hay informacin que

permita determinar una familia de distribuciones, es apropiado el uso de los mtodos no


paramtricos.
Entre quienes hicieron aportes de importancia a este campo, se encuentran Frank
Wilcoxon, irlands nacido en 1892, y Charles Spearman, ingls nacido en 1863. Wilcoxon
recurri a la simple idea de reemplazar los datos por sus rangos, al ordenarlos, sobre los
cuales se pueden conocer propiedades distribucionales.

Cre, de esta manera, una

prueba basada en rangos, que hoy lleva su nombre. Esta idea inspir el desarrollo de
gran cantidad de otras pruebas, y del campo de la estadstica no paramtrica, en general.
Charles Spearman sirvi en el ejrcito ingls, participando en la guerra de los
Boers. Luego se retiro, para dedicarse a estudiar psicologa, llegando a desempearse, ya
tarde en su vida, como profesor de psicologa en el University College, de Londres. Es
conocido por sus contribuciones al anlisis factorial, que se mencion como una de las
tcnicas de la rama de la Estadstica denominada anlisis multivariante.

Tambin es

conocido por sus investigaciones sobre la inteligencia. Estos intereses lo obligaron a


estudiar estadstica, llevndolo a desarrollar un coeficiente de correlacin basado en
rangos, que hoy lleva su nombre.

El trabajo de Spearman ha sido desarrollado con

posterioridad, desembocando en el anlisis de varianza multivariante.


Al igual que Spearman, otros cientficos sociales han entregado importantes
contribuciones a la Estadstica, lo que es indicacin de su gran utilidad en el estudio de los
fenmenos sociales.

Entre ellos se cuentan L. Gutman y L.L. Thurstone, quienes se

preocuparon de problemas de escalamiento, que consiste en transformar una


caracterstica medida en una escala conceptual, a una escala numrica. El escalamiento
est fuertemente ligado al diseo y anlisis de encuestas y tests.
Abraham Wald, hngaro que vivi entre 1902 y 1950, desarroll la Teora de
Decisiones, entre 1939 y 1947, que constituye un modelo estadstico terico, distinto a la
escuela inferentista, de R. A. Fisher, dominante hasta entonces.

Este ltimo ve la

estadstica como un medio de hacer inferencias, de reducir la incertidumbre a travs de


la experimentacin y la observacin, o como un medio de resumir datos. La nueva
escuela decisionsta, de Wald, caracterstica de los Estados Unidos, define la estadstica
como la ciencia de la toma de decisiones, bajo condiciones de incertidumbre.

S bien Wald desarroll la teora de decisiones en la forma actual, hubo


antecesores que pensaron en trminos de ella.

Daniel Bernoulli, en 1730, introdujo

nociones de utilidad, y de un espacio de acciones, elementos propios de la teora de


decisiones. Tambin Laplace puede ser sealado como uno de los primeros decisionistas,
al utilizar los cuatro elementos fundamentales de la teora de decisiones: los estados de
la naturaleza, la funcin de prdida, las observaciones y el espacio de las acciones a
tomar. Gauss tambin utiliz mtodos que hoy se consideraran decisionistas. Lo hizo al
contribuir al desarrollo del mtodo de los mnimos cuadrados, que utiliza como criterio de
decisin sobre un estimador, la minimizacin de una funcin de prdida de tipo
cuadrtica.

Gauss tambin compara el comportamiento de sta con una funcin de

prdida funcin de valor absoluto. La teora de pruebas de hiptesis desarrollada por


Neyman y E. Pearson, entre 1928 y 1938, puede ser vista como un caso especial de la
teora de decisiones.
Otra contribucin importante de Wald, es la de la inferencia secuencial, que toma
decisiones que incluyen la opcin de tomar mis observaciones, cuando no hay evidencia
categrica para tomar una decisin. Estos mtodos son utilizados en la actualidad en el
muestreo de aceptacin, para el control de la calidad.
El estadstico George Box acu, en 1953, el trmino robustez, para designar los
mtodos estadsticos que procuran asegurar resultados aceptables, cuando no se
cumplen los supuestos estndares en que se basan los mtodos estadsticos regulares.
Ya desde fines del siglo pasado hubo cientficos que se preocuparon del tema. Se dieron
cuenta de los peligros de hacer inferencias, cuando los datos aparecen contaminados con
valores extraos, y llegaron a proponer modelos y estimadores robustos, como
alternativas para estos casos. Sin embargo, no es sino a partir de la dcada de 1960, que
este tpico es reconocido como un tema de investigacin en Estadstica. Y desde en
entonces, ha ido tomando importancia en forma progresiva. Entre los que le dieron el
impulso a la estadstica robusta, se encuentran Peter Huber y F. R. Hampel.
A partir de la Segunda Guerra Mundial, comienza la era de los computadores, que
permitieron un acelerado desarrollo de la Estadstica hacia regiones nuevas,
caracterizadas por la aparicin de tcnicas cuya aplicacin requiere de enormes cantidades
de clculos numricos, imposibles de realizar con los medios existentes hasta entonces.
Las dificultades de clculo dejan de ser un impedimento, por lo que los modelos

estadsticos se vuelven ms complejos. Los mtodos de clculo rpido, tan importantes


en el pasado, quedan obsoletos. Paralelamente, aparece una gran cantidad de programas
estadsticos envasados, fciles de usar, que, tras ser alimentados con datos, producto de
una investigacin, entregan enormes volmenes de resultados, que con frecuencia son
errneamente interpretados, y muchos de ellos son irrelevantes al propsito de la
investigacin. Pero bien utilizados, estos programas envasados permiten que las grandes
masas de datos, productos de encuestas y censos, se vuelvan fciles de administrar, y
permiten que se mejore la calidad de ellos, al reducirse su manipulacin.
Actualmente, la investigacin en Estadstica, cuyo resultado es la creacin de
nuevos mtodos estadsticos, y una comprensin mejor de los mtodos ya existentes, se
apoya fuertemente en la computacin. En el presente, el desarrollo de la Estadstica
parece ir junto con el desarrollo lo de la ciencia de la computacin.

Bibliografa
T.W. Anderson: "An introduction to Multivariate Statistical Analysis", ed. John Wiley &
sons, 1958.
Francisco Azorn - Jos Luis Snchez-Crespo: "Mtodos y Aplicaciones del Muestreo", ed.
Alianza Editorial, 1986.
Peter Huber: "Robust Statisticas", ed. John Wiley & sons, 1981.
Heinz Kohler: "Statisticas for Business and Economics", ed. Scott, Foresman and
Company, 1988.
K.V. Mardia - J.T.Kent - J.M. Bibby: "Multivariate Analysis", ed. Academic Press, 1978.
James Newman: "Sigma. El Mundo de las Matemticas", ed. Grjaldo S.A., 1968.

D.B. Owen, editor: "On the history of Statisticas and probability, ed. Marcel Decker, 1976.
Robert Steel - James Torrie: " Pronciples and Procedures of Statisticas", ed. Mc Graw Hill,
1960.
Stephen Stiegler: The history of Statistics", ed. Harvad University Press, 1986.