Está en la página 1de 4

HISTORIA DE LA ESTADSTICA Y LA PROBABILIDAD

La presencia del hueso astrgalo de oveja o ciervo en las excavaciones


arqueolgicas ms antiguas, parece confirmar que los juegos de azar tienen
una antigedad de ms de 40.000 aos, y la utilizacin del astrgalo en
culturas ms recientes, ha sido ampliamente documentada. Existen en las
pirmides de Egipto pinturas que muestran juegos de azar que datan del ao
3.500 a. C. y Herodoto se refiere a la popularidad y difusin en su poca de los
juegos de azar, especialmente la tirada de astrgalos y dados. Los dados ms
antiguos se remontan a unos 3000 aos antes de Cristo y se utilizaron en el
juego como en ceremonias religiosas.
Las civilizaciones antiguas, explicaban el azar mediante la voluntad divina. En
Grecia y Roma, utilizaban la configuracin resultante de tirar cuatro dados para
predecir el futuro y revelar la voluntad favorable o desfavorable de los dioses.
Prcticas similares se han encontrado en culturas tan distintas como la
tibetana, la india o la juda. Piaget ha hecho notar que esta actitud mgica ante
el azar se manifiesta igualmente en los nios.
En el Renacimiento aparece un nuevo enfoque global de considerar al mundo,
induciendo una observacin cualitativamente distinta de muchos fenmenos
naturales. El abandono progresivo de explicaciones teolgicas conduce a una
reconsideracin de los experimentos aleatorios; y los matemticos italianos del
siglo XVI, comienzan a interpretar los resultados de experimentos aleatorios
simples. Cardano, establece la equiprobabilidad de aparicin de las caras de un
dado a largo plazo. A finales del siglo XVI, exista un intuitivo pero preciso
anlisis emprico de los resultados aleatorios.
El desarrollo del anlisis matemtico de los juegos de zar se produce
lentamente durante los siglos XVI y XVII, y algunos autores consideran como
origen del clculo de probabilidades la resolucin del problema de los puntos en
la correspondencia entre Pascal y Fermat en 1654. El clculo de probabilidades
se consolida como disciplina independiente en el perodo que transcurre desde
la segunda mitad del siglo XVII hasta comienzos del siglo XVIII.
La teora de la probabilidad fue aplicada con buenos resultados a las mesas de
juego y con el tiempo a otros problemas socioeconmicos.
Durante el siglo XVIII el clculo de probabilidades se extiende a problemas
fsicos y actuariales (seguros martimos). El factor principal impulsor es el
conjunto de problemas de astronoma y fsica que surgen ligados a la
contrastacin emprica de la teora de Newton. Estas investigaciones van a ser
de importancia fundamental en el desarrollo de la Estadstica.
La industria de los seguros, que naci en el siglo XIX, requera un conocimiento
exacto del riesgo de perder pues de lo contrario no se podan calcular las
plizas. Al cabo de cincuenta aos, muchos centros de enseanza, estaban
estudiando la probabilidad como un instrumento que les permitira entender los
fenmenos sociales.
La necesidad de comparar con exactitud los datos observados con la teora
requera un tratamiento riguroso del mismo, que va a dar lugar a la teora de
errores.
D. Bernoulli proporciona la primera solucin al problema de estimar una
cantidad desconocida a partir de un conjunto de mediciones de su valor que,
por el error experimental, presentan variabilidad. Fue pionero en la aplicacin
del clculo infinitesimal al clculo de probabilidades.
Tambin Abraham de Moivre, el reverendo Thomas Bayes y Joseph Lagrange
inventaron frmulas y tcnicas de probabilidad.
El impulso fundamental proviene de la obra de Pierre Simon, Marqus de
Laplace, quien indujo la primera definicin explcita de probabilidad y desarroll
la ley normal como modelo para describir la variabilidad de los errores de
medida; tambin formul y estim el primer modelo explicativo estadstico. Por
su parte, Gauss hizo su aportacin en la estimacin de modelos estadsticos.
Bravais, gelogo y astrnomo, es el primero en considerar la relacin entre
errores de medida dependientes entre s; Benjamn Pierce propone el primer
criterio para rechazar observaciones heterogneas con el resto y S. Newcomb,
el ms famoso astrnomo americano del siglo XIX, introduce los primeros
mtodos de estimacin cuando hay errores fuertes en algunos datos
(Estimacin Robusta).

TOMA DE DECISIONES

En la actualidad la teora matemtica de la probabilidad constituye el


fundamento de las aplicaciones estadsticas tanto en la investigacin cientfica,
econmica, social, ingenieril como aspecto fundamental de la toma de
decisiones.
Vivimos en un mundo donde somos incapaces de pronosticar el futuro con
absoluta certeza. La necesidad de sortear la incertidumbre nos lleva a estudiar
y aplicar la teora de la probabilidad. En muchos casos nosotros, como
ciudadanos honestos, tendremos algn conocimiento sobre los posibles
resultados de una decisin. Si organizamos esta informacin y la analizamos
sistemticamente, podremos reconocer nuestras suposiciones, comunicar a
otros nuestro razonamiento y tomar una decisin ms inteligente de la que
lograramos recurriendo a un mtodo que no sea cientfico.
El hombre de negocios, as como el jugador de pquer o el estratega militar,
debe tambin tomar decisiones en condiciones de incertidumbre con respecto
al futuro. Su apreciacin del futuro se manifiesta al relacionar una probabilidad
numrica con cada evento posible que pueda influir en el resultado de sus
decisiones, y si utiliza estas probabilidades, junto con informacin de ndole
econmica, mejora el proceso de toma de decisiones.
Para tener xito en la toma de decisiones, se necesita la capacidad de tratar
sistemticamente con la incertidumbre misma mediante cuidadosas
evaluaciones y aplicaciones de mtodos estadsticos concernientes a las
actividades de los negocios.

LA TEORA DE LA PROBABILIDAD

La probabilidad relacionada con un evento es un nmero comprendido entre 0 y


1, y representa el riesgo o la posibilidad de que ocurra ese evento. Una
probabilidad de (P = 0) significa que el evento es imposible; si P = 0.50, es tan
probable que el evento ocurra como que no ocurra; si P = 1, es seguro que
suceda. El valor de P no puede ser negativo ni mayor que uno.
Se puede considerar que la probabilidad es la frecuencia relativa de "xitos" o
aciertos (es decir, la ocurrencia de un evento determinado) en un proceso
aleatorio en que se ha repetido un gran nmero de pruebas o ensayos. La
frecuencia relativa es el nmero de "xitos" dividido entre el nmero de pruebas
efectuadas.

Fuentes de Probabilidades
Es posible estimar probabilidades mediante cualquiera de las tres siguientes
maneras alternativas:
1. Frecuencia relativa de eventos pasados. Las probabilidades pueden
estimarse a partir de las frecuencias relativas que se observen en un
experimento controlado, o mediante muestreo de un universo grande y finito.
La probabilidad a priori (previa) se deduce de la experiencia obtenida de la
observacin prolongada.
Las probabilidades de eventos complicados pueden determinarse a partir de las
probabilidades de eventos ms sencillos, por medio de un mtodo de
simulacin, utilizando un modelo experimental diseado para representar las
condiciones reales del mismo.
2. Distribuciones tericas. Las probabilidades pueden determinarse sin recurrir
a las frecuencias relativas. Estas probabilidades pueden determinarse a
partir de la distribucin binomial, sin recurrir a experimentos o muestras
basadas en la experiencia pasada. La validez de dichas distribuciones
tericas depende de cun fielmente las hiptesis representen la realidad.
3. Apreciacin subjetiva. Si ninguno de los mtodos anteriormente
mencionados pueden utilizarse, el responsable de la toma de decisiones
debe estimar las probabilidades en base a su juicio o criterio y experiencia.
Una probabilidad subjetiva es una evaluacin que una persona que toma
decisiones hace acerca de la vero similitud relativa de que ocurra un
evento incierto, o sea, representa las "apuestas" que se hacen sobre la
concurrencia de ese evento. Tales apreciaciones son sumamente personales
y, por lo tanto, dos individuos pueden asignar diferentes probabilidades
subjetivas al mismo evento.

TIPOS DE PROBABILIDADES

1. Probabilidad simple. Probabilidad de que el dato escogido tenga una


caracterstica.
2. Probabilidad conjunta. Probabilidad de escoger un dato con dos (o ms)
caractersticas especficas.
3. Probabilidad marginal (al margen de la tabla). No es ms que la probabilidad
simple, vista con otro enfoque; o sea, mientras que la probabilidad simple es
un concepto singular, la probabilidad marginal es esencialmente una suma
de probabilidades conjuntas.
4. Probabilidad condicional. La caracterstica especfica del dato es la condicin
(condiciona la probabilidad).

APLICACIONES

La complejidad de los negocios en los ltimos aos, ha incrementado el uso de


la estadstica para tomar decisiones en cualquier nivel de la administracin.

Las aplicaciones de mtodos estadsticos en las diferentes reas son


numerosas; por ejemplo: grficas y tablas estadsticas son usadas
frecuentemente por gerentes de ventas para representar hechos numricos de
ventas; mtodos de muestreo son empleados por investigadores de mercado,
al hacer encuestas sobre las preferencias del consumidor sobre ciertas marcas
de artculos competitivos; mtodos de control de calidad, aplicados en
produccin, etc.

También podría gustarte