Está en la página 1de 6

La probabilidad es una medida de la certidumbre asociada a un suceso o evento

futuro y suele expresarse como un n�mero entre 0 y 1 (o entre 0 % y 100 %).

Una forma tradicional de estimar algunas probabilidades ser�a obtener la frecuencia


de un acontecimiento determinado mediante la realizaci�n de experimentos
aleatorios, de los que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. Un suceso puede ser improbable (con probabilidad cercana
a cero), probable (probabilidad intermedia) o seguro (con probabilidad uno).

La teor�a de la probabilidad se usa extensamente en �reas como la estad�stica, la


f�sica, la matem�tica, las ciencias, la administraci�n, contadur�a, econom�a y la
filosof�a para sacar conclusiones sobre la probabilidad discreta de sucesos
potenciales y la mec�nica subyacente discreta de sistemas complejos, por lo tanto
es la rama de las matem�ticas que estudia, mide o determina los experimentos o
fen�menos aleatorios.

�ndice
1 Historia
2 Teor�a
2.1 Regla de la adici�n
2.2 Regla de la multiplicaci�n
2.3 Regla de Laplace
2.4 Distribuci�n binomial
3 Aplicaciones
3.1 Investigaci�n biom�dica
4 V�ase tambi�n
5 Referencias
6 Enlaces externos
Historia
Art�culo principal: Historia de la probabilidad
La definici�n de probabilidad se produjo debido al deseo del ser humano por conocer
con certeza los eventos que suceder�n en el futuro, por eso a trav�s de la historia
se han desarrollado diferentes enfoques para tener un concepto de la probabilidad y
determinar sus valores.

El diccionario de la Real Academia Espa�ola (R.A.E) define �azar� como una


casualidad, un caso fortuito, y afirma que la expresi�n �al azar� significa �sin
orden�.1? La idea de probabilidad est� �ntimamente ligada a la idea de azar y nos
ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las
encuestas. Pierre-Simon Laplace afirm�: "Es notable que una ciencia que comenz� con
consideraciones sobre juegos de azar haya llegado a ser el objeto m�s importante
del conocimiento humano". Comprender y estudiar el azar es indispensable, porque la
probabilidad es un soporte necesario para tomar decisiones en cualquier �mbito.2?

Seg�n Amanda Dure, "Antes de la mitad del siglo XVII, el t�rmino 'probable' (en
lat�n probable) significaba aprobable, y se aplicaba en ese sentido, un�vocamente,
a la opini�n y a la acci�n. Una acci�n u opini�n probable era una que las personas
sensatas emprender�an o mantendr�an, en las circunstancias."3?

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el


siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre
de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento
cient�fico conocido m�s temprano al concepto, seguido por la Kybeia de Juan
Caramuel (1670). Varios de los citados autores -Fermat, Pascal y Caramuel-
mencionan en sus respectivas correspondencias un Ars Commutationes de Sebasti�n de
Rocafull (1649), hoy perdido. El fundamental Ars Conjectandi (p�stumo, 1713) de
Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema
como una rama de las matem�ticas. V�ase El surgimiento de la probabilidad (The
Emergence of Probability) de Ian Hacking para una historia de los inicios del
desarrollo del propio concepto de probabilidad matem�tica.

La teor�a de errores puede trazarse atr�s en el tiempo hasta Opera Miscellanea


(p�stumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en
1755 (impresa en 1756) aplic� por primera vez la teor�a para la discusi�n de
errores de observaci�n. La reimpresi�n (1757) de esta memoria expone los axiomas de
que los errores positivos y negativos son igualmente probables, y que hay ciertos
l�mites asignables dentro de los cuales se supone que caen todos los errores; se
discuten los errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinaci�n de observaciones a partir de los principios de la teor�a de las
probabilidades. Represent� la ley de la probabilidad de error con una curva
{\displaystyle y=\phi (x)} y = \phi(x), siendo {\displaystyle x} x cualquier error
e {\displaystyle y} y su probabilidad, y expuso tres propiedades de esta curva:

es sim�trica al eje {\displaystyle y} y;


el eje {\displaystyle x} x es una as�ntota, siendo la probabilidad del error
{\displaystyle \infty } \infty igual a 0;
la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una f�rmula para la media de tres observaciones. Tambi�n obtuvo (1781) una
f�rmula para la ley de facilidad de error (un t�rmino debido a Lagrange, 1774),
pero su f�rmula llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778)
introdujo el principio del m�ximo producto de las probabilidades de un sistema de
errores concurrentes.

El m�todo de m�nimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo


introdujo en su Nouvelles m�thodes pour la d�termination des orbites des com�tes
(Nuevos m�todos para la determinaci�n de las �rbitas de los cometas). Ignorando la
contribuci�n de Legendre, un escritor irland�s estadounidense, Robert Adrain,
editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de
error,

{\displaystyle \phi (x)=ce^{-h^{2}x^{2}}} \phi(x) = ce^{-h^2 x^2}


siendo {\displaystyle c} c y {\displaystyle h} h constantes que dependen de la
precisi�n de la observaci�n. Expuso dos demostraciones, siendo la segunda
esencialmente la misma de John Herschel (1850). Gauss expuso la primera
demostraci�n que parece que se conoci� en Europa (la tercera despu�s de la de
Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812),
Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.
F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron
fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli
(1875). La f�rmula de Peters (1856) para {\displaystyle r} r, el error probable de
una �nica observaci�n, es bien conocida.

En el siglo XIX, los autores de la teor�a general inclu�an a Laplace, Sylvestre


Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860),
Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De
Morgan y George Boole mejoraron la exposici�n de la teor�a.

En 1930 Andr�i Kolmogorov desarroll� la base axiom�tica de la probabilidad


utilizando teor�a de la medida.

En la parte geom�trica (v�ase geometr�a integral) los colaboradores de The


Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson
y Artemas Martin).

V�ase tambi�n: Estad�stica


Teor�a
Art�culo principal: Teor�a de la probabilidad
La probabilidad constituye un importante par�metro en la determinaci�n de las
diversas casualidades obtenidas tras una serie de eventos esperados dentro de un
rango estad�stico.

Existen diversas formas como m�todo abstracto, como la teor�a Dempster-Shafer y la


teor�a de la relatividad num�rica, esta �ltima con un alto grado de aceptaci�n si
se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel
m�nimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.
[cita requerida]

La probabilidad de un evento se denota con la letra p y se expresa en t�rminos de


una fracci�n y no en porcentajes[cita requerida], por lo que el valor de p cae
entre 0 y 1. Por otra parte, la probabilidad de que un evento "no ocurra" equivale
a 1 menos el valor de p y se denota con la letra q

{\displaystyle P(Q)=1-P(E)} P(Q) = 1 - P(E)


Los tres m�todos para calcular las probabilidades son la regla de la adici�n, la
regla de la multiplicaci�n y la distribuci�n binomial.

Regla de la adici�n
La regla de la adici�n o regla de la suma establece que la probabilidad de
ocurrencia de cualquier evento en particular es igual a la suma de las
probabilidades individuales, si es que los eventos son mutuamente excluyentes, es
decir, que dos no pueden ocurrir al mismo tiempo.

Por un lado, si {\displaystyle A\cap B=\varnothing } A \cap B = \varnothing, es


decir que son mutuamente excluyentes, entonces
{\displaystyle P(A\cup B)=P(A)+P(B)} {\displaystyle P(A\cup B)=P(A)+P(B)}

Por otro lado, si {\displaystyle A\cap B\neq \varnothing } {\displaystyle A\cap


B\neq \varnothing }, es decir que no son mutuamente excluyentes, entonces
{\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B)} {\displaystyle P(A\cup B)=P(A)
+P(B)-P(A\cap B)}
Siendo: {\displaystyle P(A)=} {\displaystyle P(A)=}probabilidad de ocurrencia del
evento A, {\displaystyle P(B)=} {\displaystyle P(B)=}probabilidad de ocurrencia del
evento B, y {\displaystyle P(A\cap B)=} {\displaystyle P(A\cap B)=} probabilidad de
ocurrencia simult�nea de los eventos A y B.

Otra forma de verlo, ser�a expresar la probabilidad de sucesos mutuamente no


excluyentes mediante el sumatorio de las probabilidades de un evento determinado en
funci�n de otros eventos:

{\displaystyle P(x)=\sum _{y}{P(x,y)}=\sum _{y}{P(y)P(x|y)}} {\displaystyle


P(x)=\sum _{y}{P(x,y)}=\sum _{y}{P(y)P(x|y)}}

Regla de la multiplicaci�n
La regla de la multiplicaci�n establece que la probabilidad de ocurrencia de dos o
m�s eventos estad�sticamente independientes es igual al producto de sus
probabilidades individuales.

{\displaystyle P(A\cap B)=P(A)P(B)} {\displaystyle P(A\cap B)=P(A)P(B)}, si A y B


son independientes.

{\displaystyle P(A\cap B)=P(A)P(B|A)} {\displaystyle P(A\cap B)=P(A)P(B|A)}, si A y


B son dependientes.

siendo {\displaystyle P(B|A)} {\displaystyle P(B|A)} la probabilidad de que ocurra


B habi�ndose dado o verificado el evento A.

Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son
seleccionados uno despu�s del otro para ver si ellos son defectuosos. Suponga que
dos objetos son seleccionados sin reemplazo (significa que el objeto que se
selecciona al azar se deja por fuera del lote). �Cu�l es la probabilidad de que los
dos objetos seleccionados sean defectuosos?

Soluci�n:

Sea los eventos

{\displaystyle A_{1}=} {\displaystyle A_{1}=} primer objeto defectuoso,


{\displaystyle A_{2}=} {\displaystyle A_{2}=}segundo objeto defectuoso

entonces dos objetos seleccionados ser�n defectuosos, cuando ocurre el evento


{\displaystyle A_{1}\cap A_{2}} {\displaystyle A_{1}\cap A_{2}} que es la
intersecci�n entre los eventos {\displaystyle A_{1}} {\displaystyle A_{1}} y
{\displaystyle A_{2}} A_2. De la informaci�n dada se tiene que:

{\displaystyle P(A_{1})={\frac {20}{100}}} {\displaystyle P(A_{1})={\frac {20}


{100}}}; {\displaystyle P(A_{2}|A_{1})={\frac {19}{99}}} {\displaystyle P(A_{2}|
A_{1})={\frac {19}{99}}}

as� probabilidad de que los dos objetos seleccionados sean defectuosos es

{\displaystyle P(A_{1}\cap A_{2})=P(A_{1})P(A_{2}|A_{1})={\frac {20}{100}}\cdot


{\frac {19}{99}}={\frac {19}{495}}\simeq 0.038} {\displaystyle P(A_{1}\cap
A_{2})=P(A_{1})P(A_{2}|A_{1})={\frac {20}{100}}\cdot {\frac {19}{99}}={\frac {19}
{495}}\simeq 0.038}

Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los
tres objetos seleccionados sean defectuosos es

{\displaystyle P(A_{1}\cap A_{2}\cap A_{3})=P(A_{1})P(A_{2}|A_{1})P(A_{3}|A_{1}\cap


A_{2})={\frac {20}{100}}\cdot {\frac {19}{99}}{\frac {18}{98}}={\frac {19}
{2695}}\simeq 0.007} {\displaystyle P(A_{1}\cap A_{2}\cap A_{3})=P(A_{1})P(A_{2}|
A_{1})P(A_{3}|A_{1}\cap A_{2})={\frac {20}{100}}\cdot {\frac {19}{99}}{\frac {18}
{98}}={\frac {19}{2695}}\simeq 0.007}

Regla de Laplace
La Regla de Laplace establece que:

La probabilidad de ocurrencia de un suceso imposible es 0.


La probabilidad de ocurrencia de un suceso seguro es 1, es decir, {\displaystyle
P(A)=1} {\displaystyle P(A)=1}.
Para aplicar la regla de Laplace es necesario que los experimentos den lugar a
sucesos equiprobables, es decir, que todos tengan o posean la misma probabilidad.

La probabilidad de que ocurra un suceso se calcula as�:


{\displaystyle P(A)={\frac {\text{N� de casos favorables}}{\text{ N� de resultados
posibles}}}} {\displaystyle P(A)={\frac {\text{N� de casos favorables}}{\text{ N�
de resultados posibles}}}}

Esto significa que: la probabilidad del evento A es igual al cociente del n�mero de
casos favorables (los casos d�nde sucede A) sobre el total de casos posibles.

Distribuci�n binomial
Art�culo principal: Distribuci�n binomial
La probabilidad de ocurrencia de una combinaci�n espec�fica de eventos
independientes y mutuamente excluyentes se determina con la distribuci�n binomial,
que es aquella donde hay solo dos posibilidades, que se suelen designar como �xito
y fracaso.

Hay dos resultados posibles mutuamente excluyentes en cada ensayo u observaci�n.


La serie de ensayos u observaciones constituyen eventos independientes.
La probabilidad de �xito permanece constante de ensayo a ensayo, es decir el
proceso es estacionario.
Para aplicar esta distribuci�n al c�lculo de la probabilidad de obtener un n�mero
dado de �xitos en una serie de experimentos en un proceso de Bernoulli, se
requieren tres valores: el n�mero designado de �xitos (m), el n�mero de ensayos y
observaciones (n); y la probabilidad de �xito en cada ensayo (p).
Entonces la probabilidad de que ocurran m �xitos en un experimento de n ensayos es:
{\displaystyle P(x=m)={n \choose m}p^{m}(1-p)^{n-m}} {\displaystyle P(x=m)={n
\choose m}p^{m}(1-p)^{n-m}}
donde {\displaystyle {n \choose m}={\frac {n!}{m!(n-m)!}}} {\displaystyle {n
\choose m}={\frac {n!}{m!(n-m)!}}} es el n�mero total de combinaciones posibles de
m elementos en un conjunto de n elementos.

Aplicaciones
Dos aplicaciones principales de la teor�a de la probabilidad en el d�a a d�a son en
el an�lisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican m�todos probabil�sticos en regulaci�n ambiental donde
se les llama "an�lisis de v�as de dispersi�n o separaci�n por medio de ecuaciones",
y a menudo miden el bienestar usando m�todos que son estoc�sticos por naturaleza, y
escogen qu� proyectos emprender bas�ndose en an�lisis estad�sticos de su probable
efecto en la poblaci�n como un conjunto. No es correcto decir que la estad�stica
est� incluida en el propio modelado, ya que t�picamente los an�lisis de riesgo son
para una �nica vez y por lo tanto requieren m�s modelos de probabilidad
fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de n�meros peque�os
tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas
elecciones, lo que hace de las medidas probabil�sticas un tema pol�tico. Un buen
ejemplo es el efecto de la probabilidad percibida de cualquier conflicto
generalizado sobre los precios del petr�leo en Oriente Medio - que producen un
efecto domin� en la econom�a en conjunto. Un c�lculo por un mercado de materias
primas en que la guerra es m�s probable en contra de menos probable probablemente
env�a los precios hacia arriba o hacia abajo e indica a otros comerciantes esa
opini�n. Por consiguiente, las probabilidades no se calculan independientemente y
tampoco son necesariamente muy racionales. La teor�a de las finanzas conductuales
surgi� para describir el efecto de este pensamiento de grupo en el precio, en la
pol�tica, y en la paz y en los conflictos.

Se puede decir razonablemente que el descubrimiento de m�todos rigurosos para


calcular y combinar los c�lculos de probabilidad ha tenido un profundo efecto en la
sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayor�a
de los ciudadanos entender c�mo se calculan los pron�sticos y las probabilidades, y
c�mo contribuyen a la reputaci�n y a las decisiones, especialmente en una
democracia.

Otra aplicaci�n significativa de la teor�a de la probabilidad en el d�a a d�a es en


la fiabilidad. Muchos bienes de consumo, como los autom�viles y la electr�nica de
consumo, utilizan la teor�a de la fiabilidad en el dise�o del producto para reducir
la probabilidad de aver�a. La probabilidad de aver�a tambi�n est� estrechamente
relacionada con la garant�a del producto.

Se puede decir que no existe una cosa llamada probabilidad. Tambi�n se puede decir
que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situaci�n. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en un baraja sea la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% � 0%, y la elecci�n correcta puede ser hecha con
precisi�n por el que ve la carta. La f�sica moderna proporciona ejemplos
importantes de situaciones deterministas donde s�lo la descripci�n probabil�stica
es factible debido a informaci�n incompleta y la complejidad de un sistema as� como
ejemplos de fen�menos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay


probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la
fuerza de la mano y el periodo de esta fuerza es conocido, entonces el n�mero donde
la bola parar� ser� seguro. Naturalmente, esto tambi�n supone el conocimiento de la
inercia y la fricci�n de la ruleta, el peso, lisura y redondez de la bola, las
variaciones en la velocidad de la mano durante el movimiento y as� sucesivamente.
Una descripci�n probabil�stica puede entonces ser m�s pr�ctica que la mec�nica
newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la
ruleta. Los f�sicos se encuentran con la misma situaci�n en la teor�a cin�tica de
los gases, donde el sistema determin�stico en principio, es tan complejo (con el
n�mero de mol�culas t�picamente del orden de magnitud de la constante de Avogadro
{\displaystyle 6\cdot 10^{23}} 6\cdot 10^{23}) que s�lo la descripci�n estad�stica
de sus propiedades es viable.

La mec�nica cu�ntica, debido al principio de indeterminaci�n de Heisenberg, s�lo


puede ser descrita actualmente a trav�s de distribuciones de probabilidad, lo que
le da una gran importancia a las descripciones probabil�sticas. Algunos cient�ficos
hablan de la expulsi�n del para�so.[cita requerida] Otros no se conforman con la
p�rdida del determinismo. Albert Einstein coment� estupendamente en una carta a Max
Born: Jedenfalls bin ich �berzeugt, da� der Alte nicht w�rfelt. (Estoy convencido
de que Dios no tira el dado). No obstante hoy en d�a no existe un medio mejor para
describir la f�sica cu�ntica si no es a trav�s de la teor�a de la probabilidad.
Mucha gente hoy en d�a confunde el hecho de que la mec�nica cu�ntica se describe a
trav�s de distribuciones de probabilidad con la suposici�n de que es por ello un
proceso aleatorio, cuando la mec�nica cu�ntica es probabil�stica no por el hecho de
que siga procesos aleatorios sino por el hecho de no poder determinar con precisi�n
sus par�metros fundamentales, lo que imposibilita la creaci�n de un sistema de
ecuaciones determinista.

Investigaci�n biom�dica
V�ase tambi�n: Muestreo en estad�stica
La mayor�a de las investigaciones biom�dicas utilizan muestras de probabilidad, es
decir, aquellas que el investigador pueda especificar la probabilidad de cualquier
elemento en la poblaci�n que investiga. Las muestras de probabilidad permiten usar
estad�sticas inferenciales, aquellas que permiten hacer inferencias a partir de
datos. Por otra parte, las muestras no probabil�sticas solo permiten usarse
estad�sticas descriptivas, aquellas que solo permiten describir, organizar y
resumir datos. Se utilizan cuatro tipos de muestras probabil�sticas: muestras
aleatorias simples, muestras aleatorias estratificadas, muestra por conglomerados y
muestras sistem�ticas.

V�ase tambi�n
Teor�a de la decisi�n
Teor�a de juegos
Teor�a de la informaci�n
Teor�a de la medida
Variable aleatoria
Estad�stica
Proceso estoc�stico
Equiprobabilidad
Frecuencia estad�stica