Está en la página 1de 7

Conceptos Bsicos de Probabilidad

La teora de probabilidad estudia aquellos experimentos cuyos resultados son aleatorios y descubre leyes para la construccin de modelos que describen situaciones reales. El estudio de las probabilidades invade prcticamente todos los mbitos de las ciencias.

Un experimento es un proceso o actividad que conduce a un resultado u observacin, el cual puede variar entre una y otra ejecucin.

Para que un experimento sea aleatorio debe presentar dos caractersticas importantes, la primera de ellas tiene que ver con la posibilidad de determinar un conjunto, espacio muestral, que rena todos los posibles resultados que puede tener; la segunda tiene que ver con la imposibilidad de que los resultados de repeticiones tengan un comportamiento igual o predecible.

El espacio muestral es el conjunto de todos los posibles resultados de un experimento, se denota por .

IMAGEN

En general los resultados obtenidos en experimentos aleatorios no son determinsticos pero el estudio probabilstico de fenmenos aleatorios permiten planteamientos ms cientficos y organizados para la solucin de problemas. De hecho muchas de las mediciones sobre las que se fundamenta la ciencia no son exactas. Por ejemplo la longitud de un tornillo que se produce por una mquina, la resistencia de una viga etc.

Mas an, muchos problemas aunque se planteen y resuelvan como determinsticos no lo son, en realidad son probabilsticos. Si una mquina debe programarse para controlar el llenado de botellas de refresco, de manera tal que cada botella lleve 500 ml de lquido, usualmente no es posible la exactitud en el proceso de llenado, slo se logra que en promedio cada botella contenga 500 ml pero algunas tendrn ms y otras menos.

Cuando se tiene un experimento probabilstico, cualquier subconjunto del espacio muestral recibe el nombre de evento o suceso.

IMAGEN

Basados en la experiencia, a cada evento se le asigna una medida de qu tan factible es. Esta medida se refleja en un nmero en el intervalo [0,1]. Entre ms factible sea el resultado, mayor es la medida que se le asigna, la cual se llama probabilidad.

Es comn encontrar conceptos algo diferentes acerca de lo que es la probabilidad, como se muestran a continuacin:

Concepto Frecuentista

Es un hecho, empricamente comprobado, que la frecuencia relativa de un suceso tiende a estabilizarse cuando la frecuencia total aumenta. Surge as el concepto frecuentista de la probabilidad de un suceso como un nmero ideal al que converge su frecuencia relativa cuando la frecuencia total tiende a infinito.

Para esto primero se observa la frecuencia relativa con que ocurre un evento si un experimento se repite una cantidad grande de veces y luego calcula el cuociente entre las ocurrencias del evento y el total de ejecuciones del experimento cuando este total de ejecuciones es grande, de hecho es un valor lmite de ese cuociente el que es llamado probabilidad.

Por ejemplo al lanzar el dado, si queremos conocer la probabilidad que el resultado sea 5, debera repetirse el lanzamiento n veces, n grande, y contar cuantas veces sali el 5, frecuencia absoluta, y luego dividir por n. Ms precisamente si A es el evento de inters y para cada n
f
A

la frecuencia absoluta de A entonces la probabilidad de A,

(A) , es lim

fa n n .

El problema radica en que al no poder repetir la experiencia infinitas veces, la probabilidad de un suceso ha de ser aproximada por su frecuencia relativa para un n suficientemente grande, y cun grande es un n grande? 0, qu hacer con aquellas experiencias que solo se pueden repetir una vez?

Concepto Clsico

Est basado en el concepto de resultados igualmente verosmiles y motivado por el denominado Principio de la Razn Insuficiente, el cual postula que si no existe un fundamento para preferir una entre varias posibilidades, todas deben ser consideradas equiprobables. As, en el lanzamiento de una moneda perfecta la probabilidad de cara debe ser igual que la de cruz y, por tanto, ambas iguales a 1/2.

De la misma manera, la probabilidad de cada uno de los seis sucesos elementales asociados al lanzamiento de un dado debe ser 1/6. Laplace recogi esta idea y formul la regla clsica del cociente entre casos favorables y casos posibles, supuestos stos igualmente verosmiles. El problema aqu surge porque en definitiva igualmente verosmil es lo mismo que igualmente probable, es decir, se justifica la premisa con el resultado. Adems qu ocurre cuando estamos considerando un experimento donde no se da esa simetra?, o, qu hacer cuando el nmero de resultados posibles es infinito?

Concepto Subjetivo

Se basa en la idea de que la probabilidad que una persona da a un suceso debe depender de su juicio y experiencia personal, pudiendo dar dos personas distintas probabilidades diferentes a un mismo suceso. Estas ideas pueden formalizarse, y si las opiniones de una persona satisfacen ciertas relaciones de consistencia, puede llegarse a definir una probabilidad para los sucesos. En este enfoque la probabilidad tiende a verse como el grado de credibilidad que es razonable asignarle a una proposicin que describe a un evento, de acuerdo a una evidencia dada, tiene un carcter que no es emprico, pues en sta se busca conocer el grado de certidumbre que uno puede asignarle a una hiptesis acorde a una evidencia; para hacer esto uno debe pensar en el problema a la luz de las evidencias; si stas cambian, tambin podra hacerlo la probabilidad asignada.

IMAGEN

La diferencia esencial entre ambos conceptos es que la probabilidad estadstica es un concepto emprico mientras que la probabilidad inductiva es un concepto lgico.

Probabilidades
Sea

el espacio muestral y

, el conjunto de las partes de

., es decir el

conjunto de los eventos.

Probabilidad
La funcin

[0,1] es una medida de probabilidad si

1. ( )=1
2. Si (An)n N es una sucesin de eventos disjuntos entonces

P ( U An ) = P ( An )
nN n =1

Si A es un evento entonces el evento no ocurre A se denota por Ac.

Propiedades
Sea A, B, A1,....An eventos, se tiene que

1.

P ( ) = 0

2. Si A1,....An son disjuntos entonces 3. P ( Ac ) = 1 P ( A) 4. Si A B entonces P ( A) P( B )

P ( U Ak ) = P ( Ak )
k =1 k =1

5. Si A B entonces P ( B A) = P ( B ) P ( A)
6. P ( A U B) = P ( A) + P ( B ) P( A I B )

7. P ( U Ak ) P ( Ak )
k =1 k =1

Demostracin
3.

A U Ac = P ( A U Ac ) = P ( A U Ac ) = P( A U Ac ) = P ()
c Al usar la propiedad 2 se tiene P ( A) + P ( A ) = 1

4. Si A B entonces B = A U( B A) .
Al usar la propiedad 2 se tiene P ( B) = P ( A) + P ( B A) , Como P ( B A) 0 se obtiene P ( A) P( B )

5. Si A B entonces B = A U( B A) y as P ( B) = P ( A) + P ( B A) .

Por lo tanto P ( B A) = P ( B ) P ( A) .

A U B = ( A B ) U( B A) U( A I B ) implica P ( A U B ) = P ( A B ) + P ( B A) + P ( A I B )

= P( A A I B ) + P (B A I B ) + P ( A I B ) + P ( A I B )
Ya que A I B A y A I B B usando la propiedad 5 se tiene

P ( A U B ) = P ( A) P( A I B ) + P ( B ) P( A I B ) + P ( A I B) = P ( A) + P ( B ) P ( A I B )

También podría gustarte