Está en la página 1de 16

2.

ELEMENTOS DE PROBABILIDAD

2.1 Antecedentes históricos

Los antecedentes históricos de la probabilidad y estadística se remontan a muchos siglos

atrás. Uno de los más antiguos es el juego de dados, que fue utilizado por diferentes culturas para

juegos de azar, y algunos de ellos desarrollaron métodos para calcular las probabilidades de

ciertos resultados. En el siglo XVI, el matemático italiano Gerolamo Cardano comenzó a

estudiar formalmente la probabilidad en el contexto del juego de dados.

Otro antecedente histórico importante de la probabilidad fue el problema de los puntos,

que surgió en el siglo XVII cuando dos jugadores de dados no podían ponerse de acuerdo sobre

cómo repartir las ganancias en una partida que no había terminado. El matemático francés Blaise

Pascal y el matemático francés Pierre de Fermat trabajaron juntos para resolver este problema y

desarrollaron la teoría de la probabilidad.

La estadística también tiene una larga historia. En la antigua China y Egipto se realizaron

censos de población, y los romanos utilizaban la estadística para recopilar datos sobre su

imperio. Sin embargo, la estadística moderna comenzó a desarrollarse en el siglo XVII, cuando

el matemático inglés John Graunt utilizó los datos de los registros de entierros para estudiar la

mortalidad en Londres.

En el siglo XVIII, el matemático suizo Daniel Bernoulli desarrolló la teoría de la

probabilidad y la estadística para estudiar los juegos de azar y las decisiones económicas.

Durante el siglo XIX, la estadística se convirtió en una herramienta importante en la

investigación científica, y se utilizó para estudiar fenómenos naturales y sociales. En el siglo XX,
la probabilidad y la estadística se convirtieron en disciplinas clave en muchas áreas, incluyendo

la física, la ingeniería, la biología, la medicina, la economía y la informática.

2.2 Modelos matemáticos

Existen varios modelos matemáticos para representar la probabilidad. Aquí hay una breve

descripción de algunos de los más comunes:

Modelo de frecuencia relativa: Este modelo se basa en la idea de que la probabilidad de

un evento es igual a la proporción de veces que se espera que ocurra ese evento en un gran

número de repeticiones del experimento.

Modelo clásico o de la teoría de conjuntos: Este modelo se basa en la idea de que la

probabilidad de un evento es igual al número de resultados favorables al evento dividido por el

número total de resultados posibles.

Modelo subjetivo o de la teoría de la utilidad: Este modelo se basa en la idea de que la

probabilidad de un evento es una medida de la fuerza de la creencia de una persona en que ese

evento ocurrirá. Es decir, la probabilidad es subjetiva y depende de la información, la experiencia

y la actitud de la persona.

Modelo Bayesiano: Este modelo se basa en la idea de que la probabilidad de un evento se

actualiza en función de la nueva información que se recibe. Es decir, se utiliza la probabilidad a

priori y se actualiza con la probabilidad condicional.


Estos son solo algunos de los modelos matemáticos de la probabilidad que existen. Cada

uno tiene sus propias ventajas y desventajas, y se utilizan en diferentes situaciones dependiendo

del tipo de experimento y de la información disponible.

2.3 Fenómenos aleatorios y determinísticos

Los fenómenos aleatorios son aquellos cuyos resultados no pueden ser predichos con

certeza y están sujetos a la probabilidad. Ejemplos de fenómenos aleatorios incluyen lanzar un

dado, lanzar una moneda o la cantidad de lluvia que cae en un día determinado. Estos fenómenos

están influenciados por una serie de factores que no pueden ser controlados o predecidos con

precisión, por lo que su resultado final es incierto.

Por otro lado, los fenómenos determinísticos son aquellos que pueden ser predichos con

precisión y su resultado final está completamente determinado por las condiciones iniciales. Un

ejemplo de un fenómeno determinístico es el movimiento de los planetas en el sistema solar. Si

se conocen las condiciones iniciales, como la posición y velocidad de cada planeta, se pueden

predecir con precisión sus trayectorias futuras.

Es importante destacar que en la naturaleza, muchos fenómenos son una combinación de

ambos elementos, determinísticos y aleatorios. Por ejemplo, el clima está influenciado por

factores determinísticos, como la posición del sol y la rotación de la Tierra, pero también está

sujeto a fenómenos aleatorios, como la variabilidad en la presión atmosférica y la temperatura.


2.4 Espacio muestra

El espacio muestral es un término utilizado en teoría de la probabilidad y se refiere al

conjunto de todos los posibles resultados de un experimento aleatorio.

Por ejemplo, si lanzamos un dado, el espacio muestral estaría compuesto por los seis

posibles resultados: {1, 2, 3, 4, 5, 6}. Cada uno de estos elementos se llama evento elemental o

resultado simple.

El espacio muestral se denota por la letra griega omega (Ω) y puede ser finito, infinito

numerable o no numerable. Es importante tener en cuenta que no todos los elementos del espacio

muestral necesariamente tienen la misma probabilidad de ocurrir, ya que algunos eventos pueden

ser más probables que otros.

El espacio muestral es fundamental en la teoría de la probabilidad, ya que permite

calcular las probabilidades de diferentes eventos, lo que a su vez es esencial en la toma de

decisiones en una amplia variedad de campos, desde la estadística hasta la ingeniería y la

economía.

2.5 Eventos elementales y compuesto

Los eventos elementales son eventos indivisibles e irreductibles que no pueden ser

descompuestos en eventos más pequeños. En otras palabras, son eventos simples que no

contienen eventos dentro de ellos. Por ejemplo, si lanzas una moneda, los eventos elementales

son "cara" y "cruz". Si lanzas un dado, los eventos elementales son "1", "2", "3", "4", "5" y "6".
Los eventos compuestos, por otro lado, son eventos que se pueden descomponer en

eventos más pequeños. Un evento compuesto está formado por dos o más eventos elementales o

eventos compuestos más pequeños. Por ejemplo, si lanzas dos monedas al mismo tiempo, los

eventos compuestos son "cara y cara", "cara y cruz", "cruz y cara" y "cruz y cruz". Si lanzas dos

dados al mismo tiempo, los eventos compuestos son todas las combinaciones posibles de los

resultados de los dados.

Es importante tener en cuenta que los eventos compuestos no son necesariamente

igualmente probables. La probabilidad de un evento compuesto se puede calcular sumando las

probabilidades de los eventos elementales que lo componen.

2.6 Álgebra de eventos

El álgebra de eventos es una rama de las matemáticas que se utiliza en la teoría de la

probabilidad y se centra en el estudio de conjuntos de eventos aleatorios. Los eventos son

subconjuntos del espacio muestral, que es el conjunto de todos los posibles resultados de un

experimento aleatorio.

El álgebra de eventos se basa en dos operaciones fundamentales: la unión y la

intersección de eventos. La unión de dos eventos A y B se representa por A U B y consiste en el

conjunto de todos los resultados que pertenecen a A o a B (o a ambos). La intersección de dos

eventos A y B se representa por A ∩ B y consiste en el conjunto de todos los resultados que

pertenecen a ambos eventos.


Con estas dos operaciones, se pueden definir otras operaciones como la diferencia de

eventos (A - B) que representa el conjunto de resultados que pertenecen a A pero no a B, y el

complemento de un evento (A') que representa el conjunto de resultados que no pertenecen a A.

El álgebra de eventos permite la construcción de expresiones matemáticas que

representan combinaciones de eventos, lo que resulta muy útil para el cálculo de probabilidades.

Además, también permite la demostración de teoremas y propiedades de la probabilidad.

2.7 Definición estadística de probabilidad

La estadística de probabilidad es una rama de la estadística que se enfoca en el estudio de

eventos aleatorios y en la determinación de la probabilidad de que estos eventos ocurran. La

estadística de probabilidad se basa en la teoría matemática de la probabilidad, que se utiliza para

calcular la probabilidad de un evento en función de la información disponible.

En la estadística de probabilidad, se utilizan diferentes técnicas y métodos para analizar la

probabilidad de ocurrencia de eventos inciertos. Por ejemplo, se pueden utilizar distribuciones de

probabilidad para modelar la ocurrencia de un evento y estimar la probabilidad de que este

ocurra en diferentes escenarios.

Además, la estadística de probabilidad se utiliza para realizar inferencias sobre la

población a partir de una muestra de datos, lo que permite hacer predicciones y tomar decisiones

en función de la información disponible.


2.8 Definición clásica de probabilidad

La definición clásica de probabilidad establece que la probabilidad de un evento es igual

al número de formas en que ese evento puede ocurrir dividido por el número total de resultados

posibles en un experimento aleatorio, cuando todos los resultados posibles son igualmente

probables.

Por ejemplo, si lanzamos un dado justo, el número de resultados posibles es 6, y cada uno

de ellos tiene la misma probabilidad de ocurrir. Si queremos saber la probabilidad de obtener un

número par, podemos contar que hay tres resultados posibles que satisfacen esta condición (2, 4

y 6), por lo que la probabilidad de obtener un número par es 3/6 o 1/2.

Esta definición clásica de probabilidad es adecuada para eventos que tienen un número

finito de resultados posibles y donde cada resultado es igualmente probable. En situaciones más

complejas, como eventos con resultados infinitos o con resultados no igualmente probables, se

necesitan enfoques más avanzados para calcular la probabilidad.

2.9 Definición axiomática de probabilidad

La definición axiomática de probabilidad establece que la probabilidad de un evento es

un número entre 0 y 1, y que cumple con tres axiomas:

1. Axioma de la no-negatividad: La probabilidad de cualquier evento A es un

número no negativo, es decir, P(A) ≥ 0.

2. Axioma de la normalización: La probabilidad del espacio muestral completo es 1,

es decir, P(S) = 1, donde S representa el conjunto de todos los posibles resultados.


3. Axioma de la aditividad: Si A y B son dos eventos disjuntos (es decir, no tienen

resultados en común), entonces la probabilidad de que ocurra uno de ellos es la

suma de las probabilidades individuales de cada uno, es decir, P(A ∪ B) = P(A) +

P(B).

A partir de estos tres axiomas, se pueden derivar muchas propiedades y teoremas de

probabilidad. La definición axiomática de probabilidad es una de las formas más comunes de

definir la probabilidad y es utilizada en muchos campos de las matemáticas y las ciencias.

2.10 Cálculo de probabilidad

El cálculo de probabilidades es una rama de las matemáticas que se ocupa de medir la

probabilidad de que ocurra un evento en particular. La probabilidad se define como el número de

resultados favorables dividido por el número total de resultados posibles.

Hay diferentes métodos para calcular probabilidades dependiendo de la situación,

algunos de los más comunes son:

• Regla de Laplace: Es utilizada para calcular la probabilidad de un evento si todos

los resultados son igualmente probables. La fórmula es:

P(A) = número de resultados favorables / número total de resultados posibles

• Regla de multiplicación: Es utilizada para calcular la probabilidad de que dos o

más eventos ocurran en secuencia. La fórmula es:


P(A y B) = P(A) x P(B|A)

Donde P(A y B) es la probabilidad de que ocurran ambos eventos, P(A) es la probabilidad

del primer evento y P(B|A) es la probabilidad del segundo evento dado que el primero ha

ocurrido.

• Regla de suma: Es utilizada para calcular la probabilidad de que ocurra uno de

varios eventos mutuamente excluyentes. La fórmula es:

P(A o B) = P(A) + P(B)

Donde P(A o B) es la probabilidad de que ocurra uno de los eventos A o B, P(A) es la

probabilidad del primer evento y P(B) es la probabilidad del segundo evento.

Existen otros métodos más avanzados como la distribución normal, la distribución de

Poisson y la distribución binomial, entre otros. Cada uno de ellos es aplicado en diferentes

situaciones y con diferentes tipos de datos.

2.11 Construcción intuitiva de la probabilidad condicional

La probabilidad condicional se refiere a la probabilidad de que un evento A ocurra dado

que otro evento B ya ha ocurrido. La construcción intuitiva de la probabilidad condicional puede

ser entendida a través de un ejemplo sencillo:

Supongamos que tenemos dos urnas, la Urna 1 y la Urna 2, cada una de las cuales

contiene bolas rojas y bolas verdes. La Urna 1 contiene 3 bolas rojas y 7 bolas verdes, mientras

que la Urna 2 contiene 6 bolas rojas y 4 bolas verdes.


Ahora supongamos que seleccionamos una urna al azar y luego extraemos una bola de

esa urna. Si queremos determinar la probabilidad de que la bola extraída sea roja, podemos

utilizar la probabilidad condicional.

Primero, definamos nuestros eventos:

A: "extraer una bola roja"

B: "seleccionar la Urna 1"

Entonces, la probabilidad de que extraigamos una bola roja es igual a la suma de las

probabilidades de extraer una bola roja de cada urna, ponderada por la probabilidad de

seleccionar cada urna:

P(A) = P(A|B)*P(B) + P(A|no B)*P(no B)

Donde:

P(A|B) es la probabilidad de extraer una bola roja de la Urna 1 (dado que la Urna 1 fue

seleccionada) = 3/10

P(A|no B) es la probabilidad de extraer una bola roja de la Urna 2 (dado que la Urna 2 fue

seleccionada) = 6/10

P(B) es la probabilidad de seleccionar la Urna 1 al azar = 1/2

P(no B) es la probabilidad de seleccionar la Urna 2 al azar = 1/2

Sustituyendo los valores:

P(A) = (3/10)(1/2) + (6/10)(1/2) = 9/20

Por lo tanto, la probabilidad de que extraigamos una bola roja es de 9/20 o 0.45.
Esta es una construcción intuitiva de la probabilidad condicional que se basa en la idea de

que la probabilidad de un evento dado puede ser determinada por la combinación de la

probabilidad de ese evento condicionado a cada uno de los posibles valores del evento

condicional.

2.12 Definición de la probabilidad condicional

La probabilidad condicional es una medida de la probabilidad de un evento A dado que

otro evento B ha ocurrido. Se denota como P(A|B) y se lee como "la probabilidad de A dado B".

La fórmula para la probabilidad condicional es:

P(A|B) = P(A ∩ B) / P(B)

donde P(A ∩ B) es la probabilidad de que ambos eventos A y B ocurran juntos y P(B) es

la probabilidad de que ocurra el evento B.

En resumen, la probabilidad condicional es una herramienta útil para calcular la

probabilidad de un evento basado en información adicional, como la ocurrencia de otro evento

relacionado.

2.13 Teorema de multiplicación

El teorema de multiplicación, también conocido como la regla del producto, es una

herramienta fundamental en el cálculo de probabilidades y estadísticas. Este teorema establece


que la probabilidad de que dos eventos independientes ocurran juntos es igual al producto de sus

probabilidades individuales.

Formalmente, si A y B son dos eventos independientes, entonces la probabilidad de que

ambos ocurran es igual al producto de sus probabilidades individuales:

P(A y B) = P(A) x P(B)

Por ejemplo, si lanzamos una moneda y lanzamos un dado, la probabilidad de que la

moneda caiga cara (A) y el dado muestre un 4 (B) es igual a la probabilidad de que la moneda

caiga cara (1/2) multiplicada por la probabilidad de que el dado muestre un 4 (1/6):

P(A y B) = P(A) x P(B) = 1/2 x 1/6 = 1/12

Por lo tanto, la probabilidad de que la moneda caiga cara y el dado muestre un 4 es de

1/12. Este teorema es especialmente útil en la combinación de varios eventos independientes

para calcular la probabilidad de que todos ocurran juntos.

2.14 Teorema de probabilidad total

El teorema de probabilidad total es una herramienta importante en teoría de la

probabilidad que permite calcular la probabilidad de un evento utilizando la información sobre la

probabilidad de eventos relacionados. Este teorema se aplica en situaciones en las que un evento

puede ocurrir de diferentes maneras, y se utiliza para determinar la probabilidad total de que

ocurra el evento en cuestión.

El teorema de probabilidad total establece que si A1, A2, ..., An son eventos mutuamente

excluyentes y exhaustivos, y B es cualquier evento, entonces la probabilidad de que ocurra B se


puede calcular como la suma de la probabilidad de B dado cada uno de los eventos A1, A2, ...,

An multiplicado por la probabilidad de cada uno de estos eventos:

P(B) = P(B | A1) * P(A1) + P(B | A2) * P(A2) + ... + P(B | An) * P(An)

Donde:

P(B | Ai) es la probabilidad de que ocurra B dado que ocurre el evento Ai.

P(Ai) es la probabilidad de que ocurra el evento Ai.

Este teorema se utiliza comúnmente en problemas de estadística y probabilidad, y es una

herramienta fundamental para la inferencia estadística y la toma de decisiones.

2.15 Teorema de Bayes

El Teorema de Bayes es una herramienta matemática utilizada para calcular la

probabilidad de un evento condicionado a la ocurrencia de otro evento relacionado. Fue

formulado por el matemático británico Thomas Bayes en el siglo XVIII y es ampliamente

utilizado en diversos campos, incluyendo la estadística, la ingeniería, la medicina y la

inteligencia artificial.

La fórmula del Teorema de Bayes se expresa de la siguiente manera:

P(A|B) = P(B|A) * P(A) / P(B)

Donde:

• P(A|B) es la probabilidad de que ocurra el evento A dado que ha ocurrido el

evento B.
• P(B|A) es la probabilidad de que ocurra el evento B dado que ha ocurrido el

evento A.

• P(A) es la probabilidad del evento A.

• P(B) es la probabilidad del evento B.

En otras palabras, el teorema de Bayes nos permite calcular la probabilidad de que ocurra

un evento A, dado que ha ocurrido un evento B, utilizando la información que tenemos sobre la

probabilidad del evento A y la probabilidad condicional de que ocurra el evento B dado que ha

ocurrido el evento A.

El Teorema de Bayes es útil en la resolución de problemas donde se tienen dos o más

eventos relacionados y se desea conocer la probabilidad de que ocurra uno de ellos condicionado

a la ocurrencia de otro.

2.16 Diagramas de árbol

Un diagrama de árbol es una representación gráfica de un conjunto de opciones y

decisiones que conducen a un resultado final. Es comúnmente utilizado en matemáticas,

estadísticas, ciencias de la computación y en la toma de decisiones en general.

Para crear un diagrama de árbol, se comienza por un punto central que representa el

evento inicial o la decisión que se debe tomar. A partir de este punto central, se dibujan ramas

que representan las opciones disponibles y las posibles consecuencias de cada opción. Este

proceso se repite hasta que se llega al resultado final.


Por ejemplo, si alguien está decidiendo qué carrera universitaria estudiar, el diagrama de

árbol podría verse así:

¿Qué carrera universitaria estudiar?

Ingeniería Medicina Derecho

Civil Eléctrica General Especializada Penal

En este caso, el punto central es la decisión sobre qué carrera estudiar. Luego, hay tres

opciones disponibles: ingeniería, medicina y derecho. Cada opción tiene diferentes

ramificaciones. Por ejemplo, si se elige ingeniería, se debe decidir entre civil o eléctrica.

El diagrama de árbol puede ser útil para visualizar las opciones y las consecuencias de

cada elección, lo que puede ayudar a tomar una decisión informada.

2.17 Eventos independientes

En probabilidad y estadística, dos eventos son considerados independientes si la

ocurrencia o no-ocurrencia de uno de ellos no afecta la probabilidad de ocurrencia del otro

evento.

Es decir, si A y B son dos eventos, entonces la ocurrencia de A no afecta la probabilidad

de ocurrencia de B y viceversa. En términos matemáticos, si P(A|B) = P(A) y P(B|A) = P(B),

entonces A y B son eventos independientes.


Por ejemplo, si lanzamos un dado dos veces, los resultados de ambos lanzamientos son

eventos independientes, ya que el resultado del primer lanzamiento no afecta la probabilidad de

ocurrencia del segundo lanzamiento.

Otro ejemplo sería el lanzamiento de una moneda al aire. Si lanzamos una moneda al aire

dos veces, los resultados de ambos lanzamientos son eventos independientes, ya que el resultado

del primer lanzamiento no afecta la probabilidad de ocurrencia del segundo lanzamiento.

También podría gustarte