Está en la página 1de 23

Historia de la probabilidad

El estudio científico de la probabilidad es un desarrollo moderno. Los


juegos de azar muestran que ha habido un interés en cuantificar las
ideas de la probabilidad durante milenios, pero las descripciones
matemáticas exactas de utilidad en estos problemas sólo surgieron
mucho después.

Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término


'probable' (en latín probable) significaba aprobable, y se aplicaba en
ese sentido, unívocamente, a la opinión y a la acción. Una acción u
opinión probable era una que las personas sensatas emprenderían o
mantendrían, en las circunstancias."[1]

Aparte de algunas consideraciones elementales hechas por Girolamo


Cardano en el siglo XVI, la doctrina de las probabilidades data de la
correspondencia de Pierre de Fermat y Blaise Pascal (1654).
Christiaan Huygens (1657) le dio el tratamiento científico conocido
más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob
Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre
trataron el tema como una rama de las matemáticas. Véase El
surgimiento de la probabilidad (The Emergence of Probability) de Ian
Hacking para una historia de los inicios del desarrollo del propio
concepto de probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera


Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria
preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por
primera vez la teoría para la discusión de errores de observación. La
reimpresión (1757) de esta memoria expone los axiomas de que los
errores positivos y negativos son igualmente probables, y que hay
ciertos límites asignables dentro de los cuales se supone que caen
todos los errores; se discuten los errores continuos y se da una curva
de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una


regla para la combinación de observaciones a partir de los principios
de la teoría de las probabilidades. Representó la ley de la
probabilidad de error con una curva y = φ(x), siendo x cualquier error
e y su probabilidad, y expuso tres propiedades de esta curva:

1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error igual
a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un
error.

Dedujo una fórmula para la media de tres observaciones. También


obtuvo (1781) una fórmula para la ley de facilidad de error (un
término debido a Lagrange, 1774), pero una que llevaba a ecuaciones
inmanejables. Daniel Bernoulli (1778) introdujo el principio del
máximo producto de las probabilidades de un sistema de errores
concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre


(1805), que lo introdujo en su Nouvelles méthodes pour la
détermination des orbites des comètes (Nuevos métodos para la
determinación de las órbitas de los cometas). Ignorando la
contribución de Legendre, un escritor irlandés estadounidense, Robert
Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley
de facilidad de error,

siendo c y h constantes que dependen de la precisión de la


observación. Expuso dos demostraciones, siendo la segunda
esencialmente la misma de John Herschel (1850). Gauss expuso la
primera demostración que parece que se conoció en Europa (la
tercera después de la de Adrain) en 1809. Demostraciones
adicionales se expusieron por Laplace (1810, 1812), Gauss (1823),
James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.
F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes
que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher
(1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856)
para r, el error probable de una única observación, es bien conocida.
Definición:
La probabilidad mide la frecuencia con la que se obtiene un resultado
(o conjunto de resultados) al llevar a cabo un experimento aleatorio,
del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. La teoría de la probabilidad se usa
extensamente en áreas como la estadística, la física, la matemática,
la ciencia y la filosofía para sacar conclusiones sobre la probabilidad
de sucesos potenciales y la mecánica subyacente de sistemas
complejos.

Teoría de la probabilidad.
La probabilidad constituye un importante parámetro en la
determinación de las diversas casualidades obtenidas tras una serie
de eventos esperados dentro de un rango estadístico.

Existen diversas formas como método abstracto, como la teoría


Dempster-Shafer y la teoría de la relatividad numérica, esta última
con un alto grado de aceptación si se toma en cuenta que disminuye
considerablemente las posibilidades hasta un nivel mínimo ya que
somete a todas las antiguas reglas a una simple ley de relatividad.

Interpretación
se puede interpretar como, tomando los mundos en los que
B se cumple, la fracción en los que también se cumple A. Si el evento
B es, por ejemplo, tener la gripe, y el evento A es tener dolor de
cabeza, sería la probabilidad de tener dolor de cabeza
cuando se está enfermo de gripe.

Gráficamente, si se interpreta el espacio de la ilustración como el


espacio de todos los mundos posibles, A serían los mundos en los que
se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La
zona verde de la intersección representaría los mundos en los que se
tiene gripe y dolor de cabeza . En este caso , es
decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo
que tiene gripe, sería la proporción de mundos con gripe y dolor de
cabeza (color verde) de todos los mundos con gripe: El área verde
dividida por el área de B. Como el área verde representa y
el área de B representa a P(B), formalmente se tiene que:

“TEORIA DE CONJUNTOS”
Historia
El primer estudio formal sobre el tema fue realizado por el
matemático alemán Georg Cantor, Gottlob Frege y Julius
Wilhelm Richard Dedekind en el Siglo XIX y más tarde
reformulada por Zermelo.

se puede hablar de un conjunto de personas, ciudades, gafas,


lapiceros o del conjunto de objetos que hay en un momento
dado encima de una mesa. Un conjunto está bien definido si se
sabe si un determinado elemento pertenece o no al conjunto.

Definición:
La teoría de conjuntos es una división de las matemáticas que
estudia los conjuntos.

El concepto de conjunto es intuitivo y se podría definir como


una "colección de objetos" o tambien se entiende por conjunto
a la agrupación en un todo de objetos bien diferenciados de
nuestra intuición o nuestra mente.

Se puede hablar de un conjunto de personas, ciudades, gafas,


lapiceros o del conjunto de objetos que hay en un momento
dado encima de una mesa. Un conjunto está bien definido si se
sabe si un determinado elemento pertenece o no al conjunto.

Notación
Usualmente los conjuntos se representan con una letra
mayúscula: A, B, K,...

Llamaremos elemento, a cada uno de los objetos que forman


parte de un conjunto, estos elementos tienen carácter
individual, tienen cualidades que nos permiten diferenciarlos, y
cada uno de ellos es único, no habiendo elementos duplicados o
repetidos. Los representaremos con una letra minúscula: a, b,
k,...

De esta manera, si es un conjunto, y todos sus


elementos, es común escribir:

para definir a tal conjunto . Esta notación empleada para


definir al conjunto se llama notación por extensión

Para representar que un elemento pertenece a un conjunto A,


escribimos (léase "x en A", "x pertenece a A" o bien "x es
un elemento de A"). La negación de se escribe (léase
no pertenece a ).

Igualdad de conjuntos
Dos conjuntos y se dicen iguales, lo que se escribe si constan de los
mismos elementos. Es decir, si y solo si todo elemento de A está también
contenido en B y todo elemento de B está contenido en A. En símbolos:

Subconjuntos y Superconjuntos

Diagrama de Venn que muestra


Un conjunto se dice que es subconjunto de otro , si cada
elemento de es también elemento de , es decir, cuando se
verifique:

sea cual sea el elemento . En tal caso, se escribe .

Cabe señalar que, por definición, no se excluye la posibilidad de


que si , se cumpla . Si tiene por lo menos un
elemento que no pertenezca al conjunto , pero si todo
elemento de es elemento de , entonces decimos que es un
subconjunto propio de , lo que se representa por . En
otras palabras, si y sólo si ,y . Así, el
conjunto vacío es subconjunto propio de todo conjunto (excepto
de sí mismo), y todo conjunto A es subconjunto impropio de sí
mismo.

Si es un subconjunto de , decimos también que es un


superconjunto de , lo que se escribe . Así pues

y también que:

significando que es superconjunto propio de .

Por el principio de identidad, es siempre cierto ,


para todo elemento , por lo que todo conjunto es subconjunto
(y también superconjunto) de sí mismo.

Vemos que es una relación de orden sobre un conjunto de


conjuntos, pues

( es reflexiva)

( es
antisimétrica)

( es transitiva)

Operaciones con conjuntos


Sean y dos conjuntos.

Unión u

Diagrama de Venn que ilustra

Para cada par de conjuntos A y B existe un conjunto Unión de los


dos, que se denota como el cual contiene todos los
elementos de A y de B. De manera más general, para cada
conjunto S existe otro conjunto denotado como de manera
que sus elementos son todos los tales que . De esta
manera es el caso especial donde .Es claro
que el hecho de que un elemento x pertenezca a es
condición necesaria y suficiente para afirmar que x es un
elemento de A o al menos de B. Es decir

Ejemplos: si tenemos los conjuntos

Entonces:
“Diagrama de venn”

Historia:
Los diagramas de Venn reciben el nombre de
su creador, John Venn, matemático y filósofo
británico. Estudiante y más tarde profesor en el
Caius College de la Universidad de
Cambridge, desarrolló toda su producción
intelectual entre esas cuatro paredes.

Venn introdujo el sistema de representación


que hoy conocemos en julio de 1880 con la
publicación de su trabajo titulado « De la
representación mecánica y diagramática de
proposiciones y razonamientos»1 2 3 en el
Philosophical Magazine and Journal of
Science, provocando un cierto revuelo en el
mundo de la lógica formal. Aunque la primera
forma de representación geométrica de
silogismos lógicos se atribuye comúnmente a
Gottfried Leibniz, y fue luego ampliada por George Boole y Augustus
De Morgan, el método de Venn superaba en claridad y sencillez a los
sistemas de representación anteriores, hasta el punto de convertirse
con el tiempo en un nuevo estándar. Venn fue el primero en
formalizar su uso y en ofrecer un mecanismo de generalización para
los mismos.

Los diagramas de Venn se emplean hoy día para enseñar


matemáticas elementales y para reducir la lógica y la Teoría de
conjuntos al cálculo simbólico puro. Se suelen usar también en el aula
diagramas de Venn de dos o tres conjuntos como herramienta de
síntesis, para ayudar a los estudiantes a comparar y contrastar dos o
tres de elementos; en este uso, se incluyen dentro de cada elemento
las características exclusivas, y en las intersecciones, las comunes
con los otros.

Definición:
Los diagramas de Venn son ilustraciones
usadas en la rama de la matemática
conocida como teoría de conjuntos. Estos
diagramas se usan para mostrar
gráficamente la agrupación de cosas
elementos en conjuntos, representando
cada conjunto mediante un círculo o un
óvalo. La posición relativa en el plano de tales círculos muestra la
relación entre los conjuntos. Por ejemplo, si los círculos de los
conjuntos A y B se solapan, se muestra un área común a ambos
conjuntos que contiene todos los elementos contenidos a la vez en A
y en B. Si el círculo del conjunto A aparece dentro del círculo de otro
B, es que todos los elementos de A también están contenidos en B.

Tipos de diagramas de Venn:


Diagrama de dos conjuntos

Conjuntos A y B

Considérese el ejemplo a la derecha: supóngase que el conjunto A (el


círculo naranja) representa, por ejemplo, a todas las criaturas vivas
con solo dos piernas motrices y que el conjunto B (el círculo azul)
contiene a todas las criaturas que pueden volar. El área donde ambos
círculos se superponen (que recibe el nombre de intersección entre A
y B, o intersección A - B) contendría por tanto todas las criaturas que,
al mismo tiempo, pueden volar y tienen sólo dos piernas motrices.

Imaginemos ahora que cada tipo distinto de criatura viva está


representado con un punto situado en alguna parte del diagrama. Los
humanos y los pingüinos estarían dentro del círculo naranja (el
conjunto A) en la parte en la que no se superpone con el círculo azul
(el conjunto B), ya que ambos son bípedos y no pueden volar. Los
mosquitos, que tienen seis piernas motrices y pueden volar, estarían
representados con un punto dentro del círculo azul fuera de la
intersección A - B. Los loros, que tienen dos piernas motrices y
pueden volar, estarían representados por un punto dentro de la
intersección A - B. Cualquier tipo de criatura que ni tuviera dos
piernas ni pudiera volar (como por ejemplo las ballenas o las
serpientes), estaría representado mediante puntos fuera de ambos
círculos.

El diagrama de Venn representado en el ejemplo 1 puede describirse


como la relación entre el conjunto A y el conjunto B. El área
combinada de ambos conjuntos recibe el nombre de unión de los
conjuntos A y B. La unión en este caso contiene todos los tipos de
criaturas que tienen dos piernas, pueden volar, o ambas cosas a la
vez. El área donde los conjuntos A y B se solapan se define como la
intersección de A y B. Contiene todos los tipos de criaturas que
pertenecen a la vez a A y a B, es decir, que tienen dos piernas y
pueden volar.

Diagrama de Venn mostrando todas las intersecciones posibles entre tres


conjuntos A, B y C.

Un diagrama de Venn de dos conjuntos define 4 áreas diferentes (la


cuarta es la exterior), que pueden unirse en 6 posibles
combinaciones:

• A (dos patas)
• A y B (dos patas y vuelan)
• A y no B (dos patas y no vuelan)
• no A y B (más o menos de dos patas, y vuelan)
• no A y no B (ni tienen dos patas ni vuelan)
• B (vuelan)
A veces se incluye un rectángulo alrededor del diagrama de Venn,
que recibe el nombre de universo de discurso (antes se creía en la
existencia de un conjunto universal pero Bertrand Russell descubrió
que con tal concepto el sistema es inconsistente véase paradoja de
Russell). Se usa para representar el conjunto de todas las cosas
posibles. La definición del universo, al igual que la de los conjuntos,
depende del diagrama sobre el que se representa. La idea de
conjunto universal, aunque fue apuntada por el propio Venn, se
atribuye habitualmente a Charles Dodgson, más conocido como Lewis
Carroll.

Diagramas de tres conjuntos


Los diagramas de tres conjuntos fueron los más corrientes elaborados
por Venn en su presentación inicial. Las distintas intersecciones de los
tres conjuntos A, B y C definen SIETE áreas diferentes, cuyas posibles
uniones suponen 256 combinaciones distintas de los tres conjuntos
iniciales.

Más de tres conjuntos


La dificultad de representar más de tres conjuntos mediante
diagramas de Venn (o cualquier otra representación gráfica) es
evidente. Venn sentía afición a la búsqueda de diagramas para más
de tres conjuntos, a los que definía como "figuras simétricas,
elegantes en sí mismas". A lo largo de su vida diseñó varias de estas
representaciones usando elipses, así como indicaciones para la
creación de diagramas con cualquier cantidad de curvas, partiendo
del diagrama de tres círculos.

Diagramas de Venn de Edwards


A. W. F. Edwards diseñó representaciones para diagramas de Venn de
más de tres conjuntos, proyectando el diagrama sobre una esfera. Se
pueden representar fácilmente tres conjuntos tomando tres
hemisferios en ángulos rectos (x=0, y=0 y z=0). Un cuarto conjunto
se puede representar tomando una curva similar a la juntura de una
pelota de tenis que suba y baje alrededor del ecuador. Los conjuntos
resultantes pueden proyectarse de nuevo sobre el plano para mostrar
diagramas de engranaje, con cantidades cada vez mayores de
dientes. Edwards ideó estos diagramas mientras diseñaba la ventana
acristalada en memoria de Venn que hoy adorna el comedor de su
colegio.
Diagrama para Diagrama para Diagrama para Diagrama para
tres conjuntos cuatro conjuntos cinco conjuntos seis conjuntos

Otros diagramas
Los diagramas de Edwards son topológicamente equivalentes a los
diagramas diseñados por Branko Grünbaum, que se basaban en
polígonos intersecados, con cantidades crecientes de lados. Phillip
Smith ideó diagramas similares de n conjuntos usando curvas
senoidales en ecuaciones como y=sin(2ix)/2i, 0 ≤i ≤n-2. Por su parte,
Lewis Carroll diseñó un diagrama de cinco conjuntos.

Diagramas de Euler

Diagrama de Euler

Los diagramas de Euler son similares a los de Venn, pero no necesitan


todas las posibles relaciones. Los diagramas de Euler permiten
representar inclusión de una clase en otra. Por ejemplo, en el
representado a la derecha un conjunto (el A) está totalmente incluido
en otro (el B), mientras que otro (el C) no tiene ninguna relación con
los dos anteriores.

Los diagramas de Euler anteceden a los diagramas de Venn,7 pero


son distintos. Fueron introducidos por Euler para ayudar en la
comprensión. John Venn intenta rectificar algunas deficiencias a
través de los Diagramas de Venn.

Supongamos que el conjunto A representa todos los tipos de queso


que pueden encontrarse en el mundo, y el B representa a todos los
comestibles existentes en el mundo. Según el diagrama, se ve
claramente que todos los quesos son comestibles, pero no todos los
comestibles son quesos. Si definimos el conjunto C como el de las
cosas hechas de metal, el diagrama nos permite representar de
forma evidente dos afirmaciones adicionales: los comestibles no
están hechos de metal, y las cosas hechas de metal no son
comestibles.

Diagrama de Johnston

Diagrama de Johnston para la expresión ni A ni B son ciertas

Los diagramas de Johnston se usan para ilustrar afirmaciones lógicas


como ni A ni B son ciertas, y son una forma visual de ilustrar tablas de
verdad. Pueden ser idénticos en apariencia a diagramas de Venn,
pero no representan conjuntos de elementos.

Diagrama de Peirce
Los diagramas de Peirce, creados por Charles Peirce, son extensiones
de los diagramas de Venn que incluyen información sobre
afirmaciones existenciales, disyuntivas, de probabilidades y otras
relaciones.8
Teoría del binomio
la teoría del binomio proporciona la expansión de las potencias de
una suma.

(1)

Donde

De manera que sustituyendo se obtiene:

Como ejemplo, para n=2, n=3, n=4:

(2)

Para obtener la expansión de las potencias de una resta, basta con


tomar -y en lugar de y en el caso anterior. La expresión (2) queda de
la siguiente forma:

Teorema generalizado del binomio (Newton) [editar]Isaac Newton


generalizó la fórmula para tomar otros exponentes, considerando una
serie infinita:

(3)

Donde r puede ser cualquier número complejo (en particular, r puede


ser cualquier número real, no necesariamente positivo ni entero), y
los coeficientes están dados por:

(el k = 0 es un producto vacío y por lo tanto, igual a 1; en el caso de k


= 1 es igual a r, ya que los otros factores (r − 1), etc., no aparecen en
ese caso).

Una forma útil pero no obvia para la potencia recíproca:

La suma en (3) converge y la igualdad es verdadera siempre que los


números reales o complejos x e y sean suficientemente cercanos, en
el sentido de que el valor absoluto | x/y | sea menor a uno.
Diagrama de árbol
Definición:
Un diagrama de árbol es una representación gráfica que muestra los
resultados posibles de una serie de experimentos y sus respectivas
probabilidades.
Un diagrama de árbol es una representación gráfica de un
experimento que consta de r pasos, donde cada uno de los pasos
tiene un número finito de maneras de ser llevado a cabo.

Ejemplos:
1. Un médico general clasifica a sus pacientes de acuerdo a:
su sexo (masculino o femenino), tipo de sangre (A, B, AB u
O) y en cuanto a la presión sanguínea (Normal, Alta o
Baja). Mediante un diagrama de árbol diga en cuantas
clasificaciones pueden estar los pacientes de este médico?
N
Solución: A
A B
N
B A
B
M AB N
A
O B

A
N
F B A
B
AB
B
O A

Si contamos todas las ramas terminales, nos damos cuenta


que el número de clasificaciones son 2 x 4 x 3 = 24 mismas
que podemos enumerar;
MAN, MAA, MAB, MBN, MBA, MBB, etc, etc.

Técnicas de conteo
Definición:

Las técnicas de conteo son aquellas que son usadas para


enumerar eventos difíciles de cuantificar.

Se les denomina técnicas de conteo a: las combinaciones,


permutaciones y diagrama de árbol, las que a continuación se
explicarán y hay que destacar que éstas nos proporcionan la
información de todas las maneras posibles en que ocurre un
evento determinado.

Las bases para entender el uso de las técnicas de conteo son


el principio multiplicativo y el aditivo, los que a continuación
se definen y se hace uso de ellos.

Ejemplos:

Ejemplos en los que definitivamente haremos uso de las técnicas de conteo serían:

-¿Cuántas comisiones pro limpieza del instituto se pueden formar si hay 150
alumnos que desean ayudar en esta tarea y se desea formar comisiones de ocho
alumnos?

-¿Cuántas representaciones de alumnos pueden ser formadas a) si se desea que


estas consten solo de alumnos de Ingeniería Química?, b) se desea que el presidente
sea un químico?, c) se desea que el presidente y tesorero sean químicos? Para todos
los casos, se desea que las representaciones consten de once alumnos.

-¿Cuántas maneras tiene una persona de seleccionar una lavadora, una batidora y
dos licuadoras, si encuentra en una tienda 8 modelos diferentes de lavadoras, 5
modelos diferentes de batidoras y 7 modelos diferentes de licuadoras?
Probabilidad para eventos
Definición:

Para calcular la probabilidad de eventos es necesario que éstos se


comporten de una manera más o menos estable. Precisamente, se
echa mano de la regularidad estadística, que es la propiedad de los
fenómenos aleatorios, y que consiste en que al aumentar el número
de repeticiones de un experimento en condiciones prácticamente
constantes, la frecuencia relativa de ocurrencia para cada evento
tiende a un valor fijo.

Sin embargo, al momento de definir la probabilidad de un evento


podemos tomar en cuenta los siguientes criterios:

1. La probabilidad subjetiva de un evento se la asigna la persona que


hace el estudio, y depende del conocimiento que esta persona tenga
sobre el tema. Precisamente por su carácter de subjetividad no se
considera con validez científica, aunque en la vida diaria es de las
más comunes que se utilizan al no apoyarse más que en el sentido
común y los conocimientos previos, y no en resultados estadísticos.

2. La probabilidad frecuencial de un evento es el valor fijo al que


tienden las frecuencias relativas de ocurrencia del evento de acuerdo
a la regularidad estadística. Esta definición sería la más real, pero
proporciona probabilidades aproximadas, es decir, proporciona
estimaciones y no valores reales. Además, los resultados son a
posteriori, pues se necesita realizar el experimento para poder
obtenerlo.

3. La probabilidad clásica de un evento E, que denotaremos por P (E),


se define como el número de eventos elementales que componen al
evento E, entre el número de eventos elementales que componen el
espacio muestra:
Es la definición más utilizada porque supone de antemano, y se
necesita como requisito indispensable, que todos los eventos
elementales tienen la misma probabilidad de ocurrir.

Eventos complementarios
Dos eventos se denominan complementarios cuando su unión da el
espacio muestral y su intersección es vacía. La suma de las
probabilidades de dos eventos complementarios es igual a 1.

Se denomina Ac al evento complementario del evento A.

Entonces A y B son eventos complementarios.

EJEMPLO:

Lanzar un dado.

Omega = {1, 2, 3, 4, 5, 6}

Sale par:

E1 = {2, 4 ,6}

Sale impar.

E2 = {1, 3, 5}

Sale menor que 3.

E3 = {1,2}

Sale 3 o más.
E4 = {3, 4, 5,6}

E1 y E2 son eventos complementarios y E3 y E4 son también eventos


complementarios.

Sale 5 El = {5} No sale 5 E2 = ( 1, 2, 3,4,6} Por tanto El y E2 serán


también eventos complementarios.

Principios de la suma y multiplicación


Principio de la multiplicación: Si una primera operación puede
realizarse de m maneras y una segunda operación puede realizarse
de n maneras, entonces ambas operaciones pueden efectuarse juntas
de mn maneras.

Principio de la suma: Si una primera operación puede realizarse de


m maneras y una segunda operación puede realizarse de n maneras,
entonces una operación o la otra pueden efectuarse de m + n
maneras.

El principio de multiplicación requiere que dos eventos A y B sean


independientes.

Dos eventos A y B son independientes si la ocurrencia de una no


afecta la probabilidad de ocurrencia del otro.

La regla especial se escribe: P(A y B) = P(A) * P(B).

Ejemplo

Chris posee dos inventarios independientes uno de otro.

La probabilidad de que el inventario A aumente su valor el próximo


año es .5. La probabilidad de que el B aumente el suyo es .7.

¿Cuál es la probabilidad de que ambos aumenten su valor el próximo


año?
P(A y B) = (.5)(.7) = .35.

¿Cuál es la probabilidad de que al menos uno aumente su valor el


próximo año (esto implica que cualquiera de los dos o ambos
aumenten)?

Así, P(al menos uno) = (.5)(.3) + (.5)(.7) + (.7)(.5) = .85.

Permutación
Una permutación es una combinación en donde el orden es
importante. La notación para permutaciones es P(n,r) que es la
cantidad de permutaciones de “n” elementos si solamente se
seleccionan “r”.

Ejemplo: Si nueve estudiantes toman un examen y todos obtienen


diferente calificación, cualquier alumno podría alcanzar la calificación
más alta. La segunda calificación más alta podría ser obtenida por
uno de los 8 restantes. La tercera calificación podría ser obtenida por
uno de los 7 restantes.

La cantidad de permutaciones posibles sería: P(9,3) = 9*8*7 = 504


combinaciones posibles de las tres calificaciones más altas.

Combinación
Una combinación es un arreglo donde el orden NO es importante. La
notación para las combinaciones es C(n,r) que es la cantidad de
combinaciones de “n” elementos seleccionados, “r” a la vez. Es igual
a la cantidad de permutaciones de “n” elementos tomados “r” a la
vez dividido por “r” factorial. Esto sería P(n, r)/r! en notación
matemática.

Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve,


¿cuantas combinaciones de cinco cartas habría?
La cantidad de combinaciones posibles sería: P(9,5)/5! = (9*8*7*6*5)/
(5*4*3*2*1) = 126 combinaciones posibles.

Probabilidad condicionada
Probabilidad condicionada es la probabilidad de que ocurra un evento
A, sabiendo que también sucede otro evento B. La probabilidad
condicional se escribe P(A|B), y se lee «la probabilidad de A dado B.

No tiene por qué haber una relación causal o temporal entre A y B. A


puede preceder en el tiempo a B, sucederlo o pueden ocurrir
simultáneamente. A puede causar B, viceversa o pueden no tener
relación causal. Las relaciones causales o temporales son nociones
que no pertenecen al ámbito de la probabilidad. Pueden desempeñar
un papel o no dependiendo de la interpretación que se le dé a los
eventos.

El condicionamiento de probabilidades puede lograrse aplicando el


teorema de Bayes.

Dado un espacio de probabilidad (Ω,F,P) y dos eventos (o sucesos)


con P(B) > 0, la probabilidad condicional de A dado B esta
definida como:
Eventos Independientes
Cuando A y B son dos eventos con probabilidades positivas, hemos
visto que en general la probabilidad condicional del evento B dado el
evento A es diferente de la probabilidad del evento B. Sin embargo,
cuando se tiene la igualdad: P(B/A) = P(B) es de especial importancia
porque esto quiere decir que el evento B no depende o es
independiente del evento A. Es decir, no importa si ocurrió o no el
evento A puesto que la ocurrencia o no de A no afecta al evento B.

Si B es independiente de A, entonces A es independiente de B.

Demostración: De la definición de probabilidad condicional se tiene

Despejando [3.3]

Como B es independiente de A, se tiene: P(B/A) = P(B) y sustituyendo


en [3.3] nos conduce a la expresión

Por lo tanto, , de donde , lo que nos


indica que A es independiente de B.

Teorema de Bayes
El teorema de Bayes, enunciado por Thomas Bayes, en la teoría de
la probabilidad, es el resultado que da la distribución de
probabilidad condicional de un evento aleatorio A dado B en
términos de la distribución de probabilidad condicional del evento
B dado A y la distribución de probabilidad marginal de sólo A.

Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos mutuamente


excluyentes y exhaustivos, y tales que la probabilidad de cada uno de
ellos es distinta de cero. Sea B un suceso cualquiera del que se
conocen las probabilidades condicionales P(B | Ai). Entonces, la
probabilidad P(Ai | B) viene dada por la expresión:
Donde:

P(Ai) son las probabilidades a priori.

P(B | Ai) es la probabilidad de B en la hipótesis Ai.

P(Ai | B) son las probabilidades a posteriori.

Esto se cumple

El teorema de Bayes es válido en todas las aplicaciones de la teoría


de la probabilidad. Sin embargo, hay una controversia sobre el tipo de
probabilidades que emplea. En esencia, los seguidores de la
estadística tradicional sólo admiten probabilidades basadas en
experimentos repetibles y que tengan una confirmación empírica
mientras que los llamados estadísticos bayesianos permiten
probabilidades subjetivas. El teorema puede servir entonces para
indicar cómo debemos modificar nuestras probabilidades subjetivas
cuando recibimos información adicional de un experimento. La
estadística bayesiana está demostrando su utilidad en ciertas
estimaciones basadas en el conocimiento subjetivo a priori y el hecho
de permitir revisar esas estimaciones en función de la evidencia
empírica es lo que está abriendo nuevas formas de hacer
conocimiento. Una aplicación de esto son los clasificadores
bayesianos que son frecuentemente usados en implementaciones de
filtros de correo basura o spam, que se adaptan con el uso.

Como observación, se tiene y su demostración


resulta trivial.