Está en la página 1de 7

BELÉN HERNÁNDEZ FERNÁNDEZ ESTADÍSTICA I

2ºA GITT+BA

TEMA 2. PROBABILIDAD

1. Introducción: Conceptos generales


2. Espacio muestral y sucesos
2.1. Definiciones
2.2. Sucesos. Operaciones básicas entre sucesos.
A. Sucesos
B. Operaciones básicas
C. Propiedades
2.3. Diagrama de árbol.
3. La función de probabilidad
3.1. Introducción
3.2. Axiomas de probabilidad. Consecuencias y propiedades.
3.3. Métodos de asignación de probabilidades
4. Análisis combinatorio
5. Probabilidad condicionada
6. Independencia
6.1. Sucesos dependientes e independientes
6.2. Conceptos de independencia entre más de dos sucesos
7. Teorema de la probabilidad total y Teorema de Bayes
8. Variables aleatorias

1. INTRODUCCIÓN

La Estadística es la Ciencia de la
· Sistematización, recogida, ordenación y presentación de los datos (descriptiva) referentes a un fenómeno
que presenta variabilidad o incertidumbre para su estudio metódico, con objeto de
· deducir las leyes que rigen esos fenómenos (probabilidad),
· y poder de esa forma hacer previsiones sobre los mismos, tomar decisiones u obtener conclusiones
(inferencia).

El cálculo de probabilidades nos proporciona las reglas para el estudio de experimentos con un componente
aleatorio.

2. ESPACIO MUESTRAL Y SUCESOS

2.1. DEFINICIONES

• EXPERIMENTO → proceso de observar una característica (lanzar una moneda tres veces y observar el número de
caras, medir la corriente en un cable de cobre o contar el número de llamadas que llegan a una centralita en unas
horas).

• EXPERIMENTO ALEATORIO → si se verifican las siguientes condiciones:


1. Puede repetirse indefinidamente, siempre en las mismas condiciones.
2. Antes de realizarlo no se puede predecir el resultado que se va a obtener
3. El resultado que se obtenga, pertenece a un conjunto previamente conocido de posibles resultados

• ESPACIO MUESTRAL (S,E,Ω) → es el conjunto de todos los resultados posibles cuando se realiza un experimento
aleatorio cuyos diversos resultados son posibles (en un dado Ω={1,2,3,4,5,6}; en una quiniela Ω={1,X,2}).

1
Suceso elemental Suceso compuesto
2.2. SUCESOS. OPERACIONES BÁSICAS ENTRE DIAGRAMAS DE ÁRBOL.

A. SUCESOS

Se llama suceso a un subconjunto de resultados


- Suceso elemental: siempre ocurre uno de ellos, son mutuamente excluyentes
- Suceso compuesto: uniones de sucesos elementales

Suceso seguro es aquel que siempre ocurre al realizar el experimento


- Suceso imposible es aquel que nunca ocurre como resultado del experimento (∅)
- Dos sucesos A y B son incompatibles si no pueden ocurrir a la vez (𝐴 ∩ 𝐵 = ∅)

B. OPERACIONES BÁSICAS

OPERACIÓN DESCRIPCIÓN GRÁFICO

Se llama suceso
contrario(complementario) de un
SUCESO CONTRARIO suceso A, A’ o 𝐴̅ , al formado por
̅)
(𝑨’ , 𝑨 los elementos que no están en A

Se llama suceso unión de A y B, AUB,


SUCESO UNIÓN al formado por los resultados
(𝑨 ∪ 𝑩) experimentales que están en A o en
B (incluyendo los que están en
ambos).

Se llama suceso intersección de Ay


SUCESO INTERSECCIÓN B, A∩B o simplemente AB, al
(𝑨𝑩; 𝑨 ∩ 𝑩) formado por los resultados
experimentales que están
simultáneamente en Ay B

Se llama suceso diferencia de un


suceso A y un suceso B al formado
SUCESO DIFERENCIA por los elementos que están en A
(𝑨 − 𝑩) pero no están en B.
Se representa como
𝑨−𝑩 =𝑨∩𝑩 ̅

Se llama suceso diferencia simétrica


SUCESO DIFRENCIA SIMÉTRICA entre un suceso A y un suceso B al
(𝑨∆𝑩) formado por los elementos que
están en A o en B pero no en los dos
simultáneamente.

Se dice que el suceso A está


SUCESOS CONTENIDOS contenido en el suceso B si todos los
(𝑨 ⊂ 𝑩) resultados que están contenidos en
A, lo están a su vez en B.

2
C. PROPIEDADES

UNIÓN INTERSECCIÓN
CONMUTATIVA 𝐴∪𝐵 =𝐵∪𝐴 𝐴∩𝐵 =𝐵∩𝐴
ASOCIATIVA 𝐴 ∪ (𝐵 ∪ 𝐶) = (𝐴 ∪ 𝐵) ∪ 𝐶 𝐴 ∩ (𝐵 ∩ 𝐶) = (𝐴 ∩ 𝐵) ∩ 𝐶
IDEMPOTENTE 𝐴∪𝐴 = 𝐴 𝐴∩𝐴 = 𝐴
SIMPLIFICACIÓN 𝐴 ∪ (𝐵 ∩ 𝐴) = 𝐴 𝐴 ∩ (𝐵 ∪ 𝐴) = 𝐴
DISTRIBUTIVA 𝐴 ∪ (𝐵 ∩ 𝐶) = (𝐴 ∪ 𝐵) ∩ (𝐴 ∪ 𝐶) 𝐴 ∩ (𝐵 ∪ 𝐶) = (𝐴 ∩ 𝐵) ∪ (𝐴 ∩ 𝐶)
ELEMENTO NEUTRO 𝐴∪∅=𝐴 𝐴∩𝐸 =𝐴
ABSORCIÓN 𝐴∪𝐸 =𝐸 𝐴∩∅=∅

**PROPIEDAD DEL COMPLEMENTARIO: ̅̅̅̅̅


(𝑨̅) = 𝑨

Hay ciertas propiedades de la unión, intersección y suceso contrario que son conocidas bajo leyes de Morgan.

LEYES DE MORGAN ̅̅̅̅̅̅̅̅̅̅


(𝐴 ∩ 𝐵) = 𝐴̅ ∪ 𝐵̅ ̅̅̅̅̅̅̅̅̅̅
(𝐴 ∪ 𝐵) = 𝐴̅ ∩ 𝐵̅

2.3. DIAGRAMA EN ÁRBOL

A veces, suele ser útil utilizar un gráfico de árbol para hallar el espacio muestral de un determinado experimento aleatorio.

El diagrama de árbol de la figura corresponde al experimento aleatorio de lanzar una moneda tres veces (o tres monedas) y
considerar el resultado obtenido.

El espacio muestral se obtiene fácilmente sin más que ir recorriendo todas las ramas y es E = {CCC, CC+, C+C, C++,
+CC, +C+, ++C, +++}

3. LA FUNCIÓN DE PROBABILIDAD

3.1. INTRODUCCIÓN

Se llama probabilidad a cualquier función, P, que asigna a cada suceso Aun valor numérico P(A), verificando las
siguientes reglas (axiomática de Kolmogorov).

3
3.2. AXIOMAS DE LA PROBABILIDAD. CONSECUENCIAS Y PROPIEDADES.

Existen unos axiomas que no asignan probabilidades a sucesos, pero facilitan el cálculo de probabilidades de unos sucesos a
partir de la probabilidad de otros.

AXIOMA 1 0 ≤ 𝑃(𝐴) ≤ 1; ∀𝐴 ⊂ Ω

AXIOMA 2 𝑃(𝐸) = 1

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) 𝑠𝑖 𝐴 ∩ 𝐵 = ∅; ∀𝐴, 𝐵 ⊂ Ω

AXIOMA 3
5 5

𝑃 [⋃ 𝐴𝑖 ] = ∑ 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1

CONSECUENCIAS DE LOS AXIOMAS

1 𝑃[∅] = 0
2 𝑃[𝐴] = 1 − 𝑃[𝐴̅]
3 𝑆𝑖 𝐴 ⊂ 𝐵, 𝑠𝑒 𝑐𝑢𝑚𝑝𝑙𝑒 𝑞𝑢𝑒 𝑃[𝐴] ≤ 𝑃[𝐵]

PROPIEDADES

1 𝑃[𝐴 ∪ 𝐵] = 𝑃[𝐴] + 𝑃[𝐵] − 𝑃[𝐴 ∩ 𝐵]


2 𝑃[𝐴 ∪ 𝐵 ∪ 𝐶] = 𝑃[𝐴] + 𝑃[𝐵] + 𝑃[𝐶] − 𝑃[𝐴 ∩ 𝐵] − 𝑃[𝐴 ∩ 𝐶] − 𝑃[𝐵 ∩ 𝐶] + 𝑃[𝐴 ∩ 𝐵 ∩ 𝐶]
3 𝑃[𝐴 − 𝐵] = 𝑃[𝐴] − 𝑃[𝐴 ∩ 𝐵]
4 𝑃[𝐴∆𝐵] = 𝑃[𝐴] + 𝑃[𝐵] − 2 · 𝑃[𝐴 ∩ 𝐵]

3.3. MÉTODOS DE ASIGNACIÓN DE PROBABILIDADES

Regla de Laplace: equiprobabilidad

(1) Se puede utilizar para experimentos con un espacio muestral finito en el que existen una serie de resultados posibles,
todos ellos son compatibles entre sí.

(2) Está basado en el principio de razón insuficiente: si a priori no existe ninguna razón para suponer que un resultado se
puede presentar con más probabilidad que los demás, podemos considerar que todos los resultados tienen la misma
probabilidad de ocurrencia (son equiprobables).

(3) Dado un suceso A que contiene f sucesos elementales, su probabilidad será

𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑒𝑛 𝐴 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠(𝑓) 1


𝑃[𝐴] = = = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑐𝑎𝑑𝑎 𝑠𝑢𝑐𝑒𝑠𝑜 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑎𝑙
𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 (𝑁) 𝑁

4. ANÁLISIS COMBINATORIO

La combinatoria nos ayuda a calcular el número de reordenaciones de n objetos tomados de k en k.

4
SIN REMPLAZAMIENTO CON REMPLAZAMIENTO

IMPORTA ORDEN 𝑛!
𝑉𝑛,𝑘 = = 𝑛 · (𝑛 − 1) · (𝑛 − 2) … . (𝑛 − 𝑘 + 1) 𝑉𝑅𝑛,𝑘 = 𝑛𝑘
(VARIACIONES) (𝑛 − 𝑘)!

NO IMPORTA EL ORDEN 𝑛 𝑛! 𝑛+𝑘−1 (𝑛 + 𝑘 − 1)!


𝐶𝑛,𝑘 = ( ) = 𝐶𝑛,𝑘 = ( )=
(COMBINACIONES) 𝑘 𝑘! · (𝑛 − 𝑘)! 𝑘 𝑘! · (𝑛 − 1)!

(PERMUTACIONES) 𝑃𝑛 = 𝑛! = 𝑛 · (𝑛 − 1) · (𝑛 − 2) · … · 2 · 1

❖ FRECUENTISTA (objetiva)

Probabilidad de un suceso es la frecuencia relativa (%) de veces que ocurriría el suceso al realizar un experimento repetidas
veces.
En un experimento aleatorio cuando el número de veces que se repite aumenta, la frecuencia relativa

𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑒 𝐴


𝑓(𝐴) =
𝑁

converge hacia una cantidad que llamamos probabilidad 𝑃[𝐴] = lim 𝑓(𝐴)
𝑁→∞

❖ SUBJETIVA (bayesiana)

Grado de certeza que se posee sobre un suceso, basada en experiencias previas. Es personal.
La probabilidad depende del grado de información disponible

5. PROBABILIDAD CONDICIONADA

Se centra el foco de atención en el hecho que se sabe que ha ocurrido el evento B. El espacio muestral de interés se ha
reducido sólo a aquellos resultados que definen la ocurrencia del evento B Entonces P(A/B) mide la probabilidad relativa
de A con respecto al espacio reducido B.

𝑃[𝐴 ∩ 𝐵]
𝑃[𝐴⁄𝐵 ] = (𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝐴 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛𝑎𝑑𝑎 𝑎 𝐵)
𝑃[𝐵]

Se llama probabilidad de A condicionada a B, o probabilidad de A sabiendo que pasa B.

La definición de probabilidad condicionada permite calcular la probabilidad de la intersección de dos sucesos en función
de las probabilidades condicionadas

𝑃[𝐴 ∩ 𝐵] = 𝑃[𝐵] · 𝑃[𝐴⁄𝐵 ] = 𝑃[𝐴] · 𝑃[𝐵⁄𝐴]


Se puede generalizar:

𝐴2 𝐴 𝐴
𝑃[𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛 ] = 𝑃[𝐴1 ] · 𝑃 [ ⁄𝐴 ] · 𝑃 [ 3⁄𝐴 ∩ 𝐴 ] · … · 𝑃 [ 𝑛⁄𝐴 ∩ 𝐴 ∩. . .∩ 𝐴 ]
1 1 2 1 2 𝑛−1

PROPIEDADES

1 𝑃[𝐵⁄𝐵 ] = 1

2 𝑃 [∅⁄𝐵 ] = 0

3 𝑃[𝐴⁄𝐵] = 1 − 𝑃[𝐵⁄𝐴]

4 𝑆𝑖 𝐴 ⊂ 𝐶, 𝑠𝑒 𝑐𝑢𝑚𝑝𝑙𝑒 𝑞𝑢𝑒 𝑃[𝐴⁄𝐵] ≤ 𝑃[𝐶⁄𝐵]

5 𝑃[𝐴 ∪ 𝐶⁄𝐵] = 𝑃[𝐴⁄𝐵] + 𝑃[𝐶⁄𝐵 ] − 𝑃[𝐴 ∩ 𝐶⁄𝐵]

5
6. INDEPENDENCIA

6.1. SUCESOS DEPENDIENTES E INDEPENDIENTES

Dos sucesos son independientes si el que ocurra uno no añade información sobre el otro.

En lenguaje probabilístico:

A independiente de B ↔ 𝑷(𝑨|𝑩) = 𝑷(𝑨) ↔ 𝑷(𝑩|𝑨) = 𝑷(𝑩) ↔ 𝐏(𝐀|𝐁) = 𝐏(𝐀) 𝐏(𝐁)

𝑃[𝐴𝑖1 ∩ 𝐴𝑖2 ∩ … ∩ 𝐴𝑖𝑘 ] = 𝑃[𝐴𝑖1 ] · 𝑃[𝐴𝑖2 ] · … · 𝑃[𝐴𝑖𝑘 ]

6.2. CONCEPTOS DE INDEPENDENCIA ENTRE MÁS DE DOS SUCESOS

o Sucesos independientes por parejas.


Se dice que los sucesos A1, A2 ,…, An son independientes por parejas si se cumple que

𝑃[𝐴𝑖 ∩ 𝐴𝑗 ] = 𝑃[𝐴𝑖 ] · 𝑃[𝐴𝑗 ] ∀𝑖 ≠ 𝑗

o Sucesos mutuamente independientes


Se dice que los sucesos A1, A2,…, An son mutuamente independientes o completamente independientes si se cumple
que:

(1) Son independientes por parejas


(2) 𝑃[𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛 ] = 𝑃[𝐴1 ] · 𝑃[𝐴2 ] · … · 𝑃[𝐴𝑛 ]

Obviamente, la independencia mutua conlleva a la independencia por parejas, pero no al contrario

7. TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

▪ SISTEMA EXHAUSTIVO Y EXCLUYENTE DE SUCESOS

Son una colección de sucesos A1, A2 A3,…, An tales que la unión de todos ellos forman el espacio muestral, y sus intersecciones
son disjuntas (no tienen ningún elemento en común).

▪ “DIVIDE Y VENCERÁS”

Todo suceso B, puede ser descompuesto en componentes de dicho sistema. Nos permite descomponer el problema B en
subproblemas más simples.

𝐵 = (𝐵 ∩ 𝐴1 ) 𝑈 (𝐵 ∩ 𝐴2 ) 𝑈 ( 𝐵 ∩ 𝐴3 ) 𝑈 ( 𝐵 ∩ 𝐴4 )

6
TEOREMA DE LA PROBABILIDAD TOTAL

“Si conocemos la probabilidad de B en cada uno de los componentes de un sistema exhaustivo y


excluyente de sucesos, entonces podemos calcular la probabilidad de B.”

𝑃[𝐵] = 𝑃[𝐵 ∩ 𝐴1 ] + 𝑃[𝐵 ∩ 𝐴2 ] + 𝑃[𝐵 ∩ 𝐴3 ] + 𝑃[𝐵 ∩ 𝐴4 ] = 𝑃[𝐵|𝐴1 ] · 𝑃[𝐴1 ] + 𝑃[𝐵|𝐴2 ] · 𝑃[𝐴2 ] + ⋯

TEOREMA DE BAYES

“Si conocemos la probabilidad de B en cada uno de los componentes de un sistema exhaustivo y


excluyente de sucesos, entonces si ocurre B, podemos calcular la probabilidad (a posteriori) de
ocurrencia de cada Ai.”

𝐴 𝑃[𝐵∩𝐴 ]
𝑃 [ 𝑖⁄𝐵] = 𝑃[𝐵] 𝑖 donde P[B] se puede calcular usando el teorema de la probabilidad total.

8. VARIABLES ALEATORIAS

En ocasiones, describir todos los posibles resultados de un experimento aleatorio no es suficiente

LANZAR UNA MONEDA 3 VECES {(CCC), (CCX), …}


LANZAR UN DADO DOS VECES {(1,1,), (1,2), (1,3), …..}

A veces es útil asociar un número a cada resultado del experimento por lo que definimos una variable y no conocemos el
resultado del experimento antes de realizarlo. Esa variable es la variable aleatoria.

Las variables aleatorias se representan por letras mayúsculas X, Y, Z, …..

𝑥 = 1 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑋
Los posibles valores que pueden tomar la variable se representan con letras minúsculas { 𝑦 = 2.3 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑌
𝑧 = −5.7 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑍

El RANGO de una variable aleatoria es el conjunto de valores que puede tomar la variable.
Se pueden clasificar en:

 VARIABLES DISCRETAS: aquellas en las que el rango es finito o infinito numerable. Frecuentemente cuentan el número
de veces que ocurre algo (número de defectos en la superficie de un cristal, piezas defectuosas en una muestra,
número de bits transmitidos que se reciben correctamente).

 VARIABLES CONTINUAS: aquellas en las que el rango es un intervalo de números reales. Frecuentemente miden una
magnitud (corriente eléctrica, longitud, temperatura, peso).

También podría gustarte