Está en la página 1de 49

Unidad II.

Probabilidad
M.C. Nancy Toriz Robles
2020 -2021 II Semestre
Objetivo

Identificar y
manejar variables
aleatorias y sus
distribuciones con
aplicación en el
campo de acción
de la agroindustria
Contenido

1. Introducción a la probabilidad.

2. Variables aleatorias y sus


distribuciones.

3. Modelos probabilísticos.

4. Distribuciones derivadas del


muestreo.
1. Introducción a la
probabilidad.
Primero se iniciará con una breve introducción a la teoría de
conjuntos, herramienta muy útil en el estudio de la teoría de
probabilidades.
Se abordarán conceptos básicos.
Probabilidad

Estrategias
Gottfried Leibniz

Blaise Pascal
James Bernoulli

Pierre de Fermat
¿Qué es la Probabilidad?

¿Dónde se aplica?
Teoría que estudia fenómenos naturales con el fin de descubrir
regularidades en la ocurrencia de los mismos
Probabilidad
 Enfoque Clásico

 Si la probabilidad de un evento 𝑨 se define como la frecuencia


relativa de 𝑨 en el espacio muestral 𝑼 y se denota como 𝑷 𝑨 .

 Es decir, si un evento puede ocurrir de 𝒉 maneras diferentes de un


número total de 𝒏 maneras posibles, todos ellos son igualmente
posibles y mutuamente excluyentes.
# 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔 𝒅𝒆 𝑨 𝒉
𝑷 𝑨 = =
# 𝒄𝒂𝒔𝒐𝒔 𝒕𝒐𝒕𝒂𝒍𝒆𝒔 𝒅𝒆 𝑼 𝒏
 Es la definición más antigua y se atribuye al matemático francés
Pierre Laplace (1749- 1827).

 También se conoce como probabilidad a priori, pues para


calcularla, es necesario conocer, antes de realizar el experimento
aleatorio, el espacio muestral y el número de resultados o sucesos
elementales que entran a formar parte del suceso.
Experimento
¿Cuántas de ellas caen de punta o de cabeza?
¿Tienen las mismas posibilidades?
Probabilidad
 En muchas situaciones practicas, los posibles resultados de un
experimento no son igualmente probables, por ejemplo:

 En una fabrica, las oportunidades de observar un articulo


defectuoso normalmente será mucho más rata que
observar un artículo bueno.
Enfoque Clásico

 Enfoque Frecuentista

 Si después de n repeticiones de un experimento, donde n es


muy grande, se observar que un evento ocurre h veces,
entonces la probabilidad es:
# 𝒅𝒆 𝒗𝒆𝒄𝒆𝒔 𝒒𝒖𝒆 𝒐𝒄𝒖𝒓𝒓𝒊𝒐 𝑨 𝒉
𝑷 𝑨 = =
número de veces que se repitió el experimento 𝒏
Teoremas de la Probabilidad
 Para todo evento 𝑨:

𝟎 ≤ 𝑷(𝑨) ≤ 𝟏

 La probabilidad de un evento imposible es cero.

𝑷(𝝓) = 𝟎

 Si 𝑨𝟏 ⊂ 𝑨𝟐 , entonces:

𝑷 𝑨𝟏 ) ≤ 𝑷(𝑨𝟐 y 𝑷 𝑨𝟐 − 𝑨𝟏 = 𝑷 𝑨𝟐 − 𝑷 𝑨𝟏

 Si 𝐴′ es el complemento de 𝑨, entonces:

𝑷 𝑨′ = 𝟏 − 𝑷 𝑨

 Si 𝑨 = 𝑴, el espacio muestral, entonces:

𝑷 𝑨 = 𝑷(𝑴) = 𝟏
Teoremas de la Probabilidad
 Dos eventos 𝑨𝟏 y 𝑨𝟐 son mutuamente excluyentes o disjuntos
si 𝑨𝟏 ∩ 𝑨𝟐 = 𝝓; es decir, si 𝑨𝟏 y 𝑨𝟐 no tienen elementos en
común.

 Para una serie de eventos mutuamente excluyentes 𝐴1 , 𝐴2 ,


… , 𝐴𝑘 :

𝑷 𝑨𝟏 ∪ 𝑨𝟐 ∪ ⋯ ∪ 𝑨𝒌 = 𝑷 𝑨𝟏 + 𝑷 𝑨𝟐 + ⋯ + 𝑷 𝑨𝒌
𝒌
𝒌
𝑷 ራ 𝑨𝒊 = ෍ 𝑷 𝑨𝒊
𝒊=𝟏
𝒊=𝟏

 Si A y B son dos eventos cualesquiera, entonces:

𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∧ 𝑩)


Actividad 3
Probabilidad Condicional
 A menudo sucede que la ocurrencia de un evento depende
de la ocurrencia de otro.
 Por ejemplo, es razonable pensar que la calificación de un
estudiante en bioquímica depende de la calificación de química
de biomoléculas.

Probabilidad condicional
 Sea 𝑨 y 𝑩 dos eventos en un espacio muestral 𝑼. Si
𝑷 𝑨 , 𝑷(𝑩) ≠ 𝟎, se define la probabilidad condicional como:

𝑷(𝑨 ∩ 𝑩)
𝑷 𝑩𝑨 =
𝑷(𝑨)

𝑷(𝑨 ∩ 𝑩)
𝑷 𝑨𝑩 =
𝑷(𝑩)
Eventos Independientes
 Si la probabilidad de que ocurra 𝑩 no está afectada
por la ocurrencia o no de 𝑨 o viceversa, entonces se
dice que 𝑨 y 𝑩 son eventos independientes.

 Dos eventos 𝑨 y 𝑩 son independientes si y sólo si:


𝑷 𝑩 𝑨 = 𝑷(𝑩)
𝑷 𝑨 𝑩 = 𝑷(𝑨)

 Por lo tanto:
𝑷 𝑨 ∩ 𝑩 = 𝑷(𝑨) ∙ 𝑷(𝑩)
Probabilidad Total
 Si se tiene una partición de sucesos 𝑨𝒊 que son un conjunto de
sucesos mutuamente excluyentes y que cubren todo el espacio
muestral y sucede que 𝑃 𝐴𝑖 ≠ 0 ∀ 𝐴𝑖 .
 Si ocurre un suceso 𝑩 dentro del mismo espacio muestral.
𝐴2
𝐴1
𝑼
𝐵
𝐴𝑛
 Entonces se cumple:
𝑃 𝐵 = 𝑃 𝐴1 ∩ 𝐵 + 𝑃 𝐴2 ∩ 𝐵 + ⋯ + 𝑃(𝐴𝑛 ∩ 𝐵)
𝑷 𝑩 = 𝑷 𝑩 𝑨𝟏 𝑷 𝑨𝟏 + 𝑷 𝑩 𝑨𝟐 𝑷 𝑨𝟐 + ⋯ + 𝑷 𝑩 𝑨𝒏 𝑷 𝑨𝒏

También se puede expresar cómo la sumatoria de las


Probabilidad Total probabilidades condicionadas por la probabilidad del
evento A correspondiente.
Probabilidad Total
Ejemplo: en una urna hay papeletas de tres colores, con las siguientes
probabilidades de ser elegidas:

▪ Amarilla: probabilidad del 50%.


𝐵
▪ Verde: probabilidad del 30%
▪ Roja: probabilidad del 20%.

Según el color de la papeleta elegida, podrás participar en diferentes sorteos. Así,


si la papeleta elegida es:
▪ Amarilla: participas en un sorteo con una probabilidad de ganar del 40%.
▪ Verde: participas en otro sorteo con una probabilidad de ganar del 60%
▪ Roja: participas en un tercer sorteo con una probabilidad de ganar del
80%.
¿Qué probabilidad tienes de ganar el sorteo?
𝑷 𝑩 = 𝑷 𝑩 𝑨𝟏 𝑷 𝑨𝟏 + 𝑷 𝑩 𝑨𝟐 𝑷 𝑨𝟐 + ⋯ + 𝑷 𝑩 𝑨𝒏 𝑷 𝑨𝒏
𝑷 𝑩 = 𝟎. 𝟒𝟎 𝟎. 𝟓𝟎 + 𝟎. 𝟔𝟎 𝟎. 𝟑𝟎 + 𝟎. 𝟖𝟎 𝟎. 𝟐𝟎 = 𝟎. 𝟓𝟒
Por tanto, la probabilidad de que ganes el sorteo es del 54%.
Teorema de Bayes
 Enunciado por Thomas Bayes y publicada por primera
vez en 1763, parte de la situación anterior de la
Probabilidad Total.

 Ahora, conociendo que ha ocurrido el suceso 𝑩, el


Teorema de Bayes indica como modifica esta
información las probabilidades de los sucesos 𝑨𝒊 .

𝑷 𝑩 𝑨𝒊 𝑷 𝑨𝒊
𝑷 𝑨𝒊 𝑩 =
σ𝒏𝒊=𝟏 𝑷 𝑩 𝑨𝒊 𝑷 𝑨𝒊
Teorema de Bayes
 Ejemplo: tres maquinas producen el 𝑃 𝐴 = 0.45 𝑃 𝐴2 = 0.30 𝑼
1
45%, 30% y 25% respectivamente del
total de productos en una fábrica.
Los porcentajes de producción
defectuosa de estas máquinas son 𝑃 = 0.03 𝑃 = 0.04 𝑃 = 0.05
del 3%, 4% y 5%. 𝐵 = 𝑑𝑒𝑓𝑒𝑐𝑡𝑜𝑠
𝑃 𝐴3 = 0.25
Tarea #1

 Para entregar en ocho días.

 Tarea en parejas.
2. Variables aleatorias y
sus distribuciones
Variable Aleatoria
 Recordemos que…

Es aquel cuyos resultados no pueden predecirse


antes de su realización (sujetos al azar)
Experimento Aleatorio
Si consideramos sus
valores tomados por
Es el conjunto integrado por todos los resultados una Variable X
posibles de un experimento aleatorio
Espacio Muestral
VARIABLE
ALEATORIA

No es una forma suficientemente breve de


describir los resultados que interesan
Variable Aleatoria
 En general, una variable aleatoria tomará un valor definido
para cada resultado posible de un experimento.

 Una Variable Aleatoria es una función que a cada


elemento de un espacio muestral le asocia un número real.

 Ejemplo: supongamos que se lanza una moneda dos veces (o dos


monedas), entonces el espacio muestral es
𝑴 = {𝑪𝑪, 𝑪𝑺, 𝑺𝑪, 𝑺𝑺}
Sea 𝑿 el número de caras que pueden salir. ¿Qué valores toma X?

Punto Muestral / Evento CC CS SC SS


X 2 1 1 0

Se puede asociar cada punto muestral


con un número de 𝑿
Clasificación de Variables
Aleatorias
 Variable Aleatoria Discreta es
aquella que toma un número finito de
valores o un número infinito pero
numerable, que se puede contar.
 Representan datos por conteo.

 Variable Aleatoria Continua es aquella cuyo conjunto de


valores posibles están dados en un intervalo.
 Representan datos medidos.
Función de Densidad de
Probabilidad 𝒇𝑿 (𝒙)
 Es la función que mide la concentración de la probabilidad
alrededor de los valores de una variable aleatoria.

 A cada valor de una variable aleatoria le corresponde una


probabilidad asociada.

 Actúa de distinta manera en las variables discreta que en las


continuas.

 V.A. Discretas: es una función que da una probabilidad a


cada valor de la variable.

 V.A. Continua: la probabilidad de que una variable tome


cualquier valor concreto es 0, por lo tanto la 𝑓(𝑥) se
calcula la probabilidad para un intervalo (𝒂 < 𝑿 < 𝒃),
mediante el cálculo de la integral correspondiente.
Función de Densidad de
Probabilidad 𝒇𝑿 (𝒙)
 La 𝒇𝑿 (𝒙) para una V.A. Discreta 𝑿 es el conjunto de pares
ordenados, donde 𝑥 es cada uno de los valores que puede
tomar la variable aleatoria 𝑋, y 𝒇𝑿 𝒙 la probabilidad
asociada con el valor particular de 𝒙.

𝒇𝑿 𝒙 = 𝑷(𝑿 = 𝒙)

 Los posibles de X corresponden con una partición del


espacio muestral, se cumplen las siguientes propiedades:

 𝒇𝑿 𝒙 ≥ 𝟎 para todo valor de 𝒙 de 𝑿.

 σ 𝒇𝑿 𝒙 = 𝟏 para todos los valores 𝒙 que pude tomar la


variable aleatoria 𝑿.
Función de Densidad de
Probabilidad 𝒇𝑿 (𝒙)
 La 𝑓𝑋 (𝑥) para una V.A. Discreta 0.60

0.50
 Ejemplo: se lanza una moneda 0.50

dos veces. Sea 𝑿 el número de 0.40

caras que pueden salir.

fX(x)
0.30

0.25 0.25
 ¿Cuál es la 𝒇𝑿 𝒙 = 𝑷(𝑿 = 𝒙)? 0.20

0.10

-
0 1 2
x
Función de Densidad de
Probabilidad 𝒇𝑿 (𝒙)
 La 𝒇𝑿 (𝒙) para una V.A. Continua

 Problema: no se puede construir una con los valores posibles de


la variable, puesto que el número de valores que puede tomar
es infinito.

 La única forma que se tiene de caracterizar la distribución de


probabilidades es mediante una ecuación.

El área total de los


rectángulos es uno y el
área de un rectángulo es
la frecuencia relativa de
la clase correspondiente.

Inconvenientes para
determinar 𝒇𝑿 (𝒙)
Función de Densidad de
Probabilidad 𝒇𝑿 (𝒙)
 La 𝒇𝑿 (𝒙) para una V.A. Continua
tiene las siguientes propiedades:

 La curva siempre se
encuentra sobre el eje de las
abscisas. Es decir, 𝒇𝑿 𝒙 ≥ 𝟎.

 El área total bajo la curva


𝒇𝑿 𝒙 es 1.

 El área delimitada por dos


líneas verticales levantadas
sobre los puntos 𝒂 y 𝒃 (𝒂 < 𝒃)
y la curva, es la probabilidad
de que 𝑿 tome un valor entre
𝒂 y 𝒃.
Función de Distribución de
Probabilidad 𝑭𝑿 (𝒙)
 También llamada Función de Distribución Acumulada.
 Función que acumula probabilidades asociadas a una variable
aleatoria.
 Su notación es 𝑭𝑿 (𝒙) = 𝑷 (𝑿 ≤ 𝒙), las propiedades que debe de
cumplir son las siguientes:
 𝟎 ≤ 𝑭𝑿 (𝒙) ≤ 𝟏
 Si 𝒂 y 𝒃 son dos números tales que 𝒂 < 𝒃 , entonces 𝑭𝑿 (𝒂) ≤
𝑭𝑿 (𝒃).
 Si 𝒄𝟏 y 𝒄𝟐 (𝒄𝟏 < 𝒄𝟐 ) son los valores más extremos que puede
tomar la variable aleatoria 𝑿, entonces:
 𝑭𝑿 𝒙 = 𝟎 para cualquier 𝒙 < 𝒄𝟏
 𝑭𝑿 𝒙 = 𝟏 para cualquier 𝒙 ≥ 𝒄𝟐
Función de Distribución de
Probabilidad 𝑭𝑿 (𝒙)
 V.A. Discreta: la función de distribución acumulativa de la
variable aleatoria X es la probabilidad de que X sea menor o
igual a un valor especifico.
𝑭𝑿 (𝒙) = 𝑷 𝑿 ≤ 𝒙 = ෍ 𝑓𝑋 𝑥𝑖 = ෍ 𝑝 𝑥𝑖
𝑥𝑖 ≤𝑥 𝑥𝑖 ≤𝑥

 Ejemplo: se lanzan dos dados, si X es la variable aleatoria que


representa la suma de las caras, entonces:
+ 1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
Función de Distribución de
Probabilidad 𝑭𝑿 (𝒙)
 Por lo tanto, los valores de 𝑋 y sus probabilidades
𝒙 𝒇𝑿 𝒙 𝑭𝑿 (𝒙) son.

2 1/36 1/36  Pero también se cumple: 𝑭𝑿 (𝒙 ≤ 𝟏) = 𝟎


3 2/36 3/36
4 3/36 6/36
5 4/36 10/36
6 5/36 15/36
7 6/36 21/36
8 5/36 26/36
9 4/36 30/36
10 3/36 33/36
11 2/36 35/36
12 1/36 1
Función de Distribución de
Probabilidad 𝑭𝑿 (𝒙)
 V.A. Continua: la función de distribución acumulativa de la
variable aleatoria X es la probabilidad de que X sea menor
o igual a un valor especifico.

𝑥
𝑭𝑿 (𝒙) = 𝑷 𝑿 ≤ 𝒙 = න 𝑓𝑋 𝑥 𝑑𝑥
−∞

Además, se cumple:
𝒅𝑭𝑿 𝒙
= 𝑓𝑋 𝑥
𝒅𝒙
Función de Distribución de
Probabilidad 𝑭𝑿 (𝒙)
 Ejemplo: suponga que el error en la temperatura de
reacción, en °C, en un experimento de laboratorio
controlado, es una variable aleatoria continua 𝑿 que tiene la
función de densidad de probabilidad:
𝒙𝟐
𝒇𝑿 (𝒙) = ൞ 𝟑 , −𝟏 < 𝒙 < 𝟐
𝟎, 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐

 Verifique que 𝒇𝑿 (𝒙) es una función de densidad.

 Calcule F(x) para la función de densidad

 Calcule 𝑃(0 < 𝑋 ≤ 1)


Función de Distribución de
Probabilidad 𝑭𝑿 (𝒙)
𝟎 𝒙 < −𝟏
𝒙𝟑 +𝟏
𝑭𝑿 (𝒙) = −𝟏 ≤ 𝒙 < 𝟐
𝟗
𝟏 𝒙≥𝟐
Momentos de Variables
Aleatorias
 Es conveniente disponer de medidas que describan de
manera breve, concisa y precisa los aspectos más
sobresalientes de las distribuciones.

 Estas medidas reciben el nombre genérico de Momentos de


la distribución.

 Los momentos de una variable aleatoria 𝑋 son los valores


esperados de ciertas funciones de 𝑋.

 Momentos respecto al origen (cero o valor esperado de


𝑋).

 Momentos respecto a la media


Momentos de Variables
Aleatorias: Esperanza
 Momentos respecto al origen (cero o valor esperado de 𝑿).
 Sea 𝑿 una variable aleatoria, con función de probabilidades
𝒇𝑿 (𝒙), y sea 𝒓 un entero positivo. El 𝑟-ésimo momento al origen
denotado por 𝐸 𝑋 𝑟 .
 Si es discreta

𝐸 𝑋 𝑟 = ෍ 𝑥 𝑟 𝒇𝑿 (𝒙)
𝑥

 Si es continua
𝑥
𝐸 𝑋𝑟 = න 𝑥 𝑟 𝒇𝑿 𝒙 𝒅𝒙
−∞

 El primer momento alrededor del cero 𝑬 𝑿 es la media o


Esperanza Matemática (valor esperado) de la variable aleatoria
y se denota por 𝝁.
Momentos de Variables
Aleatorias: Esperanza
 Momentos respecto al origen (cero o valor esperado de 𝑿).

 Sean 𝑐1 y 𝑐2 dos constantes, y 𝑋 una variable aleatoria,


entonces:

 𝐸 𝑐1 = 𝑐1

 𝐸 𝑐1 𝑋 = 𝑐1 𝐸(𝑋)

 𝐸 𝑋 + 𝑐1 = 𝐸 𝑋 + 𝑐1

 𝐸 𝑐1 + 𝑐2 𝑋 = 𝑐1 + 𝑐2 𝐸(𝑋)
Momentos de Variables
Aleatorias
 Momentos respecto a la media (momento central)
 Sea 𝑿 una variable aleatoria, con función de probabilidades
𝒇𝑿 (𝒙), y sea 𝒓 un entero positivo. El 𝑟-ésimo momento arededor
de la media de X se define por:
 Si es discreta

𝐸(𝑋 − 𝜇)𝑟 = ෍(𝑥 − 𝜇)𝑟 𝒇𝑿 (𝒙)


𝑥

 Si es continua
𝑥
𝐸(𝑋 − 𝜇)𝑟 = න (𝑥 − 𝜇)𝑟 𝒇𝑿 𝒙 𝒅𝒙
−∞
Momentos de Variables
Aleatorias: Varianza
 Momentos respecto a la media (momento central)
 El momento central cero de cualquier variable aleatoria es uno,
dado que:
𝐸(𝑋 − 𝜇)0 = 𝐸 1 = 1
 El primer momento central de cualquier variable aleatoria es
cero, dado que:
𝐸(𝑋 − 𝜇)1 = 𝐸 𝑋 − 𝜇 = 0
 El segundo momento central, recibe el nombre de varianza de la
variable aleatoria, dado que:
𝑉𝑎𝑟 𝑋 = 𝐸(𝑋 − 𝜇)2 = 𝐸 𝑋 2 − 2𝑋𝜇 + 𝜇2
= 𝐸 𝑋 2 − 2𝜇2 + 𝜇2 = 𝐸 𝑋 2 − 𝜇2
Momentos de Variables
Aleatorias: Varianza
 Momentos respecto a la media (momento central)

 Sean 𝑐 una constante y 𝑋 una variable aleatoria, entonces:

 𝑉𝑎𝑟 𝑋 ≥ 0

 𝑉𝑎𝑟 𝑐 = 0

 𝑉𝑎𝑟(𝑐𝑋) = 𝑐 2 𝑉𝑎𝑟(𝑋)

 𝑉𝑎𝑟 𝑋 + 𝑐 = 𝑉𝑎𝑟(𝑋)

 𝑉𝑎𝑟 𝑋 = 𝐸 𝑋 2 − 𝐸(𝑋) 2
Actividad 4
Distribución Conjunta

Se ha estudiado variables
aleatorias y sus distribuciones ¿Qué pasa cuando la
de probabilidad restringidas situación amerita registrar los
por espacios muestrales Pero… resultados simultáneos de dos
unidimensionales (resultados o más variables aleatorias?
de un experimento)

 Ejemplo: en un experimento químico controlado se podría


medir la cantidad del precipitado P y la del volumen V de
gas liberado.
 Lo que daría lugar a un espacio muestral bidimensional ( p, v); o
bien.
Distribución Conjunta

 Si 𝑋 y 𝑌 son dos variables aleatorias, la distribución de


probabilidad para sus ocurrencias simultáneas se representa
mediante la función con valores 𝑓𝑋,𝑌 (𝑥, 𝑦), para cualquier par
de valores (𝑥, 𝑦) dentro del rango de las variables aleatorias 𝑋
y 𝑌.

 Se acostumbra a referirse a esta función como la distribución


de probabilidad conjunta de 𝑋 y 𝑌.

𝑓𝑋,𝑌 (𝑥, 𝑦)=P(X=x,Y=y)


Distribución Conjunta
Variables Aleatorias Variables Aleatorias
Discretas Continuas

 𝒇𝑿,𝒀 (𝒙, 𝒚) ≥ 𝟎 para  𝒇𝑿,𝒀 (𝒙, 𝒚) ≥ 𝟎 para toda


(𝑥, 𝑦).
toda (𝑥, 𝑦).
∞ ∞
 ‫׬‬−∞ ‫׬‬−∞ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒙𝒅𝒚 = 𝟏
 σ𝒙 σ𝒚 𝒇𝑿,𝒀 (𝒙, 𝒚) = 𝟏

 P[(X=x,Y=y) ∈ 𝑨] =
 𝒇𝑿,𝒀 (𝒙, 𝒚)=P(X=x,Y=y) ‫𝑿𝒇 𝑨׬ ׬‬,𝒀 (𝒙, 𝒚) 𝒅𝒙𝒅𝒚, para
cualquier región A en el
plano xy
Distribución Marginal
 Dada la distribución de probabilidad conjunta 𝒇𝑿,𝒀 (𝒙, 𝒚) de las
variables aleatorias 𝑿 y 𝒀.
 Definimos 𝒈(𝒙) y 𝒉(𝒚) como distribuciones marginales de 𝑿 y 𝒀,
respectivamente.
 𝒈(𝒙) se obtiene sumando 𝒇𝑿,𝒀 (𝒙, 𝒚) sobre los valores de 𝒀.
 𝒉(𝒚) se obtiene sumando 𝒇𝑿,𝒀 (𝒙, 𝒚) sobre los valores de 𝑿.

𝒈 𝒙 = ෍ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒈 𝒙 = න 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒚
𝒚 −∞

𝒉 𝒚 = ෍ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒉 𝒚 = න 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒙


−∞
𝒙

Variables Aleatorias Variables Aleatorias


Discretas
Continuas
Distribución Condicional
 Si utilizamos la definición de probabilidad condicional,
establecida en teoría de conjuntos.

 Como resultado, para poder calcular probabilidades


condicionales de manera eficaz es sumamente importante
utilizar distribución de probabilidad condicional.

 Sean 𝑋 y 𝑌 dos variables aleatorias, discretas o continuas. La


distribución condicional será:

𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒇𝑿,𝒀 (𝒙, 𝒚)


𝒇𝑿|𝒀 𝒙𝒚 = 𝒇𝒀|𝑿 𝒚𝒙 =
𝒉(𝒚) 𝒈(𝒙)
𝒉 𝒚 >𝟎 𝑔(𝑥) > 0

 La distribución de probabilidad condicional satisface todas


las condiciones de una distribución de probabilidad.
Distribución Condicional
 Si deseamos encontrar la probabilidad de que la variable
aleatoria discreta 𝑿 caiga entre 𝒂 y 𝒃 cuando sabemos que
la variable discreta 𝒀 = 𝒚, entonces:

𝑷 𝒂 < 𝑿 < 𝒃 𝒀 = 𝒚 = ෍ 𝒇𝑿|𝒀 𝒙 𝒚


𝒂<𝒙<𝒃

 Donde la sumatoria se extiende a todos los valores de 𝑿 entre


𝒂 y 𝒃 . Cuando 𝑿 y 𝒀 son continuas:
𝒃
𝑷 𝒂 < 𝑿 < 𝒃 𝒀 = 𝒚 = න 𝒇𝑿|𝒀 𝒙 𝒚 𝒅𝒙
𝒂
Independencia
 Sean 𝑿 y 𝒀 dos variables aleatorias, discretas o
continuas, con distribución de probabilidad conjunta
𝒇𝑿,𝒀 (𝒙, 𝒚) y distribuciones marginales 𝒈(𝒙) y 𝒉(𝒚),
respectivamente.

 Se dice que las variables aleatorias 𝑿 y 𝒀 son


estadísticamente independientes si y sólo si:
𝒇𝑿,𝒀 𝒙, 𝒚 = 𝒈 𝒙 ∙ 𝒉 𝒚

Para toda (𝑥, 𝑦) dentro de sus rangos.


Tarea #2
 Para entregar dentro de 8 días.

 Equipos previamente establecidos.

También podría gustarte