Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Una variable aleatoria X es una función que asocia a cada suceso del espacio muestral
Ω de un experimento aleatorio un valor numérico real:
X :
w X (w)
Llamar variable a una función resulta algo confuso, por ello hay que insistir en que es
una función.
Función de probabilidad
Una vez definida una variable aleatoria X, podemos definir una función de
probabilidad asociada a X, de la siguiente forma:
p : [0,1]
x p(x) P( X x) (se lee “probabilidad de que la variable X valga x”).
(i) p(x) 0 x
(ii) p(x) 1 (la probabilidad suma de todos los posibles valores que puede tomar la
x variable aleatoria es 1, esto es, la certeza).
Tipos de variable aleatoria
f : [0, 1]
f (2) P(X 2 ) P((1 ,1)) 1 / 36 Distribución de probabilidad
f (3) P(X 3) P((1 ,2) (2 ,1)) 2 / 36 (en realidad es el único dato relevante relativo
a una variable aleatoria)
f (4) P(X 4 ) P((1 ,3) (3 ,1) (2,2)) 3 / 36
...
“Protocolo”:
1. Identificar los casos posibles. Contarlos.
2. Contar el número de veces que se da cada uno de los sucesos (o el suceso buscado, si fuera
el caso).
3. Calcular la probabilidad como: Valor pto. 2/Valor pto. 1
Distribución de probabilidad
f : [0, 1]
f (2) P(X 2 ) P((1 ,1)) 1 / 36
f (3) P(X 3) P((1 ,2) (2 ,1)) 2 / 36
f (4) P(X 4 ) P((1 ,3) (3 ,1) (2,2)) 3 / 36
...
6/36
P 5/36 5/36
4/36 4/36
3/36 3/36
2/36 2/36
1/36 1/36
2 3 4 5 6 7 8 9 10 11 12 X
Observa que P cumple las dos condiciones: es siempre positiva y está normalizada.
F : [0,1]
x F ( x) P( X x) Relación existente entre X y P(X)
2 3 4 5 6 7 8 9 10 11 12 X
Si, lo anterior, dado que se habla de la estatura de un individuo, podría conocerse de manera intuitiva (a
través la mera experiencia —sin necesidad por tanto de consultar ninguna función de distribución), no
sucedería lo mismo si el fenómeno a estudiar fuera el nivel de concentración de CO2 en la atmósfera,
cuyos niveles “normales” (ahora sí) desconocemos a priori. He ahí su utilidad primera.
Esperanza matemática (de una vble. discreta)
EX x i P( X x i ) x i p(x i )
n n
i 1 i 1
Según la teoría de la probabilidad, este será el valor al que se tenderá si lanzamos muchas veces los dados.
Esperanza de una función de variable aleatoria (discreta)
EY g(x) P( X x i )
n
i 1
Dicho en otras palabras: si aplicamos una traslación (b) y/o factor de escala (a) a los
valores de X, la esperanza matemática (media) se obtiene aplicando idéntica
traslación o escala a la original → La esperanza matemática es un operador lineal.
Entropía de Shannon
A partir del hecho de que la información aportada por una unidad lingüística es la inversa de
la probabilidad de aparición de esta unidad en el discurso, Shannon definió como parte de la
teoría de la comunicación, el concepto de entropía, una medida de la incertidumbre asociada
a una variable aleatoria, la cual está en cierto modo relacionada con la cantidad de
ordenaciones posibles. Dada una variable aleatoria, cuanto mayor sea el número de posibles
ordenaciones, mayor será su incertidumbre.
Los símbolos con menor probabilidad son los que aportan más información. Por ejemplo, si en una frase se
eliminan los artículos (“el”, “la”, “los”, etc.), que son palabras bastante frecuentes (alta probabilidad = poco aporte de
información), el texto seguramente se comprenderá. Sin embargo, si eliminamos las palabras menos frecuentes la
comprensión resultará más difícil.
Ejemplo: Si en la frase “El corredor español terminó la carrera en cuarto lugar” se perdiera una palabra, no
recibiríamos la misma cantidad de información si pudiéramos leer:
1. “El corredor X terminó la carrera en cuarto lugar” que si pudiéramos leer:
2. “X corredor español terminó la carrera en cuarto lugar” o “El corredor español terminó la carrera X cuarto lugar”.
Ofrece menos información “El” o “la” (palabras altamente probables) que las palabras, menos frecuentes, “español”.
¿Cómo se define? Como la esperanza matemática del logaritmo del inverso de la probabili-
dad, es decir, de log p(x).
1
H( X ) E log2 x p(x) log p(x) Base 2 porque en informática se trabaja en
P ( X ) X () binario (combinaciones de dos símbolos: 1 y 0)
Varianza de una variable aleatoria (discreta)
X E(X E { X }) 2 (x i )2 P( X x i )
2
i
X2 mide la dispersión del conjunto de valores con respecto a su media
(al cuadrado para trabajar con medidas de dispersión exclusivamente positivas)
Para trabajar con las mismas unidades que la variable observada, X, se suele calcular la
raíz cuadrada de la varianza, desviación típica de X: X x
2
12 1 2 1
X P(i) (i 7)2 (2 7)2 (3 7)2 ... (12 7)2 5,83
2
i 2 36 36 36
X X 5,83 2,41
2
Por ejemplo, según la teoría de la probabilidad, si lanzamos muchas veces dos dados, y suponiendo una
distribución normal (lo cual NO sucede en realidad en este ejemplo), el 68% de la veces nos apartaremos del
valor más probable o esperado (7) en una cantidad que tenderá a ser 2,41.
MODELOS DE DISTRIBUCIONES
DISCRETAS
Introducción
Debe tenerse presente que, como modelos que son, no dejan de ser
simplificaciones de la realidad y, por tanto, se aproximarán bastante a ella pero sin
definirla de manera cierta.
Útil para experimentos con sólo dos posibles resultados (SI/NO, ÉXITO/FRACASO,
1/0, etc.).
En consecuencia sólo habrá dos probabilidades: P(X = 1) = p y P(X = 0) = 1p
Ejemplo: lanzamiento de una moneda con probabilidad p para cara y (1-p) para cruz.
1 p, para x 0
Función de distribución: F ( x)
p, para x 1
1
Media: E { X } x P( X x) 0 P(X 0) 1 P(X 1) p
x 0
x 0
B Tras analizar 2000 accidentes de tráfico con impacto frontal en los que el conductor sí
llevaba puesto el cinturón de seguridad, se observa que 10 individuos quedaron con
secuelas.
La interpretación frecuentista de probabilidad nos permite aproximar la probabilidad
de quedar con secuelas por 10/2000 = 0,005 = 0,5%
X = “tener secuelas tras accidente usando cinturón” (es una variable de Bernoulli)
X = 1 tiene probabilidad p ≈ 0,005
X = 0 tiene probabilidad q ≈ 0,995
Distribución binomial
Media: E{ X} n p
Varianza: 2 n p (1 p)
Distribución binomial
Ejercicio:
Supongamos que la probabilidad de encontrar un usuario de Linux es del 4%. ¿Cuál es la
probabilidad de que en una muestra de 10 personas escogida al azar encontremos 3 usuarios
de Linux?
n
p( X 3) p k (1 p)nk
k
p 0.04 ; n 10 ; k 3
10
P( X 3) (0.04)3 (1 0.04)103 0.006
3
Y… ¿cuál es la probabilidad de que encontremos como mucho 2 usuarios de Linux?
Queremos decir que sería un “éxito” encontrar 0, 1 ó 2 usuarios de Linux
10
P( X 0) (0.04)0 (1 0.04)100 0.665
0
10
P( X 1) (0.04)1 (1 0.04)101 0.277 P(X 2) P(X 0) P(X 1) P(X 2) 0.994
1
10
P( X 2) (0.04)2 (1 0.04)102 0.052
2
Distribución geométrica
Ejemplo: Lanzar una moneda hasta obtener la primera cara. Se obtendrá una sucesión de
k1 cruces (fracasos), seguidas de una cara (éxito).
Función de distribución:
n
F (n) (1 p)k1 p 1 (1 p)n
k 1
Distribución geométrica
1
Media: E{ X}
p
1 p
Varianza: 2
p2
Por otro lado, si en 100 piezas se encuentran 3 defectuosas, por una simple regla de
tres, bastarían 100/3 (33,3) inspecciones para localizar una pieza defectuosa.
Tema2_DistrGeometrica.nb
Distribución de Poisson
Media: E{ X} n p
Varianza: 2
Ejercicio:
Si la probabilidad de fabricar un televisor defectuoso es p = 0.01, ¿cuál es la
probabilidad de que un lote de 100 televisores contenga más de 2 televisores
defectuosos?
Podríamos calcular la probabilidad complementaria P(X 2) exacta a través de la distribución
binomial, obteniendo:
n
P(X 2) 1 P(X 2) 1 P(X 0) P(X 1) P(X 2) Recuérdese: p( X k) pk q nk
k
Ac
100 99 100 100 99 99 1 100 99 98 1 2
1
0 100 1 100 100 2 100 100
1 0.9206 0,0794
El suceso complementario Ac: No más de 2 televisores defectuosos puede aproximarse con una
distribución de Poisson con = np = 1, sumando P(0) + P(1) + P(2).
k
P( X k ) e (k 0,1,....)
k!
1
P(Ac ) P( X 2) P( X 0) P( X 1) P( X 2) e 1 1 1 0.9197
2