Está en la página 1de 5

Caracterı́sticas en ecuaciones de segundo orden

PROBABILIDAD

Ideas básicas:

 Al conjunto de todos los posibles resultados de un experimento se le llama espacio muestral.

 Un subconjunto de un espacio muestral se denomina evento.

 Se dice que dos eventos A y B son mutuamente excluyentes si no tienen resultados en común.

 Axiomas de la probabilidad:
1. Sea S un espacio muestral. Entonces P(S)=1.
2. Para cualquier evento A, 0 ≤ P (A) ≤ 1.
3.Si A y B son excluyentes, P(A∪B)=P(A)+P(B)

 P(Ac )=1-P(A)

 Si S es un espacio muestral que contiene N resultado igualmente probables y si A es un evento que contiene
k resultado, entonces:
k
P (A) =
N
 Sean A y B cualesquiera eventos, entonces.

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Métodos de conteo

 El número de permutaciones de n objetos es n!.

 El número de permutaciones de k objetos elegidos de un grupo de n elementos es.


n!
(n − k)!

 El número de combinaciones de k elementos elegidos de un grupo de n elementos es


 
n n!
=
k k!(n − k)!

 El número de maneras de dividir un grupo de n elementos en grupos de k1 , k2 ....kr elementos donde


k1 + k2 + ..... + kr = n, es
n!
k1 !k2 !....kr !
Probabilidad condicional e independencia

 Sean A y B con P(B)̸=0. La probabilidad condicionada de A dado B es,

P (A ∩ B)
P (A|B) =
P (B)
 Dos eventos A y B son independientes si la probabilidad de cada uno es la misma si ocurren o no los demás
eventos.
→ Si P(A) ̸= 0 y P(B) ̸=0, entonces son independiente si;
P (B|A) = P (B)
→ Si P(A)=0 o P(B)=0, son independientes.

 Si A y B son dos eventos con P(B)̸=0;


P (A ∩ B) = P (B)P (A|B)
 Si A y B son eventos independientes,
P (A ∩ B) = P (A)P (B)
 Caso especial de la regla de Bayes: Sean A y B eventos con P(A)̸=0, P(Ac )̸=0 y P(B)̸=0. Entonces,
P (A|B)P (A)
P (A|B) =
P (B|AP (A) + P (B|Ac )P (Ac ))
 Caso general de la regla de Bayes: Sean A1 , .......An eventos mutuamente excluyentes y exhaustivos con
P(Ai )̸=0 para cada Ai . Sea B cuaqluier evento con P(B)̸=0. Entonces,
P (Ak |B)P (Ak )
P (Ak |B) = Pn
i=1 P (B|Ai )P (Ai )

Variables aleatorias

 Una variable aleatoria asigna un valor numérico a cada resultado en un espacio muestral.

 La función de masa de probabilidad de una variable aleatoria discreta X es la función p(x)=P(X=x). A


veces a la función de masa probabilidad se le llama distribución de probabilidad.

DISCRETAS

 Sea X una variable aleatoria discreta con función de masa de probabilidad p(x)=P(X=x). La media de X
está dada por X
µx = xP (X = x)
x
 Sea X una variable aleatoria discretacon función de masa de probabilidad p(x)=P(X=x). La varianza de
X está dada por X X
σx2 = (x − µx )2 P (X = x) σx2 = x2 P (X = x) − µ2x
x x
p
 La desviación estándar es la raı́z cuadrada de la varianza σx = σx2

CONTINUAS

 Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). Sean a y b cualesquiera
dos números, con a < b. Entonces
Z b
P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) = f (x)dx
a

 Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). Entonces,
Z ∞
f (x)dx = 1
−∞

 Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de distri-
bución acumulativa de X es la función
Z x
F (x) = P (X ≤ x) = f (t)dt
−∞
 Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). Entonces la media de
X está dada por, Z ∞
µx = xf (x)dx
−∞

 La varianza está dada por;


Z ∞ Z ∞
σx2 = (x − µx )2 f (x)dx σx2 = x2 f (x)dx − µ2x
−∞ −∞

 La mediana de X es el punto xm que resuelve la ecuación


Z xm
F (xm ) = P (X ≤ xm ) = f (x)dx = 0, 5
−∞

 Si p es cualquier número entre 0 y 100, el p-ésimo percentil es el punto xp que resuelve la ecuación
Z xp
F (xp ) = P (X ≤ xp ) = f (x)dx = p/100
−∞

 La mediana es el 50avo percentil.

Funciones lineales de variables aleatorias

 Si X es una variable aleatoria y b es una constante , entonces,

µX+b = µX + b
2 2
σX+b = σX
 Si X es una variable aleatoria y a es una constante , entonces,

µaX = aµX

 Si X es una variable aleatoria y a es una constante , entonces,


2
σaX = a2 σX
2

σaX = |a|σX
 Si X1, . . . , Xn son variables aleatorias y c1, . . . , cn son constantes, entonces la variable aleatoria

c1 X1 + ...... + cn Xn

se denomina combinación lineal de X1.......Xn

 Si X y Y son variables aleatorias y a y b son constantes, entonces

µaX+bY = µaX + µbY

De forma más general, si X1,X2, . . . , Xn son variables aleatorias y c1,c2, . . . , cn son constantes, entonces
la media de la combinación lineal c1X1 c2X2 . . . cn Xn está dada por

µc1X1+......+cnXn = c1µX1 + ...... + cn µXn

 Si X1,X2, . . . , Xn son variables aleatorias independientes, entonces la varianza de la suma X1 X2 . . . Xn


está dada por
2 2 2
σX1+......Xn = σX1 + ......σXn
 Si X y Y son variables aleatorias independientes con las varianzas y , entonces la varianza de la suma X Y
es
2 2
σX+Y = σX + σY2
La varianza de la diferencia será,
2 2
σX−Y = σX + σY2
 Si X1, . . . , Xn es una muestra aleatoria simple de una población con media µ y varianza σ 2 , entonces la
media muestral X es una variable aleatoria con

µX = µ

2 σ2
σX =
n
σ
σX =√
n
DISTRIBUCIONES COMÚNMENTE USADAS

Distribución de Bernouilli

 Un experimento con dos resultados “éxito” y “fracaso”. p es la probabilidad de que sea exito y (1-p)
la de fracaso.

 Si X∼ Bernouilli(p), entonces,
2
µX = p σX = p(1 − p)
Distribución binomial

 Si se realiza un total de n ensayos de Bernouilli y si los ensayo es independiente , tiene la misma pro-
babilidad de éxito p y X es el número de éxitos en los n ensayos, entonces

X ∼ Bin(n, p)

 Suponga que una población finita contiene elementos de dos tipos, éxitos y fracasos, y que se extrae una
muestra aleatoria simple de una población. Entonces, si el tamaño muestral no es mayor a 5 % de aquélla,
se puede utilizar la distribución binomial para modelar el número de éxitos.

 Si X ∼ Bin(n,p), la función de masa probabilidad de X es

n!

 px (1 − p)n−x x = 0, 1, ....n
p(x) = P (X = x) = x!(n − x)!

0 De otro modo

 Si X∼ Bin(n,p), entonces la media y la varianza de X están dadas por


2
µX = np σX = np(1 − p)

 Si X∼ Bin(n,p), entonces la proporción muestral p̂=X/n se emplea para estimar la probabilidad de éxito
p. Estando p̂ sin sesgar y siendo la incertidumbre la siguiente,
r
p(1 − p)
σp̂ =
n

Distribución de Poisson

 Si X∼ Poisson(λ), entonces, X es una variable aleatoria discreta cuyos posibles valores son enteros no
negativos, el parámetro λ es una constante positiva, la función masa de probabilidad de X es,
 x
e−λ λ x = entero no negativo
p(x) = P (X = x) = x!
0 De otro modo

 La función de masa de probabilidad de Poisson se aproxima mucho a la función de masa de probabilidad


binomial cuando n es grande, p es pequeña y λ=np.

 Si X ∼ Poisson(λ), entonces la media y la varianza de X están dadas por


2
µX = λ σX =λ
 Sea λ la media del número de eventos que ocurre en una unidad de tiempo o espacio. Sea X el número de
eventos que ocurre en t unidades de tiempo o espacio. Entonces si X ∼ Poisson(λt), λ se estima con λ̂ = X/t.

 λ̂ no es sesgado y la incertidumbre en λ̂ es,


r
λ
σλ̂ =
t

Distribución hipergeométrica

 Suponga una población finita que contiene N unidades, de ellas R son clasificadas como éxitos y N -R
como fracasos. Suponga que se extrae n unidades de esta población, y sea X el número de éxitos en la mues-
tra. Entonces X sigue la distribución hipergeométrica con los parámetros N, R y n, que se puede denotar
como X ∼H(N, R, n). La función de masa de probabilidad de X es
 R N −R
 x n−x

max(0, R + n − N ) ≤ x ≤ min(n, R)
N

p(x) = P (X = x) = n


0 De otro modo

 Si X∼H(N,R,n), entonces
   
nR 2 R R N −n
µX = σX =n 1−
N N N N −1

Distribución geométrica

 Suponga que se lleva a cabo una secuencia de ensayos de Bernoulli independientes, cada uno con la misma
probabilidad de éxito p. Sea X el número de experimentos hasta incluir el primer éxito. Por tanto, X es una
variable aleatoria discreta, la cual tiene una distribución geométrica con parámetro p.

 Si X∼Geom(p), entonces la función de masa de probabilidad de X es,


(
p(1 − p)x−1 x = 1, 2...
p(x) = P (X = x) =
0 De otro modo

 Media y varianza de la función geométrica,


1 2 1−p
µX = σX =
p p2

La distribución binomial negativa

 La distribución binomial negativa constituye una extensión de la distribución geométrica. Sea r un en-
tero positivo. Suponga que se realizan ensayos de Bernoulli independientes, cada uno con probabilidad de
éxito p, y X representa el número de ensayos hasta incluir al r-ésimo éxito. Por consecuencia, X tiene una
distribución binomial negativa con parámetros r y p.

 
 x − 1 pr (1 − p)x − r

x = r, r + 1....
p(x) = P (X = x) = r−1

0 De otro modo

 Si X ∼NB(r,p),
X = Y1 + .... + Y : r
donde Y1, . . . , Yr son variables aleatorias independientes, cada una con distribución Geom(p).

 Media y varianza de la distribución negativa binomial.


r 2 r(1 − p)
µX = σX =
p p2

También podría gustarte