Documentos de Académico
Documentos de Profesional
Documentos de Cultura
APLICACIONES
Director:
DR. MIGUEL ANGEL MARMOLEJO
Introducción 4
1. Preliminares 6
1.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Variables aleatorios, vectores aleatorios y otras propiedades . . . . . . . . . . . . . . . . . 9
1.2.1. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2. Esperanza condicional respecto a eventos y σ álgebras . . . . . . . . . . . . . . . . 16
1.2.3. Función generadora de momentos conjunta . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1. Distribución geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.2. Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.3. Distribución binomial negativa y distribución de Pascal . . . . . . . . . . . . . . . 19
1.3.4. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.5. Distribución multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3
...
4
Introducción
Considere una sucesión de ensayos independientes de Bernoulli con probabilidad de éxito p ∈ (0, 1).
La distribución del número de ensayos necesarios para obtener el primer éxito se denomina distribución
geométrica de parámetro p. Sea ahora k ∈ {2, 3, . . .}; la distribución del número X de ensayos necesarios
para obtener por primera vez k éxitos consecutivos se conoce como distribución geométrica de orden k.
En símbolos;
X ∼ Gk (p).
El cálculo de la función de masa de esta distribución fue introducido por Philippou y Muwafi [8],
quienes además relacionan el problema con sucesiones de Fibonacci de orden k. Desde entonces, estos
y otros autores han desarrollado una gran variedad de conceptos teóricos y aplicados alrededor de esta
distribución; entre ellos están, el cálculo de la función generadora de probabilidad, luego el cálculo de la
función generadora de momentos y recientemente, la distribución geométrica compuesta de orden k.
El propósito principal de este trabajo es el de presentar detalladamente los aspectos teóricos más re-
levantes de esta distribución, como son la función generadora de probabilidad, la función generadora de
momentos, la esperanza, la varianza, entre otros; incluyendo varias expresiones de la función de masa
asociada a la variable aleatoria X [3, 9]. La distribución geométrica de orden k permite definir las distri-
buciones binomial negativa y de Poisson de orden k, introducidas por Philippou y Georghiou [9], también
la distribucíon geométrica compuesta de orden k, estudiada por Eryilmaz y Koutras [6].Ya que las ultimas
tres distribuciones mencionadas se deducen gracias a la distribución geométrica de orden k, un propósito
de este trabajo es el de presentar detalladamente la relación entre ellas.
Como objeto de estudio la distribución geométrica resulta muy interesante; además de su desarrollo
teórico, su campo de aplicación parece amplio; desde control de calidad y confiabilidad, hasta sicología,
finanzas, ecología, etc [6]. En este trabajo se exhibirá alguna aplicación de esta distribución.
5
Capítulo 1
Preliminares
Sea X la variable aleatoria que denota el número de fracasos hasta obtener el r-ésimo éxito, entonces
se dice que X tiene distribución binomial negativa de parámetros r y p; X ∼ BN (r, p), con función de
masa
m+r−1 k m
pX (m) = ( )p q , m ∈ N0 .
r−1
La distribución binomial negativa hace parte de la fmilia de distribuiones discretas y es bastante conocida
en la teoría de probabilidad. La generalización de esta distribución ha sido objeto de estudio por parte
de varios autores entre los cuales están Philippou et al. [9], Sibuya et al. [12], entre otros. En particular
Philippou et al. presentan la distribución binomial negativa de de orden k cuya función de masa es
x1 + . . . + xk , r − 1 y q x1 +...+xk
P (X = x) = ∑ ( )p ( )
x1 ,...,xk m1 , . . . , mk , r − 1 p
6
(σ1 ) Ω ∈ F.
(σ2 ) Si A ∈ F, entonces A∁ ∈ F.
∞
(σ3 ) Si {An }∞
n=1 es una suceción de elementos de F, entonces ⋃ An ∈ F,
n=1
(P1 ) P (Ω) = 1.
∞ ∞
P [ ⊍ An ] = ∑ (An ) .
n=1 n=1
Ejemplo 1.1.2. Se lanza una moneda n veces y se guardan los resultados de cada lanzamiento como un
conjunto ordenado (a1 , a2 , . . . , an ) donde ai = 1 es cara (éxito) y ai = 0 es sello (fracaso). El espacio
muestral es
Ω = {ω ∶ ω = (a1 , a2 , . . . , an ), ai = 0, 1}
donde los números no negativos p y q satisfacen (p + q) = 1. Vamos a ver que ∑ω∈Ω p(ω) = 1. Considere
todos los posibles resultados ω para los cuales ∑i ai = k donde k = 0, 1, . . . , n. El número de maneras de
organizar k unos en n lugares está dado por el coeficiente binomial (nk). Por lo tanto
n
n
P [Ω] = ∑ p(ω) = ∑ ( )pk q n−k = (p + q)n = 1.
ω∈Ω k=0 k
(a) P [∅] = 0.
7
(e) Si {An }∞
n=1 es una suceción en F entonces
∞ ∞
P [ ⋃ An ] ≤ ∑ P [An ]
n=1 n=1
En la teoría de probabilidad es conveniente conocer alguna información previa cuando se quiere co-
nocer la probabilidad de ocurrencia de cierto evento, es decir; la probabilidad de ocurrencia del evento A
dado que otro evento B ha ocurrido. Este importante concepto es llamado probabilidad condicional y se
define como sigue.
Definición 1.1.4. Sea (Ω, F, P ) un espacio de probabilidad y B ∈ F con P (B) > 0. Para cada A ∈ F se
define probabilidad condicional de A dado B como
P [A ∩ B]
P [A ∣ B] = .
P [B]
Observación 1.1.5. La probabilidad condicional es una función de probabilidad puesto que satisface las
propiedades (Po ), (P1 ) y (P2 ) de la deficinión 1.1.1. En consecuencia (Ω, F, P [⋅ ∣ ⋅]) es un espacio de
probabilidad.
La probabilidad de un evento se puede dar en términos de sus probabilidades condicionales dado los
eventos que satisfacen cierta condición. Este resultado está consignado en el siguiente teorema.
∞
P [A] = ∑ P [A ∣ Bi ]P [Bi ].
i=1
8
Sean A y B dos eventos. Suponga que la ocurrencia del evento A no se ve afectado por la ocurrencia
del evento B. De acuerdo a la definición de probabilidad condicional se podría pensar en la independencia
del evento A dado que el evento B ha ocurrido, es decir;
P [A ∣ B] = P [A].
Ya que
P [A ∩ B]
P [A ∣ B] = ,
P [B]
se tiene que
P [A ∩ B] = P [A]P [B]
Lo que conduce a al concepto de independencia de eventos, cuya definición es como sigue.
P [A ∩ B] = P [A]P [B].
Observación 1.1.8. El concepto de independencia de dos eventos puede ser extendido a cualquier con-
junto de n eventos. Así pues, se dice que los eventos A1 , A2 , . . . , An son independientes si para el conjunto
de indices {i1 , i2 , . . . , ik } ⊆ {1, 2, . . . , n} donde k = 1, 2, . . . , n se cumple que
k k
P [ ⋂ Aij ] = ∏ P [Aij ] .
j=1 j=1
Mas aún, las álgebras F1 , . . . , Fn son indepedientes si todos los eventos A1 , . . . , An que pertenecen res-
pectivamente a F1 , . . . , Fn son independientes.
Definición 1.2.1. Sea (Ω, F, P ) un espacio de probabilidad. Una función X ∶ Ω Ð→ R es una variable
aleatoria (v.a.) si es una función medible de (Ω, F) en (R, B(R)), es decir, si para todo B ∈ B(R) se
verifica que
X −1 (B) = {ω ∈ Ω ∶ X(ω) ∈ B} ∈ F.
Observación 1.2.2. La v.a. X induce una medida de probabilidad en (R, B(R)) definida como
9
Definición 1.2.3. Sea X ∶ Ω → R una variable aleatoria. Entonces
es una σ-álgebra tal que X −1 (B(R) ⊆ F. Esta σ-álgebra se conoce como σ-álgebra generada por la v.a
X y se denota por σ(X) o F.
Ejemplo 1.2.4. Un ejemplo simple de variable aleatoria, es la indicadora (o función característica) de
un evento A ∈ F:
⎧
⎪1 si ω ∈ A
⎪
1A (ω) = ⎨
⎪0 si ω ∉ A.
⎪
⎩
Sea B ∈ B(R). Observe que 1A satisface la definición 1.2.1,
⎧
⎪ ∅, 0 ∉ B, 1 ∉ B
⎪
⎪
⎪
⎪
⎪Ω,
⎪ 0 ∈ B, 1 ∈ B
(1A )−1 (B) = ⎨
⎪
⎪
⎪ A, 0 ∉ B, 1 ∈ B
⎪
⎪
⎪ ∁
⎩A ,
⎪ 0 ∈ B, 1 ∉ B,
FX (x) = P [X ≤ x].
10
Definición 1.2.7. Sea X una v.a. de la forma
∞
X(ω) = ∑ xi 1Ai (ω),
i=1
tal que P = {A1 , A2 , . . .} es una partición de Ω y xi ∈ R. En este caso se dice que X es una variable
aleatoria discreta. Si la suma es finita, llamaremos a X una v.a. simple.
A continuación se introduce el concepto de vector aleatorio y algunas definiciones que son extenen-
ciones del caso unidimensional.
Definición 1.2.8. Sea (Rn , B(Rn )) un espacio medible. Un vector aleatorio n-dimensional es una función
X = (X1 , X2 , . . . , Xn ) ∶ Ω → Rn ,
Observación 1.2.9. Note que las variables aleatorias que componen el vector aleatorio de la definición
anterior, están definidas en el mismo espacio de probabilidad, (Ω, F, P ), en ese caso decimos que las
variables aleatorias X1 , X2 , . . . , Xn son conjuntas.
pX (x1 , x2 , . . . , xn ) = P [X1 = x1 , X2 = x2 , . . . , Xn = xn ]
Como en el caso unidimensional, la función de probabilidad del vector aleatorio X tiene las siguientes
propiedades:
Definición 1.2.11. Sea X un vector aleatorio discreto. La función de probabilidad de la v.a. Xi , denotada
por pi o pXi , recibe el nombre de i-ésima función de probabilidad marginal del vector aleatorio X y se
determina de la siguiente manera
donde x = (x1 , x2 , . . . , xn ) ∈ R.
11
La función FX cuenta con las siguientes propiedades:
La función FX también es conocida con el nombre de función distribución conjunta de las variables
aleatorias X1 , X2 , . . . , Xn .
Definición 1.2.13. Sea X un vector aleatorio. La función de distribución de la v.a. Xi , denotada por Fi o
FXi se dice que es la i-ésima función de distribución marginal del vector aleatorio X, se determina en
algún punto arbitrario xi ∈ x de la siguiente manera
La definición de probabilidad condicional que se dió en la sección 1.1 es para eventos de la sigma
álgebra del espacio de probabilidad que corresponda, este concepto puede extenderse a las funciones de
probabilidad de un conjunto de variables aleatorias conjuntas.
Definición 1.2.14. Sea X = (X1 , X2 . . . , Xn ) un vector aleatorio y sean los vectores aleatorios disjuntos
X1 = (Xj1 , Xj2 , . . . , Xjr ), X2 = (Xl1 , Xl2 , . . . , Xls ) subcojuntos de X donde j, l ∈ I ∶= {i1 , i2 , . . . , ik } ⊆
{1, 2, . . . , n}; 1 ≤ k ≤ (n − 1). La función de probabilidad condicional del vector Xjr dado que Xls toma
el valor x = (xl1 , xl2 , . . . , xls ) se define como
pXjr ,Xls (xjr , xls )
pXjr ∣Xls (xjr ∣ xls ) = . (1.2.1)
pXls (xls )
En particular, sean X y Y variables aleatorias discretas conjuntas que toman valores en los conjuntos
{x1 , x2 , . . .} y {y1 , y2 , . . .} respectivamente. Si pX (x) > 0, entonces x = xi para algún i y pX (xi ) =
P [X = xi ]. De acuerdo a la definición 1.2.10 se tiene que, pX,Y (xi , yj ) = P [X = xi , Y = yj ]; entonces,
la ecuación (1.2.1) para este caso queda
pX,Y (xi , yj ) P [X = xi , Y = yj ]
pX∣Y (xi ∣ yj ) = = = P [X = xi ∣ Y = yj ], (1.2.2)
pY (yj ) P [Y = yj ]
de aquí que la función pX∣Y (⋅ ∣ y) es una probabilidad condicional como se definió en la sección 1.1, y
claramente cuenta con las propiedades de una función de probabilidad discreta.
Ahora, sean X1 , X2 , . . . , Xn variables aleatorias con valores en un conjunto finito X ⊆ R son inde-
pendientes si
P (X1 = x1 , . . . , Xn = xn ) = P (X1 = x1 ) . . . P (Xn = xn )
para todo x1 , x2 , . . . , xn ∈ X.
12
1.2.1. Esperanza matemática
introdución del concepto de esperanza matemática mediante la integral de Lebesgue, también se pre-
senta el concepto de esperanza condicional. En ambos casos se presentan algunas propiedades que son de
gran ayuda para el desarrollo de este trabajo.
En lo que sigue X es una variable aleatoria y X es vector un aleatorio. Denotaremos por L1 al espacio
L1 (Ω, F, P ) la familia de variables aleatorias sobre (Ω, F, P ) que tienen esperanza finita.
∫Ω X(ω)dP (ω)
(c) Sea X una v.a. no negativa, es decir X(ω) ≥ 0 para todo ω ∈ Ω. Entonces éxiste una suceción de
variables aleatorias simples {Xn } tal que Xn ↑ X, esto es
Definición 1.2.16. Sea X una v.a. discreta que toma valores en el conjunto {x1 , x2 , . . .} y con función de
masa pX (xi ) = P (X = xi ). Definimos la esperanza de X como
E(X) = ∑ xi pX (xi )
i
siempre que X ∈ L1 .
13
(d) Si X, Y son independientes, entonces E(XY ) = E(X)E(Y ).
Definición 1.2.17. Sea X una v.a. discreta en L1 con E(X) = µ. La varianza de X, denotada por
V ar(X) se define como
V ar(X) = ∑(xi − µ)2 pX (xi )
i
(a) V ar(X) ≥ 0,
(b) La covarianza de las variables aleatorias X y Y denotada por Cov(X, Y ) se define como
Cov(X, Y )
ρX,Y =
σX σY
Los momentos de una variable aleatoria X son las esperanzas dede ciertas funciones X, son de gran
utilidad puesto que caracterizan la distribución de la v.a. X.
Definición 1.2.19. Sea X una v.a. que está en L1 , el r-ésimo momento de X, denotado por µ′r es definido
como
µ′r = E(X r ), r = 1, 2, . . .
Definición 1.2.20. El r-ésimo momento central de X alrededor de a se define como E[(X − a)r ]. Si
a = µX se tiene el r-ésimo momento central alrededor de µX , denotado por µr se define como
µr = E[(X − µX )r ], (1.2.3)
Definición 1.2.21. Sea X una v.a. tal que E(etX ) < ∞ para todo t ∈ (−h, h), h > 0. La función genera-
dora de momentos de X (f.g.m de X) denotada por mX (t) se define como
mX (t) = E(etX ).
14
Se llama función generadora de momentos, puesto que cuando éxiste es continuamente diferenciable
en alguna vecindad alrededor del origen. En efecto, no es díficil ver que derivando m(t) r-veces respecto
a t y luego evaluando en t = 0 se obtiene
dr
m(t) ∣t=0 = E(X r ).
dtr
La función generadora de momentos caracteriza la distribución, es decir; si dos variables aleatorias tie-
nen la misma función generadora de momentos entonces tienen la misma distribución el opuesto también
es cierto. Este resultado se enuncia en el siguiente teorema cuya demostración se puede ver en [4].
Teorema 1.2.22 (de unicidad). Sean X1 y X2 variables aleatorias con función generadora de momentos
MX1 y MX2 respectivamente, tales que cada una éxiste en un intervalo al rededor de cero. Entonces
FX1 (x) = FX2 (x) para todo x ∈ R si y solo si MX1 = MX2 para todo t ∈ (−h, h) y algún h > 0.
Ahora, vamos a ver que los conceptos presentados hasta ahora pueden ser generalizados cuando se
tiene un vector aleatorio X = (X1 , X2 , . . . , Xn ).
Definición 1.2.23. Sea X = (X1 , X2 , . . . , Xn ) un vector aleatorio tal que cada Xi que pertence a L1 . La
esperanza del vector aleatorio X se define como
Gracias a la definición anterior podemos definir la función generadora de momentos para un vector
aleatorio.
n
Definición 1.2.24. Sea X = (X1 , X2 . . . , Xn )T un vector aleatorio. Si E [e∑i=0 ti Xi ] éxiste para cada ti en
t = (t1 , t2 , . . . , tn )T que satisface ∣ti ∣ < hi con hi positivo para cada i = 1, 2, . . . , n, se define la función
generadora de momentos (f.g.m) del vector aleatorio X denotada por MX (t) como
TX
MX (t) = E [et ]
La función generadora de momentos del v.a X también recibe el nombre de función generadora de
momentos conjunta. Como en el caso unidimensional, Los momentos del v.a X se pueden encontrar de-
rivando su f.g.m asociada.
Teorema 1.2.25. Suponga que X1 , X2 , . . . , Xn son vectores aleatorios independientes tal que cada Xi
tiene f.g.m. MXi [ti ], para ti = (ti1 , ti2 , . . . , tin ) ∈ (−hi1 , hi1 )×(−hi2 , hi2 )×, . . . , ×(−hin , hin ) donde hij > 0,
para i, j = 1, 2, . . . , n. Sea Z = ∑ni=1 Xi , entonces Z tiene f.g.m dada por
n
MZ [t] = ∏ MXi [ti ], t ∈ mı́n{(−hi1 , hi1 ) × (−hi2 , hi2 )×, . . . , ×(−hin , hin )}.
i=1
Definición 1.2.26. La matriz de varianzas-covarianzas del vector aleatorio X es una matriz n × n deno-
tada por ΣX y en la que cada entrada está dada por
ΣX = Cov(Xi , Xj ).
15
La matriz ΣX tiene las siguientes propiedades:
(Σ1 ) Es símetrica para cada i, j.
(Σ2 ) ΣX = Cov(Xi , Xi ) = V ar(Xi ), es decir la diagonal de la matriz ΣX , está conformada por las
varianzas de cada v.a. Xi .
E[X1A ] 1
E[X ∣ A] ∶= = X1A dP.
P [A] P [A] ∫Ω
Una situación más general es condicionar respecto a la σ-álgebra generada por una variable aleatoria
Y ∶ Ω → R.
Definición 1.2.27. Sea Y una variable aleatoria y X ∈ L1 . La esperanza condcional de la v.a X respecto
a la sigma álgebra generada por la v.a Y , (σ(Y )), es la variable aleatoria E[X ∣ σ(Y )](ω) que también
se denotará por E[X ∣ Y ].
Si la v.a Y toma algún valor yj tal que P [Y = yj ] > 0 la esperanza condicional E[X ∣ Y = yi ] se
puede cálcular como sigue
E [X1{Y =yj } ]
E[X ∣ Y = yj ] =
P [Y = yj ]
∞
1
= E [∑ xi 1X 1{Y =yj } ]
P [Y = yj ] i=1
∞
1
= ∑ xi P [X = xi , Y = yj ]
P [Y = yj ] i=1
∞
= ∑ xi P [X = xi ∣ Y = yj ].
i=1
E[E[X ∣ Y ]] = E[X]
16
Demostración. De acuerdo a la expresión 1.2.2 se tiene que
E[X] = ∑ x ∑ pX∣Y (x ∣ y)pY (y) = ∑ ∑ xpX∣Y (x ∣ y)pY (y) = ∑ E[X ∣ Y = y]py (y).
x y y x y
X ∼ G(p),
Ahora, sea Y la variable aleatoria que denota el número de fracasos hasta de obtener el primer éxito.
La v.a. Y tiene distribución geométrica de parámetro p y guarda relación con la v.a. X, ya que
Y = X − 1.
17
La función generadora de momentos de X está dada por
mX (t) = E(etX )
∞
= ∑ etx q x−1 p
x=0
1
= pet ( ),
1 − qet
y existe siempre que qet < 1, lo que implica t < −ln(q). La función generadora de momentos de la v.a. Y
es
p
MY (t) = E(et(X−1) ) = , siempre que t < −ln(q)
1 − qet
Por medio de las función generadora de momentos de la v.a. X se determina la esperanza y la varianza,
esto es
dmX 1 d2 mX 1+q
E(X) = (t)∣t=0 = , E(X 2 ) = 2
(t)∣t=0 = 2 ,
dt p dt p
por lo tanto,
1−p
V ar(X) = .
p2
Un procedimiento parecido conlleva que la esperanza y la varianza de Y son,
1−p 1−p
E(Y ) = , V ar(Y ) = .
p p2
18
1.3.3. Distribución binomial negativa y distribución de Pascal
Se efectúan ensayos independientes de Bernoulli con probabilidad de éxito p ∈ (0, 1) hasta que se
hayan obervado r-éxitos. Sea X la variable aleatoria que denota el el número de ensayos necesarios hasta
obtener los r-éxitos, también se puede definir la v.a. Y que denota el número de fracasos antes de obtener
los r-éxitos.
Decimos que la v.a. X con soporte {r, r + 1, . . .} tiene distribución de Pascal de parámetros (n, p) si
su función de masa es
n − 1 r n−r
fx (n) = ( )p q 1{r,r+1,...} (n).
r−1
Observe que por como se han definido las variables aleatorias X y Y se tiene la relación X = Y + r,
en consecuencia Y = X − r, de aquí que la función de masa de la v.a. Y sea
m+r−1 r m
fY (m) = ( )p q 1N0 (m).
r−1
La distribución de la v.a. Y se conoce como distribución binomial negativa de parámetros p y r. Con la
función de masa se puede calcular la función generadora de momentos de la variable Y , esto es
r
p
mY (t) = ( ) siempre que t < −ln(q).
1 − qet
La esperanza y la varianza de Y son respectivamente
kq kq
E(Y ) = , V ar(Y ) =
p p2
Ahora, podemos calcular la esperanza y la varianza de la v.a. X usando el hecho de que X = Y + k,
entonces
kq kq
E(X) = E(Y + k) = E(Y ) + k = + k y V ar(X) = V ar(Y ) = 2 .
p p
19
Observación 1.3.1. La distribución de Poisson se usa para aproximar los valores de la distribución
binomial de parámetros n y p cuando n → ∞ y p → 0, también se puede decir que la v.a. X adquiere la
distribución de Poisson bajo las anteriores condiciones.
Sea X ∼ Bin(n, p) y suponga que λn = npn tal que limn→∞ λn = limn→∞ npn = λ.
n
lı́m Pbin (X = k) = lı́m ( )pkn (1 − pn )n−k
n→∞ n→∞ k
n! λn k λn n−k
= lı́m ( ) (1 − )
n→∞ k!(n − k)! n n
λk 1 2 k−1 λn n λn −k
= lı́m n (1 − ) (1 − ) . . . (1 − ) (1 − ) (1 − )
n→∞ k! n n n n n
k
λ −λ
= e
k!
= PP oi (X = k)
Ω = {ω ∶ ω = (a1 , a2 , . . . , an ), aj = R0 , R1 , . . . , Rk )}.
Sea Xi la v.a que denota el número xi de veces que se obtuvo el resultado Ri en las n repeticiones. Note
que x0 , x1 , . . . , xk satisfacen ∑ki=0 xi = n, además cada xi está en N0 .
Sea ω un elemento de Ω. Por la independencia de las n-repeticiones, se tiene
p(ω) = P [(a1 , a2 , . . . , an )]
= P [R0 ]x0 P [R1 ]x2 . . . P [Rk ]xk
= px0 0 px1 1 . . . pxkk .
Ahora, hallar el número de sucesiones ordenadas (a1 , a2 , . . . , an ), en los cuales R0 ocurre x0 veces,
R1 ocurre x1 veces, . . . , Rk ocurre xk veces, es equivalente a repartir n objetos distintos en k urnas. La
figura 1.1 muestra lo anterior dicho.
20
R1 R2 Rk R0
...
1 2 ... n
n n n − x0 n − x0 − x1 − . . . − xk−1
( ) = ( )( )...( )
x0 , x1 , . . . , xk x0 x1 xk
n! (n − x0 )! (n − x0 − x1 − . . . − xk−1 )!
= ...
x0 !(n − x0 )! x1 !(n − x0 − x1 )! xk !(n − x0 − x1 − . . . − xk )!
n!
= .
x0 !x1 ! . . . xk !
Entonces la probabilidad de que el vector X = (X0 , X1 , . . . , Xk ) tome el valor x = (x1 , x2 , . . . , xk ) es
n
P [(X0 = x0 , X1 = x1 , . . . , Xk = xk )] = ( )px0 px1 . . . pxkk 1{∑ki=0 xi =n} (x). (1.3.1)
x0 , x1 , . . . , xk 0 1
La expresión (1.3.1) es en efecto una función de masa, pues
a) P [X = x] ≥ 0 para todo x en Rk .
Definición 1.3.2. Se dice que el vector aleatorio X = (X0 , X1 , . . . , Xk ) tiene distribución multinomial
de parámetros (n, p0 , p1 , . . . , pk ), en símbolos;
X ∼ M ulti(n, p0 , p1 , . . . , pk )
si su función de masa es
n
pX (x) = P [X = x] = ( )px0 0 px1 1 . . . pxkk 1{∑ki=0 xi =n} (x),
x0 , x1 , . . . , xk
21
Marginales.
La distribución multinomial es la distribución conjunta de las variables aleatorias X0 , X1 , . . . , Xk , por
lo tanto es posible hallar las distribuciones marginales, esto es; para Xj = (X0 , X1 , . . . , Xj ); para j < k,
un vector aleatorio formado por un sucojunto de variables aleatorias del vector X se puede obtener su
distribución.
Para esto, suponga que X ∼ M n(n, p0 , p1 , . . . , pk ) y note que
P [X0 = x0 , X1 = x1 , . . . , Xj = xj ] = P [X0 = x1 , X2 = x1 , . . . , Xj = xj , X = x],
donde x = xj+1 + xj+2 . . . + xk y X = Xj+1 + Xj+2 + . . . + Xk , por supuesto, X denota el número de veces
que ocurre el resultado R = Rj+1 ∪ Rj+2 ∪ . . . ∪ Rk con probabilidad P [R] = pj+1 + pj+2 + . . . + pk =
1 − p0 − p1 . . . − pj = p. El vector (X0 , X1 , . . . , Xj , X) tiene distribución multinomial de parámetros
(j + 1, p0 , p1 , . . . , pj , p). Por lo tanto
P [X0 = x0 , X1 = x1 , . . . , Xj = xj ] = P [X0 = x0 , X1 = x1 , . . . , Xj = xj , X = x]
n x
= ( )px px0 0 px1 1 . . . pj j , (1.3.2)
x0 , x 1 , . . . , x j , x
La demostración del siguiente teorema está en las lineas anteriores.
Teorema 1.3.3. Sea X un v.a tal que X ∼ M n(n, p0 , p1 , . . . , pk ), entonces para cada conjunto de indices
I ∶= {i0 , i1 , . . . , ij } ⊆ {0, 1, . . . , k}; 0 ≤ j < k el vector
X̃ ∼ M n(n, p0 , p1 , . . . , pj )
donde n = x + ∑ki=0 xi y p + ∑ji=0 pi = 1.
En particular, si j = 0 en (1.3.2) obtenemos
n
P [X0 = x0 ] = ( )px0 q n−x0 1{0,1,...,n} (x0 ),
x0
lo cual muestra que X0 ∼ Bin(n, p0 ).
Distribución condicional.
Suponga de nuevo que X ∼ M n(n, p0 , p1 , . . . , pk ). Considere la distribución condicional del ve.a X1 =
(X0 , X1 , . . . , Xj ) dado que el ve.a X2 = (Xj+1 , Xj+2 , . . . , Xk ) toma el valor x = (xj+1 , xj+2 , . . . , xk )
definidida por
P [X0 = x0 , . . . , Xj = xj , Xj+1 = xj+1 , . . . Xk = xk ]
P [X0 = x0 , . . . , Xj = xj ∣ Xj+1 = xj+1 , . . . Xk = xk ] =
P [Xj+1 = xj+1 , Xj+2 = xj+2 , . . . Xk = xk ].
De acuerdo a 1.3.1 y a 1.3.2 se tiene que
n!
px0 px1 . . . pxkk
x0 !x1 ! . . . xk ! 0 1
P [X0 = x0 , . . . , Xj = xj ∣ Xj+1 = xj+1 , . . . , Xk = xk ] =
n!
px′ pj+1
xj+1 xj+2
pj+2 . . . pxkk
xj+1 !xj+2 ! . . . xk !x′ !
x′ ! p 0 x0 p 1 x1 p j xj
= ( ) ( ) ...( ) ,
x0 !x1 ! . . . xj ! p p p
22
con p = 1 − ∑ki=j+1 pi y x′ = ∑ji=0 xi = n − x. Entonces, se dice que el vector aleatorio (X1 ∣ X2 ) tiene
p
distribución multinomial de parámetros (n − x, pp0 , pp1 , . . . , pj ), en símbolos;
p0 p1 pj
(X1 ∣ X2 ) ∼ M n (n − x, , ,..., ).
p p p
para todo valor real ti de t. Ahora, ya que se tiene la f.g.m. de X es posible algunos de sus momentos.
La derivada parcial respecto a algún ti ∈ t está dada por
∂M
[t] = n[et0 p0 + . . . + eti pi + . . . + etk pk ]n−1 eti pi . (1.3.3)
∂ti
Entonces, la esperanza de cada variable aleatoria Xi de X está dada por
∂M
E[Xi ] = [t]∣t=0 = npi .
∂ti
Derivando 1.3.3 respecto a ti de nuevo se obtiene
∂ 2M
[t] = n(eti pi )[et0 p0 + . . . + eti pi + . . . + etk pk ]n−2 ×
∂t2i
((n − 1)(eti pi ) + [et0 p0 + . . . + eti pi + . . . + etk pk ]) .
∂ 2M
E[Xi2 ] = [t]∣t=0 = n(n − 1)pi2 + npi .
∂t2i
V ar[Xi ] = npi (1 − pi ).
Para encontrar la matriz de covarianzas es necesario derivar 1.3.3 respecto a tj de t tal que i ≠ j, esto es
∂ 2M
[t] = n(n − 1)[et0 p0 + . . . + eti pi + . . . + etk pk ]n−2 eti pi etj pj .
∂ti ∂tj
23
De aquí que
∂ 2M
E[Xi Xj ] = [t]∣t=0 = n(n − 1)pi pj (1.3.4)
∂ti ∂tj
La covarianza para las variables aleatorias Xi , Xj del vector X tal que i ≠ j, es
24
Capítulo 2
La función de masa de la distribución geométrica de orden k introducida por Phillipou et al. [8] es
presentada en este capítulo desde el punto de vista de los autores; Aki et al. [1], Lo Bello et al. [3] y
Phillippou et al. [8].
X ∼ Gk (p).
(1) Aki et al. [1] presentan la siguiente expresión de la función de masa de la v.a X cuando n ∈ S;
n−k−1
P (X = n) = qpk (1 − ∑ P (X = i)) . (2.1.1)
i=0
25
donde en los primeros n−(k +1) ensayos no se ha obtenido ninguna racha de k éxitos, y los últimos
k + 1 ensayos constan de un fracaso seguido de una sucesión de k éxitos, por lo que
(2) Como en (1) el evento {X = n} con n ∈ S está constituido por sucesiones de longitud n que terminan
con la primera racha de k éxitos consecutivos.
En cada sucesión de longitud n, la primera racha de k éxitos consecutivos es precededida por suce-
siones de bloques de tipo
b1 = 0 , b2 = 1 0 , b3 = 1 1 0 , . . . , bk = 1 1 . . . 1 0 .
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
k−1
a) Barry et al. [3] presentan la siguiente fórmula recurrente de la función de masa de la v.a. X:
La deducción se hace de la siguiente manera. Sea Aj el conjunto de todas las sucesiones del
evento {X = n} que empiezan con el bloque bj y terminan con la racha de k éxitos consecu-
tivos, donde 0 ≤ j ≤ k. Note que
k
{X = n} = {X = n} ∩ ( ⊍ Aj ) .
j=1
Por lo tanto
k
f (n) = P (X = n) = ∑ P ({X = n} ∩ Aj )
j=1
k
= ∑ P (X = n ∣ Aj ) P (Aj ) . (2.1.4)
j=1
Sea
P (X = n ∣ Aj ) = f (n − j), (2.1.5)
26
y ya que
P (Aj ) = qpj−1 . (2.1.6)
Sustituyendo (2.1.5) y (2.1.6) en (2.1.4) se establece (2.1.3). En consecuencia
⎧
⎪ pk si n = k,
⎪
⎪
⎪ k
f (n) = ⎨qp si k + 1 ⩽ n ⩽ 2k,
⎪
⎪
⎪ k−1
⎩qf (n − 1) + . . . + qp f (n − k)
⎪ si n ⩾ 2k + 1.
27
donde la suma se hace sobre todos m1 , m2 , . . . , mk . En consecuencia,
m1 + . . . + mk m1 +...+mk m+k−(m1 +...+mk )
P [X = m + k] = ∑ ( )q p ,
m1 ,...,mk m1 , . . . , mk
para m ≥ 0.
En tabla 2.1 se encuentran las diferentes expresiones de la función de masa de la distribución de geométrica
de orden k.
f (n) cuando n ∈ S
f (n) = qpk (1 − ∑n−k−1
i=0 P (X = i))
f (n) = qf (n − 1) + qpf (n − 2) + . . . + qpk−1 f (n − k)
m +...+m
f (n) = ∑m1 ,...,mk ( m11 ,...,mkk )(1 − p)m1 +...+mk pm+k−(m1 +...+mk )
f (n)
F (n − (k + 1)) = 1 − para todo n ≥ k + 1.
qpk
En la tabla 2.2 se muestran algunos resultados de la distribucuíon geométrica de orden k para ciertos
valores de p.
28
La gráfica 2.1 representa los valores de la tabla 2.2 para los distintos valores de p.
Dis.geométrica de orden 2
probabilidades
0.6
0.5 p=0.25
p=0.5
0.4
p=0.75
0.3
0.2
0.1
valores de n
2 4 6 8 10
Figura 2.1: Gráfica de valores
29
⎡g(n + 1)⎤ ⎡ 0 1 0 ... 0⎤⎥ ⎡⎢ g(n) ⎤⎥
⎢ ⎥ ⎢
⎢g(n + 2)⎥ ⎢ 0 0 1 ... 0⎥⎥ ⎢⎢ g(n + 1) ⎥⎥
⎢ ⎥ ⎢
Yn = ⎢ ⎥=⎢ ⎥.⎢ ⎥
⎢ ⋮ ⎥ ⎢ ⋮ ⎥⎥ ⎢⎢ ⎥
⎢ ⎥ ⎢ ⋮ ⋮ ⋮ ⋮ ⎥
⎢g(n + k)⎥ ⎢qpk−1 qpk−2 qpk−3 . . . q ⎥⎦ ⎢⎣g(n − 1 + k)⎥⎦
⎣ ⎦ ⎣
= AYn−1 = An Y0 = qpk An 1,
que tiene una raíz real en (0, 1); pues pA (0) = −qpk−1 y pA (1) = pk .
Lema 2.3.1. Las raíces del polinomio característico de la matriz A son distintas y de valor absoluto
menor que uno.
Demostración. Observe que
k 1 k k
f( )=− ( ) + qpk .
k+1 k+1 k+1
Entonces, para λ ∈ (0, 1) se tiene que
1 k k
(1 − λ)λk − ( ) ≤ 0,
k+1 k+1
30
k k
la igualdad solo ocurre cuando λ = k+1 . Por lo tanto λ = k+1 es una raíz de f de multiplicidad m = 2 si y
k
solo si p = k+1 . En consecuencia, las raíces de pA son distintas.
Ahora, veamos que si λ es un número complejo tal que ∣λ∣ ≥ 1 este número no puede ser una raíz de
pA .
En conclusión, las raíces de pA deben ser de valor absoluto menor que uno.
Por el lema anterior, la matriz A es diagonalizable. Más aún, si λ1 , λ2 , ..., λk son las distintas raíces
de la ecuación caraterística de A, y si P es la matriz de Vardermonde V (λ1 , λ2 , ..., λk ), i.e.,
⎡ 1 1 1 . . . 1 ⎤⎥
⎢
⎢ λ1 λ2 λ3 . . . λk ⎥⎥
⎢
⎢ ⎥
P (λ1 , λ2 , . . . , λk ) = ⎢ λ21 λ22 λ23 . . . λ2k ⎥,
⎢ ⎥
⎢ ⋮ ⋮ ⋮ ⋱ ⋮ ⎥⎥
⎢
⎢λk−1 λk−1 λk−1 . . . λkk−1 ⎥⎦
⎣ 1 2 3
31
Entonces la función generadora de momentos de Y
∞
mY (t) = E[etY ] = ∑ etn P (Y = n)
n=0
existe sobre el intervalo (−∞, h). Para dar una expresión en términos de p se usa la relación de recurrencia
(2.3.1), para obtener:
∞
mY (t) = pk + ∑ etn [qg(n − 1) + qpg(n − 2) + . . . + qpk−1 g(n − k)]
n=1
∞ ∞ ∞
= pk + qet ∑ etj g(j) + qpe2t ∑ etj g(j) + ... + qpk−1 ekt ∑ etj g(j)
j=0 j=0 j=0
k t 2t k−1 kt
= p + qe mY (t) + qpe mY (t) + ... + qp e mY (t).
De aquí que
pk
mY (t) =
1 − (qet + qpe2t + ... + qpk−1 ekt )
pk (1 − pet )
= .
1 − et + (1 − p)pet(k+1)
Usando la relación Y = X − k, se tiene la expresión dada por Barry y Lo Bello [3] para la f.g.m.; i.e.
pk etk (1 − pet
mX (t) =
1 − et + (1 − p)pk et(k+1)
Observación 2.3.2. Sea F la v.a. de función de masa
⎧
⎪
⎪ qpm−1 , m = 1, 2, 3, ..., k
⎪
pF (m) = ⎨
⎪
⎪ k
⎩ p ,
⎪ m = 0.
La función generadora de momentos de la v.a. F es:
qet − qpk e(k+1)t
mF (t) = E[etF ] = pk + qet + qpe2t + ... + qpk−1 ekt = pk + .
1 − pet
Por consiguiente
1 + kpk+1 − (k + 1)pk
E[F ] = m′F (0) =
q
q + 3p + 2p2 − pk (p + 2p2 + 2(k + 1)p + (k + 1)2 q)
E[F 2 ] = m′′F (0) = .
q
Por lo tanto, la funciones generadoras de momentos de las v.a. Y y F se relacionan así: mY (t) = pk +
mY (t)[mF (t) − pk ]. De aquí que
pk
mY (t) = .
1 + pk − mF (t)
32
Derivando mY (t) se obtiene:
pk m′F (t)
m′Y (t) =
[1 + pk − mF (t)]2
De aquí que
pk E[F ] E[F ]
E[Y ] = = .
p2k pk
Derivando nuevamente,
pk m′′F (t)[1 + pk − mF (t)] + 2pk [m′F (t)]2
m′′Y (t) = .
[1 + pk − mF (t)]3
En consecuencia
2
p2k E[F 2 ] + 2pk E[F ]2 E[F 2 ] E[F ]
E[Y 2 ] = 3k
= k
+ 2( k ) .
p p p
1 0
P =[ ], (2.4.1)
τ T
Ahora, definamos la v.a. Z = ı́nf{n ∈ N ∶ Xn = 0}, que se sabe sigue una distribución tipo-fase; en
símbolos Z ∼ P H(α, T ); donde el vector de probabilidades iniciales es α = (1, 0, . . . , 0) y T es la matriz
de transición de probabilidades del conjunto de estados S ′ = {1, 2, . . . k}. Las probabilidades de transición
se pueden ver en el siguiente esquema
q
p q q q q
2 3 4 ... k
p p p
Figura 2.2:
33
Por tanto,
⎧
⎪ p si j = i + 1 para i = 1, 2, . . . , k,
⎪
⎪
⎪
pij = ⎨q si j = 1,
⎪
⎪
⎪
⎩0 en otro caso.
⎪
Con lo cual obtenemos la matriz de transición
⎡q p 0 ⋯ 0⎤⎥
⎢
⎢q 0 p ⋯ 0⎥⎥
⎢
T =⎢ ⎥.
⎢⋮ ⋮ ⋮ ⋮ ⎥⎥
⎢
⎢q 0 0 ⋯ 0⎥⎦
⎣
Esta matriz es subestocastica, es decir que al menos la suma de una fila es menor que 1. Ya que es suficiente
conocer (α, T ) pues τ = [I − T ]1, tenemos que
⎡1 − q −p 0 ⋯ 0⎤⎥ ⎡⎢
⎤ ⎡ 0 ⎤ 1
⎢ ⎥ ⎢ ⎥
⎢ −q 1 −p ⋯ 0⎥⎥ ⎢⎢
⎥ ⎢ 0 ⎥ 1
⎢ ⎥ ⎢ ⎥
τ =⎢ ⎥ = ⎢ ⎥.
⎥⎢
⎢ ⋮ ⋮ ⋮ ⋮ ⎥⎥ ⎢⎢
⎥ ⎢ ⋮ ⎥ ⋮
⎢ ⎥ ⎢ ⎥
⎢ −q 0 0 ⋯ 1⎥⎦ ⎢⎣
⎥ ⎢ p ⎥ 1
⎣ ⎦ ⎣ ⎦
Entonces la función de masa de la variable aleatoria Z ∼ Gk (p) puede ser expresada en terminos de
la distribución tipo-fase, es decir;
n−1
⎡q p 0 ⋯ 0⎤⎥ ⎡⎢ 0 ⎤
⎢ ⎥
⎢q 0 p ⋯ 0⎥⎥ ⎢⎢ 0 ⎥
⎢ ⎥
pZ (n) = αT n−1 τ = [ 1, 0, . . . , 0 ] ⎢ ⎥ ⎢ ⎥, (2.4.2)
⎢⋮ ⋮ ⋮ ⋮ ⎥⎥ ⎢⎢ ⋮ ⎥
⎢ ⎥
⎢q 0 0 ⋯ 0⎥⎦ ⎢⎣ p ⎥
⎣ ⎦
para n = k, k + 1, . . ..
Se ha mostrado que Zk ∼ P H(α, T ), lo que permite establecer la función de masa de la v.a Sk = ∑Zi=0 k
Yi
donde Y1 , Y2 , . . . es una sucesión de variables aleatorias iid e independientes de Zk , que toman valores en
el conjunto N = {1, 2, . . .}. Por la proposición xx; Eisele [5], sabemos que la formula recursiva para la
distribución de Sk está dada por
⎧
⎪
⎪ p (0) = α0 si t = 0,
⎪ S
⎪
P [S = i] = ⎨d∧t ∗j
d∧(i−1) i−1
∗j
⎪
⎪
⎪ ∑ a p
j Y (i) − ∑ b j ∑ pS (u)pY (i − u))
( si t ≥ 1,
⎪
⎩ j=1 j=1 u=1
donde p∗j
Y es la j-ésima convolución de las variables aleatorias Y1 , Y2 , . . . , Yj y aj , bj son constantes. Ahora
bien, por la proposición xxx las constantes bj son los coeficientes del polinomio característico de la matriz
(Ix − T ),
det(T − xI) = −xk + qpxk−1 + . . . + qpk−1 .
Por tanto
bj = pj−1 (1 − p); j = 1, 2, . . . , k.
34
Ahora, teniendo en cuenta que Tk ∼ Gk (p), tenemos que
⎧
⎪0
⎪ para n = 1, 2, . . . , k − 1
P [Tk = n] = ⎨ k
⎩p para n = k.
⎪
⎪
35
Capítulo 3
N0 = {0, 1, . . .} = N ∪ {0}.
s(x) = x1 + x2 + . . . + xk ;
x! = x1 !x2 ! . . . xk !;
qx = q1x1 q2x2 . . . qkxk .
3.1. Introducción
Sea X̃ = (X0 , X1 , . . . , Xk ) un v.a. tal que X̃ ∼ M n(n, p0 , p1 , . . . , pk ). Consdere el vector aleatorio
X = (X1 , X2 , . . . , Xk ∣ X0 = r),
p1
que se sabe tiene distribución multinomial de parámetros (n − x0 ) y ( 1−p , p2 , . . . , 1−p
0 1−p0
pk
0
), ver sección
1.3.5 . El condicionamiento X0 = r implica que el resultado R0 se ha obtenido r de veces en las n
repeticiones del expermiento, es decir r ∈ {0, 1, . . . , n}. Ahora, si r > n cabe preguntarse cual es la
distribución del vector aleatorio (X1 , X2 , . . . , Xk ) dado que X0 = r donde r ∈ N0 .
36
R1 R2 Rk R0
...
m-r m
Figura 3.1:
En la figura 3.1 m es el número de veces que se ha repetido el experimento hasta obtener r-veces el
resultado R0 .
El objetivo a continuación es hallar la probabilidad del vector X, etablecer su distribución y propie-
dades.
Sea Y una v.a. que toma los valores 0, 1, . . . , k con probabilidades P [Y = 0] = p y P [Y = i] = qi ;
i = 1, 2, . . . , k, tales que ∑ki=1 qi + p = 1. Definiendo q y q∗ tales que
k
qi
q = 1 − p = ∑ qi y qi∗ = P [Y = i ∣ Y > 0] = .
i=1 q
Suponga que se hacen observaciones independientes de la v.a. Y hasta que se observa por r-ésima vez
el evento {Y = 0}. Definimos:
(i) X0 es la v.a que denota el número de observaciones necesarias hasta obtener el evento {Y = 0}.
(ii) X = (X1 , X2 , . . . , Xk ) es un vector aleatorio tal que cada Xi es el número de veces que se observa
el evento {Y = i} hasta lograr el objetivo; i = 1, 2, . . . , k.
(iii) S(X) = S(X1 , X2 , . . . , Xk ) = X1 + X2 + . . . + Xk es una v.a. que toma valores enteros positivos.
(a) La v.a. X0 tiene distribución binomial negativa (o de Pascal) de parámetros p y r con soporte en
D = {r, r + 1, r + 2, . . .}, es decir
m − 1 r m−r m − 1 r m−r
P [X0 = m] = ( )p q 1D (m) = ( )p q 1D (m)
r−1 m−r
(b) La v.a. S(X) tiene distribución binomial negativa de parámetros p y r, con soporte en N0 , es decir
n+r−1 r n
P [S(X) = n] = ( )p q 1N0 (m).
r−1
Note que X0 = S(X) + r.
37
lo tanto
P [X = x ∣ X0 = m] = P [X1 = x1 , X2 = x2 , . . . , Xk = xk ∣ S(X) = m − r]
m−r
= ( )(q ∗ )x1 (q2∗ )x2 . . . (qk∗ )xk
x1 , x 2 , . . . , x k 1
×1Nk0 (x1 , x2 , ..., xk )1{S(x)=m−r} (x1 , x2 , ..., xk )
m−r
)(q∗ ) 1Nk0 (x)1{S(x)=m−r} (x),
x
≡ (
x
La ultima expresión coincide con la llamada distribución multinomial negativa presentada por Maasaki
Sibuya et al. [12].
Definición 3.1.1. Un vector aleatorio X tiene distribución binomial negativa k-dimensional de paráme-
tros r ∈ N y q = (q1 , q2 , . . . , qk ); qi ∈ (0, 1); i = 1, 2, . . . , k; ∑ki=1 qi < 1, en símbolos:
si su función de masa es
s(x) + (r − 1) x
pX (x) ≡ P [X = x] = pr ( )q 1Nk0 (x),
x, (r − 1)
donde p = 1 − ∑ki=1 qi .
38
Observación 3.1.2. BN (k) (x; r, q) es una función de probabilidad.
u + (r − 1) u x
= pr ∑ ( )( )q 1Nk0 (x),
x∈Nk0
u x
x1 + x2 + . . . + xk (x1 − 1) + x2 + . . . + xk
( )=( )+
x1 , x2 , . . . , xk (x1 − 1), x2 , . . . , xk
x1 + (x2 − 1) + . . . + xk x 1 + x2 + . . . + xk
( ) + ⋅⋅⋅ + ( ),
x1 , (x2 − 1), . . . , xk x1 , x2 , . . . , (xk − 1)
Ahora bien; si X ∼ G (k) (x, q), entonces por la identidad anterior su función de masa verifica la siguiente
fórmula recursiva: G k (0; q) ≡ pX (0) = p, y para x = (x1 , x2 , . . . , xk ) ∈ Nk , se obtiene
x 1 + x 2 + . . . + x k x1 x2
G (k) (x, q) ≡ pX (x) = ( )q1 q2 . . . qkxk
x1 , x 2 , . . . , x k
= q1 pX (x)((x1 − 1), x2 , . . . , xk ) + q2 pX (x)((x1 , (x2 − 1), . . . , xk ) + . . .
+ qk pX (x)((x1 , x2 , . . . , (xk − 1))
k
= ∑ G k (x̃i ; q),
i=1
39
donde x̃i = (x1 , x2 , . . . , xi−1 , (xi − 1), xi+1 , . . . , xk ).
En el caso en que X ∼ BN (k) (x; r, q); r ≥ 2, la anterior indentidad conduce a la siguiente fórmula
recursiva: BN (k) (0; r, q) = pr , y para x = (x1 , x2 , . . . , xk ) ∈ Nk , se tiene
k
BN (k) (x; r, q) = ∑ qi BN (k) (x̃i ; r, q) + pBN (k) (x̃; (r − 1), q),
i
MX (t) = pr [1 − M (t)]−r ,
donde M (t) = q1 et1 + q2 et2 + ... + qk etk y éxiste siempre que ti < − ln(q), i = 1, 2, ..., k.
(2) La f.g.p. (función generadora de probabilidades) de X es:
GX (s) = pr [1 − G(s)]−r ,
M(X∣X0 =m) (t) = [q1∗ et1 + q2∗ et2 + ... + qk∗ etk ](m−r) ; t ∈ Rk .
40
Haciendo m − r = i y M (t) = q1 et1 + q2 et2 + . . . + qk etk en la última expresión, se obtiene
∞
i + (r − 1)
MX (t) = pr ∑ ( )[M (t)]i (3.2.1)
i=0 i
= p [1 − M (t)]−r .
r
La serie en (3.2.1) es la conocida serie binomial que tiene radio de convergencia R = 1, por lo tanto MX (t)
éxiste siempre que M (t) < 1, esto es; para todos los t = (t1 , t2 , ..., tk ) ∈ Rk tales que ti < h ∶= − ln(q);
i = 1, 2, ..., k. En efecto, bajo estas condiciones
Queda demostrada la parte (1) del teorema. La demostración de la parte (2) sigue las mismas líneas.
Las expresiones dadas en (3) se obtienen por medio de la f.g.m. como sigue:
∂MX
[t] = rpr [1 − M (t)]−(r+1) qi eti .
∂ti
Entonces, cada componente del vector de medias está dado por
∂MX qi
E[Xi ] = [t]∣t=0 = r .
∂ti p
Un procedimiento análogo arroja que
∂ 2 MX r qi2 ∂ 2 MX r
V ar[Xi ] = [t]∣ t=0 = ( + qi ) y Cov[Xi , Xj ] = [t]∣t=0 = 2 qi qj ; i ≠ j,
∂t2i p p ∂ti ∂tj p
Observación 3.2.2. Sean X1 , X2 , ..., Xn vectores aleatorios independientes tal que Xi ∼ BN (k) (x; ri , q);
i = 1, 2, ..., n. Definamos el vector Z = ∑ni=1 Xi , entonces Z ∼ BN (k) (x; r = ∑ni=1 ri , q). En efecto, puesto
que cada Xi tiene f.g.m.
MXi [t] = pri [1 − M [t]]−ri ; i = 1, 2, . . . , n.
Por el teorema 1.2.25 se tiene que
n
MZ [t] = ∏ pri [1 − M [t]−ri = p∑i=0 ri [1 − M [t]]− ∑i=0 ri ,
n n
i=0
41
3.3. Distribuciones marginales y distribuciones condicionadas
El nombre distribución binomial negativa k-dimensional se debe a que si X ∼ BN (k) (x; r, q), entonces
las distribuciones marginales, las distribuciones condicionadas y algunas funciones de lineales de X siguen
una distribución binomial negativa j-dimensionales; j = 1, 2, ..., k.
Teorema 3.3.1. Si X ∼ BN (k) (x; r, q) , entonces para cada conjunto de índices I ∶= {i1 , i2 , ..., ij } ⊆
{1, 2, ..., k}; 1 ≤ j ≤ (k − 1), se tiene que
donde
1
q̃ = (qi1 , qi2 , ..., qij ); I c = {1, 2, ..., k} − I.
(1 − ∑i∈I c qi )
Teorema 3.3.2. Suponga que X ∼ BN (k) (x; r, q), que = {I1 , I2 , ..., Ij } es una partición disjunta de
{1, 2, ..., k}; 2 ≤ j ≤ k, Ii ≠ ∅; i = 1, 2, ..., j. Entonces
⎛ ⎞
X̂ ∶= ∑ Xi , ∑ Xi , ..., ∑ Xi ∼ BN (j) (x; r, q̂),
⎝i∈I1 i∈I2 i∈Ij ⎠
donde
⎛ ⎞
q̂ = ∑ qi , ∑ qi , ..., ∑ qi .
⎝i∈I1 i∈I2 i∈Ij ⎠
42
Teorema 3.3.3. Suponga que X ∼ BN (k) (x; r, q). Particione el v.a. X y el vector de parámetros q de la
siguiente manera:
k r
s(x) + (r − 1) x
= (1 − ∑ qi ) ( )q 1Nk0 (x),
i=1 x, (r − 1)
por lo tanto
(X ∣ X(k+1) = r − 1) ∼ BN (k) (x; r, q).
43
3.4. Transformaciones lineales
Al aplicar una tranformación lineal bastante simple como es el producto Ax al vector aleatorio X
donde A es una matriz m × k con entradas en R se obtiene un nuevo vector aleatorio Y. En esta sección
se da la f.g.m y la función de masa del v.a Y.
Teorema 3.4.1 (Tranformaciones lineales). Suponga que X ∼ BN (k) (x; r, q) y que A = [aij ]m×k ∈
Mm×k (R) es una matriz no nula. Considere la función lineal A ∶ Nk0 → D definida por
A(x) ∶= Ax
h
donde ∣ti ∣ < mα ; α ∶= máx{∣aij ∣; i = 1, 2, ..., m, j = 1, 2, ..., k}; h ∶= − ln(q).
44
Como consecuencia del teorema 3.4.1 se tiene el siguiente corolario que involucra la distribución
geométrica k-dimensional.
Corolario 3.4.2. Suponga que X ∼ G k (x, q), y que a ∈ Rk ; aT = [a1 , a2 , . . . , ak ], a ≠ 0. Considere la
transformación lineal L ∶ Nk0 Ð→ D definida por:
k
L(x) ∶= aT x = ∑ ai xi ,
i=1
donde D = L(Nk0 ). Entonces, la variable aleatoria L(X) tiene las siguientes características.
(1) Función generadora de momentos;
k −1
tai −ln(q)
ML(X) (t) = p [1 − ∑ qi e ] ; ∣t∣ <
i=1 ξ
donde ξ = max{∣ai ∣ ∶ i = 1, 2, . . . , k⌉.
(2) L(X) tiene función de masa
s(x) x
P [L(X) = m] = p( )q 1Nk0 (x)1D (m)
x
Demostración. Para demostrar (1), haga ξ = max {∣ai ∣ ∶ i = 1, 2, . . . , k}, por lo cual
k k
∑ qi e∣tai ∣ ≤ ∑ qi e∣t∣ξ = qe∣t∣ξ .
i=1 i=1
3.5. Resultados
Suponga que X ∼ G k (x, q). La distribución de la v.a. L(X) = (∑ki=1 ixi ) + k es denominada por
Philippou et al. [8], como Distribución geométrica de orden k. L(X) denota el número de ensayos ne-
cesarios hasta obtener la primera racha de k-éxitos consecutivos en ensayos independientes de Bernoulli
con probabilidad de éxito α ∈ (0, 1). Para obtener la función de masa haga
p = αk y qi = βαi−1 ; β = 1 − α, i = 1, 2, . . . , k
en la parte (2) del corolario 3.4.2. En consecuencia
s(x) s(x) n+k−s(x)
P [L(X) = n + k] = ∑ ( )β α 1Nk0 (x)1D (n). (3.5.1)
L(x)=n x
Por la parte (1) del mismo corolario la f.g.m es
k −1
k i−1 it αk (1 − αet )
ML(X) (t) = α [1 − ∑ βα e ] = ,
i=1 1 − et + βαk e(k+1)t
)
k
donde ∣t∣ < − ln(1−α
k . Este es el resultado principal de Barry y Lo Bello [3].
45
Bibliografía
[1] Aki, S., Kuboki, H., and Hirano, K. On discrete distributions of order k. Annals of the Institute
of Statistical Mathematics 36, 3 (1984), 431–440.
[2] Balakrishnan, N., and Nevzorov. A primer on statistical distributions. A John Wiley & Sons,
2003.
[3] Barry, M. J., and Bello, A. J. L. The moment generating function of the geometric distribution of
order k. The Fibonacci Quarterly 31, 2 (1993), 178–180.
[4] Billingsley, P. Probability and measure. John Wiley & Sons, 2008, pp. 388–389.
[5] Eisele, K.-T. Recursions for compound phase distributions. Insurance: Mathematics and Economics
38, 1 (2006), 149–156.
[6] Koutras, M. V., and Eryilmaz, S. Compound geometric distribution of order k. Methodology and
Computing in Applied Probability 19, 2 (2017), 377–393.
[8] Philippou, A., and Muwafi, A. Waiting for the k-th consecutive success and the Fibonacci sequence
of order k. Fibonacci Quarterly (1982), 28–32.
[9] Philippou, A. N., Georghiou, C., and Philippou, G. N. A generalized geometric distribution and
some of its properties. Statistics & Probability Letters 1, 4 (1983), 171–175.
[11] Shiryaev, A. Probability. Graduate Texts in Mathematics. Springer New York, 1995.
[12] Sibuya, M., Yoshimura, I., and Shimizu, R. Negative multinomial distribution. Annals of the
Institute of Statistical Mathematics 16, 1 (1964), 409–426.
46