Está en la página 1de 46

DISTRIBUCIÓN BINOMIAL NEGATIVA k-DIMENSIONAL Y

APLICACIONES

JOSE MARIO BOGOTÁ

UNIVERSIDAD DEL VALLE


FACULTAD DE CIENCIAS
DEPARTAMENTO DE MATEMÁTICAS
SANTIAGO DE CALI
2019
JOSE MARIO BOGOTÁ

Trabajo de grado presentado como requisito


para optar al título de Matemático.

Director:
DR. MIGUEL ANGEL MARMOLEJO

UNIVERSIDAD DEL VALLE


FACULTAD DE CIENCIAS
DEPARTAMENTO DE MATEMÁTICAS
SANTIAGO DE CALI
2019
Contenido

Introducción 4

1. Preliminares 6
1.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Variables aleatorios, vectores aleatorios y otras propiedades . . . . . . . . . . . . . . . . . 9
1.2.1. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2. Esperanza condicional respecto a eventos y σ álgebras . . . . . . . . . . . . . . . . 16
1.2.3. Función generadora de momentos conjunta . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1. Distribución geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.2. Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.3. Distribución binomial negativa y distribución de Pascal . . . . . . . . . . . . . . . 19
1.3.4. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.5. Distribución multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2. La distribución geométrica de orden k 25


2.1. Función de masa de la distribución geométrica de orden k . . . . . . . . . . . . . . . . . . 25
2.2. Resultados de la dist. Geométrica de orden k . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3. Función generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4. Distribución compuesta de la dist. geométrica de orden k . . . . . . . . . . . . . . . . . . . 33

3. Distribución binomial negativa k−dimensional 36


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2. Función generadora de momentos y otras características . . . . . . . . . . . . . . . . . . . 40
3.3. Distribuciones marginales y distribuciones condicionadas . . . . . . . . . . . . . . . . . . 42
3.4. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.5. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3
...

4
Introducción

Considere una sucesión de ensayos independientes de Bernoulli con probabilidad de éxito p ∈ (0, 1).
La distribución del número de ensayos necesarios para obtener el primer éxito se denomina distribución
geométrica de parámetro p. Sea ahora k ∈ {2, 3, . . .}; la distribución del número X de ensayos necesarios
para obtener por primera vez k éxitos consecutivos se conoce como distribución geométrica de orden k.
En símbolos;

X ∼ Gk (p).
El cálculo de la función de masa de esta distribución fue introducido por Philippou y Muwafi [8],
quienes además relacionan el problema con sucesiones de Fibonacci de orden k. Desde entonces, estos
y otros autores han desarrollado una gran variedad de conceptos teóricos y aplicados alrededor de esta
distribución; entre ellos están, el cálculo de la función generadora de probabilidad, luego el cálculo de la
función generadora de momentos y recientemente, la distribución geométrica compuesta de orden k.
El propósito principal de este trabajo es el de presentar detalladamente los aspectos teóricos más re-
levantes de esta distribución, como son la función generadora de probabilidad, la función generadora de
momentos, la esperanza, la varianza, entre otros; incluyendo varias expresiones de la función de masa
asociada a la variable aleatoria X [3, 9]. La distribución geométrica de orden k permite definir las distri-
buciones binomial negativa y de Poisson de orden k, introducidas por Philippou y Georghiou [9], también
la distribucíon geométrica compuesta de orden k, estudiada por Eryilmaz y Koutras [6].Ya que las ultimas
tres distribuciones mencionadas se deducen gracias a la distribución geométrica de orden k, un propósito
de este trabajo es el de presentar detalladamente la relación entre ellas.
Como objeto de estudio la distribución geométrica resulta muy interesante; además de su desarrollo
teórico, su campo de aplicación parece amplio; desde control de calidad y confiabilidad, hasta sicología,
finanzas, ecología, etc [6]. En este trabajo se exhibirá alguna aplicación de esta distribución.

5
Capítulo 1

Preliminares

Sea X la variable aleatoria que denota el número de fracasos hasta obtener el r-ésimo éxito, entonces
se dice que X tiene distribución binomial negativa de parámetros r y p; X ∼ BN (r, p), con función de
masa
m+r−1 k m
pX (m) = ( )p q , m ∈ N0 .
r−1
La distribución binomial negativa hace parte de la fmilia de distribuiones discretas y es bastante conocida
en la teoría de probabilidad. La generalización de esta distribución ha sido objeto de estudio por parte
de varios autores entre los cuales están Philippou et al. [9], Sibuya et al. [12], entre otros. En particular
Philippou et al. presentan la distribución binomial negativa de de orden k cuya función de masa es
x1 + . . . + xk , r − 1 y q x1 +...+xk
P (X = x) = ∑ ( )p ( )
x1 ,...,xk m1 , . . . , mk , r − 1 p

donde, x1 + 2x2 + . . . + kxk = x − kr, ver [9].


La anterior expresión puede esribirse de manera mas general, como se verá en el capitulo tres de este
trabajo, donde además se presentarán algunas características importantes de la distribución en cuestion
que llamaremos distribución Binomial Negativa k-dimensional.
Para mostrar el desarrollo teórico de la distribución binomial negativa k-dimensional son necesarias
herramientas de la teoría de probabilidad y estadística, tales como el concepto de función de probabili-
dad, vectores aleatorios, esperanza condicional, y la distribución multinomial que juega un rol bastante
importante en el estudio a realizar. En este capítulo se hace una revisión de tales conceptos basada en los
textos [11], [7], [10], [2].

1.1. Conceptos básicos


En esta sección se presentan algunos conceptos y resultados básicos de la teoría de la probabilidad,
como son; espacio de probabilidad, el concepto de función de probabilidad y algunas de sus propiedades,
además el concepto de probabilidad condicional, entre otros.
Definición 1.1.1. Un espacio de probabilidad es un modelo matemático que se emplea para estudiar
fenómenos aleatorios, consta de una tripla (Ω, F, P ), donde: Ω es un conjunto no vacío, llamado espacio
muestral; F es una colección de subconjuntos de Ω, cuyos elementos se denominan eventos, y que tiene
estructura de σ-álgebra; i.e.,

6
(σ1 ) Ω ∈ F.

(σ2 ) Si A ∈ F, entonces A∁ ∈ F.

(σ3 ) Si {An }∞
n=1 es una suceción de elementos de F, entonces ⋃ An ∈ F,
n=1

y P ∶ F → [0, 1] es una función de probabilidad; i.e.,

(Po ) Para todo A ∈ F, 0 ≤ P (A) ≤ 1.

(P1 ) P (Ω) = 1.

(P2 ) La función P es σ − aditiva, esto es, para cualquier sucesión {An }∞


n=1 de eventos disjuntos:

∞ ∞
P [ ⊍ An ] = ∑ (An ) .
n=1 n=1

Ejemplo 1.1.2. Se lanza una moneda n veces y se guardan los resultados de cada lanzamiento como un
conjunto ordenado (a1 , a2 , . . . , an ) donde ai = 1 es cara (éxito) y ai = 0 es sello (fracaso). El espacio
muestral es

Ω = {ω ∶ ω = (a1 , a2 , . . . , an ), ai = 0, 1}

A cada punto ω se le asigna la probabilidad

p(ω) = p∑i ai q n−∑i ai ,

donde los números no negativos p y q satisfacen (p + q) = 1. Vamos a ver que ∑ω∈Ω p(ω) = 1. Considere
todos los posibles resultados ω para los cuales ∑i ai = k donde k = 0, 1, . . . , n. El número de maneras de
organizar k unos en n lugares está dado por el coeficiente binomial (nk). Por lo tanto
n
n
P [Ω] = ∑ p(ω) = ∑ ( )pk q n−k = (p + q)n = 1.
ω∈Ω k=0 k

En consecuencia, el espacio Ω, junto con F = P(Ω) (partes de Ω) y el conjunto de probabilidades P (A) =


∑ω∈A p(ω) forman un espacio de probabilidad.
En la siguiente proposición se enuncian algunas propiedades básicas de la función de probabilidad.
Su demostración se puede ver en [10].

Proposición 1.1.3. Sea (Ω, F, P ) un espacio de probabilidad, A,B eventos en F,

(a) P [∅] = 0.

(b) P [A] = 1 − P [A∁ ].

(c) P [B − A] = P [B] − P [B ∩ A].

(d) Si A ⊆ B entonces P [A] ≤ P [B] (propiedad de monotonía).

7
(e) Si {An }∞
n=1 es una suceción en F entonces

∞ ∞
P [ ⋃ An ] ≤ ∑ P [An ]
n=1 n=1

En la teoría de probabilidad es conveniente conocer alguna información previa cuando se quiere co-
nocer la probabilidad de ocurrencia de cierto evento, es decir; la probabilidad de ocurrencia del evento A
dado que otro evento B ha ocurrido. Este importante concepto es llamado probabilidad condicional y se
define como sigue.

Definición 1.1.4. Sea (Ω, F, P ) un espacio de probabilidad y B ∈ F con P (B) > 0. Para cada A ∈ F se
define probabilidad condicional de A dado B como

P [A ∩ B]
P [A ∣ B] = .
P [B]
Observación 1.1.5. La probabilidad condicional es una función de probabilidad puesto que satisface las
propiedades (Po ), (P1 ) y (P2 ) de la deficinión 1.1.1. En consecuencia (Ω, F, P [⋅ ∣ ⋅]) es un espacio de
probabilidad.

La probabilidad de un evento se puede dar en términos de sus probabilidades condicionales dado los
eventos que satisfacen cierta condición. Este resultado está consignado en el siguiente teorema.

Teorema 1.1.6 (Fórmula de la probabilidad total). Sea (Ω, F, P ) un espacio de probabilidad y P =


{B1 , B2 , . . .} una partición contable de Ω; esto es, para cada Bi ∈ F, P [Bi ] > 0, Bi ∩ Bj = ∅ si i ≠ j y
Ω = ⊍∞ i=1 Bi . Entonces para cualquier evento A,


P [A] = ∑ P [A ∣ Bi ]P [Bi ].
i=1

Demostración. Sea A un evento en F, note que



A = A ∩ Ω = A ∩ ⊍ Bi .
i=1

Por la σ-aditividad de P , se tiene que



P [A] = P [A ∩ ⊍ Bi ]
i=1

= ∑ P [A ∩ Bi ]
i=1

= ∑ P [A ∣ Bi ]P [Bi ].
i=1

8
Sean A y B dos eventos. Suponga que la ocurrencia del evento A no se ve afectado por la ocurrencia
del evento B. De acuerdo a la definición de probabilidad condicional se podría pensar en la independencia
del evento A dado que el evento B ha ocurrido, es decir;

P [A ∣ B] = P [A].

Ya que
P [A ∩ B]
P [A ∣ B] = ,
P [B]
se tiene que
P [A ∩ B] = P [A]P [B]
Lo que conduce a al concepto de independencia de eventos, cuya definición es como sigue.

Definición 1.1.7. Los eventos A y B son independientes si

P [A ∩ B] = P [A]P [B].

Observación 1.1.8. El concepto de independencia de dos eventos puede ser extendido a cualquier con-
junto de n eventos. Así pues, se dice que los eventos A1 , A2 , . . . , An son independientes si para el conjunto
de indices {i1 , i2 , . . . , ik } ⊆ {1, 2, . . . , n} donde k = 1, 2, . . . , n se cumple que
k k
P [ ⋂ Aij ] = ∏ P [Aij ] .
j=1 j=1

Mas aún, las álgebras F1 , . . . , Fn son indepedientes si todos los eventos A1 , . . . , An que pertenecen res-
pectivamente a F1 , . . . , Fn son independientes.

1.2. Variables aleatorios, vectores aleatorios y otras propiedades


En esta sección se definen los conceptos de variable aleatoria y vector aleatorio, y algunas de sus
propiedades.

Definición 1.2.1. Sea (Ω, F, P ) un espacio de probabilidad. Una función X ∶ Ω Ð→ R es una variable
aleatoria (v.a.) si es una función medible de (Ω, F) en (R, B(R)), es decir, si para todo B ∈ B(R) se
verifica que
X −1 (B) = {ω ∈ Ω ∶ X(ω) ∈ B} ∈ F.

Observación 1.2.2. La v.a. X induce una medida de probabilidad en (R, B(R)) definida como

PX [B] = P (X −1 (B)) = P [{ω ∈ Ω ∶ X(ω) ∈ B}],

de acuerdo a esto, si B = (−∞, x], la probabilidad del evento X −1 (−∞, x] es

PX ((−∞, x]) = P (X −1 (−∞, x]) = P (X ≤ x) .

Por lo tanto, (R, B(R), PX ) es un espacio de probabilidad.

9
Definición 1.2.3. Sea X ∶ Ω → R una variable aleatoria. Entonces

X −1 (B(R)) ∶= {X −1 (B) ∶ B ∈ B(R)}

es una σ-álgebra tal que X −1 (B(R) ⊆ F. Esta σ-álgebra se conoce como σ-álgebra generada por la v.a
X y se denota por σ(X) o F.
Ejemplo 1.2.4. Un ejemplo simple de variable aleatoria, es la indicadora (o función característica) de
un evento A ∈ F:

⎪1 si ω ∈ A

1A (ω) = ⎨
⎪0 si ω ∉ A.


Sea B ∈ B(R). Observe que 1A satisface la definición 1.2.1,

⎪ ∅, 0 ∉ B, 1 ∉ B




⎪Ω,
⎪ 0 ∈ B, 1 ∈ B
(1A )−1 (B) = ⎨


⎪ A, 0 ∉ B, 1 ∈ B


⎪ ∁
⎩A ,
⎪ 0 ∈ B, 1 ∉ B,

donde F = {Ω, ∅, A, A∁ } es la σ-álgebra generada por A.


Definición 1.2.5. La función de probabilidad (o de masa) de una v.a. X es la función pX ∶ R Ð→ [0, 1],
dada por
pX (x) = P [X = x].
Esta función satisface las siguientes propiedades:
(a) pX (x) ≥ 0 para todo x ∈ R,
(b) ∑i pX (xi ) = 1.
Toda función pX ∶ R Ð→ R que sea cero excepto en un conjunto de puntos x1 , x2 , . . . donde toma valores
positivos será una función de probabilidad si satisface las dos condiciones anteriores.
Definición 1.2.6. La función de distribución de la v.a. X es la función FX ∶ R → [0.1] definida como

FX (x) = P [X ≤ x].

De 1.2.6 se tienen las siguientes propiedades de la función de distribución:


(a) F (x) es no decreciente,
(b) lı́m F (x) = 0, lı́m F (x) = 1,
x→−∞ x→∞

(c) F (x) es continua por derecha, F (x+) = F (x).


Suponga que X es una v.a. discreta que toma valores x1 , x2 , . . ., la función de distribución tiene dis-
continuidad por izquiera en estos puntos, la magnitud de esa discontinuidad esta dada por P (X = x). Por
lo tanto la función de distribución y de probabilidad se relacionan de la siguiente manera,

F (x) = ∑ pX (xi ), pX (x) = △F (x) = F (x) − F (x−).


xi ≤x

10
Definición 1.2.7. Sea X una v.a. de la forma

X(ω) = ∑ xi 1Ai (ω),
i=1

tal que P = {A1 , A2 , . . .} es una partición de Ω y xi ∈ R. En este caso se dice que X es una variable
aleatoria discreta. Si la suma es finita, llamaremos a X una v.a. simple.

A continuación se introduce el concepto de vector aleatorio y algunas definiciones que son extenen-
ciones del caso unidimensional.

Definición 1.2.8. Sea (Rn , B(Rn )) un espacio medible. Un vector aleatorio n-dimensional es una función

X = (X1 , X2 , . . . , Xn ) ∶ Ω → Rn ,

tal que cada una de sus componentes Xi , (i = 1, 2, . . . , n) es una variable aleatoria.

Observación 1.2.9. Note que las variables aleatorias que componen el vector aleatorio de la definición
anterior, están definidas en el mismo espacio de probabilidad, (Ω, F, P ), en ese caso decimos que las
variables aleatorias X1 , X2 , . . . , Xn son conjuntas.

Definición 1.2.10. Sea x = (x1 , x2 , . . . , xn ) ∈ Rn . La función pX ∶ Rn → [0, 1] definida por

pX (x1 , x2 , . . . , xn ) = P [X1 = x1 , X2 = x2 , . . . , Xn = xn ]

se denomina función de probabiliad (o de masa) del vector aleatorio X.

Como en el caso unidimensional, la función de probabilidad del vector aleatorio X tiene las siguientes
propiedades:

(a) pX (x) ≥ 0 para todo x ∈ Rn .

(b) ∑i≥1 pX (xi ) = 1.

La función pX también recibe el nombre de función de probabilidad conjunta (o de masa) de las


variables aleatorias X1 , X2 , . . . , Xn .

Definición 1.2.11. Sea X un vector aleatorio discreto. La función de probabilidad de la v.a. Xi , denotada
por pi o pXi , recibe el nombre de i-ésima función de probabilidad marginal del vector aleatorio X y se
determina de la siguiente manera

pi (xi ) = ∑ pX (x) para todo j ≠ i,


xj

donde x = (x1 , x2 , . . . , xn ) ∈ R.

Definición 1.2.12. La función de distribución del vector aleatorio X es la función FX ∶ Rn → [0, 1]


definida por
FX (x1 , x2 , . . . , xn ) = P [X ≤ x1 , X ≤ x2 , . . . , X ≤ xn ].

11
La función FX cuenta con las siguientes propiedades:

(a) Para todo a, b ∈ Rn , tales que ai ≤ bi para i = 1, 2, . . . , n se tiene que

△a1 b1 △a2 b2 . . . △an bn F (x1 , x2 , . . . , xn ) = P [a1 < X1 ≤ b1 , a2 < X1 ≤ b2 , . . . , an < Xn ≤ bn ] ≥ 0

o de manera compacta △ab F (x) = P [(a, b]] ≥ 0.


(c) FX es continua por derecha en cada Xi de X.
(d) lı́m FX (x) = 0 si xj → −∞ para algún xj ∈ x.
x→−∞

(e) lı́m FX (x) = 1 si xj → ∞ para todo j = 1, 2, . . . , n.


x→∞

La función FX también es conocida con el nombre de función distribución conjunta de las variables
aleatorias X1 , X2 , . . . , Xn .
Definición 1.2.13. Sea X un vector aleatorio. La función de distribución de la v.a. Xi , denotada por Fi o
FXi se dice que es la i-ésima función de distribución marginal del vector aleatorio X, se determina en
algún punto arbitrario xi ∈ x de la siguiente manera

Fi (xi ) = lı́m FX (x) para todo j ≠ i


xj →∞

La definición de probabilidad condicional que se dió en la sección 1.1 es para eventos de la sigma
álgebra del espacio de probabilidad que corresponda, este concepto puede extenderse a las funciones de
probabilidad de un conjunto de variables aleatorias conjuntas.
Definición 1.2.14. Sea X = (X1 , X2 . . . , Xn ) un vector aleatorio y sean los vectores aleatorios disjuntos
X1 = (Xj1 , Xj2 , . . . , Xjr ), X2 = (Xl1 , Xl2 , . . . , Xls ) subcojuntos de X donde j, l ∈ I ∶= {i1 , i2 , . . . , ik } ⊆
{1, 2, . . . , n}; 1 ≤ k ≤ (n − 1). La función de probabilidad condicional del vector Xjr dado que Xls toma
el valor x = (xl1 , xl2 , . . . , xls ) se define como
pXjr ,Xls (xjr , xls )
pXjr ∣Xls (xjr ∣ xls ) = . (1.2.1)
pXls (xls )
En particular, sean X y Y variables aleatorias discretas conjuntas que toman valores en los conjuntos
{x1 , x2 , . . .} y {y1 , y2 , . . .} respectivamente. Si pX (x) > 0, entonces x = xi para algún i y pX (xi ) =
P [X = xi ]. De acuerdo a la definición 1.2.10 se tiene que, pX,Y (xi , yj ) = P [X = xi , Y = yj ]; entonces,
la ecuación (1.2.1) para este caso queda
pX,Y (xi , yj ) P [X = xi , Y = yj ]
pX∣Y (xi ∣ yj ) = = = P [X = xi ∣ Y = yj ], (1.2.2)
pY (yj ) P [Y = yj ]
de aquí que la función pX∣Y (⋅ ∣ y) es una probabilidad condicional como se definió en la sección 1.1, y
claramente cuenta con las propiedades de una función de probabilidad discreta.
Ahora, sean X1 , X2 , . . . , Xn variables aleatorias con valores en un conjunto finito X ⊆ R son inde-
pendientes si
P (X1 = x1 , . . . , Xn = xn ) = P (X1 = x1 ) . . . P (Xn = xn )
para todo x1 , x2 , . . . , xn ∈ X.

12
1.2.1. Esperanza matemática
introdución del concepto de esperanza matemática mediante la integral de Lebesgue, también se pre-
senta el concepto de esperanza condicional. En ambos casos se presentan algunas propiedades que son de
gran ayuda para el desarrollo de este trabajo.
En lo que sigue X es una variable aleatoria y X es vector un aleatorio. Denotaremos por L1 al espacio
L1 (Ω, F, P ) la familia de variables aleatorias sobre (Ω, F, P ) que tienen esperanza finita.

Definición 1.2.15. Sea (Ω, F, P ) un espacio de probabilidad y X ∶ Ω → R una variable aleatoria. Se


define la esperanza de X en el sentido de Lebesgue como

∫Ω X(ω)dP (ω)

Considere los siguientes casos:

(a) Si X = 1A es la indicadora de un evento A ∈ F entonces

E[X] = E[1A ] = ∫ 1A dP = P (A)


(b) Si X es una v.a. simple entonces


n n
E[X] = ∫ ∑ xi 1Ai dP = ∑ xi P (Ai )
Ω i=1 i=1

(c) Sea X una v.a. no negativa, es decir X(ω) ≥ 0 para todo ω ∈ Ω. Entonces éxiste una suceción de
variables aleatorias simples {Xn } tal que Xn ↑ X, esto es

E[X] = lı́m E[Xn ]


n→∞

La definición que encontramos en la mayoría de textos de estadística y probabilidad básica e intermedia


es una consecuencia de la definición 1.2.15.

Definición 1.2.16. Sea X una v.a. discreta que toma valores en el conjunto {x1 , x2 , . . .} y con función de
masa pX (xi ) = P (X = xi ). Definimos la esperanza de X como

E(X) = ∑ xi pX (xi )
i

siempre que X ∈ L1 .

Sean X, Y variables aleatorias en L1 , y α ∈ R, entonces

(a) E(αX) = αE(X),

(b) Si X ≥ 0 entonces E(X) ≥ 0,

(c) Si X ≤ Y entonces E(X) ≤ E(Y ),

(d) Si X, Y son no negativas, entonces E(X + Y ) = E(X) + E(Y )

13
(d) Si X, Y son independientes, entonces E(XY ) = E(X)E(Y ).

Definición 1.2.17. Sea X una v.a. discreta en L1 con E(X) = µ. La varianza de X, denotada por
V ar(X) se define como
V ar(X) = ∑(xi − µ)2 pX (xi )
i

Algunas propiedades de la varianza de una v.a. X con esperanza E(X) = µ son

(a) V ar(X) ≥ 0,

(b) V ar(X) = E(X − µ)2 = E(X 2 ) − µ2 .

Definición 1.2.18. Sean X y Y variables aleantorias en L1 ,



(a) La desviación estandar denotada por σX se define como V ar(X).

(b) La covarianza de las variables aleatorias X y Y denotada por Cov(X, Y ) se define como

Cov(X, Y ) = E [(X − µX )(Y − µY )]

(c) El coeficiente de correlación denotado por ρX,Y está dada por

Cov(X, Y )
ρX,Y =
σX σY

Los momentos de una variable aleatoria X son las esperanzas dede ciertas funciones X, son de gran
utilidad puesto que caracterizan la distribución de la v.a. X.

Definición 1.2.19. Sea X una v.a. que está en L1 , el r-ésimo momento de X, denotado por µ′r es definido
como
µ′r = E(X r ), r = 1, 2, . . .

Definición 1.2.20. El r-ésimo momento central de X alrededor de a se define como E[(X − a)r ]. Si
a = µX se tiene el r-ésimo momento central alrededor de µX , denotado por µr se define como

µr = E[(X − µX )r ], (1.2.3)

siempre que X esté en L1 .

Definición 1.2.21. Sea X una v.a. tal que E(etX ) < ∞ para todo t ∈ (−h, h), h > 0. La función genera-
dora de momentos de X (f.g.m de X) denotada por mX (t) se define como

mX (t) = E(etX ).

Si X es una v.a. discreta su f.g.m es

mX (t) = E(etX ) = ∑ etxi pX (xi ).


i

14
Se llama función generadora de momentos, puesto que cuando éxiste es continuamente diferenciable
en alguna vecindad alrededor del origen. En efecto, no es díficil ver que derivando m(t) r-veces respecto
a t y luego evaluando en t = 0 se obtiene
dr
m(t) ∣t=0 = E(X r ).
dtr
La función generadora de momentos caracteriza la distribución, es decir; si dos variables aleatorias tie-
nen la misma función generadora de momentos entonces tienen la misma distribución el opuesto también
es cierto. Este resultado se enuncia en el siguiente teorema cuya demostración se puede ver en [4].

Teorema 1.2.22 (de unicidad). Sean X1 y X2 variables aleatorias con función generadora de momentos
MX1 y MX2 respectivamente, tales que cada una éxiste en un intervalo al rededor de cero. Entonces
FX1 (x) = FX2 (x) para todo x ∈ R si y solo si MX1 = MX2 para todo t ∈ (−h, h) y algún h > 0.

Ahora, vamos a ver que los conceptos presentados hasta ahora pueden ser generalizados cuando se
tiene un vector aleatorio X = (X1 , X2 , . . . , Xn ).

Definición 1.2.23. Sea X = (X1 , X2 , . . . , Xn ) un vector aleatorio tal que cada Xi que pertence a L1 . La
esperanza del vector aleatorio X se define como

E(X) = (E(X1 ), E(X2 ), . . . , E(Xn ))

Gracias a la definición anterior podemos definir la función generadora de momentos para un vector
aleatorio.
n
Definición 1.2.24. Sea X = (X1 , X2 . . . , Xn )T un vector aleatorio. Si E [e∑i=0 ti Xi ] éxiste para cada ti en
t = (t1 , t2 , . . . , tn )T que satisface ∣ti ∣ < hi con hi positivo para cada i = 1, 2, . . . , n, se define la función
generadora de momentos (f.g.m) del vector aleatorio X denotada por MX (t) como
TX
MX (t) = E [et ]

La función generadora de momentos del v.a X también recibe el nombre de función generadora de
momentos conjunta. Como en el caso unidimensional, Los momentos del v.a X se pueden encontrar de-
rivando su f.g.m asociada.

Teorema 1.2.25. Suponga que X1 , X2 , . . . , Xn son vectores aleatorios independientes tal que cada Xi
tiene f.g.m. MXi [ti ], para ti = (ti1 , ti2 , . . . , tin ) ∈ (−hi1 , hi1 )×(−hi2 , hi2 )×, . . . , ×(−hin , hin ) donde hij > 0,
para i, j = 1, 2, . . . , n. Sea Z = ∑ni=1 Xi , entonces Z tiene f.g.m dada por
n
MZ [t] = ∏ MXi [ti ], t ∈ mı́n{(−hi1 , hi1 ) × (−hi2 , hi2 )×, . . . , ×(−hin , hin )}.
i=1

Definición 1.2.26. La matriz de varianzas-covarianzas del vector aleatorio X es una matriz n × n deno-
tada por ΣX y en la que cada entrada está dada por

ΣX = Cov(Xi , Xj ).

15
La matriz ΣX tiene las siguientes propiedades:
(Σ1 ) Es símetrica para cada i, j.

(Σ2 ) ΣX = Cov(Xi , Xi ) = V ar(Xi ), es decir la diagonal de la matriz ΣX , está conformada por las
varianzas de cada v.a. Xi .

(Σ3 ) La matriz ΣX es definida positiva, es decir para cualquier vector x ∈ Rn


n n
∑ ∑ xi Cov(Xi , Xj )xj ≥ 0.
i=1 j=1

1.2.2. Esperanza condicional respecto a eventos y σ álgebras


Sea (Ω, F, P ) un espacio de probabilidad y A ∈ F. La esperanza condicionadal de la v.a. discreta X
respecto al evento A es el número

E[X1A ] 1
E[X ∣ A] ∶= = X1A dP.
P [A] P [A] ∫Ω
Una situación más general es condicionar respecto a la σ-álgebra generada por una variable aleatoria
Y ∶ Ω → R.
Definición 1.2.27. Sea Y una variable aleatoria y X ∈ L1 . La esperanza condcional de la v.a X respecto
a la sigma álgebra generada por la v.a Y , (σ(Y )), es la variable aleatoria E[X ∣ σ(Y )](ω) que también
se denotará por E[X ∣ Y ].
Si la v.a Y toma algún valor yj tal que P [Y = yj ] > 0 la esperanza condicional E[X ∣ Y = yi ] se
puede cálcular como sigue

E [X1{Y =yj } ]
E[X ∣ Y = yj ] =
P [Y = yj ]

1
= E [∑ xi 1X 1{Y =yj } ]
P [Y = yj ] i=1

1
= ∑ xi P [X = xi , Y = yj ]
P [Y = yj ] i=1

= ∑ xi P [X = xi ∣ Y = yj ].
i=1

Entonces E[X ∣ Y = yj ] = ∑∞ i=1 xi P [X = xi ∣ Y = yj ]. De acuerdo a la definición de función de


probabilidad condicional esta expresión se puede escribir de la siguiente manera

E[X ∣ Y = yj ] = ∑ xi pX∣Y (x ∣ y).
i=1

Teorema 1.2.28 (Doble esperanza). Sean X y Y variables aleatorias en L1 . Entonces

E[E[X ∣ Y ]] = E[X]

16
Demostración. De acuerdo a la expresión 1.2.2 se tiene que

E[X] = ∑ xpX (x) = ∑ x ∑ pX,Y (x, y) = ∑ x ∑ pX∣Y (x ∣ y)pY (y).


x x y x y

Ya que X y Y pertenecen a L1 las sumas se pueden intercambiar. Por lo tanto

E[X] = ∑ x ∑ pX∣Y (x ∣ y)pY (y) = ∑ ∑ xpX∣Y (x ∣ y)pY (y) = ∑ E[X ∣ Y = y]py (y).
x y y x y

1.2.3. Función generadora de momentos conjunta

1.3. Distribuciones discretas


En esta sección se presentan de manera breve las distribuciones geométrica, binomial, binomial nega-
tiva y de poisson. Por otro lado, se presenta con más detalle la distribución multinomial, puesto que esta
distribución es de vital importancia para el desarrollo del trabajo.
De aquí en adelante N = {1, 2, 3, . . .} es el conjunto de los ńumeros naturales, N0 = {0, 1, 2, . . .} es el
conjunto de los números enteros no negativos.

1.3.1. Distribución geométrica


Suponga que se efetúan ensayos independientes de Bernoulli con probabilidad de éxito p ∈ (0, 1). Sea
X la variable aleatoria que denota el número de ensayos necesarios hasta obtener el primer éxito. Se dice
que la v.a. X tiene distribución geométrica de parámetro p; en simbolos;

X ∼ G(p),

si X toma valores en N y su función de masa está dada por

fX (x) = q x−1 p1N (x).

Ahora, sea Y la variable aleatoria que denota el número de fracasos hasta de obtener el primer éxito.
La v.a. Y tiene distribución geométrica de parámetro p y guarda relación con la v.a. X, ya que

Y = X − 1.

Por lo tanto Y toma valores en N0 y su función de masa es

fY (x) = q x p1N0 (x).


La función de distribución de X y Y son las siguientes respectivamente
⌊x⌋ ⌊x⌋
FX (x) = ∑ (q i−1 p) 1[1,∞) (x) = 1 − q ⌊x⌋ 1[1,∞) (x) y FY (x) = ∑ q i p1[0,∞) (x) = 1 − q ⌊x⌋ 1[0,∞) (x).
i=1 i=0

17
La función generadora de momentos de X está dada por
mX (t) = E(etX )

= ∑ etx q x−1 p
x=0
1
= pet ( ),
1 − qet
y existe siempre que qet < 1, lo que implica t < −ln(q). La función generadora de momentos de la v.a. Y
es
p
MY (t) = E(et(X−1) ) = , siempre que t < −ln(q)
1 − qet
Por medio de las función generadora de momentos de la v.a. X se determina la esperanza y la varianza,
esto es

dmX 1 d2 mX 1+q
E(X) = (t)∣t=0 = , E(X 2 ) = 2
(t)∣t=0 = 2 ,
dt p dt p
por lo tanto,
1−p
V ar(X) = .
p2
Un procedimiento parecido conlleva que la esperanza y la varianza de Y son,
1−p 1−p
E(Y ) = , V ar(Y ) = .
p p2

1.3.2. Distribución binomial


Sea X la variable aleatoria que denota el número de k éxitos en n observaciones independientes de
Bernoulli con probabilidad de éxito p ∈ (0, 1). Entonces se dice que X tiene distribucón binomial de
parámetros n y p , en símbolos;
X ∼ Bin(n, p).
La variable aleatoria X toma valores en el conjunto N0 y su función de masa fX ∶ R → [0, 1] está
dada por,
n
fX (k) = ( )pk q n−k 1{0,1,...,n} (k).
k
Su función de distribución FX ∶ R → [0, 1], es como sigue
⌊x⌋
n
FX (x) = ∑ ( )pi q n−i 1[0,n) (x) + 1[n,∞) (x)
i=0 i

La función generadora de momentos es


mX (t) = E(et ) = (pet + q)n ,
y por lo tanto
E(X) = np, V ar(X) = npq.

18
1.3.3. Distribución binomial negativa y distribución de Pascal
Se efectúan ensayos independientes de Bernoulli con probabilidad de éxito p ∈ (0, 1) hasta que se
hayan obervado r-éxitos. Sea X la variable aleatoria que denota el el número de ensayos necesarios hasta
obtener los r-éxitos, también se puede definir la v.a. Y que denota el número de fracasos antes de obtener
los r-éxitos.
Decimos que la v.a. X con soporte {r, r + 1, . . .} tiene distribución de Pascal de parámetros (n, p) si
su función de masa es
n − 1 r n−r
fx (n) = ( )p q 1{r,r+1,...} (n).
r−1
Observe que por como se han definido las variables aleatorias X y Y se tiene la relación X = Y + r,
en consecuencia Y = X − r, de aquí que la función de masa de la v.a. Y sea
m+r−1 r m
fY (m) = ( )p q 1N0 (m).
r−1
La distribución de la v.a. Y se conoce como distribución binomial negativa de parámetros p y r. Con la
función de masa se puede calcular la función generadora de momentos de la variable Y , esto es
r
p
mY (t) = ( ) siempre que t < −ln(q).
1 − qet
La esperanza y la varianza de Y son respectivamente
kq kq
E(Y ) = , V ar(Y ) =
p p2
Ahora, podemos calcular la esperanza y la varianza de la v.a. X usando el hecho de que X = Y + k,
entonces
kq kq
E(X) = E(Y + k) = E(Y ) + k = + k y V ar(X) = V ar(Y ) = 2 .
p p

1.3.4. Distribución de Poisson


Sea X la variable aleatoria que representa el número de ocurrencias, k, de un evento en un intervalo
dado. Sea λ el promedio o valor esperado de tales eventos en el intervalo. Entonces se dice que X tiene
distribución de Poisson; en símbolos,
X ∼ Poisson(λ),
si su función de masa es
e−λ λk
fX (k) = 1N0 (k)
k!
La función de distribución de la v.a. X está dada para cada valor de λ > 0, su expresión es
⌊k⌋
e−λ λi
FX (k) = ∑ 1[0,∞)(k) .
i=0 i!
La función generadora de momentos de la v.a. X tiene la siguiente expresión
mX (t) = e(e −1) ,
t
t∈R
Luego la esperanza y la varianza de la v.a. X, son iguales al parámetro λ, es decir
E(X) = V ar(X) = λ

19
Observación 1.3.1. La distribución de Poisson se usa para aproximar los valores de la distribución
binomial de parámetros n y p cuando n → ∞ y p → 0, también se puede decir que la v.a. X adquiere la
distribución de Poisson bajo las anteriores condiciones.
Sea X ∼ Bin(n, p) y suponga que λn = npn tal que limn→∞ λn = limn→∞ npn = λ.

n
lı́m Pbin (X = k) = lı́m ( )pkn (1 − pn )n−k
n→∞ n→∞ k

n! λn k λn n−k
= lı́m ( ) (1 − )
n→∞ k!(n − k)! n n
λk 1 2 k−1 λn n λn −k
= lı́m n (1 − ) (1 − ) . . . (1 − ) (1 − ) (1 − )
n→∞ k! n n n n n
k
λ −λ
= e
k!
= PP oi (X = k)

1.3.5. Distribución multinomial


Notación.
Suponga que se realiza un experimento aleatorio que tiene k+1 posibles resultados diferentes, digamos,
R0 , R1 , . . . , Rk , cada uno con probabilidad pi = P [Ri ]; i = 0, 1, . . . , k y tales que ∑ki=0 pi = 1. Se repite el
experimento n-veces de manera independiente de tal forma que cada repetición da como resultado algún
Ri . El espacio muestral que describe este experimento aleatorio es

Ω = {ω ∶ ω = (a1 , a2 , . . . , an ), aj = R0 , R1 , . . . , Rk )}.

Sea Xi la v.a que denota el número xi de veces que se obtuvo el resultado Ri en las n repeticiones. Note
que x0 , x1 , . . . , xk satisfacen ∑ki=0 xi = n, además cada xi está en N0 .
Sea ω un elemento de Ω. Por la independencia de las n-repeticiones, se tiene

p(ω) = P [(a1 , a2 , . . . , an )]
= P [R0 ]x0 P [R1 ]x2 . . . P [Rk ]xk
= px0 0 px1 1 . . . pxkk .

Ahora, hallar el número de sucesiones ordenadas (a1 , a2 , . . . , an ), en los cuales R0 ocurre x0 veces,
R1 ocurre x1 veces, . . . , Rk ocurre xk veces, es equivalente a repartir n objetos distintos en k urnas. La
figura 1.1 muestra lo anterior dicho.

20
R1 R2 Rk R0

...

1 2 ... n

Figura 1.1: Esquema multinomial

La forma de asignar x0 objetos de n disponibles es (xn0 ), x1 objetos de n − x0 disponibles es (n−x


x1
0
), . . .,
n−x0 −x1 −...−xk−1
xk−1 objetos de n − x0 − x1 − . . . − xk−1 es ( xk
), de aquí que

n n n − x0 n − x0 − x1 − . . . − xk−1
( ) = ( )( )...( )
x0 , x1 , . . . , xk x0 x1 xk
n! (n − x0 )! (n − x0 − x1 − . . . − xk−1 )!
= ...
x0 !(n − x0 )! x1 !(n − x0 − x1 )! xk !(n − x0 − x1 − . . . − xk )!
n!
= .
x0 !x1 ! . . . xk !
Entonces la probabilidad de que el vector X = (X0 , X1 , . . . , Xk ) tome el valor x = (x1 , x2 , . . . , xk ) es
n
P [(X0 = x0 , X1 = x1 , . . . , Xk = xk )] = ( )px0 px1 . . . pxkk 1{∑ki=0 xi =n} (x). (1.3.1)
x0 , x1 , . . . , xk 0 1
La expresión (1.3.1) es en efecto una función de masa, pues

a) P [X = x] ≥ 0 para todo x en Rk .

b) Del teorema multinomial se tiene que


n
∑ ( )px0 px1 . . . pxkk = (p0 + p1 + . . . + pk )n = 1.
∑ki=0 xi =n
x0 , x1 , . . . , xk 0 1

Definición 1.3.2. Se dice que el vector aleatorio X = (X0 , X1 , . . . , Xk ) tiene distribución multinomial
de parámetros (n, p0 , p1 , . . . , pk ), en símbolos;

X ∼ M ulti(n, p0 , p1 , . . . , pk )

si su función de masa es
n
pX (x) = P [X = x] = ( )px0 0 px1 1 . . . pxkk 1{∑ki=0 xi =n} (x),
x0 , x1 , . . . , xk

donde x = (x0 , x1 , . . . , xk ) es un vector de Rk .

21
Marginales.
La distribución multinomial es la distribución conjunta de las variables aleatorias X0 , X1 , . . . , Xk , por
lo tanto es posible hallar las distribuciones marginales, esto es; para Xj = (X0 , X1 , . . . , Xj ); para j < k,
un vector aleatorio formado por un sucojunto de variables aleatorias del vector X se puede obtener su
distribución.
Para esto, suponga que X ∼ M n(n, p0 , p1 , . . . , pk ) y note que
P [X0 = x0 , X1 = x1 , . . . , Xj = xj ] = P [X0 = x1 , X2 = x1 , . . . , Xj = xj , X = x],
donde x = xj+1 + xj+2 . . . + xk y X = Xj+1 + Xj+2 + . . . + Xk , por supuesto, X denota el número de veces
que ocurre el resultado R = Rj+1 ∪ Rj+2 ∪ . . . ∪ Rk con probabilidad P [R] = pj+1 + pj+2 + . . . + pk =
1 − p0 − p1 . . . − pj = p. El vector (X0 , X1 , . . . , Xj , X) tiene distribución multinomial de parámetros
(j + 1, p0 , p1 , . . . , pj , p). Por lo tanto
P [X0 = x0 , X1 = x1 , . . . , Xj = xj ] = P [X0 = x0 , X1 = x1 , . . . , Xj = xj , X = x]
n x
= ( )px px0 0 px1 1 . . . pj j , (1.3.2)
x0 , x 1 , . . . , x j , x
La demostración del siguiente teorema está en las lineas anteriores.
Teorema 1.3.3. Sea X un v.a tal que X ∼ M n(n, p0 , p1 , . . . , pk ), entonces para cada conjunto de indices
I ∶= {i0 , i1 , . . . , ij } ⊆ {0, 1, . . . , k}; 0 ≤ j < k el vector
X̃ ∼ M n(n, p0 , p1 , . . . , pj )
donde n = x + ∑ki=0 xi y p + ∑ji=0 pi = 1.
En particular, si j = 0 en (1.3.2) obtenemos
n
P [X0 = x0 ] = ( )px0 q n−x0 1{0,1,...,n} (x0 ),
x0
lo cual muestra que X0 ∼ Bin(n, p0 ).

Distribución condicional.
Suponga de nuevo que X ∼ M n(n, p0 , p1 , . . . , pk ). Considere la distribución condicional del ve.a X1 =
(X0 , X1 , . . . , Xj ) dado que el ve.a X2 = (Xj+1 , Xj+2 , . . . , Xk ) toma el valor x = (xj+1 , xj+2 , . . . , xk )
definidida por
P [X0 = x0 , . . . , Xj = xj , Xj+1 = xj+1 , . . . Xk = xk ]
P [X0 = x0 , . . . , Xj = xj ∣ Xj+1 = xj+1 , . . . Xk = xk ] =
P [Xj+1 = xj+1 , Xj+2 = xj+2 , . . . Xk = xk ].
De acuerdo a 1.3.1 y a 1.3.2 se tiene que
n!
px0 px1 . . . pxkk
x0 !x1 ! . . . xk ! 0 1
P [X0 = x0 , . . . , Xj = xj ∣ Xj+1 = xj+1 , . . . , Xk = xk ] =
n!
px′ pj+1
xj+1 xj+2
pj+2 . . . pxkk
xj+1 !xj+2 ! . . . xk !x′ !
x′ ! p 0 x0 p 1 x1 p j xj
= ( ) ( ) ...( ) ,
x0 !x1 ! . . . xj ! p p p

22
con p = 1 − ∑ki=j+1 pi y x′ = ∑ji=0 xi = n − x. Entonces, se dice que el vector aleatorio (X1 ∣ X2 ) tiene
p
distribución multinomial de parámetros (n − x, pp0 , pp1 , . . . , pj ), en símbolos;

p0 p1 pj
(X1 ∣ X2 ) ∼ M n (n − x, , ,..., ).
p p p

Función generadora de momentos y momentos


Sea X ∼ M n(n, p0 , p1 , . . . , pk ) y t = (t1 , t2 , . . . , tk ) un vector de Rk . De acuerdo a la definición 1.2.24
la función generadora de momentos del vector aleatorio X se cálcula como sigue:
TX k n x x x
MX [t] = E [et ] = E [e∑i=0 ti Xi ] = ∑ ( ) (et0 p0 ) 0 (et1 p1 ) 1 . . . (etk pk ) k ,
∑ki=0 xi =n
x1 , x 2 , . . . , x k

aplicando el teorema multinomial se obtiene

MX [t] = [et0 p0 + et1 p1 + . . . + etk pk ]n ,

para todo valor real ti de t. Ahora, ya que se tiene la f.g.m. de X es posible algunos de sus momentos.
La derivada parcial respecto a algún ti ∈ t está dada por
∂M
[t] = n[et0 p0 + . . . + eti pi + . . . + etk pk ]n−1 eti pi . (1.3.3)
∂ti
Entonces, la esperanza de cada variable aleatoria Xi de X está dada por
∂M
E[Xi ] = [t]∣t=0 = npi .
∂ti
Derivando 1.3.3 respecto a ti de nuevo se obtiene

∂ 2M
[t] = n(eti pi )[et0 p0 + . . . + eti pi + . . . + etk pk ]n−2 ×
∂t2i
((n − 1)(eti pi ) + [et0 p0 + . . . + eti pi + . . . + etk pk ]) .

Entonces el segundo momento está dado por

∂ 2M
E[Xi2 ] = [t]∣t=0 = n(n − 1)pi2 + npi .
∂t2i

La varianza Xi de X; para algún i es

V ar[Xi ] = npi (1 − pi ).

Para encontrar la matriz de covarianzas es necesario derivar 1.3.3 respecto a tj de t tal que i ≠ j, esto es

∂ 2M
[t] = n(n − 1)[et0 p0 + . . . + eti pi + . . . + etk pk ]n−2 eti pi etj pj .
∂ti ∂tj

23
De aquí que
∂ 2M
E[Xi Xj ] = [t]∣t=0 = n(n − 1)pi pj (1.3.4)
∂ti ∂tj
La covarianza para las variables aleatorias Xi , Xj del vector X tal que i ≠ j, es

Cov[Xi , Xj ] = E[Xi , Xj ] − E[Xi ]E[Xj ] = −npi pj (1.3.5)

Por lo tanto la matriz de convarianzas está dada por

⎛np0 (1 − p0 ) −np0 p1 . . . −np0 pk ⎞


⎜ −np1 p0 np1 (−p1 ) . . . −np1 pk ⎟
ΣX = ⎜ ⎟ (1.3.6)
⎜ ⋮ ⋮ ⋱ ⋮ ⎟
⎝ −npk p0 −npk p1 . . . npk (−pk ),⎠
o de manera compacta
ΣX = n(diag(p) − ppT )
donde p = (p0 , p1 , . . . , pk )T .

24
Capítulo 2

La distribución geométrica de orden k

La función de masa de la distribución geométrica de orden k introducida por Phillipou et al. [8] es
presentada en este capítulo desde el punto de vista de los autores; Aki et al. [1], Lo Bello et al. [3] y
Phillippou et al. [8].

2.1. Función de masa de la distribución geométrica de orden k


Sea X el número de ensayos necesarios hasta obtener la primera racha de k éxitos consecutivos en
una sucesión de ensayos independientes de Bernoulli con probabilidad de éxito p ∈ (0, 1), donde k ∈
{1, 2, 3, . . .}. La distribución de la variable aleatoria X, que toma valores en el conjunto {k, k+1, k+2, . . .},
recibe el nombre de distribución geométrica de orden k; en símbolos

X ∼ Gk (p).

De hecho que cuando k = 1, la distribución de X es la geométrica. En lo que sigue consideramos k ≥ 2,


p(n) = P (X = n) es la función de masa de la variable aleatoria X y F (n) = P (X ≤ n) será su función
de distribución. Es claro que si n ∉ {k, k + 1, k + 2, . . .}, entonces f (n) = 0, y si n = k, entonces f (k) = pk .
Sea S = {k + 1, k + 2, . . .}, ahora se determina f (n) cuando n ∈ S.

(1) Aki et al. [1] presentan la siguiente expresión de la función de masa de la v.a X cuando n ∈ S;
n−k−1
P (X = n) = qpk (1 − ∑ P (X = i)) . (2.1.1)
i=0

Esta expresión se obtiene de la siguiente manera. Para n ∈ S, el evento {X = n} consta de sucesiones


del tipo
n
³¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ·¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ µ
x x ⋯ x 0 1 1 ⋯ 1
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
n−(k+1) k

25
donde en los primeros n−(k +1) ensayos no se ha obtenido ninguna racha de k éxitos, y los últimos
k + 1 ensayos constan de un fracaso seguido de una sucesión de k éxitos, por lo que

P {X = n} = P (X > n − (k + 1)) qpk


n−k−1
= qpk (1 − ∑ P (X = i)) ,
i=0

que, para n ∈ S, equivale a

f (n) = P {X = n} = [1 − F (n − (k + 1)]qpk . (2.1.2)

(2) Como en (1) el evento {X = n} con n ∈ S está constituido por sucesiones de longitud n que terminan
con la primera racha de k éxitos consecutivos.
En cada sucesión de longitud n, la primera racha de k éxitos consecutivos es precededida por suce-
siones de bloques de tipo

b1 = 0 , b2 = 1 0 , b3 = 1 1 0 , . . . , bk = 1 1 . . . 1 0 .
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
k−1

Esta notación se usará en las siguientes deducciones de la función de masa de la v.a X.

a) Barry et al. [3] presentan la siguiente fórmula recurrente de la función de masa de la v.a. X:

f (n) = qf (n − 1) + qpf (n − 2) + . . . + qpk−1 f (n − k), n ∈ S. (2.1.3)

La deducción se hace de la siguiente manera. Sea Aj el conjunto de todas las sucesiones del
evento {X = n} que empiezan con el bloque bj y terminan con la racha de k éxitos consecu-
tivos, donde 0 ≤ j ≤ k. Note que

Aj ∩ Ai = ∅ cuando i≠j y P (Aj ) ≠ 0 para todo j.

Además, se se tiene que

k
{X = n} = {X = n} ∩ ( ⊍ Aj ) .
j=1

Por lo tanto
k
f (n) = P (X = n) = ∑ P ({X = n} ∩ Aj )
j=1
k
= ∑ P (X = n ∣ Aj ) P (Aj ) . (2.1.4)
j=1

Sea
P (X = n ∣ Aj ) = f (n − j), (2.1.5)

26
y ya que
P (Aj ) = qpj−1 . (2.1.6)
Sustituyendo (2.1.5) y (2.1.6) en (2.1.4) se establece (2.1.3). En consecuencia

⎪ pk si n = k,


⎪ k
f (n) = ⎨qp si k + 1 ⩽ n ⩽ 2k,


⎪ k−1
⎩qf (n − 1) + . . . + qp f (n − k)
⎪ si n ⩾ 2k + 1.

b) Philippou et al. [8] introducen la siguiente fórmula de la función de masa de la v.a. X.


f (n) = P [X = m + k] (2.1.7)
m1 + . . . + mk
= ∑ ( )(1 − p)m1 +...+mk pm+k−(m1 +...+mk ) ,
m1 ,...,mk m1 , . . . , mk
donde la suma se hace sobre todos los enteros m1 , . . . , mk tales que m1 + 2m2 . . . + kmk = m.
Esta fórmula se deduce de la siguiente manera. Sea el evento {X = n} donde n = m + k; m es
el número de ensayos antes de obtener la primera racha de k éxitos consecutivos.
Un elemento del evento {X = n} es el arreglo
x x ⋯ x 1 1 ... 1
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ ,
m1 +...+mk
k

donde, m1 de los x son de la forma b1 , m2 de los x son de la forma b2 ,. . ., mk de los x son de la


forma bk . De lo anterior se puede ver que m es la suma del número de veces mj que se repite
un bloque de la forma bj por la cantidad de ensayos que tiene este bloque. En consecuencia la
k-upla (m1 , m2 , . . . , mk ) satisface la condición m1 + 2m2 + . . . + kmk = m. Si m1 , m2 , . . . , mk
son fijos, el número de arreglos del elemento de longitud m1 + . . . + mk es,
m1 + . . . + mk
( ).
m1 , . . . , mk
Ahora, por la independencia de cada ensayo,
P (bj ) = qpj−1 y P {11 . . . 1} = pk .
´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹¶
k

Por lo tanto, la probabilidad de cada elemento del evento {X = m + k} es


m1 m2 mk
P { xx . . . x 11 . . . 1} = P (b1 ) P (b2 ) . . . P (bk ) pk
´¹¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹¶
m1 +...+mk k
m2 m3 mk
= q m1 (qp) (qp2 ) ⋯ (qpk−1 ) pk
= q m1 +⋯+mk pm+k−(m1 +⋯+mk ) .
Ya que los enteros no negativos m1 , m2 , . . . , mk pueden variar sujetos a la condición m1 +
2m2 + . . . + kmk = m, el total de arreglos de longitud m1 + . . . + mk que hay en el evento
{X = n} es
m1 + . . . + mk
∑ ( ),
m1 ,...,mk m1 , . . . , mk

27
donde la suma se hace sobre todos m1 , m2 , . . . , mk . En consecuencia,
m1 + . . . + mk m1 +...+mk m+k−(m1 +...+mk )
P [X = m + k] = ∑ ( )q p ,
m1 ,...,mk m1 , . . . , mk

para m ≥ 0.

En tabla 2.1 se encuentran las diferentes expresiones de la función de masa de la distribución de geométrica
de orden k.

f (n) cuando n ∈ S
f (n) = qpk (1 − ∑n−k−1
i=0 P (X = i))
f (n) = qf (n − 1) + qpf (n − 2) + . . . + qpk−1 f (n − k)
m +...+m
f (n) = ∑m1 ,...,mk ( m11 ,...,mkk )(1 − p)m1 +...+mk pm+k−(m1 +...+mk )

Tabla 2.1: Funciones de masa de la distribucón geométrica de orden k.

2.2. Resultados de la dist. Geométrica de orden k


A continuación veremos algunos resultados de las expresiones obtenidas en la sección anterior.
De (2.1.2) se deduce una fórmula recursiva de la función de masa de la v.a. X y una fórmula para la
función de distribución, cuyas expresiones son respectivamente

f (n + 1) = f (n) − f (n − k)qpk para todo n ≥ k + 1


y

f (n)
F (n − (k + 1)) = 1 − para todo n ≥ k + 1.
qpk
En la tabla 2.2 se muestran algunos resultados de la distribucuíon geométrica de orden k para ciertos
valores de p.

p = 0.25 p = 0.5 p = 0.75


n f (n) F (n) f (n) F (n) f (n) F (n)
2 0.0625 0.2500 0.5625
3 0.0469 0.1250 0.1406
4 0.0469 0.1250 0.1406
5 0.0439 0.0938 0.0615
k = 2 6 0.0417 0.0781 0.0417
7 0.0396 0.0625 0.0220
8 0.0375 0.0508 0.0133
9 0.0355 0.0410 0.0075
10 0.0337 0.0332 0.0044

Tabla 2.2: Tabla de valores Dist. geométrica de orden k.

28
La gráfica 2.1 representa los valores de la tabla 2.2 para los distintos valores de p.

Dis.geométrica de orden 2
probabilidades
0.6

0.5 p=0.25
p=0.5
0.4
p=0.75
0.3

0.2

0.1

valores de n
2 4 6 8 10
Figura 2.1: Gráfica de valores

2.3. Función generadora de momentos


Se define la v.a Y tal que Y = X − k. La relación de recurrencia

⎪ pk
⎪ si n = 0
P (Y = n) = g(n) = ⎨ k−1
(2.3.1)
⎩qg(n − 1) + qpg(n − 2) + . . . + qp g(n − k) si n ≥ 1

se puede expresar matricialmente como sigue para n ≥ 1. Sean


⎡g(1)⎤ ⎡g(1)⎤
⎢ ⎥ ⎢ ⎥
⎢g(2)⎥ ⎢g(2)⎥
⎢ ⎥ ⎢ ⎥
Y0 = ⎢ ⎥ = qpk ⎢ ⎥ = qpk 1,
⎢ ⋮ ⎥ ⎢ ⋮ ⎥
⎢ ⎥ ⎢ ⎥
⎢g(k)⎥ ⎢g(k)⎥
⎣ ⎦ ⎣ ⎦
⎡ g(2) ⎤ ⎡ 0 1 0 ... 0⎤⎥ ⎡⎢g(1)⎤⎥
⎢ ⎥ ⎢
⎢ g(3) ⎥ ⎢ 0 0 1 ... 0⎥⎥ ⎢⎢g(2)⎥⎥
⎢ ⎥ ⎢
Y1 = ⎢ ⎥=⎢ ⎥.⎢ ⎥
⎢ ⋮ ⎥ ⎢ ⋮ ⋮ ⋮ ⋮ ⎥⎥ ⎢⎢ ⋮ ⎥⎥
⎢ ⎥ ⎢
⎢g(k + 1)⎥ ⎢qpk−1 qpk−2 qpk−3 . . . q ⎥⎦ ⎢⎣g(k)⎥⎦
⎣ ⎦ ⎣
y, en general,

29
⎡g(n + 1)⎤ ⎡ 0 1 0 ... 0⎤⎥ ⎡⎢ g(n) ⎤⎥
⎢ ⎥ ⎢
⎢g(n + 2)⎥ ⎢ 0 0 1 ... 0⎥⎥ ⎢⎢ g(n + 1) ⎥⎥
⎢ ⎥ ⎢
Yn = ⎢ ⎥=⎢ ⎥.⎢ ⎥
⎢ ⋮ ⎥ ⎢ ⋮ ⎥⎥ ⎢⎢ ⎥
⎢ ⎥ ⎢ ⋮ ⋮ ⋮ ⋮ ⎥
⎢g(n + k)⎥ ⎢qpk−1 qpk−2 qpk−3 . . . q ⎥⎦ ⎢⎣g(n − 1 + k)⎥⎦
⎣ ⎦ ⎣
= AYn−1 = An Y0 = qpk An 1,

donde A es la matriz k × k dada por


⎡ 0 1 0 ... 0⎤⎥

⎢ 0 0 1 ... 0⎥⎥

A= ⎢ ⎥.
⎢ ⋮ ⋮ ⋮ ⋮ ⎥⎥
⎢ k−1 k−2 qpk−3 . . .
⎢qp qp q ⎥⎦

El polinomio característico de A es

pA (λ) = λk − (qλk−1 + qpλk−2 + ... + qpk−1 ),

que tiene una raíz real en (0, 1); pues pA (0) = −qpk−1 y pA (1) = pk .
Lema 2.3.1. Las raíces del polinomio característico de la matriz A son distintas y de valor absoluto
menor que uno.
Demostración. Observe que

pA (λ) = λk − (qλk−1 + qpλk−2 + . . . + qpk−1 )


= λk − q(λk−1 + pλk−2 + . . . + pk−1 )
λk − pk
= λk − q ( ).
λ−p

Sea f (λ) = (λ − p)pA (λ) = λk+1 − λk + qpk . Ahora,


k
f ′ (λ) = (k + 1)λk−1 (λ − ) (2.3.2)
k+1
k
cuyas raíces son λ = 0 y λ = k+1 . Derivando (2.3.2), se obtiene
k−1
f ′′ (λ) = (k + 1)kλk−2 (λ − ),
k+1
es claro que f ′′ ( k+1
k
) ≠ 0. Ya que λ = 0 no es una raíz de f , f tendría una raíz de multiplicidad m = 2 si
k
y solo si λ = k+1 es una raíz de f . Pero

k 1 k k
f( )=− ( ) + qpk .
k+1 k+1 k+1
Entonces, para λ ∈ (0, 1) se tiene que

1 k k
(1 − λ)λk − ( ) ≤ 0,
k+1 k+1

30
k k
la igualdad solo ocurre cuando λ = k+1 . Por lo tanto λ = k+1 es una raíz de f de multiplicidad m = 2 si y
k
solo si p = k+1 . En consecuencia, las raíces de pA son distintas.
Ahora, veamos que si λ es un número complejo tal que ∣λ∣ ≥ 1 este número no puede ser una raíz de
pA .

∣λk − qλk−1 − qpλk−2 − ... − qpk−1 ∣ ≥ ∣λ∣k − q∣λ∣k−1 − qp∣λ∣k−2 . . . − qpk−1


≥ ∣λ∣k − q∣λ∣k − qp∣λ∣k . . . − qpk−1 ∣λ∣k
1 − pk
= ∣λ∣k − q∣λ∣k ( )
1−p
= ∣λ∣k pk > 0.

En conclusión, las raíces de pA deben ser de valor absoluto menor que uno.

Por el lema anterior, la matriz A es diagonalizable. Más aún, si λ1 , λ2 , ..., λk son las distintas raíces
de la ecuación caraterística de A, y si P es la matriz de Vardermonde V (λ1 , λ2 , ..., λk ), i.e.,
⎡ 1 1 1 . . . 1 ⎤⎥

⎢ λ1 λ2 λ3 . . . λk ⎥⎥

⎢ ⎥
P (λ1 , λ2 , . . . , λk ) = ⎢ λ21 λ22 λ23 . . . λ2k ⎥,
⎢ ⎥
⎢ ⋮ ⋮ ⋮ ⋱ ⋮ ⎥⎥

⎢λk−1 λk−1 λk−1 . . . λkk−1 ⎥⎦
⎣ 1 2 3

entonces P −1 AP = D = diagonal(λ1 , λ2 , ..., λk ), o lo que es lo mismo, A = P DP −1 . Si se hace P −1 1 = ξ,


i.e.,
⎡1⎤ ⎡ ξ1 + ξ2 + . . . + ξk ⎤
⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢ ξ1 λ1 + ξ2 λ2 + . . . + ξk λk ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
1 = ⎢1⎥ = P ξ = ⎢ ξ1 λ21 + ξ2 λ22 + . . . + ξk λ2k ⎥
⎢ ⎥ ⎢ ⎥
⎢⋮⎥ ⎢ ⋮ ⎥
⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢ξ λk−1 + ξ λk−1 + ... + ξ λk−1 ⎥
⎣ ⎦ ⎣ 1 1 2 2 k k ⎦

y eT1 = [1 0 0 . . 0 ], entonces para n ≥ 0:

P (Y = n + 1) = g(n + 1) = eT1 Yn = qpk eT1 An 1 = qpk eT1 P Dn P −1 1 (2.3.3)


= qpk (ξ1 λn1 + ξ2 λn2 + ... + ξk λnk ).
(2.3.4)

Ahora bien; para t ∈ R,


∞ ∞
E[etY ] = ∑ etn P (Y = n) = pk + ∑ et(n+1) qpk (ξ1 λn1 + ξ2 λn2 + ... + ξk λnk )
n=0 n=0
k
ξi
= pk + qpk et (∑ t
)<∞
i=1 1 − λi e

si t ∈ (−∞, h), siendo


h = mı́n{− ln ∣λ1 ∣, − ln ∣λ2 ∣, ..., − ln ∣λk ∣} > 0.

31
Entonces la función generadora de momentos de Y

mY (t) = E[etY ] = ∑ etn P (Y = n)
n=0

existe sobre el intervalo (−∞, h). Para dar una expresión en términos de p se usa la relación de recurrencia
(2.3.1), para obtener:

mY (t) = pk + ∑ etn [qg(n − 1) + qpg(n − 2) + . . . + qpk−1 g(n − k)]
n=1
∞ ∞ ∞
= pk + qet ∑ etj g(j) + qpe2t ∑ etj g(j) + ... + qpk−1 ekt ∑ etj g(j)
j=0 j=0 j=0
k t 2t k−1 kt
= p + qe mY (t) + qpe mY (t) + ... + qp e mY (t).

De aquí que
pk
mY (t) =
1 − (qet + qpe2t + ... + qpk−1 ekt )
pk (1 − pet )
= .
1 − et + (1 − p)pet(k+1)
Usando la relación Y = X − k, se tiene la expresión dada por Barry y Lo Bello [3] para la f.g.m.; i.e.
pk etk (1 − pet
mX (t) =
1 − et + (1 − p)pk et(k+1)
Observación 2.3.2. Sea F la v.a. de función de masa



⎪ qpm−1 , m = 1, 2, 3, ..., k

pF (m) = ⎨

⎪ k
⎩ p ,
⎪ m = 0.
La función generadora de momentos de la v.a. F es:
qet − qpk e(k+1)t
mF (t) = E[etF ] = pk + qet + qpe2t + ... + qpk−1 ekt = pk + .
1 − pet
Por consiguiente
1 + kpk+1 − (k + 1)pk
E[F ] = m′F (0) =
q
q + 3p + 2p2 − pk (p + 2p2 + 2(k + 1)p + (k + 1)2 q)
E[F 2 ] = m′′F (0) = .
q

Por lo tanto, la funciones generadoras de momentos de las v.a. Y y F se relacionan así: mY (t) = pk +
mY (t)[mF (t) − pk ]. De aquí que
pk
mY (t) = .
1 + pk − mF (t)

32
Derivando mY (t) se obtiene:
pk m′F (t)
m′Y (t) =
[1 + pk − mF (t)]2
De aquí que

pk E[F ] E[F ]
E[Y ] = = .
p2k pk
Derivando nuevamente,
pk m′′F (t)[1 + pk − mF (t)] + 2pk [m′F (t)]2
m′′Y (t) = .
[1 + pk − mF (t)]3
En consecuencia
2
p2k E[F 2 ] + 2pk E[F ]2 E[F 2 ] E[F ]
E[Y 2 ] = 3k
= k
+ 2( k ) .
p p p

2.4. Distribución compuesta de la dist. geométrica de orden k


En primer lugar se mostrará que la distribución geométrica de orden k pertenece a la familia de dis-
tribuciones discretas Tipo-Fase .
Sea {Xn }n∈N una cadena de Markov discreta con espacio de estados S = {0, 1, . . . , k}, donde el estado
{0} representa la racha de k éxitos consecutivos (11 . . . 1) y será difinido como el estado absorbente.
´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹¶
k
Los estados transitorios {i} reprensentan la racha de éxitos (11 . . . 1) con i = 1, 2 . . . , k. El estado {1}
´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹¶
i−1
representa el fallo (0). La matriz de transición de probabilidades de la cadena está dada por

1 0
P =[ ], (2.4.1)
τ T
Ahora, definamos la v.a. Z = ı́nf{n ∈ N ∶ Xn = 0}, que se sabe sigue una distribución tipo-fase; en
símbolos Z ∼ P H(α, T ); donde el vector de probabilidades iniciales es α = (1, 0, . . . , 0) y T es la matriz
de transición de probabilidades del conjunto de estados S ′ = {1, 2, . . . k}. Las probabilidades de transición
se pueden ver en el siguiente esquema
q

p q q q q

2 3 4 ... k
p p p

Figura 2.2:

33
Por tanto,

⎪ p si j = i + 1 para i = 1, 2, . . . , k,



pij = ⎨q si j = 1,



⎩0 en otro caso.

Con lo cual obtenemos la matriz de transición
⎡q p 0 ⋯ 0⎤⎥

⎢q 0 p ⋯ 0⎥⎥

T =⎢ ⎥.
⎢⋮ ⋮ ⋮ ⋮ ⎥⎥

⎢q 0 0 ⋯ 0⎥⎦

Esta matriz es subestocastica, es decir que al menos la suma de una fila es menor que 1. Ya que es suficiente
conocer (α, T ) pues τ = [I − T ]1, tenemos que
⎡1 − q −p 0 ⋯ 0⎤⎥ ⎡⎢
⎤ ⎡ 0 ⎤ 1
⎢ ⎥ ⎢ ⎥
⎢ −q 1 −p ⋯ 0⎥⎥ ⎢⎢
⎥ ⎢ 0 ⎥ 1
⎢ ⎥ ⎢ ⎥
τ =⎢ ⎥ = ⎢ ⎥.
⎥⎢
⎢ ⋮ ⋮ ⋮ ⋮ ⎥⎥ ⎢⎢
⎥ ⎢ ⋮ ⎥ ⋮
⎢ ⎥ ⎢ ⎥
⎢ −q 0 0 ⋯ 1⎥⎦ ⎢⎣
⎥ ⎢ p ⎥ 1
⎣ ⎦ ⎣ ⎦
Entonces la función de masa de la variable aleatoria Z ∼ Gk (p) puede ser expresada en terminos de
la distribución tipo-fase, es decir;
n−1
⎡q p 0 ⋯ 0⎤⎥ ⎡⎢ 0 ⎤
⎢ ⎥
⎢q 0 p ⋯ 0⎥⎥ ⎢⎢ 0 ⎥
⎢ ⎥
pZ (n) = αT n−1 τ = [ 1, 0, . . . , 0 ] ⎢ ⎥ ⎢ ⎥, (2.4.2)
⎢⋮ ⋮ ⋮ ⋮ ⎥⎥ ⎢⎢ ⋮ ⎥
⎢ ⎥
⎢q 0 0 ⋯ 0⎥⎦ ⎢⎣ p ⎥
⎣ ⎦
para n = k, k + 1, . . ..
Se ha mostrado que Zk ∼ P H(α, T ), lo que permite establecer la función de masa de la v.a Sk = ∑Zi=0 k
Yi
donde Y1 , Y2 , . . . es una sucesión de variables aleatorias iid e independientes de Zk , que toman valores en
el conjunto N = {1, 2, . . .}. Por la proposición xx; Eisele [5], sabemos que la formula recursiva para la
distribución de Sk está dada por


⎪ p (0) = α0 si t = 0,
⎪ S

P [S = i] = ⎨d∧t ∗j
d∧(i−1) i−1
∗j


⎪ ∑ a p
j Y (i) − ∑ b j ∑ pS (u)pY (i − u))
( si t ≥ 1,

⎩ j=1 j=1 u=1

donde p∗j
Y es la j-ésima convolución de las variables aleatorias Y1 , Y2 , . . . , Yj y aj , bj son constantes. Ahora
bien, por la proposición xxx las constantes bj son los coeficientes del polinomio característico de la matriz
(Ix − T ),
det(T − xI) = −xk + qpxk−1 + . . . + qpk−1 .
Por tanto
bj = pj−1 (1 − p); j = 1, 2, . . . , k.

34
Ahora, teniendo en cuenta que Tk ∼ Gk (p), tenemos que

⎪0
⎪ para n = 1, 2, . . . , k − 1
P [Tk = n] = ⎨ k
⎩p para n = k.

De acuerdo a la proposición xxx y lo anterior mencionado, se puede ver que

aj = P [Tk = k] = pk ; j=k y ai = P [Tk = i] = 0 para j = 1, 2, . . . , k − 1.

35
Capítulo 3

Distribución binomial negativa k−dimensional

En este capítulo se presenta la distribución binomial negativa k dimensional. Además, se incluyen


algunos resultados teóricos importantes, como son; la función generadora de momentos, la esperanza, las
distribuciones marginales y las distribuiones condicionadas. Se muestran algunas aplicaciones teóricas
que involucran resultados como la distribución geométrica de orden k y la relación con la sucesión de
Fibonacci de orden k.
Considere la siguiente notación.

N0 = {0, 1, . . .} = N ∪ {0}.

Nk0 = N0 × N0 × . . . × N0 , k entero positivo.


´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
k−veces

Para x = (x1 , x2 , . . . , xk ) ∈ Nk0 y q = (q1 , q2 , . . . , qk ), qi ∈ (0, 1), i = 1, 2, . . . , k,

s(x) = x1 + x2 + . . . + xk ;
x! = x1 !x2 ! . . . xk !;
qx = q1x1 q2x2 . . . qkxk .

3.1. Introducción
Sea X̃ = (X0 , X1 , . . . , Xk ) un v.a. tal que X̃ ∼ M n(n, p0 , p1 , . . . , pk ). Consdere el vector aleatorio

X = (X1 , X2 , . . . , Xk ∣ X0 = r),
p1
que se sabe tiene distribución multinomial de parámetros (n − x0 ) y ( 1−p , p2 , . . . , 1−p
0 1−p0
pk
0
), ver sección
1.3.5 . El condicionamiento X0 = r implica que el resultado R0 se ha obtenido r de veces en las n
repeticiones del expermiento, es decir r ∈ {0, 1, . . . , n}. Ahora, si r > n cabe preguntarse cual es la
distribución del vector aleatorio (X1 , X2 , . . . , Xk ) dado que X0 = r donde r ∈ N0 .

36
R1 R2 Rk R0

...

m-r m

Figura 3.1:

En la figura 3.1 m es el número de veces que se ha repetido el experimento hasta obtener r-veces el
resultado R0 .
El objetivo a continuación es hallar la probabilidad del vector X, etablecer su distribución y propie-
dades.
Sea Y una v.a. que toma los valores 0, 1, . . . , k con probabilidades P [Y = 0] = p y P [Y = i] = qi ;
i = 1, 2, . . . , k, tales que ∑ki=1 qi + p = 1. Definiendo q y q∗ tales que
k
qi
q = 1 − p = ∑ qi y qi∗ = P [Y = i ∣ Y > 0] = .
i=1 q

Suponga que se hacen observaciones independientes de la v.a. Y hasta que se observa por r-ésima vez
el evento {Y = 0}. Definimos:

(i) X0 es la v.a que denota el número de observaciones necesarias hasta obtener el evento {Y = 0}.

(ii) X = (X1 , X2 , . . . , Xk ) es un vector aleatorio tal que cada Xi es el número de veces que se observa
el evento {Y = i} hasta lograr el objetivo; i = 1, 2, . . . , k.

(iii) S(X) = S(X1 , X2 , . . . , Xk ) = X1 + X2 + . . . + Xk es una v.a. que toma valores enteros positivos.

De los anteriores items se puede deducir que:

(a) La v.a. X0 tiene distribución binomial negativa (o de Pascal) de parámetros p y r con soporte en
D = {r, r + 1, r + 2, . . .}, es decir
m − 1 r m−r m − 1 r m−r
P [X0 = m] = ( )p q 1D (m) = ( )p q 1D (m)
r−1 m−r

(b) La v.a. S(X) tiene distribución binomial negativa de parámetros p y r, con soporte en N0 , es decir
n+r−1 r n
P [S(X) = n] = ( )p q 1N0 (m).
r−1
Note que X0 = S(X) + r.

(c) El vector aleatorio (X ∣ X0 = m) = (X1 , X2 , ..., Xk ∣ S(X) = m − r) tiene distribución multinomial


de parámetros (m − r), q1∗ , q2∗ , . . . , qk∗ . En efecto; el evento (X = x) es independiente de X0 = m. Por

37
lo tanto

P [X = x ∣ X0 = m] = P [X1 = x1 , X2 = x2 , . . . , Xk = xk ∣ S(X) = m − r]
m−r
= ( )(q ∗ )x1 (q2∗ )x2 . . . (qk∗ )xk
x1 , x 2 , . . . , x k 1
×1Nk0 (x1 , x2 , ..., xk )1{S(x)=m−r} (x1 , x2 , ..., xk )
m−r
)(q∗ ) 1Nk0 (x)1{S(x)=m−r} (x),
x
≡ (
x

donde, x = (x1 , x2 , ..., xk ) y q∗ = (q1∗ , q2∗ , ..., qk∗ ).


Con los items anteriores y aplicando el teorema de la probabilidad total 1.1.6, podemos obtener la
función de masa del vector aleatorio X, esto es

P [X = x] = ∑ P [X = x ∣ X0 = m]P [X0 = m]
m=r

m−r m − 1 r m−1
)(q∗ ) 1Nk0 (x)1{S(x)=m−r} (x)(
x
= ∑( )p q
m=r x m−r

m−1 x 1
= pr ∑ ( )q 1 k (x)1{S(x)=m−r} (x)
m=r x (r − 1)! N0

s(x) + (r − 1) x
= pr ( )q 1Nk0 (x) ∑ 1{S(x)=m−r} (x)
x, (r − 1) m=r
s(x) + (r − 1) x
= pr ( )q 1Nk0 (x),
x, (r − 1)
es decir,
x1 + x2 + ... + xk + (r − 1) x1 x2
P [X1 = x1 , X2 = x2 , . . . , Xk = xk ] = pr ( )q1 q2 . . . qkxk
x1 , x2 , . . . , xk , (r − 1)
×1Nk0 (x1 , x2 , ..., xxk ).

La ultima expresión coincide con la llamada distribución multinomial negativa presentada por Maasaki
Sibuya et al. [12].
Definición 3.1.1. Un vector aleatorio X tiene distribución binomial negativa k-dimensional de paráme-
tros r ∈ N y q = (q1 , q2 , . . . , qk ); qi ∈ (0, 1); i = 1, 2, . . . , k; ∑ki=1 qi < 1, en símbolos:

X ∼ BN (k) (x; r, q),

si su función de masa es
s(x) + (r − 1) x
pX (x) ≡ P [X = x] = pr ( )q 1Nk0 (x),
x, (r − 1)

donde p = 1 − ∑ki=1 qi .

38
Observación 3.1.2. BN (k) (x; r, q) es una función de probabilidad.

(a) De la definición es inmediato que pX (x) ≥ 0 para todo x ∈ Nk0


(b) Se debe demostrar que
s(x) + (r − 1) x
∑ P [X = x] = ∑ pr ( )q 1Nk0 (x) = 1.
x∈Nk0 x∈Nk0
x, (r − 1)

Para ello, sea u = s(x). Ya que u! ≠ 0, entonces


s(x) + (r − 1) x u + (r − 1) x
∑ pr ( )q 1Nk0 (x) = pr ∑ ( )q 1Nk0 (x)
x∈Nk0
x, (r − 1) x∈Nk
x, (r − 1)
0

u + (r − 1) u x
= pr ∑ ( )( )q 1Nk0 (x),
x∈Nk0
u x

si se fija u en primer lugar y variando x1 , x2 , . . . , xk , se tiene


∞ ⎡ ⎤
r u + (r − 1) u x r
⎢ u + (r − 1) u x ⎥
p ∑ ( )( )q 1Nk0 (x) = p ∑ ⎢( ⎢ ) ∑ ( )q 1Nk0 (x)⎥⎥
x∈Nk0
u x u=0 ⎢ u x∈Nk0
x ⎥
⎣ ⎦
∞ k u
u + (r − 1)
= pr ∑ ( ) ( ∑ qi )
u=0 u i=0
k −r
r
= p (1 − ∑ qi ) =1
i=0

Observación 3.1.3. Cuando r = 1, esta distribución se denomina distribución geométrica k-dimensional


de parámetro q y se escribe:
X ∼ G (k) (x, q).
Observación 3.1.4. La igualdad n! = (n − 1)!n; n ∈ N implica la identidad

x1 + x2 + . . . + xk (x1 − 1) + x2 + . . . + xk
( )=( )+
x1 , x2 , . . . , xk (x1 − 1), x2 , . . . , xk
x1 + (x2 − 1) + . . . + xk x 1 + x2 + . . . + xk
( ) + ⋅⋅⋅ + ( ),
x1 , (x2 − 1), . . . , xk x1 , x2 , . . . , (xk − 1)
Ahora bien; si X ∼ G (k) (x, q), entonces por la identidad anterior su función de masa verifica la siguiente
fórmula recursiva: G k (0; q) ≡ pX (0) = p, y para x = (x1 , x2 , . . . , xk ) ∈ Nk , se obtiene
x 1 + x 2 + . . . + x k x1 x2
G (k) (x, q) ≡ pX (x) = ( )q1 q2 . . . qkxk
x1 , x 2 , . . . , x k
= q1 pX (x)((x1 − 1), x2 , . . . , xk ) + q2 pX (x)((x1 , (x2 − 1), . . . , xk ) + . . .
+ qk pX (x)((x1 , x2 , . . . , (xk − 1))
k
= ∑ G k (x̃i ; q),
i=1

39
donde x̃i = (x1 , x2 , . . . , xi−1 , (xi − 1), xi+1 , . . . , xk ).
En el caso en que X ∼ BN (k) (x; r, q); r ≥ 2, la anterior indentidad conduce a la siguiente fórmula
recursiva: BN (k) (0; r, q) = pr , y para x = (x1 , x2 , . . . , xk ) ∈ Nk , se tiene
k
BN (k) (x; r, q) = ∑ qi BN (k) (x̃i ; r, q) + pBN (k) (x̃; (r − 1), q),
i

donde x̃i = (x1 , x2 , . . . , xi−1 , (xi − 1), xi+1 , . . . , xk ).

3.2. Función generadora de momentos y otras características


La función generadora de momentos es de vital importancia para toda distribución de probabilidad de
probabilidad siempre que esta exista. Cabe recordar que la distribución queda determinada univocamente
por la función generadora de momentos (f.g.m). En esta sección se exhibe la f.g.m de la disttibución
binomial negativa k-dimensiona, entre otros resultados.
Teorema 3.2.1. Si X ∼ BN (k) (x; r, q), entonces
(1) La función generadora de momentos (f.g.m) de X está dada por

MX (t) = pr [1 − M (t)]−r ,

donde M (t) = q1 et1 + q2 et2 + ... + qk etk y éxiste siempre que ti < − ln(q), i = 1, 2, ..., k.
(2) La f.g.p. (función generadora de probabilidades) de X es:

GX (s) = pr [1 − G(s)]−r ,

donde G(s) = q1 s1 + q2 s2 + ... + qk sk .; si ∈ [0, 1]; i = 1, 2, ..., k.


(3) El vector de medias y la matriz de covarianzas de X son:
r
µX = E[X] = q; qT = [q1 q2 . . . qk ] ,
p
r r
ΣX = Cov[X] = diag(q1 , q2 , ..., qk ) + 2 qqT .
p p

Demostración. Ya que el v.a. (X ∣ X0 = m) = (X1 , X2 , ..., Xk ∣ X0 = m) tiene distribución multinomial


de parámetros (m − r), q1∗ , q2∗ , ..., qk∗ , entonces su f.g.m. es

M(X∣X0 =m) (t) = [q1∗ et1 + q2∗ et2 + ... + qk∗ etk ](m−r) ; t ∈ Rk .

Ahora, por el teorema de la doble esperanza 1.2.28


k k
MX (t) = E[e∑i=1 ti Xi ] = E[E[e∑i=1 ti Xi ∣ X0 ]]

m − 1 r (m−r)
= ∑ [q1∗ et1 + q2∗ et2 + . . . + qk∗ etk ](m−r) ( )p q
m=r m−r

m−1
= pr ∑ ( )[q1 et1 + q2 et2 + . . . + qk etk ](m−r)
m=r m−r

40
Haciendo m − r = i y M (t) = q1 et1 + q2 et2 + . . . + qk etk en la última expresión, se obtiene

i + (r − 1)
MX (t) = pr ∑ ( )[M (t)]i (3.2.1)
i=0 i
= p [1 − M (t)]−r .
r

La serie en (3.2.1) es la conocida serie binomial que tiene radio de convergencia R = 1, por lo tanto MX (t)
éxiste siempre que M (t) < 1, esto es; para todos los t = (t1 , t2 , ..., tk ) ∈ Rk tales que ti < h ∶= − ln(q);
i = 1, 2, ..., k. En efecto, bajo estas condiciones

M (t) = q1 et1 + q2 et2 + ... + qk etk < q1 eh + q2 eh + ... + qk eh = qeh = 1.

Queda demostrada la parte (1) del teorema. La demostración de la parte (2) sigue las mismas líneas.
Las expresiones dadas en (3) se obtienen por medio de la f.g.m. como sigue:

∂MX
[t] = rpr [1 − M (t)]−(r+1) qi eti .
∂ti
Entonces, cada componente del vector de medias está dado por
∂MX qi
E[Xi ] = [t]∣t=0 = r .
∂ti p
Un procedimiento análogo arroja que

∂ 2 MX r qi2 ∂ 2 MX r
V ar[Xi ] = [t]∣ t=0 = ( + qi ) y Cov[Xi , Xj ] = [t]∣t=0 = 2 qi qj ; i ≠ j,
∂t2i p p ∂ti ∂tj p

con lo cual se obtiene la matriz de covarianzas del v.a. X


r r
ΣX = Cov[X] = diag(q1 , q2 , . . . , qk ) + 2 qqT .
p p

Observación 3.2.2. Sean X1 , X2 , ..., Xn vectores aleatorios independientes tal que Xi ∼ BN (k) (x; ri , q);
i = 1, 2, ..., n. Definamos el vector Z = ∑ni=1 Xi , entonces Z ∼ BN (k) (x; r = ∑ni=1 ri , q). En efecto, puesto
que cada Xi tiene f.g.m.
MXi [t] = pri [1 − M [t]]−ri ; i = 1, 2, . . . , n.
Por el teorema 1.2.25 se tiene que
n
MZ [t] = ∏ pri [1 − M [t]−ri = p∑i=0 ri [1 − M [t]]− ∑i=0 ri ,
n n

i=0

lo cual establece el resultado.


En particular, Si X1 , X2 , ..., Xr son v.a. i.i.d. con Xi ∼ G (k) (x; q);i = 1, 2, ..., r, entonces

X1 + X2 + ... + Xr ∼ BN (k) (x; r, q).

41
3.3. Distribuciones marginales y distribuciones condicionadas
El nombre distribución binomial negativa k-dimensional se debe a que si X ∼ BN (k) (x; r, q), entonces
las distribuciones marginales, las distribuciones condicionadas y algunas funciones de lineales de X siguen
una distribución binomial negativa j-dimensionales; j = 1, 2, ..., k.

Teorema 3.3.1. Si X ∼ BN (k) (x; r, q) , entonces para cada conjunto de índices I ∶= {i1 , i2 , ..., ij } ⊆
{1, 2, ..., k}; 1 ≤ j ≤ (k − 1), se tiene que

X̃ = (Xi1 , Xi2 , ..., Xij ) ∼ BN (j) (x; r, q̃),

donde
1
q̃ = (qi1 , qi2 , ..., qij ); I c = {1, 2, ..., k} − I.
(1 − ∑i∈I c qi )

Demostración. La f.g.m. del v.a. X̃ es

MX̃ (t) = E[et1 Xi1 +t2 Xi2 +...+tj Xij ]


−r
= pr [1 − (qi1 et1 + qi2 et2 + ... + qij etj + ∑ qi )]
i∈I c
−r
r t1 t2 tj
= p [(1 − ∑ qi ) − (qi1 e + qi2 e + ... + qij e )]
i∈I c
⎡ ⎤r ⎡ t1 + q et2 + ... + q etj ⎞⎥
⎤−r
⎢ p ⎥ ⎢ ⎛ q i1 e i2 ij
⎢ ⎥ ⎢ ⎥
= ⎢ ⎥ ⎢1 − ⎜ ⎟⎥
⎢ 1 − ∑ qi ⎥ ⎢ ⎝ 1 − ∑ qi ⎠⎥⎥
⎢ i∈I c
⎥ ⎢ i∈I c
⎣ ⎦ ⎣ ⎦
donde t = (t1 , t2 , ..., tj ) ∈ Rj satisface ti < h ∶= − ln(q); i = 1, 2, ..., j.

Teorema 3.3.2. Suponga que X ∼ BN (k) (x; r, q), que = {I1 , I2 , ..., Ij } es una partición disjunta de
{1, 2, ..., k}; 2 ≤ j ≤ k, Ii ≠ ∅; i = 1, 2, ..., j. Entonces

⎛ ⎞
X̂ ∶= ∑ Xi , ∑ Xi , ..., ∑ Xi ∼ BN (j) (x; r, q̂),
⎝i∈I1 i∈I2 i∈Ij ⎠

donde
⎛ ⎞
q̂ = ∑ qi , ∑ qi , ..., ∑ qi .
⎝i∈I1 i∈I2 i∈Ij ⎠

Demostración. La f.g.m. del v.a. X̂ es

MX̂ (t) = E [et1 (∑i∈I1 Xi )+t2 (∑i∈I2 Xi )+...+tj (∑i∈I1 Xi ) ]


⎡ ⎤−r
⎢ ⎛
r⎢ t1 t2
⎛ ⎞ tj ⎞⎥⎥
= p ⎢1 − ( ∑ qi ) e + ( ∑ qi ) e + ... + ∑ qi e ⎥ ,
⎢ ⎝ i∈I1 i∈I2 ⎝i∈Ij ⎠ ⎠⎥
⎣ ⎦
donde ti < ln(q); i = 1, 2, ..., j.

42
Teorema 3.3.3. Suponga que X ∼ BN (k) (x; r, q). Particione el v.a. X y el vector de parámetros q de la
siguiente manera:

X = (X1 ; X2 ) = (X1 , X2 , ..., Xj ; Xj+1 , Xj+2 , ..., Xk )


q = (q1 ; q2 ) = (q1 , q2 , ..., qj ; qj+1 , qj+2 , ..., qk ),
(k−j)
donde 1 ≤ j ≤ (k − 1). Sea c2 = (cj+1 , cj+2 , ..., ck ) ∈ N0 fijo y escriba s(q1 ) = ∑ji=1 qi , s(c2 ) =
k j
∑i=(j+1) ci , s(x1 ) = ∑i=1 xi y
α = [1 − s(q1 )]s(c2 )+r .
Entonces:
(X1 ∣ X2 = c2 ) ∼ BN (j) (x1 ; s(c2 ) + r, q1 ).
Demostración. Por el teorema (3.3.1), X2 ∼ BN (k−j) (x2 ; r, q̃2 ), donde
1
q̃2 = (q(j+1) , q(j+2) , ..., qk ).
(1 − s(q1 ))
Por tanto
p(X1 ,X2 ) (x1 , c2 )
pX1 ∣X2 (x1 ∣ c2 ) =
pX2 (c2 )
pr (s(x1x)+s(c 2 )+(r−1)
1 ,c2 ,(r−1)
)q1 x1 q2 c2 1Nk0 (x1 )1Nk−j (c2 )
0
= r
)+(r−1) q2 c2
( 1− p
j ) (s(cc22,(r−1) ) s(c2 ) 1Nk−j (c2 )
∑i=1 qi (1−∑ki=j+1 qi ) 0

s(c2 )+r s(x1 ) + s(c2 ) + (r − 1)


= (1 − s(q1 )) ( )q1 x1 1Nk−j (x1 ),
x1 , s(c2 ) + (r − 1) 0

lo cual establece el resultado.


Observación 3.3.4. Suponga que X̂ ∼ G (k+1) (x̂; q̂). Particione el v.a. X̂ y el vector de parámetros q̂ de la
siguiente manera:

X̂ = (X; X(k+1) ) = (X1 , X2 , ..., Xk ; X(k+1) )


q̂ = (q; q(k+1) ) = (q1 , q2 , ..., qk ; q(k+1) ).
Entonces:
p(s(x)+x k+1
x,xk+1
)qx qxk+1
k+1
1Nk0 (x)1Nk0 (xk+1 )
P [X = x ∣ X(k+1) = r − 1] = r−1
p
1−∑ki=1 qi
( 1−∑qk ) 1Nr−1
i=1 qi 0

k r
s(x) + (r − 1) x
= (1 − ∑ qi ) ( )q 1Nk0 (x),
i=1 x, (r − 1)
por lo tanto
(X ∣ X(k+1) = r − 1) ∼ BN (k) (x; r, q).

43
3.4. Transformaciones lineales
Al aplicar una tranformación lineal bastante simple como es el producto Ax al vector aleatorio X
donde A es una matriz m × k con entradas en R se obtiene un nuevo vector aleatorio Y. En esta sección
se da la f.g.m y la función de masa del v.a Y.
Teorema 3.4.1 (Tranformaciones lineales). Suponga que X ∼ BN (k) (x; r, q) y que A = [aij ]m×k ∈
Mm×k (R) es una matriz no nula. Considere la función lineal A ∶ Nk0 → D definida por

A(x) ∶= Ax

donde D ∶= A(Nk0 ). Entonces el v.a. m-dimensional Y = AX tiene las siguientes características:


(1) f.g.m.

MY (t) = MX (AT t); tT = [t1 t2 . . . tm ]


m m m −r
= pr [1 − (q1 e∑j=1 aj1 tj + q2 e∑j=1 aj2 tj + ... + qk e∑j=1 ajk tj )] ,

h
donde ∣ti ∣ < mα ; α ∶= máx{∣aij ∣; i = 1, 2, ..., m, j = 1, 2, ..., k}; h ∶= − ln(q).

(2) Media y varianza:


r
E[Y] = AµX = Aq;
p
r r
V ar[Y] = AΣX A = Adiag(q1 , q2 , ..., qk )AT + 2 AqqT AT .
T
p p

(3) Función de masa


s(x) + (r − 1) x
P [Y = y] = pr ∑ ( )q 1Nk0 (x)1D (y)
Ax=y x, (r − 1)
x1 + x2 + ... + xk + (r − 1) x1 x2
= pr ∑ ( )q1 q2 . . . qkk
Ax=y x1 , x2 , . . . , xk , (r − 1)
×1Nk0 (x1 , x2 , ..., xk )1D (y).

Demostración. Para demostrar (1) observe que,


⎡ ∑k ∑ m ⎤ m −r
⎢ j=1 i=1 aij ti Xj ⎥ k ∑ aij ti
T tAT X r
MY (t) = MX (A t) = E [e ] = E ⎢e

⎥ = p [1 − ∑ qj ei=1
⎥ ] .
⎢ ⎥ j=1
⎣ ⎦
h
Ahora, si ∣ti ∣ < mα , con α = max {∣aij ∣ ∶ i = 1, 2, . . . , m; j = 1, 2, . . . , k} y h ∶= −ln(q) entonces
k k k k
∑ qj e∑j=1 aij ti ≤ ∑ qj e∑i=1 ∣aij ti ∣ ≤ ∑ qj emα∣ti ∣ < ∑ qj e−ln(q) = qe−ln(q) = 1.
m m

j=1 j=1 j=1 j=1

Las partes (2) y (3) son obvias.

44
Como consecuencia del teorema 3.4.1 se tiene el siguiente corolario que involucra la distribución
geométrica k-dimensional.
Corolario 3.4.2. Suponga que X ∼ G k (x, q), y que a ∈ Rk ; aT = [a1 , a2 , . . . , ak ], a ≠ 0. Considere la
transformación lineal L ∶ Nk0 Ð→ D definida por:
k
L(x) ∶= aT x = ∑ ai xi ,
i=1

donde D = L(Nk0 ). Entonces, la variable aleatoria L(X) tiene las siguientes características.
(1) Función generadora de momentos;
k −1
tai −ln(q)
ML(X) (t) = p [1 − ∑ qi e ] ; ∣t∣ <
i=1 ξ
donde ξ = max{∣ai ∣ ∶ i = 1, 2, . . . , k⌉.
(2) L(X) tiene función de masa
s(x) x
P [L(X) = m] = p( )q 1Nk0 (x)1D (m)
x
Demostración. Para demostrar (1), haga ξ = max {∣ai ∣ ∶ i = 1, 2, . . . , k}, por lo cual
k k
∑ qi e∣tai ∣ ≤ ∑ qi e∣t∣ξ = qe∣t∣ξ .
i=1 i=1

luego, qe∣t∣ξ < 1 si y solo si ∣t∣ < −ln(q)


ξ .
La parte (2) es una implicación de (1).

3.5. Resultados
Suponga que X ∼ G k (x, q). La distribución de la v.a. L(X) = (∑ki=1 ixi ) + k es denominada por
Philippou et al. [8], como Distribución geométrica de orden k. L(X) denota el número de ensayos ne-
cesarios hasta obtener la primera racha de k-éxitos consecutivos en ensayos independientes de Bernoulli
con probabilidad de éxito α ∈ (0, 1). Para obtener la función de masa haga

p = αk y qi = βαi−1 ; β = 1 − α, i = 1, 2, . . . , k
en la parte (2) del corolario 3.4.2. En consecuencia
s(x) s(x) n+k−s(x)
P [L(X) = n + k] = ∑ ( )β α 1Nk0 (x)1D (n). (3.5.1)
L(x)=n x
Por la parte (1) del mismo corolario la f.g.m es
k −1
k i−1 it αk (1 − αet )
ML(X) (t) = α [1 − ∑ βα e ] = ,
i=1 1 − et + βαk e(k+1)t
)
k
donde ∣t∣ < − ln(1−α
k . Este es el resultado principal de Barry y Lo Bello [3].

45
Bibliografía

[1] Aki, S., Kuboki, H., and Hirano, K. On discrete distributions of order k. Annals of the Institute
of Statistical Mathematics 36, 3 (1984), 431–440.

[2] Balakrishnan, N., and Nevzorov. A primer on statistical distributions. A John Wiley & Sons,
2003.

[3] Barry, M. J., and Bello, A. J. L. The moment generating function of the geometric distribution of
order k. The Fibonacci Quarterly 31, 2 (1993), 178–180.

[4] Billingsley, P. Probability and measure. John Wiley & Sons, 2008, pp. 388–389.

[5] Eisele, K.-T. Recursions for compound phase distributions. Insurance: Mathematics and Economics
38, 1 (2006), 149–156.

[6] Koutras, M. V., and Eryilmaz, S. Compound geometric distribution of order k. Methodology and
Computing in Applied Probability 19, 2 (2017), 377–393.

[7] Mood, A. M. Introduction to the Theory of Statistics. McGraw-hill, 1950.

[8] Philippou, A., and Muwafi, A. Waiting for the k-th consecutive success and the Fibonacci sequence
of order k. Fibonacci Quarterly (1982), 28–32.

[9] Philippou, A. N., Georghiou, C., and Philippou, G. N. A generalized geometric distribution and
some of its properties. Statistics & Probability Letters 1, 4 (1983), 171–175.

[10] Rincón, L. Curso intermedio de probabilidad. UNAM, Facultad de Ciencias, 2007.

[11] Shiryaev, A. Probability. Graduate Texts in Mathematics. Springer New York, 1995.

[12] Sibuya, M., Yoshimura, I., and Shimizu, R. Negative multinomial distribution. Annals of the
Institute of Statistical Mathematics 16, 1 (1964), 409–426.

46

También podría gustarte