Está en la página 1de 89

Universidad Nacional de Colombia

INTRODUCCIN A LA
TEORA DE
TELETRFICO
ESTADSTICA DE LAS TELECOMUNICACIONES

Jorge Eduardo Ortiz Trivio


21/02/2012
2
TABLA DE CONTENIDO

1 INTRODUCCIN A LA TEORA DE TELETRFICO ............................................................. 9


1.1 TELETRFICO COMO DISCIPLINA .................................................................................. 10
1.2 MODELAMIENTO DE SISTEMAS DE TELECOMUNICACIONES ........................... 11
1.3 LA UIT Y LA INGENIERA DE TELETRFICO ............................................................. 12
1.4 LAS UNIDADES DE TRFICO Y LOS ERLANGS . ..................................................... 14
1.5 LA HORA DE OCUPACIN Y EL BLOQUEO ................................................................... 18
1.6 MODELOS DE TRFICO ........................................................................................................ 22
1.6.1 Erlang B .............................................................................................................................. 22
1.6.2 Erlang B Extendido ........................................................................................................ 22
1.6.3 Erlang C............................................................................................................................... 22
1.7 RESUMEN DEL CAPTULO .................................................................................................. 22
2 COMPENDIO DE TEORA DE PROBABILIDADES ............................................................. 24
2.1 INTRODUCCIN ...................................................................................................................... 25
2.2 ESPACIOS DE PROBABILIDAD .......................................................................................... 25
2.3 PRINCIPIOS FUNDAMENTALES DE LA TEORA DE LA MEDIDA ....................... 32
2.3.1 Reglas de la medida continua.................................................................................... 33
2.3.2 Reglas del conteo ............................................................................................................ 36
2.4 PROBABILIDAD CONDICIONAL E INDEPENDENCIA ESTOCSTICA................ 38
2.5 VECTOR ALEATORIO Y FUNCIN DE DISTRIBUCIN CONJUNTA .................... 46
2.5.1 Introduccin ..................................................................................................................... 46
2.5.2 Definiciones ...................................................................................................................... 46
2.6 FUNCIONES DE DENSIDAD CONJUNTAS ...................................................................... 47
2.6.1 Vectores aleatorios discretos .................................................................................... 47
2.6.2 Vectores Aleatorios continuos .................................................................................. 48
2.6.3 Otras clases de vectores aleatorios......................................................................... 48
3
2.7 DISTRIBUCIONES CONDICIONALES E INDEPENDENCIA ESTOCSTICA ....... 49
2.7.1 Vectores Aleatorios Continuos ................................................................................. 49
2.7.1.1 Distribuciones Marginales ................................................................................ 49
2.7.1.2 Distribuciones Condicionales .......................................................................... 49
2.7.2 Vectores Aleatorios Discretos ................................................................................... 52
2.7.2.1 Distribuciones Marginales ................................................................................ 52
2.7.2.2 Distribuciones Condicionales .......................................................................... 52
2.7.3 Independencia ................................................................................................................. 52
2.8 ESPERANZA MATEMTICA Y MOMENTOS ................................................................. 53
2.8.1 Valor Esperado de Funciones de Variables Aleatorias ................................... 53
2.8.2 Momentos .......................................................................................................................... 54
2.8.3 Covarianza y Coeficiente de Correlacin .............................................................. 56
2.8.4 Funciones generadoras de Momentos .................................................................. 57
2.8.5 Esperanza e Independencia ....................................................................................... 57
2.9 TRANSFORMACIONES .......................................................................................................... 58
2.9.1 CASO UNIVARIADO........................................................................................................ 58
2.9.1.1 Transformacin lineal univariada ................................................................. 58
2.9.1.2 Suma de dos variables aleatorias ................................................................... 58
2.9.1.3 Cuadrado de una variable aleatoria .............................................................. 58
2.9.2 VECTORES ALEATORIOS DISCRETOS ................................................................... 59
2.9.3 VECTORES ALEATORIOS CONTINUOS................................................................. 60
2.9.3.1 Formulacin ............................................................................................................ 60
2.9.3.2 Transformacin continua general ................................................................. 61
2.10 FAMILIA DE GAUSS MULTIDIMENSIONAL ............................................................. 63
2.10.1 Funcin de densidad ................................................................................................. 63
2.10.2 Integral De Aitken ...................................................................................................... 63

4
2.10.3 Funcin Generadora De Momentos .................................................................... 64
2.10.4 Distribuciones Marginales ...................................................................................... 65
2.10.5 Distribuciones Condicionales ................................................................................ 67
2.10.6 Independencia ............................................................................................................. 69
2.11 FAMILIAS DE DISTRIBUCIONES UNIVARIADAS................................................... 69
2.11.1 Introduccin ................................................................................................................. 69
2.11.2 Familias de Distribuciones Discretas ................................................................. 70
2.11.2.1 Bernoulli ................................................................................................................. 70
2.11.2.2 Con restitucin: Modelo binomial ............................................................... 70
2.11.2.3 Sin restitucin: Modelo Hipergeomtrico ................................................ 73
2.11.2.4 Poisson .................................................................................................................... 74
2.11.2.5 Geomtrica ............................................................................................................ 74
2.11.3 Familias de Distribuciones Continuas ............................................................... 74
2.11.3.1 Uniforme ................................................................................................................ 74
2.11.3.2 Gauss ........................................................................................................................ 76
2.11.3.3 Exponencial........................................................................................................... 76
2.11.3.4 Erlang ...................................................................................................................... 76
2.11.3.5 Gamma .................................................................................................................... 77
2.11.4 RELACIONES ENTRE FAMILIAS ........................................................................... 77
2.12 EJERCICIOS............................................................................................................................ 78
2.13 RESUMEN DEL CAPTULO .............................................................................................. 78
3 PROCESOS ESTOCSTICOS ....................................................................................................... 80
3.1 INTRODUCCIN ...................................................................................................................... 80
3.2 DEFINICIN .............................................................................................................................. 80
3.3 LAS FUNCIONES DE AUTOCOVARIANZA Y AUTOCORRELACIN ..................... 86
3.4 FUNCION DE AUTOCORRELACIN PARCIAL ............................................................. 86

5
3.5 PROCESOS CON RUIDO BLANCO ..................................................................................... 86
3.6 CADENAS DE MARKOV EN TIEMPO DISCRETO ........................................................ 86
3.6.1 Introduccin ..................................................................................................................... 86
3.6.2 Ecuaciones de ChapmanKolmogorov .................................................................. 86
3.6.3 Clasificacin de los Estados ....................................................................................... 86
3.7 CADENAS DE MARKOV DE TIEMPO CONTINUO ....................................................... 86
3.7.1 Introduccin ..................................................................................................................... 86
3.7.2 Definicin ........................................................................................................................... 86
3.7.3 Procesos de Nacimiento y Muerte........................................................................... 86
3.7.4 Funcin de Transicin de Probabilidad ................................................................ 87
3.7.5 Reversibilidad .................................................................................................................. 87
3.8 DISTRIBUCIN EXPONENCIAL Y EL PROCESO DE POISSON .............................. 87
3.8.1 Introduccin ..................................................................................................................... 87
3.8.2 Definicin de Proceso de Poisson............................................................................ 87
3.8.3 Distribuciones de los Tiempos entre llegadas y de Esperas ........................ 87
3.8.4 proceso de Poisson no homogneo ........................................................................ 87
3.9 **TEORA DE RENOVACIN .............................................................................................. 87
3.10 EJERCICIOS............................................................................................................................ 87
3.11 RESUMEN DEL CAPTULO .............................................................................................. 87
4 MODELOS DE TRFICO ............................................................................................................... 88
4.1 ERLANG B: SISTEMA DE PRDIDA DE ERLANG ....................................................... 88
4.2 ERLANG B EXTENDIDO: EXTENDIDO............................................................................ 88
4.3 ERLANG C: SISTEMA CON RETARDO ............................................................................. 88
4.4 **REDES DE COLAS ................................................................................................................ 88
5 DIMENSIONAMIENTO DE REDES DE TELECOMUNICACIONES ................................ 88
6 MEDIDAS DE TRFICO ................................................................................................................ 88

6
7 REFERENCIAS BIBLIOGRFICAS ............................................................................................ 89

7
LISTA DE FIGURAS

Figura 11: Abstraccin del proceso de una llamada en un sistema telefnico. ..... 13

Figura 12: Recomendaciones de la UIT sobre Ingeniera de teletrfico. .................. 14

Figura 13_ Trfico transportado (Intensidad) ..................................................................... 16

Figura 14: Nmero de llamadas por minuto en un centro de conmutacin un


lunes en la maana. .............................................................................................................................. 19

Figura 15: Nmero promedio de llamadas por minuto en un centro de


conmutacin. ........................................................................................................................................... 19

Figura 16: Tiempo medio de ocupacin de una lnea troncal en funcin de la hora
del da. ........................................................................................................................................................ 21

Figura 21: Espacio muestral y eventos de inters del ejemplo de Galois ................ 34

Figura 22: Espacio muestral y eventos de inters del ejemplo de las races .......... 35

Figura 23: Factores importantes en el proceso de contar .............................................. 37

Figura 24: Diagramas de medida para el ejemplo de probabilidad combinatoria


....................................................................................................................................................................... 38

Figura 25: Representacin grfica de las propiedades de los eventos B.................. 39

Figura 26: Funcin de densidad uniforme............................................................................. 75

Figura 27: Funcin de Distribucin uniforme. ..................................................................... 75

Figura 28: Probabilidad uniforme............................................................................................. 75

8
1 INTRODUCCIN A LA TEORA DE TELETRFICO

Agner Krarup Erlang (1878 - 1929), conocido como El


Padre de la Teora de Teltrfico, ingreso a la Universidad
de Copenhague en 1896. Dada su notable capacidad
intelectual obtuvo una beca para la universidad y se gradu
en matemticas en 1901. Se desempe como profesor,
actividad que le permiti mantener su inters por las
matemticas aplicadas. Fue miembro de la asociacin
danesa de matemticas, por medio de la cual conoci a
Johan Jensen, el ingeniero jefe de la Copenhagen Telephone
Company (CTC), la cual era una subsidiaria de International
Bell Telephone Company. Erlang trabaj por casi 20 aos
para CTC, desde 1908 hasta su muerte en Copenhague en
1928.

Erlang abord el problema clsico de la determinacin de cuntos circuitos


eran necesarios para proveer un servicio telefnico aceptable. Erlang
desarroll su teora del trfico telefnico a travs de varios aos. Entre sus
publicaciones ms importantes sobre la materia, se encuentran: En 1909 - "La
teora de las probabilidades y las conversaciones telefnicas" - la cual
demostr que la Distribucin de Poisson se aplica para trfico telefnico
aleatorio. En 1917 - "Solucin de algunos problemas en la teora de
probabilidades de importancia en centrales telefnicas automticas" - el cual
contiene su frmula clsica para el clculo de prdidas y tiempos de espera.

Hacia 1944 el "Erlang" era usado en los pases escandinavos para denotar la
unidad de trfico telefnico. Esta unidad de medida fue reconocida
internacionalmente al final de la segunda guerra mundial. As mismo una
distribucin estadstica y un lenguaje de programacin llevan su nombre.
Entre aqullos que continuaron con las ideas de Erlang, debemos mencionar al
sueco Conny Palm, cuyos aportes durante el perodo 1936 - 1946 (1957)
contribuyeron a dar a la teora de trafico su actual rigor.

En este captulo se hace presentan las bases de la teora de teletrfico, se establecen


las definiciones bsicas y se presentan algunos ejemplos que ilustran la forma de
trabajo en esta disciplina.

9
1.1 TELETRFICO COMO DISCIPLINA
Definicin 11: Teletrfico.

Disciplina1 que se encarga de aplicar rigurosamente la teora de probabilidades y la


teora de estadsticas al estudio de la estructura estocstica y el comportamiento2
en la actividad de un sistema de telecomunicaciones en todas las etapas de su ciclo
de vida.

Como cualquier sistema, bien sea vivo o artificial, un sistema de


telecomunicaciones se concibe para cumplir uno o varios fines, nace, crece, procura
cumplir su fin, intenta reproducirse, muere y posiblemente trasciende.

Por lo anterior, algunos de los objetivos de esta disciplina son:

1. Concebir nuevos sistemas de telecomunicaciones que cumplan con


caractersticas estructurales, medidas de desempeo y criterios de
optimizacin predefinidos y claramente establecidos.
2. Disear y/o adaptar el contexto en el cual se desenvolver dicho
sistema complejo.
3. Planear, Disear e implementar un nuevo sistema de
telecomunicaciones que cumpla con algunas medidas de servicio,
robustez y desempeo deseados y claramente establecidas.
4. Planear su evolucin y adaptacin dentro del entorno para el cual fue
concebido.
5. Generar polticas claras de mantenimiento y control que garanticen su
fin teleolgico.
6. Planear su fin o expiracin.

1
Arte, facultad o ciencia.
2
Vase [5]

10
Para cumplir con estos y otros fines, y responder preguntas tales como cunto
equipo debe proveerse para que la proporcin de llamadas que experimentan
retardos est por debajo de un nivel aceptable especfico? o bien cuntos
terminales de datos pueden ser conectados a un servicio de computadora de
tiempo compartido?, el teletrfico requiere mtodos de pronstico de demandas y
flujos de informacin, mtodos para calcular la capacidad del sistema y la
construccin de medidas de desempeo para medir el grado de servicio; por ello, se
sirve de varias herramientas formales, entre las que vale incluir las siguientes:

1. La teora de probabilidades,
2. La Teora de estadsticas,
3. Proceso estocsticos,
4. Simulacin de sistema,
5. Mtodos numricos,
6. Teora de colas y Teora redes de colas,
7. Teora de decisiones y teora de juegos.

Axioma 11: Estacionariedad.

La teora aqu presentada se basa en el supuesto del equilibrio estadstico, esto es,
que sta slo puede tratar con sistemas de telecomunicaciones sujetos a
condiciones estacionarias.

An no se ha propuesto mtodos tericos de uso prctico para comprender los


Sistemas de Telecomunicaciones bajo condiciones no estacionarias. Sin embargo, el
primer trabajo terico (pero no general) para abordar tales casos se present en la
tesis doctoral de Palm, realizada en 1943. En ese trabajo se present un estudio de
variaciones en la intensidad de llamadas. En la actualidad, mediante simulaciones
computarizadas es posible tratar estudiar sistemas de telecomunicaciones con en
el cual fluye trfico no estacionario. Sin embargo, las teoras aqu consideradas se
limitarn a las condiciones estacionarias, a menos que se indique lo contrario.

1.2 MODELAMIENTO DE SISTEMAS DE TELECOMUNICACIONES

11
Abstraer las principales caractersticas de un sistema de telecomunicaciones real
requiere la consideracin de tres elementos fundamentales:

1. La estructura del Sistema de Telecomunicaciones (hardware). En este


nivel se pueden presentar fallas relativamente aleatorias,
2. La estrategia operacional (Software). Aqu se consideran las reglas de
operacin del sistema y
3. Las propiedades estadsticas del trfico (Demanda de los usuarios). En
este aspecto se consideran las propiedades de las estructuras
probabilsticas del trfico; por ejemplo, un proceso estocstico de de
Poisson nacimiento y muerte.

Un modelo3 es satisfactorio si cumple simultneamente las siguientes cuatro


condiciones[1]:

1. Es elegante,
2. Contiene pocos elementos arbitrarios o ajustables,
3. Concuerda con las observaciones existentes y proporciona una
explicacin de ellas,
4. Realiza predicciones detalladas sobre observaciones futuras que
permitirn refutar o falsear el modelo si no son confirmadas.

El Ejemplo 11 ilustra la idea de modelo

1.3 LA UIT Y LA INGENIERA DE TELETRFICO


Las recomendaciones sobre la ingeniera de trfico se pueden clasificar de acuerdo
con cuatro tareas:

3
Se entiende por modelo a un esquema terico, generalmente en forma matemtica, de un sistema o de una realidad
compleja, como la abstraccin simplificada de un sistema de telecomunicaciones a travs de una maqueta, que se elabora
para facilitar su comprensin y el estudio de su comportamiento.

12
1. Caracterizacin de la demanda de trfico,
2. Objetivos del grado de servicio (GoS),
3. Controles de trfico y dimensionamiento, y
4. Supervisin del rendimiento.

La interaccin entre estos cuatro elementos se presenta en la Figura 12.

Ejemplo 11: Modelo de una llamada.

A llamada
desea hablar
con B Sistema de respuesta
B ? conversacin
telecomunicacin

ms
immediatamente

tarde

congestin,

ocupado
no hay
error de A

avera
desiste sin respuesta
intentarlo

tiempo para el lo intento


nuevo intento de nuevo
Que hace A?

desiste

Figura 11: Abstraccin del proceso de una llamada en un sistema


telefnico.

El objetivo en la planificacin de un sistema de telecomunicaciones consiste en


dimensionar la infraestructura del sistema, es decir la cantidad y caractersticas de
equipos necesarios as como las caractersticas de los canales de comunicacin de
tal manera que las variaciones en las respuestas a las demandas de sus usuarios sea
satisfactorio o, en el peor de los casos, sin notable molestias, optimizando, al
mismo tiempo, los costos de las instalaciones. En otras palabras, la infraestructura
de la red de telecomunicaciones debe ser utilizada tan eficientemente como sea
posible.

13
1.4 LAS UNIDADES DE TRFICO Y LOS ERLANGS .
Usualmente la palabra trfico se emplea en esta teora para denotar la Intensidad
del flujo de paquetes que circulan en una red de telecomunicaciones. La Definicin
12, dada por la UIT establece el concepto Intensidad de trfico.

Caracterizacin de la Objetivos del grado de


demanda servicio

Modelo Medida QoS

GoS

Pronstico Componentes
de Red

Controles de trfico y dimensionamiento

Controles de trfico dimensionamiento

Supervisin del rendimiento

Supervisin del rendimiento

Figura 12: Recomendaciones de la UIT sobre Ingeniera de teletrfico.

Definicin 12: Intensidad de Trfico.

La Intensidad de trfico instantnea en un Sistema de Telecomunicaciones


compuesto por un conjunto de Recursos (tales como Servidores, Circuitos, lneas,
14
troncales, Canales, etc) es el nmero de recursos ocupados en un instante de
tiempo dado. Formalmente, la intensidad instantnea se denota por la funcin n t
.

Definicin 13: Unidad de medida de trfico ( U .T ).

La unidad de medida de la intensidad del trfico n t en un Sistema de


telecomunicaciones se denomina el Erlang. En forma abreviada se escribe E o
bien Erl. En sentido estricto un Erlang representa el uso continuo de un canal de
voz; pero en la prctica se emplea para medir el volumen de trfico en una hora.
Los Erlangs son adimensionales.

En la caracterizacin del trfico es necesario el clculo de los momentos


estadsticos, tales como la media y la varianza, de la intensidad de trfico
instantnea.

Definicin 14: Intensidad media del trfico en el periodo T .

En un periodo de tiempo T en el cual la intensidad del trfico est dada por n t , la


1
intensidad media del trfico se define como Y T n t dt
T T

Definicin 15: Trfico Transportado AC .

Denotado por Y AC corresponde al trfico transportado (cursado) por el grupo de


servidores en el periodo de tiempo T . El trfico transportado nunca excede al
nmero de canales (lneas). Ntese que un canal puede a lo ms transportar un
Erlang.

15
Figura 13_ Trfico transportado (Intensidad)

Definicin 16: Volumen de Trfico Transportado.

El trfico total transportado en un periodo de tiempo T se denomina un volumen


de trfico transportado. Este volumen se mide en ErlangsHoras ( Eh ).
Dependiendo del sistema en estudio, es posible hablar mejor de ErlangsSegundos.
Obsrvese que el volumen es igual a la suma de los tiempos de ocupacin del
sistema durante el periodo T .

Definicin 17: Trfico Ofrecido A .

Corresponde al trfico transportado cuando no hay solicitudes rechazadas a causa


de falta de capacidad del sistema. Es decir cuando el nmero de servidores es
ilimitado. Equivalentemente, el trfico ofrecido se define como el nmero
promedio de intentos de utilizacin del sistema (Canal) por el tiempo medio de
ocupacin. Matemticamente hablando se expresa como A s donde es
intensidad de los intentos (llamadas) y s es el tiempo medio de servicio.

En este ltimo caso es necesario tener cuidado pues las unidades de tiempo de
ambos parmetros debe ser igual. Esta expresin tambin muestra de una manera
ms sencilla que la unidad de trfico no tiene dimensiones. Tambin puede

16
observarse que esta medida es terica y no puede ser calculada de forma exacta
para un sistema simplemente se puede estimar.

Definicin 18: Trfico Perdido o rechazado Al .

El trfico perdido en un Sistema de Telecomunicaciones corresponde a la


diferencia entre el trfico Ofrecido y el trfico transportado. Esto es Al A AC .
Claramente, el trfico perdido se puede disminuir al incrementar la capacidad del
sistema.

Ejemplo 12: Clculo del trfico.

Si un grupo de personas hacen 30 llamadas en una hora y cada llamada tiene una
duracin de 5 minutos, dicho grupo ha tenido un trfico de 2,5 Erlangs. Esta cifra
resulta de lo siguiente:

Minutos de trfico en una hora = nmero de llamadas x duracin

Minutos de trfico en esa hora = 30 x 5

Minutos de trfico en esa hora = 150

Horas de trfico por hora = 150 / 60

Horas de trfico por hora = 2.5

Valor del Trfico = 2.5 Erlangs

Las medidas de trfico Erlang sirven para que los diseadores de redes entiendan
bien las pautas de trfico que se produce en su red y, en consecuencia, diseen la
topologa adecuada y dimensionen bien los enlaces.

En sistemas de transmisin de datos no se habla de tiempos de servicio sino de


demandas de transmisin. En este caso se habla de paquetes de s unidades tales
como bits o bytes. La capacidad del sistema se expresa o mide en unidades por
s
segundo (Por ejemplo bits/seg). El tiempo de servicio para un trabajo es cuyas

unidades son en segundos. De esta manera si en promedio son atendidos por
17
s
unidad de tiempo entonces la utilizacin del sistema es . La utilizacin es

una medida que siempre se encuentra en el intervalo 0,1 .

La capacidad de este tipo de sistemas basados en datos se mide en unidades


denominadas BBU (Unidades de ancho de banda bsicas) o simplemente canales.
Se elige esta unidad de manera que todos los servicios requieren un nmero entero
de unidades de ancho de banda.

Cuando un nmero N de tipos de trfico ocupan d j canales el trfico ofrecido esta


N
dado por A j s j d j ErlangsCanales. Aqu j y s j son la tasa de llegadas y el
j 1

tiempo medio de ocupacin del trfico tipo j . En este caso tanto el trfico
transportado como el trfico ofrecido se miden en BBU.

Definicin 19: Trfico potencial.

Es el trfico ofrecido cuando no hay restricciones de recuersos tales como el costo o


la disponibilidad.

1.5 LA HORA DE OCUPACIN Y EL BLOQUEO


Varios estudios muestran que, conocidos el contexto, la estructura y la actividad
principal a la cual se dedica el sistema de telecomunicaciones, el comportamiento
del trfico, aunque estocstico, presenta patrones regulares que permiten
modelarlo para poder hacer predicciones sobre el sistema.

Las investigaciones muestran que en estos comportamientos conviven dos tipos de


comportamientos: Una parte determinstica y una estocstica. La Figura 14
muestra esta idea.

En un da completo de 24 horas tambin se pueden establecer patrones que pueden


ser modelados. La Figura 15 evidencia este hecho.

18
Figura 14: Nmero de llamadas por minuto en un centro de conmutacin
un lunes en la maana.

Figura 15: Nmero promedio de llamadas por minuto en un centro de


conmutacin.

Definicin 110: Hora de ocupacin.

19
El periodo de tiempo del da de una hora de longitud en el cual se presenta, en
promedio, la mxima ocupacin del sistema se denomina la Hora de ocupacin
consistente del sistema de telecomunicaciones.

Obsrvese que, dado que corresponde a la media, es posible que ciertos das
presenten picos por encima de este tiempo, sin embargo, es de esperarse que
generalmente este sea ms grande en todo el tiempo de vida del sistema. Esta
medida es de suma importancia en el dimensionamiento de un sistema de
telecomunicaciones.

Las variaciones determinsticas del teletrfico se pueden dividir en:

1. Las variaciones de las 24 horas.


2. Las variaciones semanales.
3. Las variaciones anuales.
4. El trfico incrementa ao a ao debido, principalmente, al desarrollo
tecnolgico o tambin por la estabilidad o inestabilidad de la economa
mundial.
5. El tipo de sistema de telecomunicaciones.
6. El tipo de servicio o servicios ofrecidos, entre otros factores.

Se discuti antes que no es posible ni tcnica ni econmicamente conectar


directamente a todos los abonados mediante canales dedicados con todos los
dems suscriptores, en consecuencia existe la posibilidad de que en determinado
momentos un usuario que desee usar el sistema de telecomunicaciones no pueda
hacerlo por falta de recursos tcnicos disponibles (tales como canales).

Para poder hacer un estudio apropiado de los modelos es necesario distinguir entre
aquellos sistemas de prdidas (canales) y sistemas de tiempos de espera
(servidores) o sistemas mixtos es decir aquellos que tienen una capacidad limitada
de almacenamiento.

Algunos inconvenientes que se encuentran en los sistemas con prdidas se definen a


continuacin.

20
Figura 16: Tiempo medio de ocupacin de una lnea troncal en funcin de
la hora del da.

Definicin 111: Congestin de llamadas B.

Corresponde a la fraccin de intentos de llamadas que encuentran el sistema


ocupado.

Definicin 112: Tiempo de congestin E.

Se define como la fraccin de tiempos en que los servidores se encuentran


ocupados.

Definicin 113: Congestin de trfico C.

Es la fraccin del trfico ofrecido que no es transportado.

Por su parte el principal inconveniente que se presenta en los sistemas con


retardos est en los tiempos de espera que causan por la necesidad de hacer fila
mientras que los servidores se desocupan.

21
1.6 MODELOS DE TRFICO

Existen varios modelos de trfico que emplean el trmino Erlang. Son frmulas que
se emplean para calcular cuantas lneas de enlace son precisas en un sistema de
telecomunicaciones. Por ejemplo, entre una central telefnica pequea privada y
una central pblica, o para calcular los enlaces entre centrales pblicas. Tambin se
emplea el trmino Erlang en la teora de colas para estimar el nmero de personas
que hay que poner a trabajar en los centros de llamadas. Los principales modelos
de trficos son los siguientes:

1.6.1 ERLANG B

Es el modelo ms comn se emplea para calcular cuantas lneas son precisas para
una cifra de trfico (en Erlangs) determinada en la hora cargada. Este modelo
supone que las llamadas bloqueadas se liberan inmediatamente.

1.6.2 ERLANG B EXTENDIDO

Es similar al anterior, salvo que en este caso tiene en cuenta cual es el porcentaje de
llamadas bloqueadas (que reciben seal de ocupado) y se puede especificar el
porcentaje de reintentos.

1.6.3 ERLANG C

Este modelo supone que las llamadas bloqueadas permanecen a la espera hasta que
sean atendidas. Sirve, por ejemplo, para calcular las necesidades de personal de un
centro de llamadas, donde aquellas llamadas que no se pueden atender de
inmediato se ponen en cola.

1.7 RESUMEN DEL CAPTULO


En este captulo se presentaron las principales definiciones utilizadas en un estudio
de teletrfico en redes de telecomunicaciones. Se discuti el concepto de Erlangs y
su rol en el dimensionamiento, la concepcin, la implementacin de sistemas de
telecomunicaciones. Se concluy que aunque el trfico en una red es de naturaleza

22
estocstica, existen patrones totalmente determinsticos que caracterizan a este
tipo de sistemas complejos.

23
2 COMPENDIO DE TEORA DE PROBABILIDADES
Pierre de Fermnat 1601 1665
Pierre Fermat, uno de los ms influyentes matemticos del siglo
XVII, naci en Beaumont de Lomagne, en Francia, el 17 de Agosto
de 1601, realiz estudios elementales en el colegio de los padres
franciscanos. Su padre, comerciante de cueros, despus de haberle
dado una instruccin slida adicional en su familia, le envi a
estudiar Derecho a Tolousse, disciplina de la cual se gradu en el
ao de 1631. All pas gran parte de su vida, ejerciendo Derecho. A
partir de 1631, sirvi en el Parlamento local, llegando a ser
consejero en 1634, finalmente muri en Castres en 1665. Fermat
tuvo una carrera apacible, caracterizada por un cuidado ejemplar
de hacer bien su tarea y, en sus momentos de ocio, supo crearse
ocupaciones literarias y apasionarse por las matemticas. Fermat,
nunca mostr una inclinacin hacia la escritura de libros ms bien
practic la comunicacin con sus colegas va cartas escritas. Su
intercambio de correspondencia, con otro grande como l llamado Pascal, marc el punto de inicio
para el desarrollo de la teora matemtica de la probabilidad. Fermat comparte, junto con Descartes,
crdito por la invencin de la geometra analtica, sin embargo, su mximo trabajo se ha reconocido
en Teora de Nmeros.

Fermat public rara vez sus descubrimientos, apenas algunas notas como apndices a tratados
escritos por otros autores. Su gran inspirador fue Diofanto y su libro de Aritmtica. Como trabajaba
para entretenerse, sus resultados ms interesantes aparecen en los mrgenes de estos tratados, y
desgraciadamente un gran nmero de sus trabajos se han perdido. Mantuvo correspondencia con
todos los cientficos de su poca; su reputacin de matemtico competente fue muy grande, y la
estima en la que se le tuvo fue general.

Pascal confes que era aqul que tengo por el gran gemetra de toda Europa , y este personaje tan
atrayente, de un carcter constante, afable, poco susceptible, sin orgullo, contribuy ampliamente a
la evolucin de las matemticas en campos tan variados como la geometra analtica, el clculo
diferencial e integral, la teora de nmeros y la teora de las probabilidades. Los principales escritos
de Pierre Fermat fueron publicados, despus de su muerte, por su hijo mayor Clement-Samuel en
1679, bajo el ttulo de Varia opera mathematica. Aunque esta publicacin no encierra ms que
una parte de su produccin como matemtico, basta por s sola para clasificar al clebre habitante
de Tolousse como el ms importante matemtico francs del siglo XVII.

24
2.1 INTRODUCCIN

Azar4 Se habla de azar cuando las causas de un acontecimiento se


atribuyen a las leyes de la probabilidad, o en un sentido ms
amplio, cuando las causas de ese acontecimiento se desconocen.

Aleatoriedad Se dice que un suceso es aleatorio cada vez que depende


nicamente de la suerte o del azar. Esto significa que cada posible
resultado tiene la misma posibilidad de resultar en la eventual
ejecucin del experimento. A este hecho se le denomina
formalmente el principio de la razn insuficiente

Incertidumbre Se emplea este trmino cuando un suceso no tiene certidumbre,


es decir, que no es determinstico. Cada vez que un posible
resultado no haya sido cuantificado desde la ptica del azar se
dice que existe incertidumbre

2.2 ESPACIOS DE PROBABILIDAD


Para esta seccin es necesario tener en cuenta que:

1. El objetivo es formular un modelo probabilstico que pueda ser usado


para describir eventos en el mundo real.

2. Es necesario superar los problemas que presentan las probabilidades a


priori y a posteriori, e intentar responder preguntas tales como Cul
es la probabilidad de que el tiempo entre llegadas de dos paquetes en

4
El concepto de azar es seguramente la idea clave en la construccin de la teora que aqu se introduce. Una buena visin
de este concepto desde la literatura se puede encontrar en el cuento La lotera en Babilonia escrito por Jorge Lus Borges

25
una red de telecomunicaciones sea menor que 10 min.?

3. El modelo incluir los resultados encontrados hasta el momento.

Definicin 21: Experimento aleatorio

Un procedimiento que tiene la propiedad que al ser ejecutado bajo las mismas
condiciones puede arrojar diferentes resultados se denomina experimento
aleatorio.

Definicin 22: Diseo experimental

A la infraestructura necesaria para la ejecucin de un experimento aleatorio se le


denomina diseo experimental y se denota por la . Para garantizar el pleno
cumplimiento de los supuestos de la experimentacin se requiere una organizacin
sistemtica de los elementos que componen esa infraestructura. En otras palabras,
el diseo experimental alude al contexto en el cual se realizar el experimento
aleatorio.

Ejemplo 21: Algunos experimentos aleatorios en computacin

Los experimentos aleatorios ms empleados son, sin duda, aquellos relacionados


con los juegos de azar. Tal es el caso de, por ejemplo, 1 : El lanzamiento de dados, 2
: Extraer una carta de un naipe, 3 : Extraer una bola de una urna, etc. Sin embargo,
en ingeniera de la computacin tambin los hay de sobra, algunos casos son, 4 : En
una red de computadores con bus compartido, el acceso al bus puede ser
considerado un experimento aleatorio, 5 : El nmero de correos que llegan a un
servidor, 6 : El nmero de conexiones que apuntan a una determinada pgina Web
en Internet, etc..

Lo ms interesante es que a pesar de que el resultado de cada experimento es


incierto, la realizacin de un alto nmero de ellos puede predecirse.

Definicin 23: Espacio Muestral

26
Es el conjunto de todos los posibles resultados de un experimento aleatorio. El
espacio muestral se denota por la letra , de esta manera, i iI .

Observacin 21

1. El conjunto puede ser discreto o continuo

2. Sus elementos se pueden escribir con tuplas.

3. Cada tupla puede escribirse como i 1,1 , 1,2 ,, 1, j ,, 1,ni


Ejemplo 22

Los siguientes son casos tpicos de espacios muestrales:

a. Si el experimento consiste en el lanzamiento de 2 monedas y


registrar el nmero de la cara de cada una de las monedas. Entonces
c, s , c, c , s, c , s, s . Aqu, en particular, 3 s, c y n2 2

b. Si el experimento aleatorio consiste en registrar el nmero de


intentos que un computador debe realizar para acceder al bus
compartido en una red de computadores. Entonces 1, 2,3,... .

c. Si el experimento consiste en registrar el tiempo del primer dao de


un computador nuevo. Entonces t t 0 .

Definicin 24: Evento A

En general, se dice que un evento A es un subconjunto de , el espacio muestral.


Cada evento se denota por una letra mayscula.

Se dice que un evento A ocurri, una vez se ejecute el experimento , cuando el


resultado obtenido i A .

Ejemplo 23: Monedas

27
En el caso del experimento que consiste en lanzar 2 monedas, los siguientes son
eventos vlidos. A1: La primera moneda cae en cara, es decir A1 c, s , c, c ; A2:
Las dos monedas coinciden en su resultado, es decir A2 c, c , s, s .

Observacin 22

1. No es discutible el hecho de que

y,
.
Es decir, el conjunto vaco y su conjunto completo (espacio
muestral) tambin son eventos.

2. Por razones que se discutirn ms adelante, a se le denomina el


evento imposible mientras que es el evento seguro.

Ejemplo 24

En el experimento de lanzar un dado de 6 cara numeradas de 1 a 6,


, , , , , y de esta manera m 6 . As
que el experimento cuenta con 26 64 Eventos posibles.

Definicin 25: Espacio de eventos

Se define como la coleccin, denotada por , de todos los posibles eventos de un


experimento aleatorio.

Matemticamente hablando, la coleccin satisface los siguientes axiomas


(propiedades):

1. .

2. Si A entonces A .

28
3. Si A1 , A2 , , Ai , Entonces A
+
Ai .
i=1

Cada vez que un conjunto de conjuntos cumple estos axiomas se dice que es
una algebra .

Ejemplo 25

Para algn experimento aleatorio con espacio de eventos , se tiene una


algebra .

Estas propiedades del espacio de eventos dan origen a una serie de resultados
interesantes.

Teorema 21

Si es una algebra entonces

Demostracin
1. Por el primer axioma .

2. Por el segundo axioma .

3. Dado que , se sigue el resultado.

Teorema 22

Si A1 , A2 , , Ai , , An Entonces

1. A
n
Ai
i 1

2. B
n
Ai
i 1

Demostracin (Queda como ejercicio para el estudiante).

29
Definicin 26: Funcin de probabilidad

Una funcin P cuyo conjunto de partida es el espacio de eventos y el de llegada el


intervalo 0,1 , es decir,
P: 0,1 de suerte que P cumple las propiedades:
A P A

1. PA 0 para todo A .

2. P 1 .

3. n
n
Si A1 , A2 , , An con Ai Aj para i j . Entonces P Ai PAi .
i 1 i 1

De esta definicin se desprenden los las siguientes propiedades:

Teorema 23: Complemento

Si A entonces PA 1 PA .

Demostracin
1. AA

2. AA

3. PA A P PA PA

4. Dado que P 1 el teorema queda demostrado.

Teorema 24: Probabilidad de la unin de eventos

Para cada dos eventos A y B , P A B P A P B P AB . Ms general, para


eventos A1 , A2 , , An

n n
P Ai P Aj P Ai Aj
i 1 j 1 i j

30
P A A A 1 P A1 A2 An
n 1
i j k
i j k

Demostracin (de la primera parte se deja la segunda parte como ejercicio)

A B A AB, y A AB ; entonces

P A B P A P AB P A P B P AB.

Definicin 27: Evento fundamental

A cada uno de los eventos conformados por un solo posible resultado se les
denomina eventos fundamentales. Matemticamente Ai i

1
En muchas situaciones se supone que P Ai n es decir, que los eventos
fundamentales son equiprobables. Sin embargo, el Ejemplo 216 y el Ejemplo 2
6 muestran que no siempre los eventos fundamentales son equiprobales.

Ejemplo 26: Eventos fundamentales no equiprobables.

Sea un experimento aleatorio con n posibles resultados 1 2 , , n . Se sabe


que las probabilidades de los eventos fundamentales se comportan de tal manera
que el evento (fundamental) j 1 simo es el doble de probable que el j simo .
Sea Ak , 2 , , k Cul es la P Ak ?

Para encontrar la respuesta, es necesario tener en consideracin varios aspectos y


resultados importantes en el anlisis.

1. Una serie X t aX t 1 con condicin de frontera X 1 tiene una solucin


general dada por la expresin X t X1at 1

2. n 1
1 rn
Es importante recordar la serie geomtrica finita. ar j a
j 0 1 r

31
3. Con esos resultados en mente, es claro que p j 1 2 p j y, en
consecuencia, p j p1 2 j 1 . La condicin de frontera p1 puede
n
encontrarse con relativa facilidad teniendo en cuenta que p
j 1
j

n n 1
1 2n
p1 2 j 1 p1 2 j p1 p1 2 1 1 .
1
n
Por lo tanto, p1 .
j 1 j 0 1 2 2 1
n

2 j 1
Este ltimo resultado sugiere, entonces, que p j . Finalmente,
2n 1
n k
2 j 1 k 1
2j 2k 1
P Ak pj n n n .
j 1 j 1 2 1 j 0 2 1 2 1

Definicin 28: Espacio de probabilidad

El objeto matemtico descrito por , , P en el que es el espacio muestral,


representa la lgebra de eventos y P la funcin de probabilidad, se
denomina espacio de probabilidad.

2.3 PRINCIPIOS FUNDAMENTALES DE LA TEORA DE LA MEDIDA


Definicin 29: Una funcin de probabilidad de uso comn

Una funcin particular que cumple las propiedades establecidas en la Definicin


medida A
26 y que se constituye en la funcin ms usada es P A .
medida

Observacin 23

Para espacios muestrales discretos la funcin de medida apropiada es el conteo,


es decir, el cardinal de los eventos involucrados medida A A ; mientras que para
espacios muestrales continuos se debe considerar la dimensin de cada posible
resultado experimental as:

1. 1 i La medida apropiada es la longitud de eventos.


iI

32
2. 1 , 2 i La medida apropiada es el rea de los eventos.
iI

3. 1 , 2 , 3 i La medida apropiada es el volumen de los eventos.


iI

2.3.1 REGLAS DE LA MEDIDA CONTINUA


Tan importante como saber contar para espacios muestrales discretos, es recordar
algunas leyes generales del clculo integral y diferencial para encontrar medidas en
espacios continuos. Dos ejemplos sencillos ilustran esta idea.

Ejemplo 27: Galois

En la ciudad de la Discrecin los duelos son raramente fatales. All, cada


contrincante llega aleatoriamente entre las 5 a.m. y las 6 a.m. el da acordado y
espera exactamente 1 0,1 minutos (Honor servido!) a menos que su oponente
llegue en ese intervalo de tiempo (o haya llegado antes y lo est esperando) caso en
el cual habr pelea y uno de ellos morir. Cul es la probabilidad de muerte?

Solucin (Terica) a priori:

1. X i : Hora de llegada del i simo duelista con i 1,2 sin prdida de


generalidad puede considerarse que X i 0,1 y por lo tanto el espacio
muestral est dado por x1, x2 x1, x2 0,1 y definiendo el evento A : los


dos duelistas se encuentran. entonces A x1, x2 x1, , x2 , x1, x2 1
donde 1 , de sta manera se pide calcular FX P A

2. medida A
P A Dado que el evento A es bidimensional continuo, la
medida
rea A
medida apropiada es el rea, entonces P A
rea

33
X2

1 1 1

1 1

x2 x1 1

x2 x1 1
1
X1
0 1 1

Figura 21: Espacio muestral y eventos de inters del ejemplo de


Galois

3. Es fcil ver que el rea 1 y que el rea A 1 1 1 21 12


2

4. En consecuencia la P A 21 12 , en particular si el tiempo de espera es


y la P A
1 23
de 5 minutos, 1 0.16 , es decir en la ciudad de la
12 144
Discrecin las muertes debidas a los duelos son poco frecuentes

De esta manera se concluye que el clculo integral y diferencial juegan un papel


importante en el clculo de probabilidades para espacios muestrales continuos.

Ejemplo 28: Races complejas (Tarea)

Cul es la probabilidad de que la ecuacin cuadrtica x2 2bx c 0 tenga races


complejas si b ~ U 1 , 1 y c ~ U 1 , 1 y se sabe que son independientes?

Solucin analtica:

34
1. Un supuesto que no resulta cuestionable est en que el experimento
aleatorio es tal que b ~ U 1 , 1 y c ~ U 1 , 1 con 1 y b
independiente de c .

2. Dada la pareja b, c es claro que la ecuacin generara races complejas si


b 2 c 0 . Y, en consecuencia, la ecuacin de la parbola c b 2 determina
un lmite entre las races reales y complejas.

3. Esta situacin puede observarse en la representacin cartesiana de la


Figura 22.

c
c b2

Races
1 , 1
Complejas
A

1 1 b

Races
Reales
A

Figura 22: Espacio muestral y eventos de inters del ejemplo de las


races

4. En consecuencia, definiendo el evento


A b, c | b2 c 0, , b, c 1 , 1
2

35
as mismo, el espacio muestral esta dado por
(b, c) | b 1 , 2 , , c 1 , 2 y por lo tanto P( A) P( Races com plejas )


4 3

1
rea( A)
. Claramente, rea( A) 2 1 1 b2 db 12 , mientras que
rea() 1
3
1
rea() 412 , as que P( A) .
3 1

5. En particular si 1 4 , entonces P( A)
1
.
6

6. 1
Tambin es claro que Lim P( A) Lim 0 Equivalente la
1 1 3
1
___
1
P( A ) P( Raices reales) 1 .

2.3.2 REGLAS DEL CONTEO


1. La actividad de contar es ms complicada de lo que parece a simple
vista y requiere especial cuidado y seriedad en su tratamiento.

2. La Mayora de los problemas en probabilidad son relativamente


sencillos de formular, pero generalmente, complicados de resolver.

En la Figura 23 se proponen dos factores importantes que deben tenerse en


cuenta cada vez que se lleva a cabo una actividad de conteo. Esos elementos clave
son las tareas (filas en el diagrama) y las etapas (columnas). El nmero de etapas
depende de la tarea, sin embargo es usual que sean constantes para toda tarea.

En un sentido amplio, las tareas son realizaciones en las que, de una manera
disyuntiva, puede realizarse el conteo. De esta manera se emplea el conectivo o,
mientras que se usa el y para las etapas.

36
Proposicin 21: Clculo del nmero de elementos de un evento

Si un experimento aleatorio genera un espacio muestral de naturaleza


ni
m
discreto, y A entonces A eij .
i 1 j 1

De este esquema simple pueden deducirse alrededor de cinco reglas fundamentales


del conteo.
TAREAS

T1
e11 e12 e13 e1 j e1n1

T2
e21 e22 e23 e2 j e2n2

Ti
ei1 ei 2 ei 3 eij eini

Tm
em1 em 2 em3 emj emnm

ETAPAS

Figura 23: Factores importantes en el proceso de contar

Ejemplo 29: Probabilidad combinatoria

Por un estudio de 120 pasajeros, una lnea area supo que 48 pasajeros (Clase A)
prefirieron tomar vino con la comida, 78 (Clase B) prefirieron jugos, y 66 (Clase C),
t con hielo. Adems, 36 pasajeros tomaron dos tipos de bebidas y 24 tomaron de
todas. Si en la muestra anterior se seleccionan dos pasajeros al azar, Cul es la
probabilidad de que (Evento D) los dos pasajeros quieran solo t con hielo?
(Evento E) los dos tomen exactamente dos de las tres bebidas ofrecidas?

37
A partir de la informacin proporcionada se elaboro el diagrama de Venn de la
Figura 24. El espacio muestral consta de las parejas de pasajeros que se
120
pueden seleccionar de la muestra de 120, de modo que 7140 . El
2
diagrama de Venn indica que hay 18 pasajeros que beben slo t con hielo, por
18 51 3
tanto D y P D . De manera similar P E .
2 2380 34

A C

0 12 18

24
12 12

30

Figura 24: Diagramas de medida para el ejemplo de probabilidad


combinatoria

2.4 PROBABILIDAD CONDICIONAL E INDEPENDENCIA ESTOCSTICA


Definicin 210: Probabilidad Condicional

Si es un evento aleatorio que genera el espacio de probabilidad , , P y


A y B dos eventos de tomados de entonces de dice que la probabilidad
condicional del evento A dado que se sabe que ha ocurrido B , y que se denotado
P AB
por P A B , se define como P A B siempre que P B 0 .
P B

Teorema 25: Probabilidad total

Si es un experimento aleatorio que genera un espacio de probabilidad


, , P , A y Bi con i 1, 2,3, , n una coleccin de eventos tomados de
que cumplen las condiciones:

38
1. Bi Bj .

2. n
Bi .
i 1

3. P B j 0 para j 1, 2,3, ,n .

n
Entonces P A P A Bi P Bi .
i 1


B1
A
B3
B2
...

Bn

Figura 25: Representacin grfica de las propiedades de los eventos B.

Demostracin:

1. Como A
n
A Bi y los eventos A Bi son disyuntos, y
i 1

2. Por el tercer axioma de la funcin de probabilidad


n n n
P A P A Bi P A Bi P A Bi P Bi .
i 1 i 1 i 1

NOTA:

1. En particular P A =P A B P B P A B P B .

39
2. Un nombre generalmente aceptado para referirse a las probabilidades
condicionales que pueden calcularse con base en la informacin
disponible de la situacin a resolver, es verosimilitudes del problema.

Ejemplo 210: Juego de Craps.

El juego de Craps se practica dejando que un jugador lance dos dados hasta que
gana o pierde, el jugador gana en el primer lanzamiento si tiene como total 7 u 11,
pierde en el primer lanzamiento si tiene un total de 2, 3 o 12, si el jugador obtiene
cualquier otro total en su primer lanzamiento, ese total se denomina su punto.
Contina haciendo lanzamiento hasta que obtenga 7 o su punto. El jugador ganar
si obtiene su punto y pierde si obtiene 7. Cul es la probabilidad de ganar el juego?

1. Algoritmo

Ver Algoritmo 21.

2. Solucin analtica

1. Definiendo los eventos:


G: Ganar el juego.

C: Ganar el juego en el primer intento.

A: Ganar el juego despus del primer intento.

Entonces la probabilidad de ganar el juego est dada por la expresin


PG PC A PC PA. A continuacin se realiza un anlisis detallado
para el clculo de cada una de estas probabilidades.

2. Primero deben calcularse las probabilidades asociadas con los totales


del experimento aleatorio. Debe notarse que hay 6 6 36 posibles
resultados igualmente probables que se muestran en la tabla que sigue.
En esta tabla cada fila indica el resultado del dado uno mientras las
columnas representan el resultado del dado dos.

40
1 2 3 4 5 6

1 2 3 4 5 6 7

2 3 4 5 6 7 8

3 4 5 6 7 8 9

4 5 6 7 8 9 10

5 6 7 8 9 10 11

6 7 8 9 10 11 12

3. Contando las celdas en la tabla pueden obtenerse las siguientes


probabilidades de los totales:

Total 2 3 4 5 6 7 8 9 10 11 12

PTotal1 2 3 4 5 6 5 4 3 2 1
36 36 36 36 36 36 36 36 36 36 36

4. La probabilidad PC es entonces PC P7 P11


6

2

8
0.22222
36 36 36
(Obsrvese que la probabilidad de perder en el primer intento es igual a
P2 P3 P12
1 2 1 4
).
36 36 36 36

5. Para calcular la PA se definen los eventos:

B1: El puntaje del jugador es 4. B4: El puntaje del jugador es 8.

B2: El puntaje del jugador es 5. B5: El puntaje del jugador es 9.

41
B3: El puntaje del jugador es 6. B6: El puntaje del jugador es 10.

Observe que de la tabla de probabilidades del total (dada previamente)


4
es claro que, por ejemplo, PB 5 .
36

6. Para calcular PA puede usarse un razonamiento como el que sigue.


Puesto que solamente existen las opciones de ganar con el puntaje y
perder obteniendo 7, se pueden calcular las probabilidades
condicionales de ganar dado un puntaje es decir calcular PA Bi con
i 1,2,3,4,5,6 .
Por ejemplo, cuando el puntaje es 9, hay 4 formas de
obtener ese total y 6 de alcanzar un 7, de esta manera, la probabilidad de
que en el experimento se gane dado un puntaje 9 es PA B5
4 4
.
4 6 10
En la tabla que sigue se resumen esas probabilidades condicionales.

i 1 2 3 4 5 6

PA Bi 3

3 4

4 5

5 5

5 4

4 3

3
3 6 9 4 6 10 5 6 11 5 6 11 4 6 10 3 6 9

7. utilizando el teorema de la probabilidad total se concluye que


PA PA Bi PBi
6
3 3 4 4 5 5 5 5
i 1 9 36 10 36 11 36 11 36

4 4 3 3
0.27071.
10 36 9 36

8. Finalmente, la PG PC A PC PA 0.22222 0.27071 0.49293 .


Lo
que permite concluir que el juego es muy justo, la probabilidad de ganar
es casi igual a la de perder!

42
INICIO

tTotal_Dos_Dados()

SI NO
t==7||t==11

SI (t==2)|| NO
(t==3)||
(t==12)
Gana1 Gana0 Puntot

Salir0

tTotal_Dos_Dados()

SI NO
t==Punto

SI NO
Gana1 t==7

Gana0

Salir1 Salir1

NO
Salir==1

SI

Retornar(Gana)

FIN

Algoritmo 21: Simulador para el juego de Craps.


43
Teorema 26: Bayes

Si es un experimento aleatorio que genera un espacio de probabilidad


, , P , A , P A 0 y Bi con i 1, 2,3, , n una coleccin de eventos
tomados de que cumplen las condiciones:

1. Bi Bj .

2. n
Bi .
i 1

3. P B j 0 para j 1, 2,3, ,n .

P A Bk P Bk
Entonces P Bk A n
.
P A B P B
i 1
i i

Demostracin:

1. Con base en la definicin de probabilidad condicional


P Bk A
P Bk A .
P[ A]

2. Tambin es claro que P Bk A P A Bk P Bk .

3. Por el teorema de la probabilidad total es claro que


n
P A P A Bi P Bi con lo cual queda demostrado el teorema de
i 1

Bayes.

NOTA:

1. P A B P B
En particular P[ B | A] .
P A | B P B P A | B P B

44
2. Sin duda, el teorema de Bayes se constituye en uno de los resultados
ms frecuentemente empleado en el modelamiento de sistemas
computacionales. Una sola aplicacin corrobora esta afirmacin: las
denominadas redes Bayesianas, empleadas en la construccin de
sistemas inteligentes, es un caso representativo.

Ejemplo 211: Transmisin satelital.

Un satlite del clima est enviando un cdigo binario de 0s y 1s describiendo el


desarrollo de una tormenta tropical. El ruido en el canal puede esperarse que
introduzca cierta cantidad de errores de transmisin. Suponga que el mensaje que
esta siendo transmitido est compuesto en un 70% de 0s y existe un 80% de
probabilidad de que un 0 o 1 enviados sean recibido correctamente. Si un 1 es
recibido, Cul es la probabilidad que un 0 haya sido enviado?

Solucin:

Definiendo los eventos Bi Un i fue enviado, i 0,1, y definiendo el evento Ai como


Un i fue recibido, se desea encontrar la P B0 A1 . Asimismo, de acuerdo con los
datos, es fcil verificar que: P B0 0.7 , P B1 0.3 , P A0 B0 0.8 , P A1 B0 0.2 ,
P A1 B1 0.8 , y que P A0 B1 0.2 . En consecuencia, la probabilidad de un 0
habiendo sido enviado dado que 1 fue recibido es P B0 A1
P A1 B0 P B0 0.2 0.7
0.37
P A1 B0 P B0 P A1 B1 P B1 0.2 0.7 0.8 0.3

Definicin 211: Eventos independientes

Sea un experimento aleatorio que genera un espacio de probabilidad


, , P , A y B dos eventos tomados de , Entonces se dice que A es

independiente de B si y slo si

1. P[AB] P[A] * P[B]

45
2. P[A | B] P[A] Si P[B] > 0

3. P[B | A] P[B] Si P[A] > 0.

2.5 VECTOR ALEATORIO Y FUNCIN DE DISTRIBUCIN CONJUNTA


2.5.1 INTRODUCCIN
Definicin 212: Funcin indicadora

I: 0,1 1 Si A
La funcin de forma que I A se denomina funcin
I A 0 Si A
indicadora.

2.5.2 DEFINICIONES
Definicin 213: Variables aleatorias

Dado un espacio de probabilidad , , P , asociado con un experimento


aleatorio , se define variable aleatoria a una funcin X cuyo dominio es el espacio
X: R
muestral y su recorrido los nmeros reales R . Es decir, .
X

NOTAS

1. Se emplean siempre letras maysculas para denotar a cada una


de las variables aleatorias.

2. Si los posibles valores de la variable aleatoria es un nmero


finito o contablemente infinito se dice que la variable aleatoria es
discreta.

3. Si los posibles valores de la variable aleatoria pertenecen a un


intervalo de los nmeros reales se dice que la variable aleatoria
es continua.

46
Definicin 214: Vector aleatorio

Dado un espacio de probabilidad , , P , asociado con un experimento


aleatorio , se define a un conjunto de n variables aleatorias X X1 , X 2 , , X n para
las cuales x x1 , x2 , , xn , representa un conjunto de valores determinados se le
denomina vector aleatorio.

Definicin 215: Distribucin conjunta

la Distribucin Conjunta para un vector aleatorio se define como

FX1 , X 2 , , Xn x1 , x2 ,..., xn P X1 x1, X 2 x2 ,..., X n xn (1 1)

2.6 FUNCIONES DE DENSIDAD CONJUNTAS


2.6.1 VECTORES ALEATORIOS DISCRETOS
Definicin 216: Densidad conjunta discreta

La funcin de densidad conjunta discreta se define como:

f X1 , X 2 , , Xn x1, x2 ,..., xn P X1 x1, X 2 x2 ,..., X n xn (1 2)

Las condiciones que f X1 , X 2 , , Xn x1 , x2 ,..., xn debe satisfacer son:


x1, x2 ,..., xn 0,1 para
1. f X , X , 1 2 , Xn xi para todo i
2. f X , X , , X x1 , x2 ,..., xn 1
1 2 n
x1 xn

Ejemplo 212: Familia multinomial.

Un experimento aleatorio con espacio muestral 1 , 2 , , k 1 , con pi P i as


k 1

que p 1 . Si se realizan n ensayos independientes y se define el vector aleatorio


i 1
i

47
X X1 , X 2 , , X k 1 con X i definido como el nmero de veces que apareci i . Se
k 1

x n .
k 1
n!
puede verificar que f X , X 2, , X k 1 x1 , x2 , , xk 1 k 1 p i
xi
donde xi 0,1, , n y i

xi !
1
i 1 i 1

i 1

2.6.2 VECTORES ALEATORIOS CONTINUOS


Definicin 217: Densidad conjunta continua

La funcin de densidad est dada por:

n
f X1 , X 2 , , X n x1 , x2 ,..., xn FX , X , x1 , x2 ,..., xn (1 3)
x1x2 ...xn 1 2
,Xn

Las condiciones que f X1 , X 2 , , Xn x1 , x2 ,..., xn debe satisfacer son:


1. f x1 , x 2 ,..., x n 0 para xi para todo i

2. ... f x1 , x 2 ,..., x n dx1 dx 2 ...dx n 1

2.6.3 OTRAS CLASES DE VECTORES ALEATORIOS


Definicin 218: Vector aleatorio mixto

Dado un espacio de probabilidad , , P , asociado con un experimento


aleatorio , se dice que el vector aleatorio X X1 , X 2 , , X n es mixto cuando
algunas de sus variables son continuas y las restantes discretas.

48
2.7 DISTRIBUCIONES CONDICIONALES E INDEPENDENCIA
ESTOCSTICA
2.7.1 VECTORES ALEATORIOS CONTINUOS
2.7.1.1 Distribuciones Marginales

Definicin 219: Densidad marginal continua.

Para un vector aleatorio X X1 , X 2 , , X k , , X n con funcin de densidad conjunta


continua f X1 , X 2 , , Xn x1 , x2 ,..., xn se define la funcin de densidad marginal de las
ltimas n k x s" como :


f X k 1 , ,Xn xk 1 ,..., xn ... f X1 , X 2 , ,Xn x1 ,..., xk , xk 1,..., xn dx1...dxk (1 4)

2.7.1.2 Distribuciones Condicionales

Definicin 220: Densidad condicional continua.

Para un vector aleatorio X X1 , X 2 , , X k , , X n con funcin de densidad conjunta


continua f X1 , X 2 , , Xn x1 , x2 ,..., xn se define a funcin de densidad condicional para las
"primeras k x 's" dados los ltimos n k x 's" como la funcin:

f X1 , , X k X k 1 , , X n x ,..., x
1 k xk 1 ,..., xn
funcin de densidad de todas las n's
densidad marginal de las "ltimas n k x"
(1 5)
f X1 , x1 , x2 ..., xn

,Xn

f X k 1 , , X xk 1 ,..., xn
n

El uso las palabras "primero" y "ltimo" en estas descripciones no implica ninguna


secuencia rgida de las variables; son meramente ayudas convenientes para la
identificacin.

49
Observacin 24

La correspondiente funcin de densidad condicional es:

f c x Y yh
X

F c x Y y h
X
x
f b x, yg

f b yg Y

Y esta es la forma comnmente ms usada. Intercambiando X y Y tenemos:

c
fY yX x h ff b xb,xygg (3-11)
X

Cuando no hay peligro de ambigedad, las funciones de densidad condicional sern


escritas como

c h ffb xb,yygg
f xy
Y

f b x, yg
f c y xh
f b yg X

De estas dos ecuaciones una puede obtener la versin continua del teorema de
b g
Bayes, eliminando f y, x de la ltima expresin nos conduce directamente a:

c h f c xf yhbfxgb yg
f yx Y

Este resultado tambin posibilita la obtencin de otra expresin para la funcin de


densidad de la probabilidad marginal notando que

b xg z f b x, ygdy

f X

zc


h bg
f x y f Y y dy

50
Y

zb

fY y bg g
f x , y dx

zc


f yx f h b xgdx
X

Ejemplo 213

Para un vector aleatorio bidimensional con:

b g 65 c1 x yh
f x, y 2
0 x 1,0 y 1

0 en otra parte

Determinar sus marhinales y sus condicionales .

Solucin

Integrando esta funcin solo con respecto a y y solo con respecto a x produce las
dos funciones de densidad marginal como

f X
b g FGH
x
6
5
1
x2
2
IJ
K 0 x 1 Y b g 65 FGH1 3y IJK
fY y 0 y 1

De (3-12) y (3-13) las dos funciones de densidad condicional pueden ahora ser
escritas como

1 x 2y
c h
f xy
y
0 x 1,0 y 1
1
3

1 x 2y
c h
f yx
x2
0 x 1,0 y 1
1
2

51
2.7.2 VECTORES ALEATORIOS DISCRETOS
2.7.2.1 Distribuciones Marginales

Definicin 221: Densidad marginal discreta.

Para un vector aleatorio X X1 , X 2 , , X k , , X n con funcin de densidad conjunta


discreta f X1 , X 2 , , Xn x1 , x2 ,..., xn se define la funcin de densidad marginal de las
ltimas n k x s" como :

f X k 1 , ,Xn xk 1 ,..., xn f X , X , 1 2 ,Xn x1 , , xk , , xn (1 6)


xn xn1 xk 1

2.7.2.2 Distribuciones Condicionales

Definicin 222: Densidad condicional discreta.

Para un vector aleatorio X X1 , X 2 , , X k , , X n con funcin de densidad conjunta


discreta f X1 , X 2 , , Xn x1 , x2 ,..., xn se define a funcin de densidad condicional para las
"primeras k x 's" dados los ltimos n k x 's" como la funcin:

f X1 , , X k X k 1 , , X n x ,..., x
1 k xk 1 ,..., xn
funcin de densidad de todas las n's
densidad marginal de las "ltimas n k x"
(1 7)
f X1 , x1 , x2 ..., xn

,Xn

f X k 1 , , X xk 1 ,..., xn
n

El uso las palabras "primero" y "ltimo" en estas descripciones no implica ninguna


secuencia rgida de las variables; son meramente ayudas convenientes para la
identificacin.

2.7.3 INDEPENDENCIA
Definicin 223: Independencia estocstica.

52
Un vector aleatorio X X1 , X 2 , , X k , , X n , bien sea discreto o continuo, denomina
n

estocsticamente independiente cuando f X1 , X 2 , ,Xn x1 , x2 ,..., xn f X xi i


, o
i 1
n

bien, FX1 , X 2 , ,Xn x1 , x2 ,..., xn FX xi . i


i 1

2.8 ESPERANZA MATEMTICA Y MOMENTOS


2.8.1 VALOR ESPERADO DE FUNCIONES DE VARIABLES ALEATORIAS
Definicin 224: Esperanza matemtica de una funcin.

Para un vector aleatorio X X1 , X 2 , , X k , , X n con funcin de densidad conjunta


f X1 , X 2 , , Xn x1 , x2 ,..., xn y se define la esperanza matemtica de una funcun
g: n
como:



g x ,
xn xn1 xk 1
1 , xk , , xn f X1 , X 2 , ,Xn x1 , , xk , , xn Discreto
E g X1, X1, , X n

g x ,

1 , xk , , xn f X1 , X 2 , ,Xn x1 , , xk , , xn dx1dx2 dxn Continuo

Teorema 27: Chebyshev

Sea X ~ f X x , g :

una funcin no negativa y k 0 Entonces
E g x
P g x k
k

Demostracin:

1.

E g x g x f x x dx

53

x:g
g x f x dx g x f x dx
x k
x
x: g x k
x


x: g
g x f x dx
x k
x


x: g
k f x dx
x k
x

kP g x k

2. Finalmente dividiendo entre k se sigue el resultado.

NOTAS:

Observacin 25

1. Es claro que
Error! No se pueden crear objetos modificando
.
cdigos de campo.

2. E g X
Es fcil ver que: P g X k 1
k

2.8.2 MOMENTOS
Definicin 225: Momentos alrededor de cero.

El k -simo momento en cero de la i -sima variable es E X i , el valor esperado de


k

la k -sima potencia de x i :

54
k
xi f Xi xi dxi

Si X es continuo
Xk
E Xi
k

xik f X i xi
i
Si X es discreto

xi

y sustituyendo de (1 4) para f X i xi resulta en

k
k
... xi f X1 , X 2 , , X n x1 , x2 ,..., xn dx1dx2 ...dxn

Si X Continuo
X (1 8)
xik f X1 , X 2 , , X n x1 , x2 ,..., xn
i
Si X Discreto

xn xn

Observacin 26

1. En particular, cuando n 1 , el exponente k normalmente se omite y i se



escribe en lugar de i 1 .
2. El vector de medias que corresponde a X X1 , X 2 , , Xn es
E X 1 , 2 , , j , , n .

Definicin 226: Momentos alrededor de una constante.

Definicin 227: Covarianza.

La covarianza entre las i -sima y la j -sima variables para i j es

ij E X i i X j j , (1 9)

Observacin 27

Se dice que las variables X i y X j son no correlacionadas cuando ij 0 .

Definicin 228: Varianza.

La varianza de la i -sima variable es


55
i2 E X i i
2
(1 10)

Definicin 229: Matriz de VarianzasCovarianzas.

Las varianzas y covarianzas entre las variables en el vector X X1 , X 2 , , Xn


estn dadas por (1 9) y (1 10). Organizando estas varianzas y covarianzas
como elementos de una matriz se obtiene la matriz de varianza-covarianza de X
como:

var X V ij para i, j 1, 2, ,n

Observacin 28

1. Los elementos diagonales de V son las varianzas y los elementos que no estn
en la diagonal son las covarianzas.
2. La varianza de una variable aleatoria escalar X i se escribir como v X i ,
|considerando que la matriz de varianza-covarianza V de un vector de
variables aleatorias X X1 , X 2 , , X n se denotar como var X .

2.8.3 COVARIANZA Y COEFICIENTE DE CORRELACIN


Definicin 230: Matriz de correlacin R.

ij
La correlacin entre la i -sima y la j -sima variables se define como ij , la
i j
matriz de correlacin es


1 1
R ij D VD para i, j 1,..., n (1 11)
i j
i
j

Observacin 29

56
1
1. Donde las D son las matrices diagonales con los elementos para
i
i 1, 2, ,n.
2. Claramente los elementos diagonales de R son todos la unidad, y R es
simtrica.
3. La matriz V es definida no negativa.

2.8.4 FUNCIONES GENERADORAS DE MOMENTOS


Definicin 231: Funcin generadora de momentos.

Dado un vector aleatorio X X1 , X 2 , , X n con funcin de densidad conjunta


f X1 , X 2 , , Xn x1 , x2 ,..., xn , se define la funcin generadora de momentos (f.g.m.) de la
densidad conjunta para un vector de parmetros t t1 , t2 , ,t j , , tn :

M X t E et1x1 t2 x2 ...tn xn E et x (1 12)

Y la f.g.m. de una funcin escalar g : de los elementos de X X1 , X 2 , , X n ,


n

como:

M g X t E e
g X t
(1 13)

2.8.5 ESPERANZA E INDEPENDENCIA


Teorema 28: Independencia.

Si X X1 , X 2 , , X n es un vector aleatorio conformado por variables aleatorias


independientes y sean gi : n
un conjunto de m funciones de valor real
m m
entonces E gi X E gi X .
i 1 i 1

Demostracin: Se deja como ejercicio.

57
2.9 TRANSFORMACIONES
Es natural requerir el clculo de alguna estructura probabilstica conjunta de
muchas variables aleatorias que se obtienen como funciones de otro conjunto
dado de variables aleatorias del que se conoce su comportamiento probabilstico.

2.9.1 CASO UNIVARIADO


Se presenta a continuacin un resumen de algunos resultados de uso frecuente en
los casos continuo y discreto. No se incluyen las demostraciones puesto que, al
final del capitulo se extienden los resultados y se incluyen las demostraciones ms
importantes.

2.9.1.1 Transformacin lineal univariada


Teorema 29

Si X ~ f X x , a 0 y b constantes reales y definiendo Y aX b entonces


y b 1 y b
fY y f X cuando X es discreta o bien fY y fX cuando X es
a a a
continua.

2.9.1.2 Suma de dos variables aleatorias


Teorema 210

Si X1 ~ f X x y X 2 ~ f X x independientes y definiendo la transformacin Z X1 X 2


1 2

entonces f Z z
Todo x
f X1 x f X 2 z x cuando X1 y X2 son discretas o bien

fZ z f X1 x f X 2 z x dx cuando X 1 y X 2 son continuas.

Las sumatorias e integrales presentadas en este teorema se denominan las


sumatorias o integrales de convolucin, que son de utilidad no solamente en
probabilidad sino tambin en otros campos de la ingeniera de la computacin.

2.9.1.3 Cuadrado de una variable aleatoria

58
Si X ~ f X x continua y definiendo Y X 2 entonces fY y
1
2 y
f y f y .
X X

2.9.2 VECTORES ALEATORIOS DISCRETOS


Proposicin 22: Mtodo de clculo

Suponga un vector aleatorio discreto de n variables discretas aleatorias X1 , , X n


con estructura probabilstica f X , 1 ,Xn x1 , , xn . denota el espacio de posibles

realizaciones de X1 , , X n ; es decir, x1 , , xn : f X , 1 , Xn x1,


, xn 0 . Se desea
obtener la densidad conjunta de Y1 g1 X1 , , X n , , Yk gk X1 , , X n . Cuando
Y1 , , Yk es conjuntamente discreto su estructura probabilstica puede ser calculada
como Y1 y1; ;Yk yk fY , 1 ,Yk y1 , , yk f X1 , , X n x1 , xn , donde la sumatoria se
realiza sobre los x1 , , xn pertenecientes a por cada elemento del nuevo vector
de forma que y1 , , yk g1 x1 , , xn , , gn x1 , , xn .

Ejemplo 214

Se sabe que X1 , X 2 , X 3 tienen una funcin densidad discreta conjunta dada por:

x1 , x2 , x3 0, 0, 0 0, 0,1 0,1,1 1, 0,1 1,1, 0 1,1,1

f X1 , X 2 , X 3 x1 , x2 , x3 1 3 1 1 1 1
8 8 8 8 8 8

Encontrar la densidad conjunta de Y1 g1 X1 , X 2 , X 3 X1 X 2 X 3 y de Y2


g2 X1 , X 2 , X 3 X 3 X 2 .

Solucin:

Resulta claro que 0,0,0 , 0,0,1 , 0,1,1 , 1,0,1 , 1,1,0 , 1,1,1 y que, en
consecuencia,

59
y1 , y2 0, 0 1,1 2, 0 2,1 3, 0

fY1 ,Y2 y1 , y2 1 3 1 2 1
8 8 8 8 8

1
Puesto que, por ejemplo, fY ,Y 0,0 f X , X 2 , X3
0, 0, 0 , y fY ,Y 2,1 f X , X 2 , X3
1,0,1
1 2 1
8 1 2 1

2
f X1 , X 2 , X 3 1,1, 0 , de forma similar se han calculado los restantes valores de la
8
tabla.

2.9.3 VECTORES ALEATORIOS CONTINUOS


2.9.3.1 Formulacin
Proposicin 23: Mtodo de clculo

Supongamos ahora que se tiene una estructura probabilstica conjunta (funcin de


densidad) f X , , X x1 , xn del vector aleatorio n dimensional X1 , , X n , con espacio
1 n

de posibles realizaciones:

x1 , , xn : f X 1, , Xn x1, , xn 0 (1 14)

(38)

De nuevo se asume que se desea calcular la densidad conjunta del vector


compuesto por las variables aleatorias Y1 g1 X1 , , X n , , Yk gk X1 , , X n , donde
k es algn entero que satisface la restriccin 1 k n .

Nota:

1. Si k n, se introducir adicionalmente, nuevas variables aleatorias


Yk 1 gk 1 X1 , , X n , , Yn gn X1 , , X n para seleccionar
adecuadamente las funciones gk 1 , , gn ;

2. Cuando se encuentre la distribucin conjunta de Y1 , , Yn , finalmente

60
se puede calcular la distribucin marginal de Y1 , , Yk de la
distribucin conjunta de Y1 , , Yn . Este uso de dar la posibilidad de
introducir variables aleatorias convierte a la transformacin y1
g1 x1 , , xn , , yn gn x1 , , xn en una transformacin de un espacio n
a otro espacio n dimensional, necesario en el mtodo de clculo
propuesto.

3. Se puede asumir que se esta buscando la distribucin conjunta de


Y1 g1 X1 , , X n , , Yn gn X1 , , X n (en tanto sea la distribucin
conjunta de Y1 , , Yk ) cuando se ha dado la probabilidad conjunta de
densidad de X1 , , X n .

En primera instancia se presentan los resultados para n 2 y despus se generaliza


para n 2 .

2.9.3.2 Transformacin continua general


Teorema 211

Sea X X1 , X 2 , , X n un vector aleatorio continuo con estructura probabilstica


f X1 , ,Xn x1 , , xn . Donde x1 , , xn : f X , 1 ,X x1,
, xn 0 es el espacio de posibles

valores o realizaciones del vector. Supngase que puede ser descompuesta en


conjuntos 1 , ,m tal que y1 g1 x1 , , xn , y2 g2 x1 , , xn , , yn gn x1 , , xn es una
transformacin uno a uno de i sobre , i 1, , m. y que x1 g1i1 y1 , , yn , , xn
gni1 y1 , , yn denota la transformacin inversa de sobre i , i 1, , m. Se define
como

61
g1i1 g1i1 g1i1

y1 y2 yn
g 1 g 2i1 g 2i1
2i
i y1 y2 yn


g ni1 g ni1 g ni1

y1 y2 yn

para i 1, , m. y se asume que todas las derivadas parciales en J i son continuas


sobre y el determinante J i , i 1, , m. Entonces: para y1 , , yn en .

(42)
g y , , yn
m
fY1 , Yn y1 , , yn i f X1 , ,Xn
1
1i 1 , yn , , g ni1 y1 ,
i 1

Ejemplo 215

Sean X 1 , X 2 y X 3 son variables aleatorias independientes estndar y1 x1 , y2


x1 x2 y y3
x1 x2 x3 . Entonces x1 y1 , x2 2y2 y1 y x3 3 y3 2 y2 ; as la
2 3
1 0 0
transformacin es uno a uno. ( m 1 en el teorema 3) 1 2 0 6 , por lo

0 2 3

tanto


3
1
fY1 ,Y2 ,Y3 y1 , y2 , y3 f X1 , X 2 , X 3 x1 , x2 , x3 6 exp 12 y12 2 y2 y1 3 y3 2 y2
2 2

2
3
1
6 exp 2 2 y1 4 y1 y2 8 y2 12 y2 y3 9 y3 . Las distribuciones marginales se
1 2 2 2

2
pueden obtener de la distribucin conjunta; por ejemplo,
3
1
exp 12 6 y22 12 y2 y3 9 y32

fY3 y3 fY1 ,Y2 ,Y3 y1 , y2 , y3 dy1dy2 6

2


2
6 1
2 y 4 y1 y2 2 y dy1 dy2

exp 1 2 2

2 2
2 1 2

62
3
exp 12 6 y22 12 y2 y3 6 y32 exp 12 3 y32 dy2

exp 32 y3 finalmente es claro
2

2
que Y3 presenta una estructura probabilstica normal con media 0 y varianza.

2.10 FAMILIA DE GAUSS MULTIDIMENSIONAL


2.10.1 FUNCIN DE DENSIDAD
Definicin 232: Densidad gaussiana (normal).

Un vector aleatorio X X1 , X 2 , , X n con vector de medias 1 , 2 , , n


donde j E X j y matriz de la varianza-covarianza V ij , pertenece a la
familia gaussiana o normal cuando su funcin de densidad de probabilidad
conjunta est dada por la expresin:

1
x ' V 1 x
2
e
f X1 , X 2 , Xn x1 , x2 , , xn 1 1 (1 15)
2
n
2 V 2

Observacin 210

1. Se escribe X es N , V (y se lee el vector X tiene estructura probabilstica


de Gauss) o, simplemente, X N ,V .
2. Cuando E X i para todo i entonces 1 ; y si los X i son mutuamente
independientes, todos con la misma varianza 2 , entonces V 2 I y
escribimos " x es N 1, 2 I ". Esto es equivalente a la notacin ms usual

DNI , 2 , pero manteniendo la notacin de matriz de N 1, 2 I se da
nfasis a que ste es simplemente un caso particular del modelo normal
multivariado general N , V .
3. La matriz V es definida positiva.

2.10.2 INTEGRAL DE AITKEN

63
Un resultado del clculo integral que es particularmente aplicable a cualquier
problema de la familia de Gauss multivariada es la integral de Aitken. Para A una
matriz simtrica definida positiva de orden n

1
xAx 1
dx1 ...dx n 2
1

... e
n
2 2 A 2 (1 16)

Para establecer este resultado, note que debido a que A es definida positiva existe
1

una matriz no-singular P tal que P AP I n . De P AP P A 1 y para que P A ;
2
2

y sea x Py da x Ax y PAPy y y y para que,


1 1
x Ax y y
... e

2
dx1 ...dx n ... e

2
dy1 ...dy n P 1

1 n
P ... exp y i2 dy1 ...dy n
2 i 1
1 n 1
y i2
A 2 e 2 dy i



i 1
1
2 2 n
1

A 2

La aplicacin directa de este resultado a (1 15) muestra que

V
1 1

f x1 , x 2 ,..., x n dx1 ...dx n 2 V 1 2
1

...
n
2 1
n
2 2

como uno esperara.

2.10.3 FUNCIN GENERADORA DE MOMENTOS


Como en (1 12) la f.g.m. para la distribucin normal multivariada es
1
M x t 2 exp t x x V 1 x dx1 ...dx n
1
1
...
n
2 V 2

2

Reformulando el exponencial ste se vuelve

64
1
M x t 2 2 n V 2 ... exp 1 x Vt V 1 x Vt t 1 t Vt dx1 ...dx n
1

2

2
1
t t Vt
2
1 1
...exp 2 x Vt V x Vt dx1 ...dx n
e
1
2 2 n V
1
2

Haciendo la transformacin y x Vt de x a y para la cual el Jacobiano es la


unidad, la integral se reduce entonces a la integral de Aitken con matriz V 1 . De
donde:

1 1
t t Vt
2 1 2
1
2 n
e 2 V 1
t t Vt
M x t 1
e 2 (1 17)
2
1
n
2 V 2

Diferenciando esto de la manera descrita en Error! No se encuentra el origen de


la referencia. se muestra que el vector de medias es y la matriz de varianza-
covarianza es V .

2.10.4 DISTRIBUCIONES MARGINALES


La definicin de la distribucin marginal de x1 , x 2 ,..., x n a partir de los primeros k x ,
es, de acuerdo con (1 4),

f x1 ,..., x k ... f x1 , x 2 ,..., x n dx k 1 ...dx n ,

La f.g.m. de esta distribucin es, por (1 12),



M x1 ...xk t ... e t1 x1 ...t k xk f x1 ,..., x n dx1 ...dx k

y sustituyendo para f x1 ,..., x n se convierte en

65

M x1 ...xk t ... e 1 1 k k f x1 ,..., x n dx1 ...dx k
t x ... t x


f.g.m. de x1 , x x ,..., x n , con t k 1 ... t n 0 (1 18)
1
t t Vt
e 2
, con t k 1 ... t n 0

Para hacer las substituciones t k 1 ... t n 0 dividimos x , , V y t , definiendo,


x1 x1 x2 . . . x k y x 2 x k 1 . . . x n

para que


x x1 x2 ;

entonces, conforme con esto,

1 2 ,

t t1 t 2

V V12
V 11 .
V21 V22

Ahora colocando t 2 0 en (1 18) da

1
t1 1 t1V11t1
M x1 ,...,xk t1 e 2

Por analoga con (1 17) y (1 12) tenemos por consiguiente la funcin de


densidad marginal como

1
exp x1 1 V111 x1 1
2
f x 1 f x1 ,..., x k 1
2 2 k V11 2
1

66
En comparacin con (1 15) vemos que f x1 es una distribucin normal
multivariada. similarmente, tambin es

1
exp x 2 2 V221 x 2 2
2
f x 2 f x k 1 ,..., x n 1
(1 19)
2
1
n k
2 V22 2

As vemos que las densidades marginales de la distribucin normal multivariada


son normales multivariadas.

As pues V se toma como definida positiva para que lo sean tambin V11 y V22 .
Adems, en estas expresiones, su uso puede hacerse de la forma dividida de V . As
si
1
V V12 W W12
,
1
V 11 11
V21 V22 W21 W22

entonces

V111 W11 W12W221W12 y V221 W22 W12 W111W12

2.10.5 DISTRIBUCIONES CONDICIONALES


Sea f x la que denota la funcin de densidad de todos los n valores de x . Entonces
la ecuacin (1 5) da la distribucin condicional de los primeros k x 's tal como

f x1 x 2 f x g x 2

y sustituyendo de (1 15) y (1 19)

1
exp x V 1 x x 2 2 V221 x 2 2 (1 20)
2

f x1 x 2
2 2 k V
1 1
V22 2

Ahora, en trminos de la particin de V y su inversa dada anteriormente, tenemos

67

W11 V11 V12V221V12 1
(1 21)

W W11V12V221
V 1 1 11 1
.
V 22 V
12 V11 V 1
22 V 1
22 V
12 W11V12V 22

Por consiguiente el exponente en (1 20) se vuelve

x W11V12V221 x1 1
x 2 2
W11

1
x 2 2 V221 x 2 2
1 1
V22 V12 V11 V22 V22 V12 W11V12V22 x 2 2
1 1 1

lo que se simplifica a

x 1
x1 1

x 2 2

I

W11 I V12V221 1
V V x 2 2
1
22 12 (1 22)

x1 1 V12V221 x 2 2 W11 x1 1 V12V221 x 2 2
Adems, usando el resultado para el determinante de una matriz dividida [por
ejemplo, Searle (1966, p.96)],

V V22 V11 V12V221V12 V22 W111 , de (1 21).

De

V V22 W111 (1 23)

Sustituyendo (1 22) y (1 23) en (1 20) da

1


exp x1 1 V12V221 x 2 2 W11 x1 1 V12V221 x 2 2
f x1 x 2
2 (1 24)
1
2
1
k 1 2
2 W 11

68
mostrando, en la comparacin con (1 15), que la distribucin condicional
tambin es normal:


x1 x2 ~ N 1 V12V221 x2 2 , W111
2.10.6 INDEPENDENCIA
Suponga que el vector x x1 x 2 . . . x n se divide en p subvectores

x x1 x 2
. . . x p . Entonces una condicin necesaria y suficiente para que los
vectores sean mutuamente independiente es, que en la particin correspondiente
de V Vij para i, j 1,2,..., p , Vij 0 , para i j .

Prueba de esto es formulada a continuacin. La f.g.m. de x es, por (1 17),


1
t t Vt p 1 p p
M x t e 2
exp t i i t iVij t j
i 1 2 i 1 j 1

y si Vij 0 para i j esta se reduce a


p p
M x t exp ti i tiVii ti exp ti i tiVii ti
1 1
i 1 2 i 1 2

Invocando la propiedad de que la f.g.m. de la distribucin conjunta de colecciones


de variables independientes es el producto de sus f.g.m., concluimos que las x i son
independientes. Recprocamente, si ellos son independientes, cada uno con su
varianza-covarianza K ii se dice, entonces que la f.g.m. de la distribucin conjunta es


p p
1 1 1

i 1
exp

t
i i
2
t
i K t
ii i

exp t i i t iK ii t i exp t t Vt
i 1 2 2

donde V diag K11 , K 22 ,..., K pp . De Vij 0 para i j .

2.11 FAMILIAS DE DISTRIBUCIONES UNIVARIADAS


2.11.1 INTRODUCCIN

69
En esta seccin se estudian las principales familias de distribuciones
uniparamtricas de frecuente uso en teletrfico.

2.11.2 FAMILIAS DE DISTRIBUCIONES DISCRETAS


2.11.2.1 Bernoulli

Ejemplo 216: Ensayos de Bernoulli5

Un experimento aleatorio con espacio muestral 1 , 2 , espacio de eventos


, 1 , 2 , 1 , 2 , con eventos fundamentales no equiprobables
A1 1 A2 2
y y funcin de probabilidad P A1 p 0,1 y P A2 q 1 p
cumple las propiedades para una funcin de probabilidad dadas en la Definicin
26. A p se le llama probabilidad de xito mientras que a su complemento q
probabilidad de fracaso. A este tipo de experimentos aleatorios se les denomina
Ensayos de Bernoulli.

Para las dos familias que siguen considrese el experimento aleatorio para el
cual el diseo experimental consiste de una urna que contiene r bolas rojas y b
negras, todas idnticas salvo por su color y nmero asignado. Se extraen n bolas
de la urna. Si se define el evento Ak : Al realizar el experimento se obtienen
exactamente k bolas rojas. Para el clculo de la P Ak existen bsicamente dos
caminos que conducen a resultados ligeramente diferentes dependiendo de la
forma en que se realice el muestreo: con restitucin o bien sin restitucin.

2.11.2.2 Con restitucin: Modelo binomial


nk
n r b
k

P Ak
k r b r b

5En honor al matemtico Jacob I hijo mayor de Nicolous Bernoulli. En su epitafio dice "Eadem mutata resurgo"
(Mutante y permanente, vuelvo a resurgir siendo el mismo). Escogi la espiral logartmica como smbolo de su
tumba.

70
Ejemplo 217: Ayuda de Isaac Newton a su amigo Pepys.

Una carta interesante6 ndica que Pepys le escribi a Newton preguntndole Cul
de los tres eventos es ms probable: Que una persona obtenga B1 : al menos un
cuando 6 dados se lanzan; B2 : al menos dos cuando 12 dados son lanzados; B3 :
al menos tres cuando 18 dados son lanzados? Cul sera la respuesta de
Newton?

Una solucin apresurada puede conducir a respuesta erradas como esta: Puede
pensarse, equivocadamente, que las probabilidades de los 3 eventos deben ser
iguales., es decir que la P n _ numeros _ 6 _ al _ lazar _ 6n _ dados 12 , sin embargo, en
realidad eso no es verdad. El procedimiento que sigue ilustra una idea de solucin
correcta a esta pregunta.

1. Al definir el evento Ai : Exactamente i c se obtienen al lanzar n i


nk
dados, es claro que Bk Ai .
i k

2. nk nk
Dado que los eventos Ai son disjuntos, P Bk P Ai P Ai . De
i 1 i k
esta manera es posible encontrar las probabilidades de los Ai y con
ellas obtener las probabilidades de Bk .

3. Es claro que si se lanzan m dados, la probabilidad de exactamente


m x
m 1
x

es
5
x y que, en consecuencia, de esta misma forma,
x 6 6
6k x 6k x
6k 1 5 6k 1 5
nk 6k x k 1 x

la P Bk P Ai 1 ,
i k xk x 6 6 x 0 x 6 6

6 Reproducida por American Statistician Vol. 14, No 4 de Octubre de 1960.

71
recordando que P A 1 P A .

4. En particular, la probabilidad de 1 o ms tras el lanzamiento de 6


dados es el complemento de la probabilidad de 0 seis, es decir
6 1 5
0 6

1 0.665
0 6 6

5. Finalmente, empleando una herramienta como Mathematica puede


encontrarse fcilmente la distribucin binomial para este caso:

k 6k P Bk

1 6 0.665

2 12 0.619

3 18 0.597

4 24 0.584

6. Cul fue, entonces, la respuesta de Newton?

La afirmacin de que P(n _ numeros _ 6 _ al _ lazar _ 6n _ dados) 12 es verdadera cuando


n , pero no para valores de k pequeos.

Ejemplo 218: El problema del estudiante vago.

Un estudiante va a responder aleatoriamente un examen de 10 preguntas de


seleccin mltiple. Cada pregunta tiene 6 opciones y una nica opcin correcta.
Cul es la probabilidad de que el estudiante apruebe el examen?

Solucin

72
Podemos redefinir la pregunta como: Cul es la probabilidad de que el estudiante
obtenga por lo menos 6 respuestas correctas de las 10 posibles? Entonces
definimos los eventos Bi y A6 como El estudiante obtiene exactamente i respuestas
correctas y El estudiante obtiene por lo menos seis respuestas correctas,
respectivamente. Tenemos que:

P A6 P B6 P B7 P B8 P B9 P B10

Entonces, aplicamos el modelo binomial, a saber:

n
P Bk p k q n k
k

Donde p es la probabilidad de obtener la opcin correcta en una pregunta ( 1 6 ), q


es la probabilidad de no obtenerla ( 5 6 ), n es el nmero de preguntas (10) y k es el
nmero de respuestas correctas a las cuales queremos hallar la probabilidad.

10 k
10 1
k

En este caso: P Bk
5
k 6 6

10 i
1
i

Entonces: P A6 P Bi
10 10 10
5
i 6 i 6 i 6 6

10 1 5 10 1 5 10 1 5 10 1 5 1
6 4 7 3 8 2 9 1 10


6 6 6 7 6 6 8 6 6 9 6 6 6

1.6538

P A6

Es decir, el estudiante vago tiene una probabilidad de de pasar el


examen.

2.11.2.3 Sin restitucin: Modelo Hipergeomtrico

73
r b

k n k
P Ak
r b

n

Ejemplo 219: Juego de cartas

En particular, este modelo puede ser empleado para calcular ciertas probabilidades
sobre juegos de cartas. Por ejemplo, si se desea calcular la probabilidad de que en
una mano de 13 cartas se obtengan exactamente 6 espadas. Hay r 13 , b 39 ,
r b 52 cartas en total, k 6 y n 13 Definiendo A6 como el evento de exactamente
13 52 13

6 13 6
6 espadas entonces P[ A6 ] .
52

13

2.11.2.4 Poisson

2.11.2.5 Geomtrica

2.11.3 FAMILIAS DE DISTRIBUCIONES CONTINUAS


2.11.3.1 Uniforme

Se dice que X ~ U a, b cuando su estructura probabilstica est guiada por la


1
funcin de densidad f X x; a, b I x . Es fcil comprobar que f X x; a, b 0
b a a ,b

xa
x
1 1
para todo x y que b a Ia,b x dx 1 . En consecuencia, FX x; a, b
a
ba
dt
ba
es

su funcin de distribucin.

f X x 1
ba

a b X
74
Figura 26: Funcin de densidad uniforme

FX x

a b X
Figura 27: Funcin de Distribucin uniforme.

Notas:

1. Tiene sentido hablar de uniformidad debido a que todos los valores en


ese intervalo son igualmente posibles de ser seleccionados en un
experimento aleatorio. Formalmente, esto significa que
1
x x
1 1 2
1 x
P x x X x x
2 2 1 ba
dt
ba
no depende de x nicamente
x x
2

del ancho del intervalo.

2. El hecho anterior puede visualizarse grficamente como en la Figura


28.

f X x

a
1
x x x 1
x x b
2 2 X

Figura 28: Probabilidad uniforme.

2. Un caso particular de especial inters en simulacin se presenta

75
cuando a 0 y b 1 caso en el que se escribe que U ~ U 0,1 .

2.11.3.2 Gauss

Cuando la variable aleatoria X tiene una distribucin normal con media y



varianza 2 , escribiremos " x es N , 2 ", o X ~ N , . La funcin de densidad
2

de X es entonces
1
x 2
2
1
fX x e 2
para x ,
2

en donde la aplicacin de (1 8) y (1 10) mostrar que E X y


E x 2 . Y la f.g.m. es
2


M x t 1 2 exp tx 12 x 2
2 dx


exp 12 x t 2t

1 2 2 2 2
t 2 4 2 dx

exp x t

1
1
t t 2 2
e 2
2 2 2
2 2 dx

1
t t 2 2
e 2

Se establece entonces fcilmente que x1 , y x2 2 2 , para que


Ex x2 2 2
2

2.11.3.3 Exponencial

2.11.3.4 Erlang

76
2.11.3.5 Gamma

2.11.4 RELACIONES ENTRE FAMILIAS

77
2.12 EJERCICIOS

1. Dos urnas contienen el mismo nmero de bolas, algunas de color blanco y


algunas de color negro. De cada urna se extraen n (n 3) bolas con
restitucin. Encuentre el nmero de extracciones y la composicion de las
dos urnas de forma que la probabilidad de que todas las bolas blancas
extraidas de la primera urna sea igual a la probabilidad de que las
extracciones en la segunda sean todas blancas o todas negras.

2. Epitafio de Diofanto : 'Dios le concedi ser nio la sexta parte de su vida,


una duodcima parte de ella ms tarde cubri de vello sus mejillas;
encendi en l la antorcha del matrimonio tras una sptima parte, y cinco
aos despus le concedi un hijo. Un hijo de nacimiento tardo, que el
destino se llev cuando alcanz la edad de la mitad de la vida de su padre.
ste consol su afliccin con la ciencia de los nmeros durante los cuatro
aos siguientes, tras los cuales su vida se extingui.'

2.13 RESUMEN DEL CAPTULO

78
79
3 PROCESOS ESTOCSTICOS
Ejemplo 31: Borrachito.

Suponga que un borracho se encuentra en el borde de un precipicio, si da un paso


hacia delante, l caer en el abismo. El borracho da pasos aleatorios a izquierda y a
derecha, es decir hacia el precipicio o en sentido contrario indiferentemente, si la
1
probabilidad de que el borracho de el paso hacia el precipicio es q y la
3
2
probabilidad de que se aleje de este es p , cul es la probabilidad de que el
3
borracho se salve?

3.1 INTRODUCCIN
Una generalizacin interesante del concepto de vector aleatorio se encuentra en la
idea de proceso estocstico. En un proceso estocstico, las estructuras
probabilsticas de los vectores aleatorios dependen del tiempo y del espacio en el
cual se desenvuelvan las variables del vector.

3.2 DEFINICIN
Definicin 31: Proceso Estocstico.

Un Proceso estocstico es una familia de variables aleatorias indexadas por el


tiempo Z ,t , donde pertenece al espacio muestral y t pertenece al conjunto de
ndices.

Observacin 31

Para un t fijo, Z ,t es una variable aleatoria. Mientras que para un dado, Z ,t es


una funcin de t , llamada funcin muestral o realizacin. La poblacin que
consiste en todas las posibles realizaciones se denomina el conjunto de series de
tiempo del proceso.

80
Se asume que el conjunto de ndices sern los enteros, a menos que se establezca lo
contrario. Considere un conjunto finito de variables aleatorias Zt , Zt , , Zt de un 1 2 n

proceso estocstico Z ,t : t 0, 1, 2, , La distribucin n -dimensional


(conjunta)est definida como


F zt1 ,
, ztn p : z , t1 zt1 , , z , tn ztn
Definicin 32: Proceso Estocstico estacionario.

1. Se dice que un proceso estocstico es estacionario en distribucin de primer


orden si su funcin de distribucin uni -dimensional es invariante al tiempo,

es decir, si F zt1 F zt1 k para todo t1 y k en los enteros,


2. estacionario en distribucin si F zt1 , zt2 F zt1 k , zt2 k , y estacionario de n -
simo orden si F zt1 ,
, ztn F zt1k ,
, ztn k , Para cualquier n -pla t1 , , tn
y k en los enteros.
3. Un proceso se dice estrictamente estacionario si

F zt1 ,
, ztn F zt1k ,
, ztn k es valido para todo n , es decir, n 1, 2, .
Tambin denotada por estacionariedad fuerte o completa.

Observacin 32

1. Claramente si F zt1 ,
, ztn F zt1k ,
, ztn k es valida para n m , tambin
ser verdadera para n m porque la funcin de distribucin de orden m
determina todas las funciones de distribucin de orden menor. Por lo tanto,
que una funcin de distribucin de orden superior sea estacionaria, siempre
determina que las funciones de distribucin que sean de orden menor que
ella tambin lo sean.
2. Es posible entender adecuadamente lo que es ser un proceso estocstico Z ,t
, como un conjunto de variables aleatorias definidas sobre un espacio
muestral indexadas por el tiempo. Usualmente se suprime y simplemente
se escribe Z ,t como Z t o Z t , tambin denotamos la variable aleatoria por X

81
o por X . El proceso estocstico es llamado proceso de valor real, si
solamente asume valores en , el conjunto de los nmeros reales, a menos
que se establezca lo contrario, solo trabajaremos con procesos de valor real.

Definicin 33: Funcin de media del proceso estocstico.

Para un proceso de valor real Zt : t 0, 1, 2, , definimos la funcin de media del


proceso como t E Zt .

Definicin 34: Funcin de varianza del proceso estocstico.

Para un proceso de valor real Zt : t 0, 1, 2, , definimos la funcin de e varianza


del proceso t E Zt t
2

Definicin 35: Funcin de covarianza del proceso estocstico.

Para un proceso de valor real Zt : t 0, 1, 2, , definimos La funcin de covarianza



del proceso entre Z t y Z t t1, t2 E Zt1 t1 Zt2 t2
1 2

t 1 , t 2
Y la funcin de correlacin entre Z t y Z t t1 , t2
1 2
t2 t2
1 2

Observacin 33

1. Para un proceso estacionario estricto, la funcin de distribucin es la misma


para todo t , la funcin de media t es una constante, siempre que
E Zt .

2. Igualmente, si E Zt entonces 2 2 para todo t , por lo tanto es tambin


1

una constante.

82
3. Adems, puesto que F zt , zt F zt k , zt k para todo t1 , t2 en los enteros y k ,
1 2 1 2

tenemos t1 , t2 t1 k , t2 k y t1 , t2 t1 k , t2 k tomando t1 t k y t2 t ,
tenemos t2 , t1 t k , t t , t k k y t1 , t2 t k , t t , t k k .
4. Entonces, para un proceso estrictamente estacionario, con los dos primeros
momentos finitos, la covarianza y la correlacin entre Z t y Zt k , depende solo
de la diferencia del tiempo k .

Un ejemplo trivial de estacionariedad fuerte es una secuencia de experimentos


relacionados a variables aleatorias independientes e idnticamente distribuidas.
Esta secuencia de variables aleatorias independientes usualmente no existe o no
interesan en procesos estocsticos o series de tiempo. Sin embargo distinto de este
simple caso, en el que son independientes e idnticamente distribuidas, es muy
difcil o imposible actualmente, verificar la funcin de distribucin, particularmente
la distribucin conjunta de una serie de tiempo observada. Entonces, en anlisis de
procesos estocsticos (series de tiempo), frecuentemente usamos estacionariedad
ms dbil en trminos de los momentos del proceso.

Un proceso se dice de orden n -simo dbil si todos los momentos conjuntos de


orden superior a n existen y son invariantes al tiempo, por ejemplo,
independientes del momento de origen. Por lo tanto, un proceso de segundo orden
tendr media y varianza constantes, y la funcin de covarianzas y correlacin solo
depender de la diferencia en el tiempo. Algunas veces, el sentido de
estacionariedad en el sentido dbil, o varianza estacionaria, son tambin utilizados
para describir procesos de segundo orden dbil. Se sigue de las definiciones que
los procesos estrictamente estacionarios con los dos primeros momentos finitos
tambin son procesos de segundo orden dbil, o de covarianza estacionaria. Sin
embargo, un proceso estrictamente estacionario, podria no tener momentos finitos,
por lo tanto, no tendra covarianza estacionaria. Un ejemplo trivial es el proceso
que consiste en una secuencia de variables aleatorias independientes e
idnticamente distribuidas con distribucin Cauchy. Claramente el proceso es
estrictamente estacionario, pero no es dbilmente estacionario, de cualquier orden,
pues no existen los momentos conjuntos de ningn orden.

Ejemplo 32

83
Considere la siguiente secuencia en el tiempo:

Zt Asen t

Donde a A es una variable aleatoria con media cero y varianza uno y es una
variable aleatoria con distribucin uniforme en el intervalo , , independiente
de A . Entonces:

E Zt E A E sen t 0


E Zt Zt k E A2 sen t sen t k

1
E A2 E cos k cos 2t k 2
2

1
2
1
2

cos k E cos 2t k 2

cos k cos 2t k 2
1 1 1
d
2 2 2

sen 2t k 2
1 1
cos k
2 8

1
cos k
2

El cual depende solo de la diferencia en el tiempo k . Entonces el proceso es de


varianza estacionaria

Ejemplo 33

Sea Z t una secuencia de variables aleatorias independientes provenientes,


alternadamente, de una distribucin normal estndar N 0,1 y dos valores 1 y 1

cada uno con probabilidad


1
2

, claramente, E Zt 0 y E Z t2 1 para todo t . Ahora

84
0, si t s
E Zt , Z s
1, si t s

E Zt Z s 0, si t s
t, s
E Zt2 E Z s2 1, si t s

De donde, el proceso es de varianza estacionaria. Sin embargo, el proceso no es


estrictamente estacionario. De hecho, no es estacionario en distribucin de ningn
orden.

En nuestra discusin y ejemplos anteriores, es claro que la covarianza


estacionaria, es una estacionariedad mas dbil que la Estacionariedad estricta o
que la estacionariedad en distribucin. Sin embargo, frecuentemente
trabajaremos con procesos con covarianza estacionaria o procesos de segundo
orden con estacionariedad dbil en anlisis de series de tiempo, pues ser fcil
verificar los dos primeros momentos. Por la tanto, a menos qeue se mencione lo
contrario, usaremos el termino estacionariedad, para referirnnos a procesos que
tengan covariana estacionaria, por esto tenemos la siguiente importante
observacin:

Un proceso estocstico se dice normal o procesdo Gaussiano si su funcin de


distribucin conjunta es normal . como una distribucin normal esta caracterizada
por sus dos primeros momentos, la estacionariedad estricta y la estacionariedad
dbil son equivalentes en un proceso Gaussiano. A menos que se mencione lo
contrario, los procesos que discutiremos se asumiran Gaussianos. Esto es por que
la funcin de Autocorrelacin y la funcin de Autocorrelacin parcial en las
proximas secciones se convertiran en herramientas fundamentales en el analisis de
series de tiempo.

85
3.3 LAS FUNCIONES DE AUTOCOVARIANZA Y AUTOCORRELACIN
3.4 FUNCION DE AUTOCORRELACIN PARCIAL

3.5 PROCESOS CON RUIDO BLANCO

3.6 CADENAS DE MARKOV EN TIEMPO DISCRETO

3.6.1 INTRODUCCIN

3.6.2 ECUACIONES DE CHAPMANKOLMOGOROV

3.6.3 CLASIFICACIN DE LOS ESTADOS

3.7 CADENAS DE MARKOV DE TIEMPO CONTINUO

3.7.1 INTRODUCCIN

3.7.2 DEFINICIN

3.7.3 PROCESOS DE NACIMIENTO Y MUERTE

86
3.7.4 FUNCIN DE TRANSICIN DE PROBABILIDAD

3.7.5 REVERSIBILIDAD

3.8 DISTRIBUCIN EXPONENCIAL Y EL PROCESO DE POISSON

3.8.1 INTRODUCCIN

3.8.2 DEFINICIN DE PROCESO DE POISSON

3.8.3 DISTRIBUCIONES DE LOS TIEMPOS ENTRE LLEGADAS Y DE ESPERAS

3.8.4 PROCESO DE POISSON NO HOMOGNEO

3.9 **TEORA DE RENOVACIN

3.10 EJERCICIOS

3.11 RESUMEN DEL CAPTULO

87
4 MODELOS DE TRFICO

4.1 ERLANG B: SISTEMA DE PRDIDA DE ERLANG

4.2 ERLANG B EXTENDIDO: EXTENDIDO.

4.3 ERLANG C: SISTEMA CON RETARDO

4.4 **REDES DE COLAS

5 DIMENSIONAMIENTO DE REDES DE
TELECOMUNICACIONES

6 MEDIDAS DE TRFICO

88
7 REFERENCIAS BIBLIOGRFICAS

[1] S. Hawking y L. Mlodinow, El Gran Diseo, Barcelona: Crtica, 2010.

[2] Rosss y S. M. Ross, Introduction to Probability Models, Amsterdam: Academic


Press, 2003.

[3] R. D. Yates y D. J. Goodman, Probability and Estochastic Processes: A friendly


Introduction for Electrical and Computer Engineers., Boston: Jhon Wiley & Sons,
Inc., 2005.

[4] A. M. Law y W. D. Kelton, Simulation Modeling and Analysis, Boston:


McGrawHill, 2000.

[5] IUT, Teletraffic Engineering HandBook, Dinamarca: Technical Unversity of


Denmark, 2001.

89

También podría gustarte