Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fundamentos de
Procesos Estocásticos
DOCENTE:
ING. JOSE BLANCO
AUTOR:
NAVA. M. MARÍA. A.
C.I.V-27844096
NAVARRO. L. MARCOS. J.
C.I.V-28159036
YANELIMAR NOQUERA
C.I. V-27885294
ING-S-6S-D-01
1
ASIGNACION N° 1
Contenido:
1. Fundamentos:
1.1 Experimento Aleatorio.
1.2 Espacio Muestral.
1.3 Probabilidad.
1.4 Distribución de Probabilidad.
1.5 Esperanza Matemática.
1.6 Varianza.
2. Distribuciones:
2.1 Bidimensionales.
2.2 Binomial.
2.3 Poisson.
2.4 Normal.
2.5 Gamma.
2.6 Beta.
2
FUNDAMENTOS DE PROCESOS ESTOCASTICOS
FUNDAMENTOS
3
Experimento aleatorio. Es cualquier acto que implique la observación de los
valores de una variable aleatoria. Es aquel que puede dar lugar a varios resultados,
sin que pueda ser previsible enunciar con certeza cuál de éstos va a ser observado
en la realización del experimento (Asurza Olaechea, 2006).
Resumen Personales:
4
“Se entiende como aquel experimento donde de forma aleatoria interactúan
diferentes variables y a pesar de ser un suceso controlado se desconoce el
resultado probablemente a obtener y que dicho resultado puede variar” Yanelimar
Noquera
= {(i, j) / i, j = 1, 2, 3, 4, 5, 6} e
s
o
C. Una persona lleva en su bolsillo cuatro monedas de 1$, 5$ y 10$; si son todas
iguales y saca dos sucesivamente y si m1 = 1$, m2 = 5$, m3 = 10$, entonces
5
Ahora láncese una moneda hasta que aparezca una cara y luego cuéntese el
número de veces que se lanzó la moneda; ¿cuál es el espacio muestral ?
= {1, 2, 3,...}.
Por lo tanto llega a ser muy importante tratar de asociar un número con el evento A,
que medirá de alguna manera, la posibilidad de que A ocurra. Esto nos conduce a
la Teoría de las Probabilidades.
Resumen Personales
“Un espacio Muestral contiene todos los posibles resultados para un experimento
aleatorio, es decir busca estudiar el comportamiento de los distintos resultados que
pudiese dar la realización de un experimento aleatorio, donde una vez realizado
dicho el experimento este espacio muestral analiza y busca todos los resultados
que se pudiesen obtener, en pro de hallar conclusiones y tratar de determinar en
cierta manera el resultado del experimento es vez de que sea un resultado incierto”
María Nava
“una vez realizado el experimento aleatorio y determinar que sus resultados son
inciertos, el espacio muestral busca determina y estudiar los distintos resultados
que un experimento aleatorio pudiese dar para así obtener una conclusión más
amplia y un estudio más específico y sustentado” Marcos Navarro
“En pocos pocas palabras corresponde al análisis de los resultados los cuales se
podrán obtener de un evento o suceso.” Yanelimar Noquera
1.3 Probabilidad.
Probabilidad. Sea fi un espacio muestral de n elementos y el evento A con
cardinalidad m, con 0 < m < n, los puntos muestrales de tienen la misma
probabilidad, es decir, son equiprobables e iguales a 1/n. La probabilidad del evento
A se denota y calcula por:
6
Conclusión.- Al analizar el concepto de frecuencia de probabilidad ésta debe
cumplir:
1) Para todo evento simple (un evento que no puede descomponerse ei)
ei 0 ≤ P({ei}) ≤ 1
fA B = fA + fB
SÍMBOLO SIGNIFICADO
Evento seguro
Ac Evento contrario. Evento que ocurre cuando no ocurre A o viceversa
7
⋃ 𝑨𝒏 = 𝑫 D es el evento que ocurre sí y sólo si al menos uno de los eventos An.
𝒏∈𝑵
Observación.- La tabla nos pone de manifiesto que la unión, intersección tanto finita
como infinita numerable de eventos es todavía un evento. Al igual que el
complemento de un evento o el mismo espacio muestral es un evento (todo conjunto
es subconjunto de sí mismo).
∀𝑛 ∈ 𝑁; 𝐴𝑛 ∈ 𝐹 𝑃(𝐴𝑛 ) ≥ 0.
𝐹
𝐴3 . − ∀𝑛 ∈ 𝑁; 𝐴𝑛 ∈ ∩ 𝐴𝑗 = ∅, 𝑖 ≠ 𝑗 P (⋃ 𝐴𝑛 ) = ∑ 𝑃(𝐴𝑛 )
𝐴𝑖
𝑛∈𝑁 𝑛∈𝑁
Nota.
Comentario de la definición:
8
Las siguientes propiedades nos dan como consecuencia inmediata de la definición
anterior:
Aditividad finita:
9
Si A y B son eventos cualesquiera tales que AB, entonces P(A) ≤ P(B)
P(A B) = P(A)P(B)
Ejemplos:
Ejemplo:
Consideremos el lanzamiento de un dado y los eventos siguientes:
10
A: “Se obtiene un número par”
B: “Se obtiene un número impar”
En efecto AB = Ø, implica que los dos eventos son mutuamente excluyentes, pero
A y B no son independientes, puesto que si conocemos que el evento A (B) se
realizó no podemos esperar que el evento B(A) también se realice o sea,
𝑃(𝐴 𝐵)
𝑃(𝐴│𝐵) = 𝑃(𝐵)
B=
11
Ejemplo: Si tomamos como ejemplo repetir en 1000 ocasiones el experimento
de elegir a una mujer de una población muy grande. El resultado está en la tabla.
MENOPAUSIA
NO SI Total
CLASIFICA
NORMAL 189 280 469
CIÓN
OMS OSTEOPENIA 108 359 467
OSTEOPOROSIS 6 58 64
Total 303 697 1000
• P (Osteoporosis)=64/1000=0,064=6,4%
¿Cuál es la probabilidad de que una mujer no tenga osteoporosis?
• P (No Osteoporosis)=1- P (Osteoporosis)=1-64/1000=0,936=93,6%
En ambas respuestas se aplica el concepto clásico de probabilidad o llamado
también frecuentista.
12
• P(Osteoporosis │Menopausia) = 58/697=0,098 = 9.8%
13
Si conocemos la
probabilidad de B
en cada uno de los
componentes de un
sistema exhaustivo
y excluyente de
sucesos, entonces
...podemos calcular
la probabilidad de
B.
TEOREMA DE BAYES
Ejemplo: En un grupo 70% de los alumnos son mujeres. De ellas el 10% son
fumadoras. De los hombres, son fumadores el 20%. ¿Qué porcentaje de
fumadores/as hay en el curso?
14
Propiedad de Probabilidad Total
Resumen Personales:
15
“El hombre siempre ha tenido la necesidad de saber qué posibilidades hay que un
evento ocurra o no, es por ello que la probabilidad permite estudiar de manera
porcentual la posibilidad que dicho eventos ocurran” Marcos Navarro
Una función
X: → R
La expresión (X=x) se puede leer como “el conjunto de todos los puntos de
16
Ahora tiene sentido hablar de la probabilidad de que X tome el valor x denotado por
P(X=x) o p(x). Esta probabilidad se define como la suma de probabilidades de
ciertos puntos muestrales. También se puede indicar p(x) = P(X=x).
1. 𝑝(𝑥) ≥ 0∀ 𝑥 ∈ 𝑋
2. ∑ 𝑝(𝑥) = 1
𝑥
1. 0 ≤ F(x) ≤ 1 x X.
3. P(X>x) = 1 - F(x).
Además, puede establecerse que para una v.a. de valor entero se tiene:
17
Nota. En el caso discreto, se asignan probabilidades positivas a todos los valores
puntuales de la v.a. pero la suma de todos ellos es 1, aún a pesar de que el conjunto
de valores sea infinito numerable.
18
Opiniones Personales:
“Toda Distribución de probabilidad se genera por una variable, debido a que esta
puede tomar diferentes valores, es decir una variable aleatoria x ya que el valor que
se toma es completamente al azar, lo cual permite proporcionarnos todos los
resultados de los valores que pudiesen presentarse en un suceso, juntos con la
probabilidad de ocurrencias asociada a cada uno de estos valores” María Nava
19
probabilidad en cada suceso, la media aritmética es igual que la esperanza
matemática.
Imaginemos una moneda. Dos caras, cara y cruz. ¿Cuál sería la esperanza
matemática (valor esperado) de que salga cara? La esperanza matemática se
calcula como la probabilidad de que, tirando la moneda un número muy grande de
veces, salga cara.
Dado que la moneda solo puede caer en una de esas dos posiciones y ambas
tienen la misma probabilidad de salir, diremos que la esperanza matemática de que
salga cara es una de cada dos, o lo que es lo mismo, el 50% de las veces.
Hacemos una prueba y vamos a tirar una moneda 10 veces. Supongamos que
la moneda es perfecta.
Tiradas y resultado:
1. Cara.
2. Cruz.
3. Cruz.
4. Cara.
5. Cruz.
6. Cara.
7. Cara.
8. Cara.
9. Cruz.
10. Cruz.
¿Cuántas veces ha salido cara (contamos las C)? 5 veces ¿Cuantas veces ha
salido cruz (contamos las X)? 5 veces. La probabilidad de que salga cara será de
5/10=0,5 o, en porcentaje, del 50%.
Una vez ha ocurrido ese suceso podemos calcular la media matemática del
número de veces que ha ocurrido cada suceso. El lado cara ha salido una de cada
dos veces, es decir, un 50% de las veces. La media coincide con la esperanza
matemática.
20
𝑛∞
∑ 𝑃(𝑋 = 𝑥𝑛 ) = 1
𝑛=1
Definición 6.1 Sea X una variable aleatoria discreta con la notación anterior, y
llamemos 𝑃𝑛 = 𝑃(𝑋 = 𝑥𝑛 ), 𝑛 = 1,2,3, … Diremos que existe el valor esperado, la
media o esperanza matemática de X si la serie
∞
∑ |x n | p n
n=1
21
1.6 Varianza.
La varianza la denotamos mediante Var [X] o bien :
Propiedades de la varianza.
Propiedad 1. La varianza de toda variable aleatoria X es positiva o cero, esto
es Var(X) ≤ 0
Resumen Personales:
“La palabra Varianza es impulsada por el matemático ingles Ronald Fisher en los
años 1890-1962 el cual permite identificar a la media de las desviaciones
cuadráticas de una variable de carácter aleatorio, considerando el valor medio de
esta. Donde los expertos señalan la colección de modelos estadísticos y sus
procedimientos asociados en la cual la varianza aparece particionada en distintos
componentes a el análisis de la varianza, el cual nos lleva a su vez a un significado
más concreto del mismo donde se pudiese decir entonces, que una varianza es,
una medida de dispersión que representa la variabilidad de una serie de datos
respecto a su media.” María Nava
“Es una medida de dispersión que representa la variabilidad de una serie de datos
respecto a su media. En otros términos, es una medida de dispersión definida como
22
la esperanza del cuadrado de la desviación de la variable aleatoria respecto a su
media.” Yanelimar Noquera
DISTRIBUCIONES
2.1 Bidimensionales
Uno de los objetivos del análisis de distribuciones bidimensionales es estudiar si
existe asociación o relación entre las variables X e Y. donde a partir de una
distribución bidimensional se obtendrán distribuciones unidimensionales de dos
tipos: Marginales de X e Y, y Condicionadas. Es decir esta distribución
bidimensional permite obtener 2 distribuciones unidimensionales marginales, tal es
el caso de Marginal de X que expresa como se distribuye X en la población total, al
margen de la otra variable y Marginal de Y que expresa como se distribuye Y en la
población total, al margen de la otra variable. Por otro lado esta distribución
bidimensional también permite obtener distribuciones unidimensionales de
condicionadas de X que expresa como se distribuye x en la subpoblación que
cumple la condición de presentar el valor Y=yj y de Y que expresa como se
distribuye Y en la subpoblación que cumple la condición de presentar el valor X=xi.
Resumen Personales:
“Dada una explicación con anterioridad de la distribución bidimensional, se puede
decir entonces que es aquella en la que cada individuo le corresponden los valores
de dos variables (X y Y) estudiando dichas variables de acuerdo a cada elemento
de la población” María Nava
“Esta distribución bidimensional nos permite estudiar la población y a su vez a cada
uno de sus elementos, mediante variables que a su vez tenga una asociación o
relación” Marcos Navarro
2.2 Binomial
Sea un experimento aleatorio en el que sólo puedan darse dos posibilidades: que
ocurra un determinado suceso A, que llamaremos éxito, o que no ocurra dicho
suceso, o sea que ocurra su complementario, que llamaremos fracaso, B.
Se conoce la probabilidad de ocurrencia del suceso A, y por lo tanto la de su
complementario:
P( A) = p ; P(B)=1−p=q
23
Se repite el experimento n veces en las mismas condiciones (independencia). Se
define la variable aleatoria Binomial: X: “nº de veces que ocurre el suceso A (nº
éxitos) en n realizaciones independientes del experimento” Por lo tanto, X: 0, 1, 2 ,
3, ……n
X →B(n; p)
Función de Probabilidad
A partir de eso se pudiese menciona un ejemplo donde puede ser aplicada una
distribución binomial, es el Número de familias con un solo hijo en una población de
140 familias.
Resumen Personales:
“A partir del ejemplo del número de aprobados si se presentan 100 alumnos a un
examen de matemáticas, donde puede ser aplicado la distribución binomial,
podemos decir que en términos generales no solo es uno de los modelos de
distribución teórica de probabilidad, sino que a su vez es utilizada específicamente
cuando la variable aleatoria discreta es el número de éxitos en una muestra
compuesta por n observaciones, es decir se aplica cuando se realizan un numero n
de veces el experimento de Bernouilli, siendo cada ensayo independiente del
anterior” María Nava
“Una vez definido el concepto general de una distribución binomial es importante
señalar que esta, es una distribución de probabilidades que surgen al cumplirse el
número de ensayos o repeticiones del experimento quien debe ser constante y
24
donde en cada ensayo, los dos resultados posibles son mutuamente excluyentes”
Marcos Navarro
2.3 Poisson
La distribución de Poisson describe la probabilidad como un acontecimiento fortuito
ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad
de un acontecimiento ocurre es muy pequeña, pero el número de intentos es muy
grande, entonces el evento actual ocurre algunas veces.
Teniendo características tales como:
El número medio (promedio) de eventos en el espacio temporal o región
específica de interés, por lo general esta media se representa por la lambda
griega (λ)
El número de resultados que ocurren en un intervalo de tiempo o región
específicos es independiente del número que ocurre en cualquier otro
intervalo de tiempo o región
La probabilidad de que un resultado muy pequeño ocurra en un intervalo de
tiempo muy corto o en una región pequeña es proporcional a la longitud del
intervalo de tiempo o al tamaño de la región
La probabilidad de que más de un resultado ocurra en un intervalo de tiempo
tan
corto o en esa región tan pequeña es inapreciable, que se puede asignar el
valor de 0.
A partir de eso se pudiese menciona un ejemplo donde puede ser aplicada una
distribución de Poisson, al Número de veces que una planta de energía nuclear
emite gases radiactivos en un periodo de 5 meses.
Resumen Personales:
“Siendo una de las más importantes de variables directas, sus principales
aplicaciones hacen referencia a la modelización de situaciones en las que nos
interesa determinar el número de hechos de cierto tipo que pueden producir en un
intervalo de tiempo o espacio, bajo presupuestos de aleatoriedad y ciertas
circunstancias restrictivas. Es decir que permite que con solo conocer los eventos y
25
su frecuencia media de ocurrencia, podremos saber su probabilidad, cual se emplea
para describir procesos tales como la demanda de servicios en un hospital por parte
de los pacientes, el número de accidentes en un cruce, la distribución de las
llamadas telefónicas que llegan a un conmutador entre otros” María Nava
2.4 Normal
Diremos que una distribución de probabilidad sigue una distribución normal de
media x y desviación típica σ, y lo representaremos por N(x; σ) cuando la
representación gráfica de su función de densidad es una curva positiva continua,
simétrica respecto a la media, de máximo en la media, y que tiene 2 puntos de
inflexión, situados a ambos lados de la media (x − σ y x + σ respectivamente) y a
distancia de σ ella, es decir de la forma:
Dependiendo de los valores que tomen x y σ, la gráfica de esta función puede ser
más o menos alargada, achatada, etc..., pero en cualquier caso siempre tiene las
mismas condiciones de simetría, continuidad, etc. reseñadas anteriormente.
El concepto de función de densidad introducido anteriormente no se estudiara con
profundidad. Baste decir que la función de densidad determina la forma de cada
distribución de probabilidad. En el caso de la distribución normal de parámetros x y
σ, dicha función viene dada por:
Resumen personales:
26
“La distribución normal es un modelo teórico capaz de aproximar satisfactoriamente
el valor de una variable aleatoria a una situación ideal, es decir adapta un variable
aleatoria a una función que depende de la media y la desviación típica.” Marcos
Navarro
2.5 Gamma
De esta forma, la distribución gamma es una distribución flexible para modelizar las
formas de la asimetría positiva, de las más concentradas y puntiagudas, a las más
dispersas y achatadas.
2.6 Beta
La distribución beta es posible para una variable aleatoria continua que toma valores
en el intervalo [0,1], lo que la hace muy apropiada para modelar proporciones. En la
inferencia bayesiana, por ejemplo, es muy utilizada como distribución a priori
cuando las observaciones tienen una distribución binomial. Donde uno de los
principales recursos de esta distribución es el ajuste a una gran variedad de
distribuciones empíricas, pues adopta formas muy diversas dependiendo de cuáles
27
sean los valores de los parámetros de forma α y β, mediante los que viene definida
la distribución.
Un caso particular de la distribución beta es la distribución uniforme en (0,1), que
corresponde a una distribución beta de parámetros =1 y =1, denotada Beta(1,1).
Para la distribución uniforme sobre (0,1), la media y la varianza son
μ=11+1=12yσ2=(1)(1)(1+1)2(1+1+1)=112, Respectivamente.
28
Referencias Bibliográficas
29