Está en la página 1de 29

REPÚBLICA BOLIVARIANA DE VENEZUELA.

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA.


VICEMINISTERIO DE EDUCACIÓN PARA LA DEFENSA.
UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA
FUERZA ARMADA NACIONAL BOLIVARIANA.
NUCLEO FALCÒN – SEDE CORO.
UNIDAD ACADEMICA

Fundamentos de
Procesos Estocásticos

DOCENTE:
ING. JOSE BLANCO
AUTOR:
NAVA. M. MARÍA. A.
C.I.V-27844096
NAVARRO. L. MARCOS. J.
C.I.V-28159036
YANELIMAR NOQUERA
C.I. V-27885294
ING-S-6S-D-01

SANTA ANA DE CORO; ENERO 2021

1
ASIGNACION N° 1

Objetivo: Interpretar los conceptos básicos que fundamentan los procesos


estocásticos para la optimización de los mismos.

Contenido:
1. Fundamentos:
1.1 Experimento Aleatorio.
1.2 Espacio Muestral.
1.3 Probabilidad.
1.4 Distribución de Probabilidad.
1.5 Esperanza Matemática.
1.6 Varianza.
2. Distribuciones:
2.1 Bidimensionales.
2.2 Binomial.
2.3 Poisson.
2.4 Normal.
2.5 Gamma.
2.6 Beta.

2
FUNDAMENTOS DE PROCESOS ESTOCASTICOS

Se dice que los procesos estocásticos lleva su investigación y fundamentos


enfocados en el estudio y modelización de sistemas que van evolucionando a través
del tiempo, de acuerdo a unas leyes no determinísticas, es decir, de carácter
aleatorio, donde la forma de describir dicha evolución de estos sistemas es
mediante sucesiones o colecciones de variables aleatoria, que tienen su propia
función de distribución de probabilidad y pueden a su vez estar o no,
correlacionadas entre sí. Sin embargo un proceso estocástico, matemáticamente,
es una serie de conjuntos de relaciones temporales con índices temporales, el cual
puede ser aplicado a las finanzas, permitiendo estudiar el comportamiento de
diversas variables, estimando el comportamiento de un futuro estable.
Según (Ruíz, M. 2012), “Un proceso estocástico es una colección o familia de
variables aleatorias {Xt, con tϵT}, ordenadas según el subíndice t que en general se
suele identificar con el tiempo”. Donde T es llamado el espacio paramétrico del
proceso. Entonces para analizar un fenómeno estocástico se debe analizar sus
variables aleatorias que varían en función de otra variable que sería la del tiempo,
tomando en cuenta que cada variable aleatoria del proceso, tiene su propia función
de distribución de probabilidad y pueden o no estar correlacionadas entre sí. A
continuación se definen los siguientes puntos:

FUNDAMENTOS

1.1 Experimento Aleatorio.


La noción básica en teoría de las probabilidades es la de experimento aleatorio,
pero antes tengamos presente la definición básica de experimento: experimento es
el proceso por medio del cual se obtiene una observación. A partir de aquí algunas
definiciones dadas por algunos autores:

Experimento aleatorio. Es aquel cuyo resultado es incierto o depende del azar.


Su opuesto sería un experimento determinista, cuyo resultado es predecible con
anterioridad a la realización del experimento González, Guerra, Quintana y Santana.

EL término “experimento aleatorio” se utiliza en la teoría de la probabilidad


para referirse a un proceso cuyo resultado no es conocido de antemano con certeza.

3
Experimento aleatorio. Es cualquier acto que implique la observación de los
valores de una variable aleatoria. Es aquel que puede dar lugar a varios resultados,
sin que pueda ser previsible enunciar con certeza cuál de éstos va a ser observado
en la realización del experimento (Asurza Olaechea, 2006).

Ejemplos. Definimos los siguientes experimentos aleatorios:

1. Lanzamiento de un dado. (Experimento 1).

2. Lanzamiento de una moneda. (Experimento 2).

3. En una fábrica se desea detectar artículos defectuosos de un lote de 100


artículos. (Experimento 3).

4. El número de bachilleres de la última promoción (suponemos 210) que


aprobarán las pruebas de admisión en una determinada universidad. (Experimento
4).

5. Cierto día un profesor decide tomar lección oral a un estudiante, eligiéndolo


al azar. (Experimento 5).

Una forma de definir de modo preciso la esencia de un experimento aleatorio


es describiendo el conjunto de todos los resultados posibles del experimento, donde
dicho conjunto se llama Espacio Muestral.

Resumen Personales:

“según congacha aushay, 2016 define a un experimento aleatorio como aquel


cuyos resultados no pueden ser determinados. Es decir se trata de un estudio de
situaciones dominadas por las leyes del azar, siendo una prueba que consiste en
repetir un fenómeno aleatorio con el objetivo de analizarlo y extraer conclusiones
sobre su comportamiento. Tal es el ejemplo de un dado, donde al lanzarlo no
sabemos el numero en el que vaya a caer, esto nos permite determinar que hay
experimentos donde podemos saber lo que va a ocurrir y otros donde no; siendo un
resultado el cual no es conocido con certeza tal y como es explicado con
anterioridad” María Nava

“Colocando como Ejemplo el lanzamiento de un moneda donde su resultado no


se puede determinar con anterioridad, podemos definir en resumidas cuentas el
concepto general del experimento aleatorio que solo se trata del estudio de
resultados que no pueden ser determinados pero que si permiten estudiar su
comportamiento” Marcos Navarro

4
“Se entiende como aquel experimento donde de forma aleatoria interactúan
diferentes variables y a pesar de ser un suceso controlado se desconoce el
resultado probablemente a obtener y que dicho resultado puede variar” Yanelimar
Noquera

1.2 Espacio Muestral.

Un espacio muestral se denota por  o por S. En esta introducción a la


probabilidad, se usarán los conceptos básicos de conjuntos y las operaciones entre
conjuntos y tomaremos el símbolo fi como espacio muestral de un experimento
aleatorio. Se supone que el lector está familiarizado con estos conceptos (Congacha
Aushay, 2016).

Un evento es un subconjunto de un espacio muestral. Un evento se indica con letras


mayúsculas del alfabeto

Ejemplo: Espacios muéstrales y eventos


Para el experimento 1:  = {1, 2, 3, 4, 5, 6}
Para el experimento 2:  = {C, S}; se observa la cara C o el sello S.
Para el experimento 3:  = {0, 1, 2,..., 100}
Para el experimento 4:  = {0, 1, 2,...,210}
Para el experimento 5:  = {estudiantes de su curso}

Al observar un número par en el experimento 1 se define el evento


o suceso A = {2, 4, 6}.
E
En el experimento 2 tenemos los eventos B = {C} y D = {S}. v
e

Describa los espacios muestrales de los siguientes experimentos n


t
o
A. Lanzamiento de dos monedas:  = {CC, CS, SC, SS} o
S
B. Lanzamiento de dos dados: u
c

 = {(i, j) / i, j = 1, 2, 3, 4, 5, 6} e
s
o
C. Una persona lleva en su bolsillo cuatro monedas de 1$, 5$ y 10$; si son todas
iguales y saca dos sucesivamente y si m1 = 1$, m2 = 5$, m3 = 10$, entonces

 = {m1m2, m1m3, m2m3}

5
Ahora láncese una moneda hasta que aparezca una cara y luego cuéntese el
número de veces que se lanzó la moneda; ¿cuál es el espacio muestral ?

El espacio muestral de este experimento es:

 = {1, 2, 3,...}.

Observación.- Una de las características básicas del concepto de experimento es


que no sabemos qué resultado particular posible se obtendrá al realizar el
experimento. En otras palabras, si A es un evento no podemos indicar con certeza
que A ocurrirá o no.

Por lo tanto llega a ser muy importante tratar de asociar un número con el evento A,
que medirá de alguna manera, la posibilidad de que A ocurra. Esto nos conduce a
la Teoría de las Probabilidades.

Resumen Personales

“Un espacio Muestral contiene todos los posibles resultados para un experimento
aleatorio, es decir busca estudiar el comportamiento de los distintos resultados que
pudiese dar la realización de un experimento aleatorio, donde una vez realizado
dicho el experimento este espacio muestral analiza y busca todos los resultados
que se pudiesen obtener, en pro de hallar conclusiones y tratar de determinar en
cierta manera el resultado del experimento es vez de que sea un resultado incierto”
María Nava

“una vez realizado el experimento aleatorio y determinar que sus resultados son
inciertos, el espacio muestral busca determina y estudiar los distintos resultados
que un experimento aleatorio pudiese dar para así obtener una conclusión más
amplia y un estudio más específico y sustentado” Marcos Navarro

“En pocos pocas palabras corresponde al análisis de los resultados los cuales se
podrán obtener de un evento o suceso.” Yanelimar Noquera

1.3 Probabilidad.
Probabilidad. Sea fi un espacio muestral de n elementos y el evento A con
cardinalidad m, con 0 < m < n, los puntos muestrales de  tienen la misma
probabilidad, es decir, son equiprobables e iguales a 1/n. La probabilidad del evento
A se denota y calcula por:

6
Conclusión.- Al analizar el concepto de frecuencia de probabilidad ésta debe
cumplir:

1) Para todo evento simple (un evento que no puede descomponerse ei)

ei   0 ≤ P({ei}) ≤ 1

2) Σ P ({ei}) = 1 luego P(2) = 1


i=1

3) Si tenemos 2 eventos mutuamente excluyentes A y B (A  B = Ø) no hay puntos


muestrales comunes (elementos del espacio muestral) y sean las frecuencias fA y
fB respectivamente de los eventos A y B entonces:

fA  B = fA + fB

A continuación las notaciones conjuntistas y el significado correspondiente en


la siguiente tabla.

SÍMBOLO SIGNIFICADO

 Evento seguro
Ac Evento contrario. Evento que ocurre cuando no ocurre A o viceversa

AB Unión de eventos A y B. Evento que ocurre cuando al menos uno de


los posibles resultados de A y B.

AB Conjunción de eventos A y B. Evento que ocurren simultáneamente


A-B=ACB los posibles resultados de A y B (A y CB).

AB A implica B. Si ocurre A, necesariamente ocurre B

AB= Eventos mutuamente excluyentes e incompatibles


GENERALIZACIONES
𝒏
B es el evento que ocurre sí y sólo si al menos uno de los eventos Ai
⋃ 𝑨𝒊 = 𝑩
𝒊=𝟏 ocurren.
𝒏

⋂ 𝑨𝒊 = 𝑪 C es el evento que ocurre sí y sólo si todos los eventos Ai ocurren.


𝒊=𝟏

7
⋃ 𝑨𝒏 = 𝑫 D es el evento que ocurre sí y sólo si al menos uno de los eventos An.
𝒏∈𝑵

⋂ 𝑨𝒏 = 𝑬 E es el evento que ocurre sí y sólo si todos los eventos A n ocurren.


𝒏∈𝑵

⋂ 𝑨𝒊 = ∅ Los eventos A1, A2, ..., An son mutuamente excluyentes.


𝒏∈𝑵

⋂ 𝑨𝒏 = ∅ La sucesión de eventos A1, A2, ..., An son mutuamente excluyentes.


𝒏∈𝑵

Observación.- La tabla nos pone de manifiesto que la unión, intersección tanto finita
como infinita numerable de eventos es todavía un evento. Al igual que el
complemento de un evento o el mismo espacio muestral es un evento (todo conjunto
es subconjunto de sí mismo).

Definición.- Sea  un espacio muestral correspondiente a un experimento que se


estudia y F la familia de eventos de , introducimos una ”medida generalizada” que
atribuya a cada evento un número que llamaremos probabilidad y satisface los
siguientes axiomas:

A1.- A cada evento de F se asigna un número real no negativo, o sea:

∀𝑛 ∈ 𝑁; 𝐴𝑛 ∈ 𝐹  𝑃(𝐴𝑛 ) ≥ 0.

A2.- P() =1. La probabilidad del evento seguro es 1

𝐹
𝐴3 . − ∀𝑛 ∈ 𝑁; 𝐴𝑛 ∈ ∩ 𝐴𝑗 = ∅, 𝑖 ≠ 𝑗  P (⋃ 𝐴𝑛 ) = ∑ 𝑃(𝐴𝑛 )
𝐴𝑖
𝑛∈𝑁 𝑛∈𝑁

Nota.

AnF o Ai F o AjF indica que An ó Ai ó Aj son eventos

Comentario de la definición:

A1 establece la unicidad de la probabilidad de un evento,

A2 asigna al evento seguro el máximo valor posible y

A3 es el principio de la probabilidad total respecto a eventos mutuamente


excluyentes.

Definición.- Llamamos espacio de probabilidades a la terna (, F, p).

8
Las siguientes propiedades nos dan como consecuencia inmediata de la definición
anterior:

PROPIEDADES FUNDAMENTALES DE LAS PROBABILIDADES

P(Ø)= 0 (Ø = c, es el evento imposible)

Aditividad finita:

Si n = 2 y sean A y B eventos mutuamente excluyentes, entonces .

P(AB) = P(A) + P(B).

La unión de dos eventos representados por A y B se denota AB

P(Ac ) = 1 - P(A). Probabilidad del evento contrario de A

El complemento de un evento, representado por no A, se denota A c

El complemento de cualquier suceso es el conjunto de resultados que no están


contenidos en ese evento o suceso.

Teorema de la probabilidad total

Si A y B son eventos cualesquiera, entonces

P(A B) = P(A) + P(B) - P(A B)

Propiedad de monotonía de la probabilidad

9
Si A y B son eventos cualesquiera tales que AB, entonces P(A) ≤ P(B)

5.1. si B = , entonces P(A) <1; A  F

Por tanto, para cualquier evento AF por A1 y 5.1 se tiene:

0< P(A) < 1

Entonces, siempre la probabilidad de un evento A es un número definido entre 0 y


1 incluidos ò diremos también en términos de porcentaje que

0% < P(A) < 100%

Independencia de eventos. Dos eventos A y B son independientes si:

P(A  B) = P(A)P(B)

Cuando el resultado de un evento no afecta la probabilidad de ocurrencia de otro


evento, se dice que los sucesos son estadísticamente independientes.

Esta propiedad de independencia de eventos significa que el conocimiento de la


realización del evento B no aporta en nada al conocimiento de la realización del
evento A y viceversa.

Ejemplos:

Los sucesos son mutuamente excluyentes si la ocurrencia de uno de ellos impide


la ocurrencia del otro.

Ejemplos: En cada caso, determinar si los eventos son mutuamente excluyentes:

a) Un vendedor hace una venta:


A = la venta excede 5.000.
B = la venta excede 50.0000”.

b) Un vendedor hace una venta:


A = la venta es de menos de 5.000.
B = la venta es de entre 10.000 y 50.000.
C = la venta es de más de 100.000.

Respuesta: En el ejemplo b) los eventos son mutuamente excluyentes.

Ejemplo:
Consideremos el lanzamiento de un dado y los eventos siguientes:

10
A: “Se obtiene un número par”
B: “Se obtiene un número impar”

El espacio muestral es fi = {1, 2, 3, 4, 5, 6} y los eventos son A = {2, 4, 6}. B = {1, 3,


5}

¿Son A y B eventos independientes?

En efecto AB = Ø, implica que los dos eventos son mutuamente excluyentes, pero
A y B no son independientes, puesto que si conocemos que el evento A (B) se
realizó no podemos esperar que el evento B(A) también se realice o sea,

P(A)P(B) = (½)*(½) = 1/4, en tanto que, P(AB) = P(Ø) = 0

Luego, P(AB)  P(A)P(B), puesto que 0  ¼ (Meyer, et all., 1986)

PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES

Definición. Se llama probabilidad de A condicionada a B, o probabilidad de A


sabiendo que pasa B, se denota por P(A│B) y se lee “la probabilidad del evento A
dado el evento B” (Meyer, et all., 1986).

𝑃(𝐴 𝐵)
𝑃(𝐴│𝐵) = 𝑃(𝐵)

En ocasiones, el conjunto de todos los "resultados posibles" puede constituir un


subconjunto del espacio muestral original.
Espacio muestral original

B=

La probabilidad condicional de que ocurra el evento A Dado que el evento B


ocurrió está dada por:
𝑃(𝐴 𝐵)
𝑃(𝐴│𝐵) = , 𝑑𝑜𝑛𝑑𝑒 𝑃(𝐵) > 0
𝑃(𝐵)

Nota: de esta relación se deduce que podemos escribir la intersección de otra


manera usando la regla de la multiplicación.

𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵|𝐴) = 𝑃(𝐵)(𝐴│𝐵)

11
Ejemplo: Si tomamos como ejemplo repetir en 1000 ocasiones el experimento
de elegir a una mujer de una población muy grande. El resultado está en la tabla.

MENOPAUSIA
NO SI Total
CLASIFICA
NORMAL 189 280 469
CIÓN
OMS OSTEOPENIA 108 359 467
OSTEOPOROSIS 6 58 64
Total 303 697 1000

¿Cuál es la probabilidad de que una mujer tenga osteoporosis?

• P (Osteoporosis)=64/1000=0,064=6,4%
¿Cuál es la probabilidad de que una mujer no tenga osteoporosis?
• P (No Osteoporosis)=1- P (Osteoporosis)=1-64/1000=0,936=93,6%
En ambas respuestas se aplica el concepto clásico de probabilidad o llamado
también frecuentista.

¿Probabilidad de tener osteopenia u osteoporosis?

• P (Osteopenia  Osteoporosis) = P (Osteopenia) + P (Osteoporosis) -


P(Osteopenia  Osteoporosis)=467/1000+64/1000=0,531 = 53,1%
• Son eventos ó sucesos disjuntos
• Osteopenia  Osteoporosis = Ø
¿Probabilidad de tener osteoporosis o menopausia?
P ( Osteoporosis  Menopausia)= P( Osteoporosis)+ P( Menopausia)
-P (Osteoporosis  Menopausia)=64/1000+697/1000-58/1000=0,703 = 70,3%
• No son sucesos disjuntos

¿Probabilidad de una mujer normal?


P(Normal) = 469/1000 = 0,469 = 46,9%
P(Normal) = 1 - P(Normal’) = 1-P(Osteopenia  Osteoporosis) = 1- 0,531
= 0,469 = 46,9%

Si es menopáusica… ¿probabilidad de osteoporosis?

12
• P(Osteoporosis │Menopausia) = 58/697=0,098 = 9.8%

¿Probabilidad de menopausia y osteoporosis?


• P (Menopausia  Osteoporosis) = 58/1000=0,058 = 5.8%

Si tiene osteoporosis… ¿probabilidad de menopausia?


• P (Menopausia │Osteoporosis)=58/64=0,906 = 90,6%

¿Probabilidad de menopausia y no osteoporosis?


• P (Menopausia  No Osteoporosis) = 639/1000=0,639 = 63,9%

Si tiene no tiene osteoporosis… ¿probabilidad de no menopausia?


• P (No Menopausia │No Osteoporosis)=297/936=0,317 = 31,7%

Si generalizamos la propiedad de la probabilidad total para cuatro eventos


exhaustivos y mutuamente excluyentes como lo indica la figura.

Sistema exhaustivo y excluyente de eventos ó sucesos

Son una colección de eventos ó sucesos A1, A2, A3, A4 ...

Tales que la unión de todos ellos forman el espacio


muestral, y sus intersecciones son disjuntas.

¿Cómo formar intervalos en tablas de frecuencias?

13
Si conocemos la
probabilidad de B
en cada uno de los
componentes de un
sistema exhaustivo
y excluyente de
sucesos, entonces
...podemos calcular
la probabilidad de
B.

TEOREMA DE BAYES

Si conocemos la probabilidad de B en cada uno de los componentes de un sistema


exhaustivo y excluyente de eventos, entonces, si ocurre B, podemos calcular la
probabilidad (a posteriori) de ocurrencia de cada Ai.

Ejemplo: En un grupo 70% de los alumnos son mujeres. De ellas el 10% son
fumadoras. De los hombres, son fumadores el 20%. ¿Qué porcentaje de
fumadores/as hay en el curso?

14
Propiedad de Probabilidad Total

Hombres y mujeres forman un sistema Exhaustivo, excluyente de eventos ó


sucesos

- P (F) = P(MF) + P (HF)

= P(M) P(F│M) + P (H) P(F│H)

• Los caminos a través de nodos representan intersecciones


• Las bifurcaciones representan uniones disjuntas.

¿Qué porcentaje de fumadores hay?

– P (F) = 0,7 x 0,1 + 0,3 x 0,2 = 0,13

Se elige a un estudiante al azar y es… fumador ¿Cuál es la probabilidad de que sea


un hombre?

𝑃(𝐻 ∩ 𝐹) 𝑃(𝐻). 𝑃(𝐹│𝐻)


𝑃(𝐻|𝐹) = =
𝑃(𝐹) 𝑃(𝐹)
0,3𝑥0,2
= = 0,46
0,13

Resumen Personales:

“Según Bernouilli, La probabilidad de un suceso A de un experimento aleatorio se


puede definir como el número al que se aproximan las frecuencias relativas de dicho
suceso cuando el experimento se repite un número indefinido de veces. Pero más
allá de su definición matemática, se puede decir que esta se refiere a la posibilidad
de que suceda o no un evento o suceso, es decir estable una relación entre el número
de sucesos favorables y el número total de sucesos posibles en pro de medir la
certeza de que estos sucesos ocurran o no, dependiendo de las condiciones dadas”
María Nava

15
“El hombre siempre ha tenido la necesidad de saber qué posibilidades hay que un
evento ocurra o no, es por ello que la probabilidad permite estudiar de manera
porcentual la posibilidad que dicho eventos ocurran” Marcos Navarro

“según la fuente https://es.wikipedia.org es una medida del grado de certidumbre


de que dicho suceso pueda ocurrir. Se suele expresar como un número entre 0 y 1,
donde un suceso imposible tiene probabilidad cero y un suceso seguro tiene
probabilidad uno. Es decir que la probabilidad estudia tanto los procesos aleatorios
como los estocásticos.” Yanelimar Noquera

1.4 Distribución de Probabilidad.


DISTRIBUCIONES DE PROBABILIDAD Y VARIABLES ALETORIAS

DEFINICIÓN Y CLASIFICACIÓN DE LAS VARIABLES ALEATORIAS

Una función

X:  → R

Tal que para todo subconjunto B de R. X¯¹(B) es un evento, se denomina variable


aleatoria (v. a.). O sea una v. a. es una función de valores reales definida en un
espacio muestral .

Se dice que X es “aleatoria” porque involucra la probabilidad. Las v.a. se clasifican


en dos grupos: discretas y continuas.

Discretas: Una v. a. X se dice discreta si el recorrido X() es un conjunto


numerable de valores (finito o infinito).

Continuas: Una v. a. X sobre un espacio (, F, P) se dice continua si el recorrido


X() consiste en uno o más intervalos de la recta de los reales.

1.4.1. Distribución de probabilidad de variables aleatorias discretas.

Se han utilizado mayúsculas, como X, para denotar variables aleatorias; se utilizará


minúsculas como x, para denotar valores particulares que puede tomar una v. a.

La expresión (X=x) se puede leer como “el conjunto de todos los puntos de

 a los que la v. a. X les asignó el valor x”.

16
Ahora tiene sentido hablar de la probabilidad de que X tome el valor x denotado por
P(X=x) o p(x). Esta probabilidad se define como la suma de probabilidades de
ciertos puntos muestrales. También se puede indicar p(x) = P(X=x).

Definición.- Sea X una v. a. discreta, se llama a p(x) = P(X=x) función de


probabilidad de X(o distribución de probabilidad), si satisface las siguientes
propiedades:

1. 𝑝(𝑥) ≥ 0∀ 𝑥 ∈ 𝑋

2. ∑ 𝑝(𝑥) = 1
𝑥

Se observa que al hacer referencia a la distribución de probabilidad de X no solo


implica la existencia de la función de probabilidad sino también la existencia de la
función de distribución acumulativa.

Definición.- La función de distribución acumulativa de X discreta es la probabilidad


de que X sea menor o igual a un valor específico de X, x0 y está dada por:

𝐹(𝑥0 ) = 𝑃(𝑋 ≤ 𝑥0 ) = ∑𝑥𝑖 ≤𝑥0 𝑝(𝑥𝑖 )

(Meyer, et all., 1986).

En general, la función de distribución acumulativa F(x) de una v.a. discreta es una


función no decreciente de los valores de X, de tal manera que:

1. 0 ≤ F(x) ≤ 1 x  X.

2. F(xi ) ≤ F(xj ) si xi < xj .

3. P(X>x) = 1 - F(x).

Además, puede establecerse que para una v.a. de valor entero se tiene:

P (X=x) = F(x) - F(x-1)

P (xi ≤ X ≤ xj) = F(xj ) - F(xi -1)

La función de distribución acumulativa de una v. a. discreta es una función


escalonada, como se indica en la siguiente gráfica.

17
Nota. En el caso discreto, se asignan probabilidades positivas a todos los valores
puntuales de la v.a. pero la suma de todos ellos es 1, aún a pesar de que el conjunto
de valores sea infinito numerable.

Para el caso de una v.a. continua, lo anterior, no es posible. Se verá que la


probabilidad de que una v.a. continua X tome un valor específico x es cero.

1.4.2. Distribución de probabilidad de variables aleatorias continuas

La distribución de probabilidad de una v.a. continua X está caracterizada por una


función f(x) que recibe el nombre de función de densidad de probabilidad.
La función de densidad de probabilidad no representa la probabilidad de que X = x.
más bien, ésta proporciona un medio para determinar la probabilidad de un intervalo
[a, b] por ejemplo.
Si existe una función f(x) tal que satisface
+∞
1) ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
𝑏
2) 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫𝑎 𝑓(𝑥)𝑑𝑥

para cualesquiera a,b z R y f(x) es la función de densidad de probabilidad de v.a.


continua X.
La función de distribución acumulativa de una v.a. continua X o distribución
acumulada de X es la probabilidad de que X tome un valor menor o igual a algún xi
específica. Esto es:
𝑥
𝐹(𝑥𝑖 ) = 𝑃(𝑋 ≤ 𝑥𝑖 ) = ∫ 𝑓(𝑡)𝑑𝑡
−∞

Geométricamente F(xi) es el área acotada por la función de densidad f(x) y la recta


X = xi. Dado que P(X=xi) = 0 entonces P(X≤ xi) = P(X< xi) = F(xi). En general F(x) =
P(X≤ x).

18
Opiniones Personales:

“Dentro de la teoría de probabilidad, una distribución de probabilidad está definida


como el conjunto de todos los sucesos, donde cada uno de los sucesos es el rango
de valores de la variable aleatoria, cuyo valor es el resultado de un evento aleatorio.
Siendo una herramienta fundamental que permite diseñar un escenario de
acontecimientos futuros, donde la probabilidad de un resultado especifico esta entre
cero y uno y la suma de las probabilidades de todos los resultados mutuamente
excluyentes es 1.” Marcos Navarro

“Toda Distribución de probabilidad se genera por una variable, debido a que esta
puede tomar diferentes valores, es decir una variable aleatoria x ya que el valor que
se toma es completamente al azar, lo cual permite proporcionarnos todos los
resultados de los valores que pudiesen presentarse en un suceso, juntos con la
probabilidad de ocurrencias asociada a cada uno de estos valores” María Nava

“Según la fuente https://www.esan.edu.pe es aquella que permite establecer toda la


gama de resultados probables de ocurrir en un experimento determinado. Es decir,
describe la probabilidad de que un evento se realice en el futuro. Además se
distribuye dependiendo de la frecuencia de ocurrencia de los sucesos en estudio”
Yanelimar Noquera

1.5 Esperanza Matemática.


La esperanza matemática, también llamada valor esperado, es igual al
sumatorio de las probabilidades de que exista un suceso aleatorio, multiplicado por
el valor del suceso aleatorio. Dicho de otra forma, es el valor medio de un conjunto
de datos. Esto, teniendo en cuenta que el término esperanza matemática está
acuñado por la teoría de la probabilidad (López citado en Pérez y Gardey, 2010).

Mientras que en matemáticas, se denomina media matemática al valor


promedio de un suceso que ha ocurrido. En distribuciones discretas con la misma

19
probabilidad en cada suceso, la media aritmética es igual que la esperanza
matemática.

Un ejemplo sencillo para entenderlo.

Imaginemos una moneda. Dos caras, cara y cruz. ¿Cuál sería la esperanza
matemática (valor esperado) de que salga cara? La esperanza matemática se
calcula como la probabilidad de que, tirando la moneda un número muy grande de
veces, salga cara.

Dado que la moneda solo puede caer en una de esas dos posiciones y ambas
tienen la misma probabilidad de salir, diremos que la esperanza matemática de que
salga cara es una de cada dos, o lo que es lo mismo, el 50% de las veces.

Hacemos una prueba y vamos a tirar una moneda 10 veces. Supongamos que
la moneda es perfecta.

Tiradas y resultado:
1. Cara.
2. Cruz.
3. Cruz.
4. Cara.
5. Cruz.
6. Cara.
7. Cara.
8. Cara.
9. Cruz.
10. Cruz.

¿Cuántas veces ha salido cara (contamos las C)? 5 veces ¿Cuantas veces ha
salido cruz (contamos las X)? 5 veces. La probabilidad de que salga cara será de
5/10=0,5 o, en porcentaje, del 50%.

Una vez ha ocurrido ese suceso podemos calcular la media matemática del
número de veces que ha ocurrido cada suceso. El lado cara ha salido una de cada
dos veces, es decir, un 50% de las veces. La media coincide con la esperanza
matemática.

En Meyer, et all. (1986), es expuesta de la siguiente forma: Una variable


aleatoria X es discreta, si existe una sucesión (xn) n¸1 de números reales tales que

20
𝑛∞

∑ 𝑃(𝑋 = 𝑥𝑛 ) = 1
𝑛=1

Comenzaremos por definir la noción de valor esperado para variables aleatorias


discretas.

Definición 6.1 Sea X una variable aleatoria discreta con la notación anterior, y
llamemos 𝑃𝑛 = 𝑃(𝑋 = 𝑥𝑛 ), 𝑛 = 1,2,3, … Diremos que existe el valor esperado, la
media o esperanza matemática de X si la serie

∑ |x n | p n
n=1

es convergente. En este caso, el valor se denota E(X) y se define mediante la serie:



E(X)= ∑ 𝑥𝑛 pn
n=1
Resume Personales:

“En resumidas cuentas se pudiese decir que la esperanza matemática se utiliza en


todas aquellas disciplinas en las que la presencia de sucesos probabilísticos es
inherente a las mismas. Disciplinas tales como la estadística teórica, la física
cuántica o los mercados financieros, donde un ejemplo claro y fácil de entender es
el de la bolsa de valores. Siendo el número que expresa el valor medio del fenómeno
que representa una variable aleatoria” María Nava

“La esperanza matemática busca ser el sumatorio de las probabilidades de que


exista un suceso aleatorio, multiplicado a su vez por el valor del suceso aleatorio, lo
que le permite ser el valor promedio de sucesos que ha ocurrido y a su vez ser
utilizado en distintas disciplinas y ramas de las estadísticas y las probabilidades”
Marcos Navarro

“Según la fuente https://www.superprof.es la esperanza matemática o valor


esperado de una variable aleatoria discreta es la suma del producto de la
probabilidad de cada suceso por el valor de dicho suceso. En otras palabras no es
más que el valor esperado de una variable aleatoria, también se le llama como valor
medio que se obtiene de un fenómeno en estudio de sus sucesos representando el
promedio por medio de la suma o como también se le dice media aritmética.”
Yanelimar Noquera

21
1.6 Varianza.
La varianza la denotamos mediante Var [X] o bien :

Propiedades de la varianza.
Propiedad 1. La varianza de toda variable aleatoria X es positiva o cero, esto
es Var(X) ≤ 0

Propiedad 2. Si X es una variable aleatoria y a, b son dos constantes reales


entonces

Una medida que compara la dispersión relativa de dos o más distribuciones de


probabilidad es el coeficiente de variación que está definido por:

cv= /µ (desviación estándar/ esperanza matemática)

Si estuviéramos manejando datos sobre una muestra entonces CV = S/X

Donde S es la desviación estándar muestral y 𝑋̅ es la media muestral.

Resumen Personales:
“La palabra Varianza es impulsada por el matemático ingles Ronald Fisher en los
años 1890-1962 el cual permite identificar a la media de las desviaciones
cuadráticas de una variable de carácter aleatorio, considerando el valor medio de
esta. Donde los expertos señalan la colección de modelos estadísticos y sus
procedimientos asociados en la cual la varianza aparece particionada en distintos
componentes a el análisis de la varianza, el cual nos lleva a su vez a un significado
más concreto del mismo donde se pudiese decir entonces, que una varianza es,
una medida de dispersión que representa la variabilidad de una serie de datos
respecto a su media.” María Nava

“Es una medida de dispersión que representa la variabilidad de una serie de datos
respecto a su media. En otros términos, es una medida de dispersión definida como

22
la esperanza del cuadrado de la desviación de la variable aleatoria respecto a su
media.” Yanelimar Noquera

DISTRIBUCIONES
2.1 Bidimensionales
Uno de los objetivos del análisis de distribuciones bidimensionales es estudiar si
existe asociación o relación entre las variables X e Y. donde a partir de una
distribución bidimensional se obtendrán distribuciones unidimensionales de dos
tipos: Marginales de X e Y, y Condicionadas. Es decir esta distribución
bidimensional permite obtener 2 distribuciones unidimensionales marginales, tal es
el caso de Marginal de X que expresa como se distribuye X en la población total, al
margen de la otra variable y Marginal de Y que expresa como se distribuye Y en la
población total, al margen de la otra variable. Por otro lado esta distribución
bidimensional también permite obtener distribuciones unidimensionales de
condicionadas de X que expresa como se distribuye x en la subpoblación que
cumple la condición de presentar el valor Y=yj y de Y que expresa como se
distribuye Y en la subpoblación que cumple la condición de presentar el valor X=xi.

Resumen Personales:
“Dada una explicación con anterioridad de la distribución bidimensional, se puede
decir entonces que es aquella en la que cada individuo le corresponden los valores
de dos variables (X y Y) estudiando dichas variables de acuerdo a cada elemento
de la población” María Nava
“Esta distribución bidimensional nos permite estudiar la población y a su vez a cada
uno de sus elementos, mediante variables que a su vez tenga una asociación o
relación” Marcos Navarro

2.2 Binomial
Sea un experimento aleatorio en el que sólo puedan darse dos posibilidades: que
ocurra un determinado suceso A, que llamaremos éxito, o que no ocurra dicho
suceso, o sea que ocurra su complementario, que llamaremos fracaso, B.
Se conoce la probabilidad de ocurrencia del suceso A, y por lo tanto la de su
complementario:
P( A) = p ; P(B)=1−p=q

23
Se repite el experimento n veces en las mismas condiciones (independencia). Se
define la variable aleatoria Binomial: X: “nº de veces que ocurre el suceso A (nº
éxitos) en n realizaciones independientes del experimento” Por lo tanto, X: 0, 1, 2 ,
3, ……n
X →B(n; p)
Función de Probabilidad

Puede comprobarse que se verifica:

A partir de eso se pudiese menciona un ejemplo donde puede ser aplicada una
distribución binomial, es el Número de familias con un solo hijo en una población de
140 familias.
Resumen Personales:
“A partir del ejemplo del número de aprobados si se presentan 100 alumnos a un
examen de matemáticas, donde puede ser aplicado la distribución binomial,
podemos decir que en términos generales no solo es uno de los modelos de
distribución teórica de probabilidad, sino que a su vez es utilizada específicamente
cuando la variable aleatoria discreta es el número de éxitos en una muestra
compuesta por n observaciones, es decir se aplica cuando se realizan un numero n
de veces el experimento de Bernouilli, siendo cada ensayo independiente del
anterior” María Nava
“Una vez definido el concepto general de una distribución binomial es importante
señalar que esta, es una distribución de probabilidades que surgen al cumplirse el
número de ensayos o repeticiones del experimento quien debe ser constante y

24
donde en cada ensayo, los dos resultados posibles son mutuamente excluyentes”
Marcos Navarro

2.3 Poisson
La distribución de Poisson describe la probabilidad como un acontecimiento fortuito
ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad
de un acontecimiento ocurre es muy pequeña, pero el número de intentos es muy
grande, entonces el evento actual ocurre algunas veces.
Teniendo características tales como:
 El número medio (promedio) de eventos en el espacio temporal o región
específica de interés, por lo general esta media se representa por la lambda
griega (λ)
 El número de resultados que ocurren en un intervalo de tiempo o región
específicos es independiente del número que ocurre en cualquier otro
intervalo de tiempo o región
 La probabilidad de que un resultado muy pequeño ocurra en un intervalo de
tiempo muy corto o en una región pequeña es proporcional a la longitud del
intervalo de tiempo o al tamaño de la región
 La probabilidad de que más de un resultado ocurra en un intervalo de tiempo
tan
 corto o en esa región tan pequeña es inapreciable, que se puede asignar el
valor de 0.

Se define la variable aleatoria X como el número de sucesos que ocurren en un


intervalo continuo de tiempo, longitud o espacio, de un tamaño determinado. Sea λ
el número medio de sucesos que ocurren en estos intervalos.
La variable aleatoria así definida sigue una distribución de Poisson de parámetro λ


A partir de eso se pudiese menciona un ejemplo donde puede ser aplicada una
distribución de Poisson, al Número de veces que una planta de energía nuclear
emite gases radiactivos en un periodo de 5 meses.
Resumen Personales:
“Siendo una de las más importantes de variables directas, sus principales
aplicaciones hacen referencia a la modelización de situaciones en las que nos
interesa determinar el número de hechos de cierto tipo que pueden producir en un
intervalo de tiempo o espacio, bajo presupuestos de aleatoriedad y ciertas
circunstancias restrictivas. Es decir que permite que con solo conocer los eventos y

25
su frecuencia media de ocurrencia, podremos saber su probabilidad, cual se emplea
para describir procesos tales como la demanda de servicios en un hospital por parte
de los pacientes, el número de accidentes en un cruce, la distribución de las
llamadas telefónicas que llegan a un conmutador entre otros” María Nava

2.4 Normal
Diremos que una distribución de probabilidad sigue una distribución normal de
media x y desviación típica σ, y lo representaremos por N(x; σ) cuando la
representación gráfica de su función de densidad es una curva positiva continua,
simétrica respecto a la media, de máximo en la media, y que tiene 2 puntos de
inflexión, situados a ambos lados de la media (x − σ y x + σ respectivamente) y a
distancia de σ ella, es decir de la forma:

Dependiendo de los valores que tomen x y σ, la gráfica de esta función puede ser
más o menos alargada, achatada, etc..., pero en cualquier caso siempre tiene las
mismas condiciones de simetría, continuidad, etc. reseñadas anteriormente.
El concepto de función de densidad introducido anteriormente no se estudiara con
profundidad. Baste decir que la función de densidad determina la forma de cada
distribución de probabilidad. En el caso de la distribución normal de parámetros x y
σ, dicha función viene dada por:

Resumen personales:

“Esta distribución normal a su vez es llamada distribución gaussiana, el cual es un


modelo que aproxima el valor de una variable aleatoria a una situación ideal,
dependiendo de la media y de la desviación típica. Donde dicha distribución sirve
para acercarse a diversas distribuciones de probabilidad discreta, como la
distribución binomial y distribución de Poisson. Por otro lado también es importante
señalar que dentro de esta distribución uno puede calcular la probabilidad de que
varios valores ocurran dentro de ciertos intervalos” María Nava

26
“La distribución normal es un modelo teórico capaz de aproximar satisfactoriamente
el valor de una variable aleatoria a una situación ideal, es decir adapta un variable
aleatoria a una función que depende de la media y la desviación típica.” Marcos
Navarro

2.5 Gamma

Se le conoce, también, como una generalización de la distribución exponencial. Es


una distribución de probabilidad continua adecuada para modelizar el
comportamiento de variables aleatorias con asimetría positiva o los experimentos
en donde está involucrado el tiempo.

Una variable aleatoria X tiene una distribución gamma si su función de densidad


está dada por:

Relación con otras distribuciones:


- Si se tiene un parámetro 𝛼 de valores elevados y pequeña, entonces la función
gamma converge con la distribución normal. De media 𝜇 = 𝛼𝛽, y varianza 𝛼 2 = 𝛼𝛽 2
- Cuando la proporción entre parámetros es entonces la variable
aleatoria se distribuye como una Chi-cuadrado con grados de libertad.
- Si , entonces se tiene la distribución exponencial de parámetro .

De esta forma, la distribución gamma es una distribución flexible para modelizar las
formas de la asimetría positiva, de las más concentradas y puntiagudas, a las más
dispersas y achatadas.

2.6 Beta
La distribución beta es posible para una variable aleatoria continua que toma valores
en el intervalo [0,1], lo que la hace muy apropiada para modelar proporciones. En la
inferencia bayesiana, por ejemplo, es muy utilizada como distribución a priori
cuando las observaciones tienen una distribución binomial. Donde uno de los
principales recursos de esta distribución es el ajuste a una gran variedad de
distribuciones empíricas, pues adopta formas muy diversas dependiendo de cuáles

27
sean los valores de los parámetros de forma α y β, mediante los que viene definida
la distribución.
Un caso particular de la distribución beta es la distribución uniforme en (0,1), que
corresponde a una distribución beta de parámetros =1 y =1, denotada Beta(1,1).
Para la distribución uniforme sobre (0,1), la media y la varianza son
μ=11+1=12yσ2=(1)(1)(1+1)2(1+1+1)=112, Respectivamente.

La distribución beta estándar se utiliza por lo común para modelar la variación en la


proporción o porcentaje de una cantidad que se presenta en muestras diferentes,
tales como la proporción de horas que duerme un individuo o la proporción de cierto
elemento de un compuesto químico.

28
Referencias Bibliográficas

Congacha Aushay, J. W. (2016). Estadística aplicada a la educación. Ecuador:


EDG-FIE.
Goitía, A. (2020). Estadística y Probabilidad. Guía de Estudio 2020. UPEL-IMPM.
Meyer, P. et all. (1986). Probabilidad y aplicaciones estadísticas. Delaware, EUA:
Addison-Wesley Iberoamericana.
Pérez P. J, y Gardey, A. (2010). Esperanza matemática y varianza. Documento en
línea. Disponible: https://definicion.de/varianza/

29

También podría gustarte