Está en la página 1de 23

ECONOMÍA EN LINEA

ESTADÍSTICA
3 créditos

Profesor Autor:
Ing. Víctor Márquez, Msc, PhD

Titulaciones Semestre

• Economía
Tercero

Tutorías: El profesor asignado se publicará en el entorno virtual de aprendizaje


online.utm.edu.ec), y sus horarios de conferencias se indicarán en la sección CAFETERÍA
VIRTUAL.

1
Índice

Tabla de contenido

Resultado de aprendizaje de la asignatura ................................................................................................... 3


...................................................................................................................................................................... 3
Unidad 2 Teoría de Probabilidades y Modelos Probabilísticos ..................................................................... 3
Tema 1. Conceptos básicos de probabilidades ............................................................................................. 3
Conceptos Básicos .................................................................................................................................... 4
Teoría de conjuntos .................................................................................................................................. 4
Experimentos Aleatorios ........................................................................................................................... 5
Probabilidades .......................................................................................................................................... 8
Probabilidad Condicional ........................................................................................................................ 10
Probabilidad Condicional ........................................................................................................................ 11
Tema 2: Variable Aleatoria ......................................................................................................................... 13
Tema 3: Modelos Probabilísticos Discretos ................................................................................................ 14
Modelo Binomial..................................................................................................................................... 14
Definición (Experimento Binomial) ......................................................................................................... 15
Definición (Distribución Binomial) .......................................................................................................... 16
Modelo Poisson ...................................................................................................................................... 16
Tema 4: Modelos Probabilístico Normal ..................................................................................................... 17
Distribución Normal ................................................................................................................................ 18
Propiedades de la Distribución Normal .................................................................................................. 19

2
Resultado de aprendizaje de la asignatura

Dotar al estudiante de las capacidades y destrezas necesarias para aplicar técnicas de


análisis estadístico a la resolución de problemas de diversa índole en los que es necesario
realizar gran variedad de tareas específicas que acompañan a cualquier proceso de
análisis de datos, con el objeto de elaborar conclusiones que faciliten la toma de
decisiones en situaciones complejas que se caracterizan por estar sometidas a distintos
grados de incertidumbre.

ESTADÍSTICA

Unidad 2 Teoría de Probabilidades y Modelos Probabilísticos

Resultado de aprendizaje de la unidad: Explicar las definiciones y propiedades de las


probabilidades, con la finalidad de calcular o cuantificar el grado de incertidumbre de un
fenómeno o evento de interés. Además, Aplicar los distintos modelos probabilísticos en
distintas situaciones afines a economía, con el fin de garantizar un adecuado uso de las
probabilidades en la toma de decisiones.

Tema 1. Conceptos básicos de probabilidades

Cuando los resultados de un fenómeno se conocen, existe certeza completa, la única


razón de que se cometa un error en la toma de decisiones sobre los mismos, es que exista
un error en el análisis. Sin embargo, en la realidad por lo general se presentan situaciones
que no son totalmente predecibles y aun cuando se haga un análisis correcto, hay factores
que no se pueden controlar y que influyen de forma tal que los resultados no pueden
determinarse con certeza absoluta, es decir, existe incertidumbre. Bajo estas condiciones,
se habla de posibilidades de ocurrencia. Una medida numérica de estas posibilidades es
la probabilidad, representada por un número que va desde cero (ninguna posibilidad de

3
ocurrencia) a uno (certeza completa de ocurrencia). Por tanto, las probabilidades se
utilizan para cuantificar que tan probable es un determinado evento.
Las probabilidades son muy útiles, ya que pueden servir para desarrollar estrategias o
tomar decisiones. Por ejemplo, un inversionista desea invertir su dinero si existen altas
posibilidades de ganar; un turista decidirá no viajar si existe un riesgo alto de mal tiempo.
Situaciones como en las siguientes, resulta necesario trabajar con el concepto de
probabilidades:

1. Se elige un servidor y se registra el número de veces que falla.


2. En una prueba de control de calidad se examina un servicio haciéndolo funcionar
de manera ininterrumpida hasta que falla, y entonces se registra el tiempo
transcurrido desde el inicio de la prueba.

No se puede afirmar con certeza el numero de fallas ni cual será exactamente el tiempo
de duración del servicio.

A continuación, se dan a conocer algunos conceptos básicos, necesarios para la


comprensión y manejo de la definición de probabilidades. Esta sección comienza con un
tratamiento rápido sobre la teoría de conjuntos, luego se define experimento aleatorio para
posteriormente, tratar las distintas definiciones de probabilidad.

Conceptos Básicos

Teoría de conjuntos

La teoría de conjuntos es de mucha utilidad en el desarrollo de las probabilidades, y es


por ello que se debe revisar los conocimientos sobre las operaciones de conjuntos como
lo son: la unión, la intersección, el complemento de un conjunto, etc. Para resolver algunos
problemas de probabilidades es necesario conocer el número de elementos que posee
cierto conjunto y el conjunto universal, denominado, en probabilidades, espacio muestral.
Cuando el conjunto es pequeño no hay problema, pero cuando contiene muchos
elementos, esta tarea puede resultar algo complicada. Es necesario, por tanto, acudir a
técnicas de conteo especiales que permitan calcular el número de elementos de cualquier
conjunto.

4
Definición (Conjunto) Un conjunto es una colección de objetos, denominados miembros
o elementos. En general, el conjunto se denota por una letra mayúscula A, B, C, mientras
que sus elementos por una letra minúscula a, b, c.
Ejemplo: Son ejemplos de conjuntos:
1. El conjunto de los números enteros.
2. El conjunto de las vocales en el alfabeto.
3. El conjunto de las edades de estudiantes en un colegio.
4. El conjunto de los posibles resultados al lanzar un dado.
5. El conjunto de estaturas de todos los turistas de una región.

Dependiendo de la cantidad de elementos que contenga un conjunto, los mismos se


pueden clasificar en conjuntos finitos e infinitos. Si el conjunto tiene un número conocido
de elementos, se dice que es finito, en caso contrario, es decir, no se puede determinar
su longitud, se dice que es infinito. En el ejemplo los numerales 2 y 4 corresponden a
conjuntos finitos, mientras que los restantes son conjuntos infinitos. Un conjunto puede
expresarse especificando todos sus elementos o, describiéndolos mediante las
propiedades que deben tener sus elementos. En el primer caso, se dice que el conjunto
se ha expresado por extensión, y en el segundo por comprensión. Se definen ahora, los
distintos tipos de conjuntos y las operaciones que se pueden dar entre los mismos.

Experimentos Aleatorios

Es por todos conocida la importancia de los experimentos en la ciencia. Un principio


fundamental es que si efectuamos tales experimentos repetidamente bajo condiciones
aproximadamente idénticas se obtienen los mismos resultados. Sin embargo, hay
experimentos en los cuales los resultados no son esencialmente los mismos aun cuando
se repita bajo condiciones aproximadamente idénticas, es decir, experimentos cuyo
resultado no se puede prever antes de ser ejecutado. Tales experimentos se denominan
experimentos aleatorios. La teoría de Probabilidades trata estos experimentos.
Definición (Experimento Aleatorio) Es cualquier operación cuyo resultado no puede ser
predicho con certeza. Un experimento o fenómeno aleatorio es aquél susceptible de dar
varios resultados, no pudiéndose predecir de antemano cuál de ellos va a ocurrir en una
ejecución particular del mismo. Por tanto, un experimento aleatorio tiene las siguientes
propiedades:

5
1. El experimento puede repetirse indefinidamente bajo condiciones similares.
2. Se pueden conocer a priori el conjunto de los posibles resultados del experimento,
pero no se puede predecir un resultado particular.
3. Si el experimento se repite un gran número de veces, la proporción con que cada
resultado aparece tiende a estabilizarse, es decir, tiende a un número.
Definición (Espacio Muestral) Denotado por Ω o S, es el conjunto de todos los posibles
resultados individuales que se pueden dar en un experimento aleatorio. A cada uno de los
resultados elementales en este conjunto se le denomina punto muestral.
Ejemplo: Consideremos las siguientes situaciones
1. Se lanza una moneda al aire y se anota el resultado ocurrido. Si denotamos como
c = {cara} y s = {sello}, entonces Ω = {c, s}
2. Si en el ítem anterior se lanzan dos monedas en vez de una, entonces Ω= {cc,cs,
sc, ss}
3. Se lanzan dos dados sobre una mesa y se anota el resultado ocurrido. Entonces el
espacio muestral está definido por:
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
Ω=
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
{(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)}
4. Nacen dos niños y se registra el sexo de los mismos, entonces Ω = {vv, vh,hv,hh},
donde h = {hembra} y v = {varón}
5. Se registra el sueldo de los empleados de una empresa de turismo, Ω = {x ∈ IR : x
≥ sueldo mínimo}
6. En un curso de Estadística de 50 alumnos se registra el número de estudiantes que
aprobaron la materia, Ω = {x ∈ N : 0 ≤ x ≤ 50}
7. Se registra el número de turistas en una ciudad, Ω = {x ∈N : x ≥ 0}

Según el número de puntos muestrales que lo conforman, el espacio muestral puede ser
de dos tipos:
1. Finito. Si el número de puntos muestrales que contiene es finito.
2. Infinito. Si el número de puntos muestrales es infinito. Si se corresponde con los
números naturales se dice que es infinito numerable. En caso contrario, si se

6
corresponde con algún intervalo en ℜ, es decir, tiene tantos puntos como hay en
algún intervalo en ℜ, se dice que es infinito no numerable.

Ejemplo: Los items 1,2,3,4 y 6 del ejemplo anterior, son ejemplos de espacios muestrales
finitos. Los items 5 y 7 son espacios muestrales infinitos. El item 5 es infinito no numerable
y el 7 es infinito numerable.
Definición (Eventos): Se le denomina evento a una colección particular de elementos del
espacio muestral, Ω. Es decir, un evento es un conjunto de puntos muestrales. Si el
resultado de un experimento es un elemento de un evento, decimos que dicho evento ha
ocurrido. En un espacio muestral se pueden distinguir los siguientes eventos:
1. Eventos Simples: evento conformado por un único resultado elemental o punto
muestral.
2. Eventos Compuestos: evento conformado por más de un resultado elemental o
punto muestral.
3. Evento Seguro: evento que siempre ocurre, es decir, el espacio muestral, Ω.
4. Evento Imposible: evento que nunca ocurre, es decir, el conjunto vacío, Ø.
5. Eventos Excluyentes: son aquellos eventos que no pueden ocurrir
simultáneamente.
Dado que los eventos son subconjuntos, entonces se pueden definirse entre ellos todas
las operaciones definidas para los conjuntos. De esta forma, se definen los siguientes
eventos:
1. Evento Unión: sean A y B dos eventos en Ω. El evento unión, denotado por A ∪ B,
es el evento que contiene los puntos muestrales que se encuentran en A, B o
ambos. Por tanto, este evento ocurre cuando el resultado obtenido pertenece a A,
B o ambos.
2. Evento Intercepción: sean A y B dos eventos en Ω. El evento intercepción,
denotado por A∩B, es el evento que contiene sólo los puntos muestrales comunes
en A y B. Esto es, es el evento que ocurre cuando el resultado obtenido pertenece
a A y B simultáneamente.
3. Evento Complemento: dado un evento A de Ω, su complemento se denota por Ac
y se define como el evento conformado por todos los puntos muestrales de Ω que
no están en A.

7
4. Evento Diferencia: sean A y B dos eventos en Ω. El evento diferencia, denotado
por A-B, es el evento conformado por los puntos muestrales que están en A y no
están en B. Es el evento que ocurre cuando sucede A pero no B.

Ejemplo Se desea analizar los resultados de una inversión en dos años. En el año i se
registra si hubo (Si) o no (Ni) ganancias. El espacio de posibles resultados, el espacio
muestral, está dado por Ω = {(𝑁1, 𝑁2); (𝑁1, 𝑆2); (𝑆1, 𝑁2); (𝑆1, 𝑆2)}
Se definen los siguientes eventos:
• A={Hay ganancia al menos en el primer año}
• B={A lo sumo un año con ganancia}
Los eventos A y B son entonces, los siguientes conjuntos:
• A = {(𝑆1, 𝑁2); (𝑆1, 𝑆2)}
• B = {(𝑁1, 𝑁2); (𝑁1, 𝑆2); (𝑆1, 𝑁2)}
Los eventos unión, intercepción y diferencia están dados por:
• 𝐶 = 𝐴 ∪ 𝐵 = {(𝑁1, 𝑁2); (𝑁1, 𝑆2); (𝑆1, 𝑁2); (𝑆1, 𝑆2)}
• 𝐷 = 𝐴 ∩ 𝐵 = {(𝑆1, 𝑁2)}
• 𝐸 = 𝐴 − 𝐵 = {(𝑆1, 𝑆2)}
Obsérvese que estos conjuntos representan también eventos. Los conjuntos C, D y E
representan los eventos; seguro, ganancia sólo en el primer año y ganancia en los dos
años, respectivamente.

Probabilidades

Los resultados de un experimento aleatorio no son predecibles con absoluta certeza. Sin
embargo, se puede medir el grado de confianza con que se hace un pronóstico, sobre la
ocurrencia o no de un determinado evento. Para medir la oportunidad, posibilidad o
probabilidad con la que se puede esperar que un evento ocurra es conveniente asignar
un número entre 0 y 1. Si existe seguridad de que el evento ocurrirá se dice que su
probabilidad es uno. Si por el contrario es seguro que el evento no ocurrirá, se dice que
su probabilidad es cero.
Definición (Definición clásica de Probabilidades) Si en un experimento aleatorio todos
los resultados elementales son equiprobables (igualmente probables), la probabilidad de
que se presente un determinando evento A se denota por P(A) y se define como el

8
cociente entre el número de casos favorables a dicho evento y el número total de casos
posibles. Esto es, si n(A) representa el número de casos favorables al evento A y n el
número total de casos posibles, entonces:
𝑛(𝐴)
𝑃 (𝐴 ) =
𝑛
Dado que esta definición requiere que se conozcan todos los posibles resultados del
experimento y además que los mismos sean equiprobables, su aplicación se dificulta
cuando el espacio muestral es infinito o cuando los eventos no son igualmente probables.
Ejemplo Se lanzan dos dados simultáneamente. Sea A el evento "la suma de las dos
caras mostradas es seis". El espacio muestral asociado con este experimento es
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
Ω=
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
{(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)}

El evento A está dado por


𝐴 = {(1,5); (2,4); (3,3); (4,2); (5,1)}
Luego, la probabilidad de A es
5
𝑃 (𝐴 ) = = 0,139
36

Propiedades de la medida de probabilidad:


1. La probabilidad del evento imposible es cero, es decir, 𝑃(∅) = 0
2. Para un evento A de Ω, se cumple que 𝑃(𝐴𝑐 ) = 1 − 𝑃 (𝐴)
3. Para dos evento A1 y A2 en Ω, tales que A1 ⊂ A2, entonces P(A1) ≤ P(A2)
4. Para dos evento A1 y A2 cualesquiera, entonces
𝑃(𝐴1 ∪ 𝐴2) = 𝑃 (𝐴1) + 𝑃 (𝐴2) − 𝑃(𝐴1 ∩ 𝐴2)

Ejemplo: En el ejemplo de lanzamiento de dos dados, considere los eventos A y B dados


por A ={la suma de las dos caras mostradas es seis} y B ={por lo menos uno de los dados
muestra el 2}, respectivamente. Esto es:
• 𝐴 = {(1,5); (2,4); (3,3); (4,2); (5,1)}
(1,2) (2,1) (2,2) (2,3) (2,4) (2,5)
• 𝐵={ }
(2,6) (3,2) (4,2) (5,2) (6,2)

9
El evento A∪B está dado por

(1,2) (2,1) (2,2) (2,3) (2,4) (2,5)


𝐴∪𝐵 = { }
(2,6) (3,2) (4,2) (5,2) (6,2) (1,5)(3,3) (5,1)
La probabilidad de A∪B es
14
𝑃 (𝐴 ∪ 𝐵 ) =
36

Ahora bien, el evento intersección está dado por


𝐴 ∩ 𝐵 = {(2,4); (4,2); }
2
Por lo tanto 𝑃(𝐴 ∩ 𝐵) = 36

En definitiva
𝑃 (𝐴 ∪ 𝐵 ) = 𝑃 (𝐴 ) + 𝑃 (𝐵 ) − 𝑃 ( 𝐴 ∩ 𝐵 )
5 11 2 14
𝑃 (𝐴 ∪ 𝐵 ) = + − =
36 36 36 36

Sea el evento E "sólo uno de los dados muestra el número 2". Esto es,
(1,2) (3,2) (4,2) (5,2) (6,2)
𝐸={ }
(2,1) (2,3) (2,4) (2,5) (2,6)
La probabilidad del complemento de E o el evento no ocurre un dos en el lanzamiento de
los dos dados viene dado por:
10 26
𝑃 (𝐸 𝑐 ) = 1 − 𝑃 (𝐸 ) = 1 − =
36 36

Probabilidad Condicional

Hay situaciones en las que se conoce de la ocurrencia de un evento A y se desea


determinar la probabilidad de que otro evento B ocurra, dado que ha ocurrido el primero.
Esto es, en la práctica es frecuente que el experimentador se encuentre con situaciones
en las que deba dar respuesta a la interrogante: "Si ocurrió el evento A, ¿cuál es la
probabilidad de que ocurra B?" En estas situaciones se dice que se quiere calcular la
probabilidad condicional.

Ejemplo Consideremos las siguientes situaciones

10
1. En un experimento en el cual se registra la vida de un bombillo, ¿ Cuál es la
probabilidad de que este funcione más de 100 horas dado que ha funcionado 24
horas?.
2. En un experimento de extraer bolas de una caja, en la cual hay 5 bolas blancas y
95 rojas, ¿la probabilidad de que la tercera sea blanca, depende de las 2 primeras
extracciones?
3. Se lanza un dado correcto y se sabe que el resultado es un número par, ¿Cuál es
la probabilidad de que este número sea divisible por 3?

Probabilidad Condicional
Definición: Sean A y B dos eventos, tales que P(B) > 0. Entonces la probabilidad
condicional de que ocurra A dado que ocurrió B, denotado por P(A/B), se define como:
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴⁄𝐵) =
𝑃(𝐵)
Ejemplo: En el ejemplo anterior
1. Sea
A ={El bombillo funciona más de 100 horas}
B ={El bombillo funciona 24 horas}
P[A/B] se lee como la probabilidad de que ocurra el evento A dado que ocurrió el
evento B, es decir, la probabilidad de que un bombillo funcione más de 100 horas
dado que ha funcionado 24 horas.
2. Sea
Bi ={La bola extraída en la i-ésima extracción es blanca }
Ri ={La bola extraída en la i-ésima extracción es roja }
La probabilidad deseada se puede escribir como P[B3/.] donde (.) puede ser R1 ∩
R2 ó B1 ∩B2 ó B1 ∩R2 ó R1∩B2

Ejemplo: A un grupo de 240 personas se les consulta respecto al nivel de satisfacción


sobre la percepción económica del país; discriminado por sexo.

11
Bajo (S) Medio (C) Alto (NS)
Masculino (M) 61 37 12
Femenino (F) 85 30 15

Bajo (S) Medio (C) Alto (NS) Total


Masculino (M) 61 37 12 110
Femenino (F) 85 30 15 130
Total 146 67 27 240

Si se está interesado en la probabilidad de que una persona tenga niveles bajos de


satisfacción, la misma puede obtenerse bajo dos situaciones: sin conocer y conociendo el
sexo

Bajo la primera situación la probabilidad es:

146
𝑃 (𝑆 ) = = 0,608
240

Ahora bien, si por ejemplo, se conoce que la persona es del sexo femenino, la probabilidad
de tener niveles bajos de satisfacción

85
𝑃(𝑆 ∩ 𝐹) 240 85
𝑃 (𝑆/𝐹 ) = = = = 0,654
𝑃(𝐹) 130 130
240

Obsérvese que el hecho de conocer el sexo de la persona aumenta la probabilidad de


nivel bajo de satisfacción de 0,608 a 0,654. Es decir, el hecho de ser mujer la probabilidad
de nivel bajo de satisfacción es mayor.

Ejemplo: En un centro de recopilación de información el 45% de los datos son recogidos


por encuestas directas (M), el 27% por observación undirecta (E), y el 18% por ambas
alternativas. Si se selecciona un registro en forma aleatoria:
• La probabilidad de que se registró por al menos una de las dos alternativas es:

12
𝑃(𝐸 ∪ 𝑀) = 𝑃 (𝐸) + 𝑃 (𝑀) − 𝑃(𝐸 ∩ 𝑀)
𝑃(𝐸 ∪ 𝑀) = 0,27 + 0,45 − 0,18 = 0,54
• Si se sabe que se registró por encuesta indirecta, la probabilidad de que también
sea por observación indirecta:

𝑃(𝐸 ∩ 𝑀) 0,18
𝑃(𝐸/𝑀) = = = 0,4
𝑃(𝑀) 0,45

• Dado que dicho registro es de forma indirecta, la probabilidad de que se uso


encuesta directa es
𝑃(𝑀 ∩ 𝐸) 0,18
𝑃(𝑀/𝐸) = = = 0,667
𝑃(𝐸) 0,27

Tema 2: Variable Aleatoria

En muchas ocasiones la realización de un experimento aleatorio produce resultados que


no son valores numéricos. Sin embargo, para muchos efectos, en particular para el cálculo
de probabilidades, resulta más fácil utilizar valores numéricos en lugar de trabajar
directamente con los elementos del espacio muestral. Una forma de lograr esto es
asociando a cada suceso elemental del espacio muestral, un valor numérico. Es más
interesante y útil conocer el número de veces que se ha presentado una característica en
lugar de saber cual evento ocurrió. Esto es, a cada uno de los elementos del espacio
muestral se le asigna un numero real, que indica el número de veces que esta presente
la característica de interés. Esta identificación numérica de los eventos hace más sencillo
el cálculo de Probabilidades. La asignación de este valor numérico se realiza a través de
una función la cuál se denomina variable aleatoria. Algunos ejemplos son:
• El experimento consiste en lanzar dos dados y es de interés la suma de los dos
dados.
• El experimento consiste en observar si un vuelo de avión en particular sale con
atraso o no; es de interés el número de veces que el vuelo se atrasa en un mes.
• Se registra la entrada de varios turistas aun lugar determinado. El interés es el
número de turistas de la tercera edad.

13
• En un proceso de control de calidad se seleccionan muestras de veinte artículos y
se está interesado en el número de defectuosos.
Si el resultado del experimento es numérico porque contamos o medimos, por ejemplo, la
estatura de una población, los posibles valores de la variable coinciden con los resultados
del experimento. Sobre un mismo espacio muestral se pueden definir varias variables
aleatorias.
En esta sección se considerará el concepto de variable aleatoria, así como los distintos
tipos de variables aleatorias, lo que permitirá posteriormente manejar los modelos
estadísticos para describir los posibles resultados de un experimento aleatorio y asignar
probabilidades a los eventos de interés.

Definición (Variable Aleatoria Discreta) Una variable aleatoria X se dice que es discreta
si el número posible de valores de X, es decir su rango, es finito o infinito numerable. Esto
es, una variable aleatoria discreta es aquella que sólo puede tomar un número finito o
infinito numerable de valores. En general, todas aquellas variables asociadas con
experimentos en los que se cuenta el número de veces que ocurre un evento son
discretas.
Definición (Variable Aleatoria Continua) Una variable aleatoria X se dice que es
continua si el número posible de valores de X, es decir, su rango es infinito no numerable.
Esta definición establece que X es continua, si puede tomar cualquier valor en un intervalo
(a,b), pudiendo ser 𝑎 = −∞ 𝑦 𝑏 = +∞. Generalmente las variables aleatorias continuas se
asocian con experimentos aleatorios cuyos Puntos muestrales son originados por
procesos de medición (altura, peso, distancia).

Tema 3: Modelos Probabilísticos Discretos

Modelo Binomial

Supóngase que se está llevando a cabo un proceso de control de calidad, sobre un


servicio, en el que se califica dicho servicio. Cada evaluación se denomina una prueba y
en cada una de ellas hay una probabilidad asociada con el evento "servicio inconforme".
Estas pruebas tienen sólo dos posibles resultados; inconforme o conforme. Si la
probabilidad no cambia de una prueba a otra, entonces se dice que son pruebas
independientes y se les conoce como pruebas Bernoulli. Este ensayo describe el modelo
de probabilidad más sencillo. El modelo Bernoulli da origen al modelo de probabilidad

14
discreto más común, el modelo Binomial. Este modelo es útil cuando se quiere conocer la
distribución de probabilidad, por ejemplo, de la variable aleatoria número de éxitos en n
ensayos Bernoulli independientes. Muchos experimentos en la vida real consisten en
efectuar una serie de pruebas de Bernoulli y son análogos al lanzamiento de una moneda
no balanceada. Por tanto, un experimento binomial se define de la siguiente manera:
Definición (Experimento Binomial) Un experimento binomial es aquel que tiene las
siguientes características:
• El experimento consta de un número determinado, n, de ensayos idénticos e
independientes.
• Cada ensayo tiene dos resultados posibles. A uno de ellos lo llamamos éxito
(representado por la letra E) y al otro fracaso (representado por la letra F). La
probabilidad de tener éxito en un ensayo es igual a un valor p, y permanece
constante de un ensayo a otro. La probabilidad de un fracaso es igual a 1−p.
• La variable aleatoria, X, es el número de éxitos observados en los n ensayos.
Por lo tanto, para determinar si un experimento es binomial es necesario examinar si éste
posee las características listadas antes. Es importante señalar que un éxito no es
necesariamente "lo mejor", tal como se usa coloquialmente la palabra.
Ejemplo: El 5% de los servicios ofrecidos por cierto hotel son no conformes. Se
seleccionan aleatoriamente 10 servicios realizados en un día y se observa si son
calificados como conforme o no conforme. ¿Se trata de un experimento binomial? Para
responder, debemos determinar si el experimento cumple con las características
establecidas antes.
• El experimento consiste en 10 ensayos idénticos. Cada uno de ellos consiste en
seleccionar un servicio y observar si está o no conforme. Además, los ensayos son
independientes porque el hecho de que uno esté o no conforme no afecta el estado
de otro servicio.
• Cada ensayo tiene dos resultados posibles: El servicio es no conforme (éxito) o el
servicio es conforme (fracaso).
• La probabilidad de que un servicio este no conforme permanece constante en cada
selección y es igual a 0.05.
• La variable aleatoria de interés es X, el número de servicios no conforme.
Por lo tanto, el experimento es binomial.

15
Definición (Distribución Binomial) Considérese la realización de n ensayos bernoulli
independientes con una probabilidad p de éxito. Sea X la variable aleatoria "número de
éxitos". Entonces se dice que X se distribuye binomial con parámetros n y p, X ∼ B(n,p),
y su función de probabilidad está dada por
𝑛
𝑃(𝑋 = 𝑥) = ( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
𝑥

Ejemplo Un agente de seguros vende pólizas a 10 personas, los cuales tienen la misma
edad. Se sabe que la probabilidad de que un individuo con esa edad viva 30 años más es
3
de 5 determine la probabilidad de que al cabo de los 30 años vivan:

1. Cinco individuos.
2. A lo sumo seis.
3. Sólo uno.
4. Al menos 2.
la variable X = número de individuos vivos al transcurrir los 30 años, es una variable
3
binomial con n = 10 y p = 5
10
1. 𝑃(𝑋 = 5) = ( ) 0,65 0,45 = 0,2007
5
2. 𝑃(𝑋 ≤ 6) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + ⋯ + 𝑃(𝑋 = 6) = 0,61772
10
3. 𝑃(𝑋 = 1) = ( ) 0,61 0,49 = 0,00157
1
4. 𝑃(𝑋 ≥ 2) = 1 − (𝑃(𝑋 = 0) + 𝑃(𝑋 = 1)) = 0,9983

Modelo Poisson

Su nombre se debe a su autor, Siméon Denis Poisson, probabilista del siglo XIX. La misma
representa una generalización de la distribución binomial cuando sobre un experimento
aleatorio se define una variable aleatoria X={número de éxitos independientes que ocurren
para un intervalo de medida específico (tiempos, lugares, espacios)}, y cuya probabilidad
de ocurrencia es pequeña. También se conoce como la distribución de “eventos raros",
se usa como aproximación a la binomial cuando el tamaño demuestra es grande y la
proporción de éxitos es pequeña. La distribución Poisson es una de las distribuciones
discretas ampliamente utilizada, y puede servir como un modelo para un gran número de
experimentos. Por ejemplo, si estamos modelando un experimento en el cual la variable

16
de interés es el número de ocurrencias de cierto evento en un intervalo de tiempo
determinado, dicha variable aleatoria puede modelarse usando la distribución Poisson.
Otra área de aplicación es en distribuciones espaciales, donde, por ejemplo, la distribución
Poisson puede ser usada para modelar el número de veces que está presente un evento
en un espacio determinado. Por lo tanto, la distribución Poisson, se aplica en los
siguientes ejemplos específicos:
1. Número de llamadas telefónicas en un intervalo de tiempo.
2. Número de juegos pospuestos por lluvia durante la temporada.
3. Número de bacterias en un determinado cultivo.
4. Número de errores ortográficos en una página.
En conclusión, la distribución de probabilidad de Poisson a menudo proporciona un buen
modelo de la distribución de probabilidad para el número, X, de eventos poco comunes,
que se presentan en el espacio, tiempo, volumen o cualquier otra dimensión, donde su
único parámetro, λ es el valor promedio de X.

Definición (Distribución de Poisson) Sea X la variable aleatoria "número de éxitos en


una unidad de tiempo, área, volumen o espacio". Entonces se dice que X se distribuye
Poisson con parámetro λ, X ∼ P(λ), y su función de probabilidad está dada por
𝑒 −𝜆 𝜆𝑥
𝑃(𝑋 = 𝑥) =
𝑥!
Ejemplo Si un hotel procesa en promedio 6 reservaciones por día, cuál es la probabilidad
de que reciba:
1. Cuatro reservaciones en un día dado.
2. Al menos 2 reservaciones en un día dado.
3. 10 reservaciones en dos días consecutivos.
La variable X=número de reservaciones promedio por día, es una variable aleatoria
poisson con parámetro λ = 6. De esta forma
𝑒 −6 64
1. 𝑃(𝑋 = 4) = = 0.1339
4!
2. 𝑃(𝑋 ≥ 2) = 1 − 𝑃(𝑋 < 2) = 0,98
𝑒 −12 1210
3. 𝑃(𝑋 = 10) = = 0.1048
10!

Tema 4: Modelos Probabilístico Normal

17
Como se dijo en el tema anterior, en muchas situaciones de la vida real surge la necesidad
de dar respuesta a interrogantes como ¿Cuál es la probabilidad de un individuo en
particular este entre 1,64 y 1,80 metros?, ¿Cuál es la probabilidad de que el ingreso
promedio de los habitantes de determinada ciudad sea superior a 1500 dolares?.
Respuestas a estas interrogantes pueden ser dada haciendo uso de las distribuciones de
probabilidad. En ambas situaciones se hace referencia a variables aleatorias continuas,
por lo que para dar respuesta a dichas interrogantes se debe hacer uso de distribuciones
de probabilidad continuas. Una distribución de probabilidad se llama continua si su función
de distribución es continua. En una distribución de probabilidad discreta un evento con
probabilidad cero es un evento imposible. Esto no en el caso de una variable aleatoria
continua, pues entre dos posibles valores de la misma hay infinitos valores posibles,
aunque la probabilidad de ese intervalo no es cero, si lo es la de cada uno de esos valores
individuales. Esto se debe al hecho de que la probabilidad de que X tome algún valor en
un conjunto infinito como un intervalo, no puede calcularse mediante la adición simple de
probabilidades de valores individuales. Realmente, cada valor tiene una probabilidad
de ocurrencia infinitesimal, tan pequeña que estadísticamente equivale a cero. Existen
muchas leyes de probabilidad continuas, siendo la más común e importante la normal. En
este tema se considera esta distribución.

Distribución Normal

Denominada también distribución de Gauss o distribución gaussiana, es un modelo de


probabilidad de gran importancia pues permite modelar numerosos fenómenos naturales,
sociales, psicológicos, entre otros. Algunos ejemplos son:
• Caracteres morfológicos de individuos (personas, animales, plantas,etc) entre
ellos: tallas, pesos, diámetros, perímetros.
• Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o
de una misma cantidad de abono.
• Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo
grupo de individuos, puntuaciones de examen.
• Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a
un medio,...

18
• Errores cometidos al medir ciertas magnitudes.
• Valores estadísticos muestrales, por ejemplo : la media.
• Otras distribuciones como la binomial o la de Poisson son aproximaciones
normales

La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre
(1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más
profundos y formuló la ecuación de la curva, de ahí que también se le conozca, más
comúnmente, como la campana de Gauss". El termino ”campana” proviene del hecho que
la gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto
de su media. La distribución normal aparece como el límite de varias distribuciones de
probabilidad continuas y discretas, es decir otras distribuciones bajo ciertas condiciones
se pueden aproximar a este modelo. Representa la distribución de mayor aplicación en
estadística y muchos tests estadísticos están basados en la normalidad o, en una
supuesta "normalidad".
Definición (Distribución Normal): Sea X una variable aleatoria de tipo continuo. Se dice
que X sigue una distribución normal con media μ(−∞< μ < +∞) y varianza σ2 (σ > 0),
lo que se denota X ∼ N(μ, σ2), si su función de densidad de probabilidad está dada por

1 −(𝑥−𝜇 )2
𝑓 (𝑥 ) = 𝑒 2𝜎2
√2𝜋𝜎 2

Propiedades de la Distribución Normal

La distribución Normal tiene las siguientes propiedades:


• Es unimodal, es decir, tiene una única moda. Su valor coincide con la media y la
mediana
• Su curva es asintótica al eje de abscisas. De esta forma, puede tomar cualquier
valor en el intervalo (−∞,+∞).

19
• Es simétrica respecto a su media.
• Existe una familia de distribuciones normal, con una forma común. Cada miembro
de esta familia está definido por los valores de su media y su varianza. La media
indica la posición de la campana, de modo que para diferentes valores de la misma
la gráfica es desplazada a lo largo del eje horizontal. La desviación estándar
determina el grado de apuntamiento de la curva.
En la figura, se muestran los gráficos de la distribución normal para varios valores de μ
manteniendo fija σ. Aquí se aprecia que el gráfico de desplaza a la derecha a medida de
que el valor de μ aumenta. Por otro lado, en la figura 2, se varía el valor de σ
manteniendo fijo el valor de μ, provocando esta situación que a medida que aumenta el
valor de σ la gráfica se va extendiendo sobre el eje X, es decir las colas se hacen mas
grandes.
• El área bajo la curva comprendido entre:
o más o menos una desviaciones estándar de la media es igual a 68,3%.
o más o menos dos desviaciones estándar de la media es igual a 95,4%.
o más o menos tres desviaciones estándar de la media es igual a 99,7%.

Figura 2

20
De la familia de distribuciones normal, la más utilizada es la distribución normal estándar,
la cual es una distribución normal con media 0 y varianza 1.

Definición (Distribución Normal Estándar): Sea Z una variable aleatoria de tipo


continuo. Se dice que Z sigue una distribución normal con parámetros µ = 0 y σ= 1, lo que
se denota Z ∼ N(0,1), si su función de densidad de probabilidad está dada por:

1 −(𝑧)2
𝑓 (𝑧 ) = 𝑒 2
√2𝜋
Su importancia radica en que existen tablas publicadas que permiten calcular en forma
sencilla la probabilidad de observar un dato menor o igual a un cierto valor z. Para
determinar las áreas bajo la curva de función de densidad normal se requiere integrar la
su función de densidad, procedimiento para el cual no existe una solución exacta.
Esta tabla, es una tabla de doble entrada y presenta la probabilidad para Z < z, para
valores de z en el intervalo (−3,9;3,9). En la columna de la izquierda se encuentra la parte
entera y el primer decimal de z, y en la fila superior las centésimas de z. En la casilla
donde se interceptan la fila y la columna correspondientes, se ubica el valor de la
probabilidad de que Z < z. Mediante el proceso inverso podemos obtener el valor z que
tiene a su izquierda un área o probabilidad igual α.

21
Definición (Percentil de la distribución normal estándar): Considérese Z ∼ N(0,1) y α
un valor en el intervalo (0,1). Sea 𝑧𝛼 el número real que satisface 𝑃(𝑍 > 𝑧𝛼 ) = 𝛼. Entonces
a 𝑧𝛼 se le denomina el percentil (1−α)100 de la distribución normal estándar. De esta
forma, 𝑧𝛼 es aquel valor de la distribución normal estándar que tiene a su izquierda
(derecha) un área igual a 1−α (α). Para encontrar su valor, obsérvese que 𝑃(𝑍 ≤ 𝑧𝛼 ) =
1 − 𝛼. Por tanto, usando las tablas de la distribución normal estándar se debe ubicar el
valor z que acumule una probabilidad de 1−α, este valor será 𝑧𝛼 .

Ejemplo 1: Obtener el valor Z que tiene a su derecha un área igual a 0,05. Este es el
percentil 95 y se denota por 𝑧0,05. Luego, usando la tabla de la normal estándar se tiene
que 𝑧0,05 = 1,645.
Ejemplo 2: Obtener el valor Z que tiene a su izquierda un área igual a 0,025. El valor
solicitado es el percentil 2,5, denotado por 𝑧0,975. Usando la tabla de la normal estándar
se tiene que 𝑧0,975 = −1,96. Obsérvese que este valor es el mismo valor que tiene a su
derecha una área igual a 0,025, pero con signo negativo, es decir, 𝑧1−𝛼 = −𝑧𝛼 . Esto se
debe a la simetría de la distribución normal alrededor de su media.
Ejemplo 3 Si Z ∼ N(0,1), obtener: P(Z < −0,1), P(Z < 0,1), P(Z > 1,5).
Usando la tabla de la distribución normal estándar se tiene que:

P(Z < −0,1) = 0,4602, P(Z < 0,1) = 0,5398, P(Z > 1,5)= 0,0668

Cualquier variable aleatoria X que siga una distribución N(μ,σ), se puede transformar en
una variable Z con una distribución normal estándar, simplemente aplicando la
conversión:

Esta transformación recibe el nombre de estandarización ó tipificación. Una de las


ventajas de la estandarización es que la distribución no depende de los parámetros, pues
en este caso la media siempre será cero y la varianza uno. Por tanto, la distribución es
única y el gráfico de la función de densidad también. De esta forma, la estandarización
resulta de especial interés en la práctica, pues como se dijo antes, existen tablas
publicadas asociadas con la distribución normal estándar, lo que simplifica el cálculo de
probabilidades asociadas con cualquier distribución normal.
22
Ejemplo 4 Sea X ∼ N(50,5). ¿Cuál es la probabilidad de que X tome un valor entre 45 y
55?.
La probabilidad que se desea calcular es P(45 ≤ X ≤ 55). Estandarizando se tiene que
𝑃(45 ≤ 𝑋 ≤ 55) = 𝑃 (𝑋 ≤ 55) − 𝑃(𝑋 ≤ 45)
55 − 50 45 − 50
𝑃(45 ≤ 𝑋 ≤ 55) = 𝑃 (𝑍 ≤ ) − 𝑃(𝑍 ≤ )
5 5
𝑃(45 ≤ 𝑋 ≤ 55) = 𝑃 (𝑍 ≤ 1) − 𝑃 (𝑍 ≤ −1) = 0,8413 − 0,1587 = 0,6826

Ejemplo 6: Supóngase que el peso de ciertos pacientes sigue una distribución


aproximadamente normal, con una media de 65 Kg y una desviación estándar de 2 Kg.
¿Cuál es la probabilidad de que un paciente elegido al azar tenga un peso superior a 70
Kg?.
Procediendo de igual manera que en el ejemplo anterior, se calcula la probabilidad
solicitada.
𝑃(𝑋 > 70) = 1 − 𝑃(𝑋 ≤ 70)
70 − 65
𝑃(𝑋 > 70) = 1 − 𝑃(𝑍 ≤ )
2
𝑃(𝑋 > 70) = 1 − 𝑃 (𝑍 ≤ −2,5) = 1 − 0,9938 = 0,0062.

23

También podría gustarte