Está en la página 1de 67

ESTADÍSTICA 1

PRESENTADO POR:

ESTEFANÍA BETANCOURT ALVARÁN (1088310059)

FABIAN DAVID ALARCON BETANCUR (1088291088)

PRESENTADO A:

PROFESOR ÁLVARO TREJOS

UNIVERSIDAD TECNOLÓGICA DE PEREIRA

FACULTAD DE INGENIERIAS

INGENIERIA INDUSTRIAL

PEREIRA, DICIEMBRE

2013
Contenido
1. ¿PARA QUÉ SIRVE LA ESTADÍSTICA? .............................................................. 4
1.1 DEFINICIÓN .................................................................................................... 4
2. VARIABLE ............................................................................................................ 4
2.1 CODIFICACIÓN DE VARIABLES .................................................................... 5
3. DISTRIBUCIÓN DE FRECUENCIAS PARA VARIABLES CUANTITATIVAS
CONTINUAS ............................................................................................................. 6
3.1 HISTOGRAMA ................................................................................................ 9
3.2 OJIVA .............................................................................................................. 9
4. REDUCCIÓN DE DATOS ................................................................................... 10
4.1 MEDIDAS DE TENDENCIA CENTRAL ......................................................... 10
4.1.1 LA MEDIA ............................................................................................... 10
4.1.2 MEDIANA (Me) ....................................................................................... 13
4.1.3 MODA ..................................................................................................... 14
4.2 ESTADÍSTICOS DE POSICIÓN .................................................................... 15
4.2.1 PERCENTILES ....................................................................................... 15
4.2.2 DECILES................................................................................................. 15
4.2.3 CUARTILES ............................................................................................ 16
4.3 MEDIDAS DE VARIABILIDAD O DISPERSIÓN ............................................ 17
4.3.1 RANGO ................................................................................................... 17
4.3.2 RANGO INTERCUARTÍLICO ................................................................. 17
4.3.3 LA VARIANZA ......................................................................................... 17
4.3.4 DESVIACIÓN ESTÁNDAR ..................................................................... 19
4.3.5 COEFICIENTE DE VARIACIÓN ............................................................. 19
5. PRINCIPIO DE CHEBYCHEF ............................................................................. 21
6. DIAGRAMA BOX PLOT O DE CAJA .................................................................. 21
7. COEFICIENTE DE ASIMETRÍA O SESGO ........................................................ 22
8. CURTOSIS O APUNTAMIENTO ........................................................................ 23
9. TEORÍA DE LA PROBABILIDAD ........................................................................ 24
9.1 PROBABILIDAD A PRIORI (PASCAL): ......................................................... 24
9.2 PROBABILIDAD A POSTERIORI (KOLMOGOROV) .................................... 25
9.3 EVENTOS ..................................................................................................... 28
9.3.1 CLASIFICACIÓN DE LOS EVENTOS: ................................................... 28
9.4 OPERACIÓN ENTRE EVENTOS .................................................................. 29
10. CÁLCULO DE PROBABILIDADES ................................................................... 31
10.1 PROPIEDADES DE LA PROBABILIDAD .................................................... 31
10.2 MÉTODO PARA CALCULAR PROBABILIDADES ...................................... 32
11. TÉCNICAS DE CONTEO Y MÉTODOS DE ENUMERACIÓN ......................... 36
11.1 PRINCIPIO DE LA MULTIPLICACIÓN ........................................................ 36
11.2 PERMUTACIONES ..................................................................................... 38
12. PROBABILIDAD CONDICIONAL ...................................................................... 41
12.1 INDEPENDENCIA DE EVENTOS: .............................................................. 42
12.2 LEY DE LA MULTIPLICACIÓN: .................................................................. 44
12.3 TEOREMA DE LA PROBABILIDAD TOTAL................................................ 44
12.4 TEOREMA DE BAYES ................................................................................ 45
13. VARIABLE ALEATORIA ................................................................................... 46
13.1 DISTRIBUCIÓN DE PROBABILIDAD ......................................................... 47
13.2 FUNCIÓN DE PROBABILIDAD ................................................................... 47
13.3 PROPIEDADES LA VARIABLE ALEATORIA .............................................. 48
13.4 FUNCIÓN DE PROBABILIDAD ACUMULADA ........................................... 48
13.5 VALOR ESPERADO DE UNA VARIABLE ALEATORIA ............................. 49
13.6 VARIANZA DE UNA VARIABLE ALEATORIA ............................................. 51
14. VARIABLES ALEATORIAS CON NOMBRE PROPIO ...................................... 55
14.1 DISTRIBUCIÓN UNIFORME DE PROBABILIDAD ..................................... 55
14.2 DISTRIBUCIÓN UNIFORME CONTINUA ................................................... 56
14.3 DISTRIBUCIÓN DE PROBABILIDAD BERNOULLI .................................... 58
14.4 DISTRIBUCIÓN DE PROBABILIDAD BINOMIAL ....................................... 59
14.5 DISTRIBUCIÓN DE PROBABILIDAD MULTINOMIAL ................................ 61
14.6 DISTRIBUCIÓN DE PROBABILIDAD POISSON ........................................ 61
14.7 DISTRIBUCIÓN DE PROBABILIDAD HIPERGEOMÉTRICA...................... 62
14.8 DISTRIBUCIÓN DE PROBABILIDAD HIPERGEOMÉTRICA
MULTIVARIADA .................................................................................................. 63
14.9 DISTRIBUCIÓN EXPONENCIAL ................................................................ 64
1. ¿PARA QUÉ SIRVE LA ESTADÍSTICA?

o La ciencia se ocupa en general de fenómenos observables.


o Los modelos que crea la ciencia son de tipo determinista o aleatorio
(estocástico).
o Tiene unas leyes que rige el comportamiento de un problema, validando o
rechazando dichas leyes.
o Casi todo es aleatorio.
o En todas las ciencias hay incertidumbre y variabilidad.

1.1 DEFINICIÓN

La estadística es la ciencia de la sistematización, recogida, ordenación y


presentación de los datos referentes a un fenómeno que presenta variabilidad o
incertidumbre para su estudio metódico con objeto de deducir las leyes que rigen
esos fenómenos.
Estadística descriptiva → Organizar, recoger

Probabilidad → Deducir las leyes

Inferencia → Tomar decisiones y conclusiones

2. VARIABLE
Es una característica medible de la población

o Escala nominal: Ejemplo: Género, rutas, etc.


o Cualitativa: La podemos dividir en dos:
Nominal→ Aquellas donde NO hay un orden.
Ordinal→ Tiene un orden o jerarquía.
o Cuantitativa: La podemos dividir en dos:
Discretas→ No puede tomar cualquier valor en un intervalo. Ej. No. De hijos.
Sí las variables son numéricas discretas se pueden medir ordinalmente.
Continuas→ Puede tomar cualquier valor en un intervalo. Ej. El peso. Sí las
variables son continuas se mide por medio de intervalos.
o Las variables cualitativas medidas nominalmente utilizan los números para
nombrar las categorías.
o Las variables medidas ordinalmente (cualitativas o cuantitativas) utilizan los
números para indicar jerarquía o posición frente a la variable.
o La escala de medida por intervalo (variable cuantitativa continua) utiliza los
números para nombrar, jerarquizar y ubicar la distancia entre los datos.

VARIABLES

CUALITATIVAS CUANTITATIVAS

NOMINAL ORDINAL DISCRETA CONTINUA

2.1 CODIFICACIÓN DE VARIABLES


o ni = Frecuencia Absoluta
o hi = Frecuencia relativa
o Ni = Frecuencia absoluta acumulada
o Hi = Frecuencia relativa acumulada
o
o Ni = ∑ni
o Hi = ∑hi

3. DISTRIBUCIÓN DE FRECUENCIAS PARA VARIABLES CUANTITATIVAS


CONTINUAS

Ejemplo: En un centro de salud se midió el tiempo en que demora un paciente


para ser atendido (tiempo en minutos). La información se presenta a continuación:

Tiempo en minutos de 50 pacientes

4,2 – 7,1 – 7,4 – 8,3 – 10,2 – 10,2 – 10,8 – 11,2 – 11,2 – 12 – 12,4 – 12,9 – 13,1–
13,4 – 13,5 – 13,8 – 14 – 14,3 – 14,4 – 14,5 – 14,7 – 14,8 – 14,9 – 15 – 15 – 15,4 -
15,8 – 16 – 16,5 – 16,6 – 17 – 17,1 – 17,3 – 17,6 – 17,9 – 18 – 18 – 18,2 – 18,4 –
18,9 – 19 – 19,8 – 19,8 - 20,2 – 21 – 21,2 – 21,2 – 22 – 22,3 – 26,7

1. Definir los siguientes términos:


a) Unidad experimental: Es el elemento, cosa, persona, animal, etc., del
cual se va a extraer la información. (Para el ejemplo serían los
pacientes).
b) Variable de interés: Lo que se va a medir. (Para el ejemplo sería el
tiempo)
c) Xmin, Xmax: Menor valor de la variable (Xmin), y mayor valor de la variable
(Xmax).
d) Rango:
R= Xmax - Xmin R* = m*C*
R=26,7 – 4,2 R*= 6 *3,8
R= 22,5 R* = 22,8

2. Hallar el número de intervalos (m):


a) Método de la raíz cuadrada:
Para el ejemplo sería:

b) Método de Sturges:

Para el ejemplo sería:

c) Método de la inecuación: Hallar el mínimo valor de m que cumpla con la


siguiente inecuación:

Para el ejemplo sería: m=6

3. Hallar la amplitud del intervalo:

Para el ejemplo sería:

C* = 3,8 (Se redondea C)

4. Lo = Límite inferior del primer intervalo.


Li = Límite superior del intervalo i.
Li – 1= Límite inferior del intervalo i.

Para el ejemplo sería:


5. Realizar la tabla:

Intervalo Marca de ni hi Ni Hi hi*


clase x’
(4,1 - 7,9] 6 3 0.06 3 0.06 0,016
(7,9 – 11,7] 9,8 6 0,12 9 0,18 0,032
(11,7 – 15,5] 13,6 17 0,34 26 0,52 0,089
(15,5 – 19,3] 17,4 15 0,3 41 0,82 0,079
(19,3 – 23,1] 21,2 8 0,16 49 0,98 0,042
(23,1 – 26,9] 25 1 0,02 50 1 0,05

Interprete: n2; h3; N4; H5


o n2= 6 personas son atendidas entre 7,9 y 11,7 minutos.
o h3= El 34% de los pacientes son atendidos entre 11,7 min y 15,5 min.
o N4= 41 personas son atendidas entre 4,1 min y 19,3 min.
o H5= El 98% de los pacientes son atendidos entre 4,1min y 23,1min.
o h(11,7-23,1) = El 80% de los pacientes han sido atendidos entre un
lapso de 11,7min y 23,1min.
o h(7,9- 19,3) = El 76% de los pacientes han sido atendidos entre
7,9min y 19,3min.
o h(10-20) = (11,7-10) h2*+h3+h4+h5*(20-19,3) = 0,72
El 72% de los pacientes son atendidos entre los 10 y 20 minutos.

3.1 HISTOGRAMA
Un tipo de representación gráfica, para variables continuas, formada por una serie
de barras contiguas de altura proporcional a la frecuencia de la categoría de la
variable.

3.2 OJIVA
Ojiva
1,2
Hi

0,8

0,6

4,1 7,9 11,7 15,5 19,3 23,1

4. REDUCCIÓN DE DATOS
Es el proceso donde se hace un análisis numérico de la información
y consiste en dos partes:
4.1 MEDIDAS DE TENDENCIA CENTRAL
4.1.1 LA MEDIA
Es el estadístico de tendencia central más utilizado y se calcula
de la siguiente manera:
a) Datos no agrupados:

Ejemplo: x1=23, x2= 21, x3= 18, x4=19

b) Datos agrupados en una distribución de


frecuencia medidos ordinalmente.
Ejemplo: Sea la variable el # de personas en el hogar de 100 familias.
ni hi
0 10 0,10
1 15 0,15
2 25 0,25
3 15 0,15
4 6 0,06
5 4 0,04

c) Media para datos agrupados medidos por intervalo:

PROPIEDADES DE LA MEDIA
1. La media de una constante es la constante.
Demostración: Xi=C
2. Si a una variable se multiplica por una constante la nueva media aparece
multiplicando por la constante

3. Sí a una variable se le suma una constante, la media de la nueva variable


es igual a la media más la constante.

4. La sumatoria de las distancias de los datos a la media es 0.


5. Sí una población se divide en 2 subpoblaciones con tamaños n1, n2 y
medias la media total de la población será la siguiente:

Ejemplo: El grupo de estadística 1 tiene 15 hombres con una edad promedio


de 21 años y 18 mujeres con una edad promedio de 19 años. ¿Cuál es la edad
promedio del curso?

4.1.2 MEDIANA (Me)


Es aquel valor de la variable por debajo del cual se encuentra el 50% de los datos.

1. Calculo de la mediana para datos no agrupados:


a) Los datos son impares:
Ejemplo: X1=18, X2=18, X3=20, X4=19, X5=17
n=5 17-18-18-19-20 Se organizan los datos de menor a mayor.

b) Los datos son pares:

Ejemplo: X1=18, X2=18, X3=20, X4=19, X5=17, X6=22

2. Calculo de la mediana para datos agrupados:

0,50=0,18+0,089(x-11,7)

0,32=0,089x-1,0413

1,3613=0,089x x=15,29~15,3

R// Por debajo de 15,3 min son atendidos el 50% de los pacientes.

4.1.3 MODA
Es el dato que más se repite.

a) Datos no agrupados:
Ejemplo: 1. X1=18, X2=18, X3=20, X4=19, X5=17
Mo= 18

2. X1=18, X2=18, X3=20, X4=19, X5=17, X6=19


Mo=18
Mo=19
b) Datos agrupados:

Ejemplo:

4.2 ESTADÍSTICOS DE POSICIÓN

4.2.1 PERCENTILES
Son valores de la varible por debajo del cual se haya el 1%, 2%, 3%, …,
98%, 99%, 100% d ela informacion.

Ejemplo:

R// El 77% de los pacientes son atendidos por debajo de 18,64 min.

4.2.2 DECILES

Son valores de la variable por debajo del cual se encuentra el 10%, 20%, 30%, …,
80%,90%, 100%.
4.2.3 CUARTILES

Son valores de la variable por debajo del cual se encuentra el 25%, 50%, 75% y
100%.
4.3 MEDIDAS DE VARIABILIDAD O DISPERSIÓN
Dan idea de la homogeneidad o heterogeneidad de los datos. Los más
utilizados son los siguientes:
4.3.1 RANGO

4.3.2 RANGO INTERCUARTÍLICO

4.3.3 LA VARIANZA

Es el estadístico de dispersión más utilizado y se define como el promedio de


las distancias al cuadrado de los datos a la media.

a) Varianza para datos no agrupados:


Población A: x1=48, x2=49, x3=51, x4=52

R//El cuadrado de las distancias de los datos a la media es de 2,5.

Población B: x1=1, x2=2, x3=98, x4=99


R// La población es muy heterogénea.

NOTA: Sí la varianza es muy grande la media no es un buen


representante.

b) Varianza para datos medidos ordinalmente (agrupados):

# Personas en el hogar
1 15 0,23
2 25 0,38
3 15 0,23
4 6 0,09
5 4 0,06

c) Varianza para datos agrupados medidos por intervalos


4.3.4 DESVIACIÓN ESTÁNDAR

Se define como la raíz cuadrada de la varianza; solucionando el problema que


tiene esta al distorsionar la medida real de los datos.

Ejemplo: X1=154cm, X2=178cm, X3=158cm, X4=155cm, X5=187cm

El segundo problema de la varianza es que está sujeta a la unidad de la medida


de la variable.
4.3.5 COEFICIENTE DE VARIACIÓN

Mide la homogeneidad o heterogeneidad de las variables y se calcula de la


siguiente manera:

Ejemplo:

El coeficiente de variación es adimensional; quiere decir que no importa la unidad


de medida de las variables y se pueden comparar las variables.

Ejemplo:
PROPIEDADES DE LA VARIANZA
1. La varianza de una constante es 0 “cero”
x1=20, x2=20, x3=20, x4=20

2. La varianza es mayor que 0. Todo cuadrado siempre es mayor a 0.

3. Si a una variable se le suma una constante, la varianza no cambia:

Ejemplo: x1=18, x2=20, x3=19, x4=17

4. Si una variable se multiplica por una constante, la varianza sale multiplicada


por la constante al cuadrado.
5. PRINCIPIO DE CHEBYCHEF
El porcentaje de información que se ubica en un intervalo k-desviaciones a la
media es mayor o igual a:

Ejemplo: Para k=2 y S=4,31

El porcentaje de personas que son atendidas entre 6,68 min y 23,92 min es > al
75%.

6. DIAGRAMA BOX PLOT O DE CAJA

Es un gráfico que suministra información sobre los valores mínimo y máximo, los
cuartiles Q1, Q2 o mediana y Q3, y sobre la existencia de valores atípicos y la
simetría de la distribución.
7. COEFICIENTE DE ASIMETRÍA O SESGO
El concepto de asimetría se refiere a si la curva que forman los valores de la
serie presenta la misma forma a izquierda y derecha de un valor central (media
aritmética).

Sesgo es el grado de asimetría de una distribución, es decir, cuánto se aparta


de la simetría.

o Asimetría para datos no agrupados:


o Asimetría para datos agrupados (ordinalmente):

o Asimetría para datos agrupados (intervalos):

La distribución es asimétrica negativa. Está muy cerca de cero.

8. CURTOSIS O APUNTAMIENTO
o Datos no agrupados:

o Datos agrupados:

9. TEORÍA DE LA PROBABILIDAD

Es un modelo matemático que trata de cuantificar los experimentos aleatorios

9.1 PROBABILIDAD A PRIORI (PASCAL):

Probabilidad de la que se parte antes de efectuar un experimento que pueda


arrojar nueva información sobre dicha probabilidad, para obtener luego la
probabilidad a posteriori. La probabilidad de eventos favorables en unos
experimentos sobre el total de resultados posibles, se le llama probabilidad a priori
de un evento A.

Donde
h: número de casos favorables al evento A
n: número de resultados posibles
Ejemplo:
Sea el evento que consiste en lanzar dos dados, hallar la probabilidad de que
salga 6.

Dado1/Dado2 1 2 3 4 5 6
1 1,1 1,2 1,3 1,4 1,5 1,6
2 2,1 2,2 2,3 2,4 2,5 2,6
3 3,1 3,2 3,3 3,4 3,5 3,6
4 4,1 4,2 4,3 4,4 4,5 4,6
5 5,1 5,2 5,3 5,4 5,5 5,6
6 6,1 6,2 6,3 6,4 6,5 6,6

Sea el evento que consiste en lanzar dos dados, hallar la probabilidad de que
salga 1.

9.2 PROBABILIDAD A POSTERIORI (KOLMOGOROV)

Es aquella que consiste en encontrar el valor de probabilidad, después de repetirse


el experimento un número considerable de veces. Por ejemplo; la probabilidad que
tiene un jugador " A " de ganar cierto juego es P(A) = 3/5 y la probabilidad de
perderlo es P(A') = 2/5; estas probabilidades son a posteriori, puesto que se
conocieron después de "observar" el juego de " A " repetidas veces.
Tanto la teoría clásica como la frecuencial presentan serias dificultades, la primera
en cuanto a la "Ambigüedad " de que parte siempre de espacios muéstrales finitos
y resultados equiprobables, pero cuando los resultados posibles generan un
espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de que
un número natural sea impar, dicha teoría nos deja en nada; mientras que, la
segunda teoría presenta el inconveniente en cuanto a "Repetirse el experimento un
número considerable de veces"; de ahí la importancia que toma la teoría axiomática
de la probabilidad, evitándonos los tropiezos o limitaciones de las teorías clásica y
frecuencial.

El cálculo de probabilidad posteriori plantea que la probabilidad de un evento en


Un experimento en muchas repeticiones tiende a donde:

h: número de casos favorables

n: número de resultados posibles

Experimento

Es una operación que conlleva a un resultado de varios resultados posibles, se


denota por (E).
Ejemplo:
➢ Lanzar una moneda
➢ Lanzar un dado
➢ Lanzar dos monedas
➢ Lanzar una moneda y un dado

Diagrama de árbol para el experimento que consiste en lanzar dos monedas


o Probabilísticos: son los ejemplos anteriores
o Determinístico: Un carro que viaja a 40Km en dos hojas, cuantos
kilómetros recorrió

Espacio Muestral: se define como todos los eventos posibles de un experimento,


se dan por Ω o S.

Ejemplo:
• Sea el evento que consiste en lanzar un dado

c= cara; s= sello.

• Sea el evento que consiste en lanzar un dado


Ω= (1, 2, 3, 4,5.6)

Espacio muestral:
• Número de puntos finitos (como los ejemplos que tenemos
anteriormente)

• Número de puntos infinitos (la duración de una bombilla, los granos


de arena en el océano, etc.)
9.3 EVENTOS

Es un elemento o varios elementos del resultado de un experimento, es


un subconjunto del espacio muestral.

9.3.1 CLASIFICACIÓN DE LOS EVENTOS:

1. Evento nulo {}: El evento nulo es aquel que no tiene ningún resultado posible
en el espacio muestral
Ejemplo:
o Sea el evento que consiste en lanzar una moneda, sea el evento que salga
dos caras, entonces A= {}

o Sea el evento que consiste en lanzar un dado, sea el evento un número


mayor que 6, entonces A= 0

2. Evento simple: Un evento simple en aquel que tiene un resultado posible en


el espacio muestral.
Ejemplo: sea el experimento que consiste en lanzar una moneda, sea B el
evento que salga cara, entonces. B= {c}

3. Evento compuesto: es aquel tiene más de un evento simple en su espacio


muestral.
Ejemplo: sea el experimento que consiste en lanzar dos monedas, sea A el
evento que salga como mínimo una cara A= {cc, cs, sc}

4. Evento seguro: un evento seguro es aquel que siempre se va a presentar


Ejemplo: sea el experimento que consiste en lanzar un dado, sea A el evento
que salga par
ℎ 3 1
𝐴 = {2,4,6}; 𝑃(𝐴) = =
𝑛 6 2

Nota: El evento se denota por letra mayúscula y entre {} se representa los eventos
simples que conforman el grado de evento.

Ejercicios
1. Sea el experimento que consiste en lanzar dos
monedas
a. Hallar el espacio muestral
b. Definir un evento nulo, simple, compuesto y seguro
c. Sea A el experimento que al menos salga una cara, hallar la
probabilidad del evento A.

2. El jefe de personal va a seleccionar 2 candidatos de una lista de 5


elegibles, supóngase que el 1 es el mejor, el 2 es el menos mejor,
sucesivamente.
a. Hallar la probabilidad de que el jefe de personal seleccione al menos
uno de los dos mejores (evento A).
b. Hallar la probabilidad de que el jefe de personal seleccione el mejor
candidato

9.4 OPERACIÓN ENTRE EVENTOS

Espacio muestral
Evento A

Complemento de un evento

Sea E un experimento con S como su espacio muestral y A un evento de ese


espacio muestral. Se define el complemento de un evento A como aquellos eventos
simples que están en S, pero no están en A

Unión entre eventos


Sea E un experimento con S como su espacio muestral, A y B dos eventos de dicho
espacio muestral. Se define la unión de A y B y se representa por AUB como los
eventos simples que pertenecen a A o pertenecen a B o pertenecen a A y B.
Intersección de eventos

Sea un experimento con S como su espacio muestral, A y B dos eventos de dicho


espacio muestral se define como la intersección como los eventos simples que
determinen a A y B.

Eventos mutuamente excluyentes

Sea E un experimento y S como su espacio muestral, se definen dos eventos


excluyentes si A ∩ B = 0

Ejercicio:
1. Sea el experimento que consiste en lanzar dos monedas. Sea A el evento
que consiste que salga como mínimo cara. Sea B el evento que consiste
que salga como mínimo sello. Sea C el evento que no salga cara y sea D el
evento que no salga sello.
a. Hallar: A̅, B
̅ , ̅C, D
̅
b. Hallar: AUB y CUD
c. Hallar: A∩B, C∩D, A∩C, B∩D
d. ¿Qué eventos son mutuamente excluyentes?
10. CÁLCULO DE PROBABILIDADES

Sea el experimento E con S como su espacio muestral y A un evento del espacio


muestral, al número real asignado al evento A y calculado de la siguiente forma:

Donde:

h: número de casos favorables al evento A


n: número de resultados posibles

Se le llama la probabilidad del evento A su cumple los siguientes axiomas:


1- 0 ≤ P(A) ≤ 1
2- P(S)=1
3- P(A U B) = P(A) +P(B); si los eventos son mutuamente excluyentes
4- P(A U B) = P(A) + P(B) – P(A ∩ B); si los eventos no son mutuamente
excluyentes
10.1 PROPIEDADES DE LA PROBABILIDAD

1- P( A̅ ) =1 – P(A)
2- P(0)= 0
Demostración de las propiedades
1- P( A̅ ) =1 – P(A)

2- P(0) = 0
Ejemplo:

Sea el experimento que consiste en lanzar un dado, para dicho dado los números
pares tienen el doble de probabilidad de ser elegidos que los números impares. Sea
C el evento que el número observado sea mayor o igual a cuatro.

10.2 MÉTODO PARA CALCULAR PROBABILIDADES

Existen dos métodos para el cálculo de probabilidades


1. Método de composición de eventos
2. Método de los puntos muéstrales.

1. Método de los puntos muéstrales

Para el cálculo de probabilidades se presentan problemas cuyas soluciones no son


tan sencillas. Para solucionar este problema se recomienda en el cálculo de
probabilidades aplicar el método de los puntos muéstrales, el cual consiste en
desarrollar secuencialmente cinco puntos que se enuncian a continuación.

1. Definir claramente el experimento (entenderlo, poder explicarlo, etc.)


2. Pintar o dibujar el espacio muestral (entender cada uno de los puntos
muéstrales)
3. Identificar la probabilidad de cada evento simple, determinando si estos son
equiprobables o no.
4. El evento ¨A¨ ocurre si cualquiera de los eventos simples que lo conforman
se presentan
5. La probabilidad del evento A es igual a la suma de las probabilidades de los
eventos simples que lo conforman.

Ejercicios
1. Sea el experimento que consiste en lanzar una moneda, sea A el evento de
obtener sello
• Entender
• Dibujar S= {c, s} S(𝑒1 ,𝑒2 )
1
• P(𝑒1 )= P(𝑒1 )=2
• A= 𝑒1
1
• P(A)= 2

2. Sea E el experimento de lanzar dos monedas, sea B el evento que consiste en


obtener un sello.

3. El gerente de una empresa debe seleccionar dos aspirantes de un grupo de 5


para un empleo, imagine que los aspirantes están clasificados del mejor hasta
el menos preparado, el gerente no sabe de esta clasificación. El evento A que el
jefe de personal selecciones el mejor y el menos preparado. Sea el evento B que
el jefe seleccione alguno de los dos mejores.
4 Sea el experimento que consiste en lanzar dos dados uno verde y otro azul

Se asume que los resultados son equiprobables, hallar las siguientes


probabilidades
a) Que la suma sea mayor que 8
b) Que ocurra un 2 en cualquiera de los dados
c) Que se produzca un número mayor que cuatro en el verde
d) P( A ∩ C)
• Entender el problema
Dado azul
/dado 1 2 3 4 5 6
verde
1 1,2 1,2 1,3 1,4 1,5 1,6
2 2,1 2,2 2,3 2,4 2,5 2,6
3 3,1 3,2 3,3 3,4 3,5 3,6
4 4,1 4,2 4,3 4,4 4,5 4,6
5 5,1 5,2 5,3 5,4 5,5 5,6
6 6,1 6,2 6,3 6,4 6,5 6,6

Dado azul/ Dado


1 2 3 4 5 6
verde
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

5. La probabilidad de que una industria de EE. UU. de ubique en


Alemania es de 0,7, la probabilidad de que se ubique en Brasil es de
0,4, la probabilidad que se ubique en Alemania o Brasil ó ambas son
de 0,8. Calcular la probabilidad de que se ubique en ambas ciudades,
la probabilidad que no ubique en alguna de estas ciudades.

• Entender el experimento
11. TÉCNICAS DE CONTEO Y MÉTODOS DE ENUMERACIÓN

11.1 PRINCIPIO DE LA MULTIPLICACIÓN


si una operación tiene resultados posibles y si para cada uno de los resultados
posibles, es probable analizar una segunda operación con resultados posibles, el
total del resultado es 𝑛1 ∗ 𝑛2
Ejemplo: Un médico desea clasificar a sus pacientes de acuerdo con la presión
arterial (alta-media-baja) y de acuerdo con su tipo de sangre (𝐴+ , 𝐴− , 𝐴𝐵, 𝑂+ , 𝑂 − ).
De cuantas formas un médico puede clasificar a sus pacientes.
11.2 PERMUTACIONES

Permutaciones de tamaño n: una permutación de tamaño n es un arreglo del


número de formas, como se pueden organizar n elementos donde el orden importa.
El número de organizar n elemento es donde el orden importa.
Ejemplo:

3! =6

Permutaciones de tamaño K, donde K<n: se presentan muchos problemas en la


vida cotidiana de extraer K elementos de una población de tamaño n donde el orden
importa y está dada por la siguiente ecuación:

Ejemplo:

n=3; K=2;
Ejemplo
De un grupo de 11 estudiantes voy a elegir 2 para ocupar los cargos de coordinador
de campo y el segundo para coordinador de oficina. ¿De cuantas maneras se
puede hacer?

Permutaciones circulares: en la naturaleza se presentan muchos problemas


donde se van a organizar n-elementos de una mesa redonda. ¿De cuantas maneras
puede hacerse esto?
El número de formas de organizar n-elementos en una mesa redonda es:
(n -1)!
Ejemplo: ¿de cuantas formas puede organizarse 5 árboles en un terreno circular?
(5-1)! = 4! =24!
Permutaciones múltiples: se presentan donde n elementos de una oblación se
clasifican en P grupos de tamaño (𝑛1 , 𝑛2 , 𝑛3 … 𝑛𝑝 ) con la condición de que 𝑛1 +
𝑛2 + 𝑛3 +. . . +𝑛𝑝 = 𝑛

Ejemplo: Se va a realizar un paseo a las ciudades que a continuación se enuncia y


se desea armar un grupo de 𝑛1 a Cancún de 4 personas, 𝑛2 a Cartagena de 2
personas, 𝑛3 a San Andrés de tres personas y 𝑛4 a Santa Marta de 2 personas.

Combinaciones: Una combinación es un arreglo de una población de n-


elementos, extrayendo K elementos donde 𝐾 ≥ 𝑛 y el orden no importa.

Ejemplo: de un grupo de 11 estudiantes se van a elegir 2 estudiantes quienes


formaran un comité que tiene como fin de dialogar con el rector de la actual crisis
en la UTP. (En el comité no hay clasificación, orden, jerarquía) el orden no importa
y la forma para combinar es:

Combinaciones con repeticiones


Sea A un conjunto con n elementos y m un natural menor o igual que n.
Llamamos combinación con repetición de m elementos de A a todo subconjunto de
m elementos de A en el que un elemento puede aparecer hasta m veces. En este
caso sólo nos importa la naturaleza, no el orden y además podemos repetir
elementos.
El número de combinaciones con repetición viene dado por:

Ejemplo

• En una pastelería hay 6 tipos distintos de pasteles. ¿De cuántas formas se


pueden elegir 4 pasteles?

Nota: Si nos gusta un pastel lo podemos pedir hasta cuatro veces.


Estamos en el caso en el que no nos importa el orden en que elijamos los
pasteles y podemos repetir, son combinaciones con repetición.

12. PROBABILIDAD CONDICIONAL

Sea S un espacio muestral con A y B dos eventos de dicho espacio muestral. Se


defina la probabilidad condicional de A dado B como la probabilidad que ocurra el
evento A dado que el evento B ya ocurrió, y se calcula de la siguiente manera.

Ejemplo

• Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la probabilidad


de que su próximo hijo tenga la enfermedad?

Según las leyes de Mendel, todos los posibles genotipos de un hijo de una
madre portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la
misma probabilidad. El espacio muestral es s = {xX, xY, XX, XY}
el suceso A={hijo enfermo} corresponde al genotipo xY, por tanto, según
la definición clásica de probabilidad p(A) = 1/4 = 0,25

La mujer tiene el hijo y es varón ¿qué probabilidad hay de que tenga la


enfermedad?
Se define el suceso B = {ser varón} = {xY, XY}

La probabilidad pedida es p(A|B) y aplicando la definición anterior


p(B) = 0,5; A n B = {xY}; p(A n B) = 0,25; p(A|B) = 0,25/0,5 = 0,5

Si sabemos que es varón, el espacio muestral ha cambiado, ahora es B. Por


lo tanto se puede calcular p(A|B) aplicando la definición clásica de
probabilidad al nuevo espacio muestral p(A|B) = 1/2 = 0,5

• Se sabe que el 50% de la población fuma y que el 10% fuma y es hipertensa.


¿Cuál es la probabilidad de que un fumador sea hipertenso?

A= {ser hipertenso} B = {ser fumador}


A Ç B = {ser hipertenso y fumador}
p(A|B) = 0,10/0,50 = 0,20

Obsérvese que los coeficientes falso-positivo y falso-negativo de las pruebas


diagnósticas son probabilidades condicionadas.

La fórmula anterior se puede poner p(A Ç B) = p(B) p(A|B) = p(A) p(B|A)


llamada regla de la multiplicación, que se puede generalizar a más sucesos
p(A1 Ç A2 Ç A3) = p((A1 Ç A2) Ç A3) = p(A1 Ç A2) p(A3|A1 Ç A2) = p(A1)
p(A2|A1) p(A3|A1 Ç A2)

En general p (A1 Ç A2 Ç A3 ...) = p(A1) p(A2|A1) p (A3|A1 Ç A2) ...


llamado principio de las probabilidades compuestas y especialmente útil para
aquellas situaciones en que las probabilidades condicionadas son más
fáciles de obtener que las probabilidades de las intersecciones.

12.1 INDEPENDENCIA DE EVENTOS:

Sea S un espacio muestral, A y B 2 eventos de dicho espacio muestral. Se dice


que los eventos A y B son independientes si la ocurrencia de un evento no
aumenta o disminuye la probabilidad de ocurrencia del otro evento.
Ejemplo: Sea R el evento que un convicto haya robado a mano armada, sea D que
dicho convicto haya vendido droga. Interprete con palabras las siguientes
probabilidades.

• Lanzas un dado, y si no sale 6, lanzas de nuevo. ¿Cuál es la probabilidad de


sacar un 6 en el segundo lanzamiento?
El primer lanzamiento no es un 6.
El primer lanzamiento es un 6.
El hecho de que el primer lanzamiento no es un 6 no cambia la probabilidad
de que el segundo lanzamiento sea un 6. (A algunas personas les gusta
decir, "el dando no se acuerda qué sacaste antes.")

• Sacas una carta de un mazo de 52 cartas, y luego lanzas un dado. ¿Cuál es la


probabilidad de sacar un 2 y luego lanzar y que caiga 2?
La carta es un 2.
El dado cae en 2.
Aunque la carta no es regresada al mazo después de sacarla, el lanzamiento
del dado no depende de las cartas, por lo que ningún posible resultado ha
sido reemplazado. A pesar del resultado de sacar la carta, la probabilidad de
del dado no será afectada.

12.2 LEY DE LA MULTIPLICACIÓN:

Sea S un espacio muestral, Ay B 2 eventos de dicho espacio muestral. Se define


la probabilidad de que ocurra A y B como:

12.3 TEOREMA DE LA PROBABILIDAD TOTAL

Sea S un espacio muestral y 𝐴1 , 𝐴2 , 𝐴3 … 𝐴𝐾 eventos mutuamente excluyentes y


Colectivamente exhaustivos (forman una partición de S). Sea E otro evento de dicho
espacio muestral, la probabilidad de que ocurra E está dada por la siguiente
expresión:
Ejercicio: La producción total de una fábrica depende las maquinas x, y, z. el 50%
del total de artículos producidos depende de la maquina x, de los cuales el 3% es
defectuoso. El 30% de los artículos son producidos por la máquina y, de los cuales
el 4% son defectuosos, el 20% es producido por la maquina z, de los cuales el 5%
son defectuosos.

Si un artículo es aleatoriamente, hallar la probabilidad de que este sea


defectuoso.

12.4 TEOREMA DE BAYES

Sea S un espacio muestral, 𝐴1 , 𝐴2 , 𝐴3 , … 𝐴𝐾 una porción del espacio muestral sea E


un evento del espacio muestral. Si el evento E se presenta es importante
preguntarse la probabilidad de que venga del evento 𝐴1 , 𝐴2 , 𝐴3 , … 𝐴𝐾 la solución a
este problema de la fórmula de Bayes se enuncia a continuación.

13. VARIABLE ALEATORIA

Es una función definida sobre el espacio muestral y se denota por las letras
mayúsculas X, Y y Z,…, etc.

Ejemplo:
• Sea E el experimento que consiste en lanzar 2 monedas, sea X la variable
aleatoria que cuenta el número de caras.

E= {CC, SC, CS, SS}


• Sea E el experimento que consiste en lanzar 3 monedas, sea Y la variable
aleatoria que cuenta el número de sellos. ¿Cuál es el espacio recorrido de
la variable aleatoria?

E= {CCC, CCS, CSC, CSS, SCC, SCS, SSC, SSS}


Y= {1,2,3}; espacio recorrido

13.1 DISTRIBUCIÓN DE PROBABILIDAD

Es una pareja ordenada donde el primer valor correspondiente al número observado


de la variable aleatoria y el segundo valor correspondiente a la probabilidad
asociada a la variable aleatoria.

Ejemplo
Para el caso de 2 monedas, sea X la variable aleatoria que cuenta el número de
caras.

x 0 1 2
F(x) 1/4 2/4 1/4

Para el caso de Sea E el experimento que consiste en lanzar 3 monedas, sea Y la


variable aleatoria que cuenta el número de sellos.

y 0 1 2 3
f(y) 1/8 3/8 3/8 1/8

13.2 FUNCIÓN DE PROBABILIDAD

Llamada también función de densidad y es la encargada de asignar la probabilidad


a cada valor de la variable aleatoria.
Ejemplo:
Para el caso de, sea X la variable aleatoria que cuenta el número de caras.
x 0 1 2
f(x) 1/4 2/4 1/4
Para el caso de Sea E el experimento que consiste en lanzar 3 monedas, sea Y la
variable aleatoria que cuenta el número de sellos.

y 0 1 2 3
f(y) 1/8 3/8 3/8 1/8

13.3 PROPIEDADES LA VARIABLE ALEATORIA

1.0 ≤ 𝑓(𝑥) ≤ 1
2.∑𝑘𝑖=𝑘 𝑓(𝑥𝑖 = 1)

13.4 FUNCIÓN DE PROBABILIDAD ACUMULADA

Se denota por la letra mayúscula F(X) llamada también función de densidad


acumulada y se define como la acumulada o la probabilidad de ocurrir un valor
menor o igual que 𝑥0

𝑓(𝑥0 ) = 𝑃(𝑋 ≤ 𝑋0 ) = ∑ 𝑓(𝑥𝑖 )


𝑖=𝑘

Ejemplo
Para el caso de, sea X la variable aleatoria que cuenta el número de caras.
x 0 1 2

f(x) 1/4 2/4 1/4

F(x) 1/4 3/4 1

Para el caso de: Sea E el experimento que consiste en lanzar 3 monedas, sea Y
la variable aleatoria que cuenta el número de sellos.

Y 0 1 2 3
f(y) 1/8 3/8 3/8 1/8
F(y) 1/8 4/8 7/8 1

13.5 VALOR ESPERADO DE UNA VARIABLE ALEATORIA

Llamada también esperanza matemática de una variable aleatoria y corresponde


también a la media de la variable aleatoria y se calcula de la siguiente manera.

Variable discreta

Variables continuas aleatorias


Ejemplo
13.6 VARIANZA DE UNA VARIABLE ALEATORIA
Ejemplo: Para el caso de, sea X la variable aleatoria que cuenta el número
de caras.

Para el caso de: Sea E el experimento que consiste en lanzar 3 monedas,


sea Y la variable aleatoria que cuenta el número de sellos.
Problemas
1. De un grupo que contiene 4 bolas negras y 2 verdes, se extrae dos de ellas
en forma sucesiva y se regresa a la caja antes de realizar la siguiente
extracción.
o Encontrar la distribución de probabilidad
o El valor esperado
o La varianza de la variable aleatoria definida en el número de bolas
verdes.
Respuesta
Se espera que al retirar tres bolsas sucesivamente salgan entre 1 y 2 verdes

2. Una compañía piensa comprar dos computadores, en la distribución de estos


equipos tiene 9 en el almacén de los cuales 3 son defectuosos. Sea Z la
variable aleatoria que cuenta el número de aparatos defectuosos por la
compañía. Hallar la distribución de probabilidad, el vector esperado y la
varianza de la variable aleatoria.

M: computadores malos
B: computadores buenos
14. VARIABLES ALEATORIAS CON NOMBRE PROPIO

14.1 DISTRIBUCIÓN UNIFORME DE PROBABILIDAD

Se presentan muchas variables aleatorias con k resultados posibles, mutuamente


excluyentes, igualmente probables y colectivamente exhaustivas.

Ejemplo
• Tirar un dado
• Tirar una moneda
• Hacer un Shift-Ranzaso en la clase de estadística 1 con el profesor Álvaro
Trejos.

La esperanza y la varianza de una variable aleatoria uniforme, está dada por la


siguiente expresión:

Ejemplo: sea E el experimento que consiste en lanzar un dado, hallar la distribución


de probabilidad, el valor esperado y la varianza para esta variable aleatoria.
14.2 DISTRIBUCIÓN UNIFORME CONTINUA

La distribución o modelo uniforme puede considerarse como proveniente de un


proceso de extracción aleatoria. El planteamiento radica en el hecho de que la
probabilidad se distribuye uniformemente a lo largo de un intervalo. Así: dada una
variable aleatoria continua, x, definida en el intervalo [a,b] de la recta real, diremos
que x tiene una distribución uniforme en el intervalo [a,b] cuando su función de

densidad para sea: para x Î [a,b].

Su representación gráfica será:

De manera que la función de distribución resultará:


Su representación gráfica será:

Este modelo tiene la característica siguiente: Si calculamos la probabilidad del


suceso

Tendremos:

Este resultado nos lleva a la conclusión de que la probabilidad de cualquier suceso


depende únicamente de la amplitud del intervalo (Δ X), y no de su posición en la
recta real [a , b] . Lo que viene a demostrar el reparto uniforme de la probabilidad a
lo largo de todo el campo de actuación de la variable, lo que, por otra parte,
caracteriza al modelo.

En cuanto a las ratios de la distribución tendremos que la media tiene la


expresión:
La varianza tendrá la siguiente expresión:

De donde

Por lo que

14.3 DISTRIBUCIÓN DE PROBABILIDAD BERNOULLI

En la naturaleza existen muchos problemas donde las variables aleatorias


presentan uno de dos resultados posibles (éxito ó fracaso). Los resultados son
mutuamente excluyentes y colectivamente exhaustivos.

Ejemplo
• Al votar por un candidato
• En un proceso de producción si sale defectuoso o no
• Al nacer un bebe si es hombre o mujer.

Esperanza
Ejemplo: Si suponemos que la probabilidad de que nazca un niño es igual a la
de que nazca una niña. Hallar la distribución de probabilidad, valor esperado,
varianza de esta distribución de Bernoulli.

a.
X 0 1
P(x) 0,5 0,5

14.4 DISTRIBUCIÓN DE PROBABILIDAD BINOMIAL

Si un proceso Bernoulli se repite n-veces y de estas n-veces se está interesado en


k-éxitos donde 𝑘 ≤ 𝑛 diremos que estamos en presencia de una distribución de
probabilidad binomial.

Ejemplos
1. La probabilidad de que una persona vote por el candidato A es de 0,20, si se
elige al azar 100 personas, hallar la probabilidad de que 5 personas voten
por el candidato A.

n=10, k=4
2. En un proceso de producción el 10% de los artículos salen defectuosos, si
un producto es elegido a lazar, hallar la probabilidad de que 4 productos de
los seleccionados sean defectuosos.
n=10, k=4
Condiciones para aplicar la distribución de probabilidad binomial
1. El experimento consiste en repeticiones ó ensayos.

2. Cada ensayo proporciona un resultado que puede clasificarse como éxito o


fracaso (experimento Bernoulli).

3. La probabilidad de éxito o fracaso no cambia en el tiempo y el éxito se


identifica por ¨P¨ y el fracaso se identifica por ¨q¨

4. Los ensayos son independientes.

5. La forma para calcular probabilidades con el modelo binomial es la siguiente:


𝑛
𝑃(𝑋 = 𝑘) = ( )𝑝𝑘 𝑞 𝑛−𝑘
𝑘
P: probabilidad éxito
q: probabilidad no éxito
k: número de éxitos a observar
n: número de experimento (tamaño de la muestra) a realizar.

Ejemplo: en un proceso de producción el 5% de los artículos son defectuosos, si


se elige aleatoriamente 20 artículos. Hallar las siguientes probabilidades:

a. Encontrar dos defectuosos


b. Dos o menos defectuosos
c. Más de dos defectuosos

Respuesta
14.5 DISTRIBUCIÓN DE PROBABILIDAD MULTINOMIAL

Es una generalización de la distribución binomial. En lugar de considerar solo 2


tipos de ocurrencia (éxito-fracaso), se tienen k-tipos. La probabilidad de cada tipo
se denota por P1, P2, P3, …, Pk, donde se cumple las siguientes condiciones:

P1 + P2 + P3, …, Pk= 1, y se extrae un tamaño de muestra n con n-resultados


n2, n3, …, nk, donde n1+n2+n3, …, nk=n

La probabilidad para este tipo de variables se calcula de la siguiente manera

Ejemplo
Según la revista Semana para el año 1998 el 40% de los divorcios se debe a
infidelidad de alguno de los conyugues, el 50% a disputas económicas y el 10% a
otras causas, principalmente el alcoholismo. ¿Cuál es la probabilidad de que, de 12
divorcios elegidos al azar, 5 estén motivados por infidelidad, 5 por problemas
económicos y 2 por otras causas?

n=12; k=3; P1=0,40%; P2=0,50%; P3=0,10%; n1=5; n2=5; n3=2

12
( ) (0, 45 )(0, 55 )(0, 102 ) = 0,053
5,5,2
La probabilidad de que en 12 matrimonios encontremos 5 por infidelidad, 5 por
problemas económicos y 2 por otras causas es de 0,053%.

14.6 DISTRIBUCIÓN DE PROBABILIDAD POISSON

Esta distribución de probabilidad es utilizada para hallar el número de ocurrencias


(éxitos) en una unidad de intervalo, y su función de probabilidad está dada por la
siguiente expresión:
Ejemplo: Un grupo de 3 ingenieros se asocian para montar una empresa en
asesorías en ingeniería industrial. Para ello disponen de una oficina dotada de
equipos y una secretaria.

Abren la empresa el día 15 de diciembre y se registra la llegada de clientes


distribuidas por horas de la siguiente forma:

La probabilidad de que la próxima hora lleguen 3 clientes es de 0,18

14.7 DISTRIBUCIÓN DE PROBABILIDAD HIPERGEOMÉTRICA

La distribución de la probabilidad de la variable aleatoria hipergeométrica, cuenta


el número de éxitos en una muestra aleatoria de tamaño n, seleccionados de una
población de tamaño N, de los cuales k son éxitos y N-k son fracasos. La función
de probabilidad está dada por la siguiente expresión:

Ejemplo: En lotes de 40 componentes, se consideran aceptables si contienen como


máximo no más de 3 defectuosos. El procedimiento para muestrear el lote consiste
en seleccionar 5 componentes al azar y rechazar todo el conjunto si en la muestra
hay como mínimo un defectuoso. ¿Cuál es la probabilidad de no rechazar el lote?

N=40; n=5; k=3; x=0

La probabilidad de no rechazar el lote es de 0,6624.

14.8 DISTRIBUCIÓN DE PROBABILIDAD HIPERGEOMÉTRICA MULTIVARIADA

Es una distribución multivariada que generaliza la hipergeométrica (corresponde a


ensayos sin repetición), y se presentan más de 2 tipos de ocurrencias. Suponga que
una población presenta N-elementos de los cuales k1 son del grupo 1, k2 son del
grupo 2, …, kr del grupo r, dónde k1+k2+…+kr=N. Entonces la probabilidad de que
una muestra contenga x1 elementos del tipo 1, x2 elementos del tipo 2, xr elementos
del tipo r, donde naturalmente x1+x2+…+xr=n y n es el tamaño de la muestra tomada
aleatoriamente, la función de probabilidad está dada por la siguiente expresión:

Ejemplo: Se van a analizar 10 personas para un estudio biológico. El grupo consta


de 3 con sangre tipo O, 4 con sangre tipo A, 3 con sangre tipo B. ¿Cuál es la
probabilidad de que una muestra aleatoria de 5 personas se presente el siguiente
resultado?

a. 1 persona con sangre tipo O


b. 2 personas con sangre tipo A
c. 2 personas con sangre tipo B

N=10; k1=3; k2=4; k3=3; x1=1; x2=2; x3=2; n=5


14.9 DISTRIBUCIÓN EXPONENCIAL

Es el equivalente continuo de la distribución geométrica discreta. Esta ley de


distribución describe procesos en los que:

Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra
en un instante tf, no depende del tiempo transcurrido anteriormente en el que no
ha pasado nada.

Ejemplos:

• El tiempo que puede transcurrir en un servicio de urgencias, para la llegada


de un paciente
• El tiempo para cargar un camión.

En un proceso de Poisson donde se repite sucesivamente un experimento a


intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos
sucesos consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el
tiempo que transcurre entre que sufrimos dos veces una herida importante.

Concretando, si una v.a. continua X distribuida a lo largo de , es tal que su


función de densidad (# de fallos por unidad de tiempo) es:

Función de densidad f, de una Exp (λ)


Función exponencial: Pueden modelar el lapso de eventos consecutivos de
Poisson que ocurren de manera independiente a una frecuencia constante.

La función exponencial no tiene memoria, los eventos del presente o del futuro no
dependen de los que ocurrieron en el pasado

Origen: Distribución de probabilidad Poisson

Que es una variable aleatoria continúa x que mide el tiempo que tarda en ocurrir el
primer evento Poisson:

Ejemplo: El tiempo de vida de un fusible en cierta aplicación tiene un valor esperado


promedio de 2 años.

Ejemplo: La variable x representa el tiempo en horas que una persona tarde en


realizar determinado trabajo y sigue una distribución exponencial con parámetro
λ=2

a) ¿Cuál es el tiempo medio en que se espera realice dicho trabajo?

También podría gustarte