Está en la página 1de 22

Los contenidos de este curso están sujetos a la licencia Reconocimiento-No Comercial-Sin Obra

Derivada 4.0 Internacional de Creative Commons. Para ver una copia de esta licencia, visite
http://creativecommons.org/licenses/by-nc-nd/4.0/.

2|Página
Curso: Estadística para la Administración
Facultad de Ciencia, Tecnología e Industria
Universidad Galileo

Unidad 2
Probabilidades

Introducción
En esta unidad trabajaremos la Teoría Elemental de Probabilidades. Estaremos presentando
primero los conceptos básicos de Probabilidades, y como material de apoyo trabajaremos las
Reglas de Conteo para posteriormente estudiar las distribuciones de probabilidades de más uso:
Binomial, Normal, Poisson, Exponencial. Las probabilidades son la base para la Estadística
Inferencial la cual nos permite hacer deducciones a partir del estudio de una sola parte de la
población (muestras).

Estudiaremos los conceptos de Distribución de probabilidades. Trabajaremos explicando las


Funciones de Densidad y la Función de Distribución.

Conoceremos la distribución de probabilidad Binomial la cual se utiliza en fenómenos donde las


variables son discretas, con dos alternativas: éxito o fracaso.

La segunda distribución de probabilidad a estudiar es la distribución Normal, la cual se utiliza en


fenómenos donde las variables son continuas y su curva tiene forma de campana.

La distribución de Poisson se utiliza en fenómenos discretos donde el número de pruebas es muy


grande y el número de éxitos muy pequeño, esta será la tercer distribución de probabilidad a
analizar en este capítulo.

Por último, estudiaremos la cuarta distribución de probabilidad: la distribución Exponencial, la


que se utiliza en fenómenos continuos, con valores de probabilidades pequeños, como por Ej. El
tiempo.

Objetivos
• Comprender los conceptos básicos de Probabilidades y familiarizarse con el manejo de las
distribuciones de probabilidad de más uso, tanto manualmente como con el uso de
software de uso común.

3|Página
Temario
Unidad 2
Probabilidades

1. Probabilidades
1.1. Teoría Elemental de Probabilidades
1.2. Reglas de Conteo
1.3. Distribuciones de Probabilidad
1.4. Distribución Binomial
1.5. Distribución Normal
1.6. Distribución Poisson
1.7. Distribución Exponencial

La teoría de la probabilidad proporciona la base para la inferencia estadística, debido a que la


estadística inferencial, tiene entre sus objetivos “cuantificar la incertidumbre que caracteriza a
todo proceso en el que se avanza de lo particular a lo general”. La probabilidad es la posibilidad
u oportunidad de que suceda un evento particular.

Existen tres maneras diferentes de asignar probabilidades a los sucesos: usando probabilidades
subjetivas, frecuencias relativas, y probabilidades clásicas.

• Enfoque subjetivo. Este enfoque es adecuado cuando solo hay una oportunidad de
ocurrencia del evento y ocurrirá o no ocurrirá esa sola vez. Es el grado de creencia por parte
de un individuo de que un evento ocurra basado en toda la evidencia a su disposición.
También se le llama probabilidad personalista. Ej. si un equipo de administración piensa que
hay una probabilidad de 0.35 de que un nuevo producto tenga éxito en el mercado.
• Enfoque de frecuencia relativa o a posteriori. La probabilidad se determina sobre la base de
la proporción de veces en que ocurren un resultado favorable en un número de
observaciones o experimentos (se basa en datos históricos). Por ejemplo, si una empresa de
asesoría presenta 100 propuestas y se aceptan 20, la probabilidad de que una propuesta
futura tenga éxito se puede estimar en 20/100 es decir en 0.20. (Es este un enfoque objetivo).
4|Página
• Enfoque clásico o a priori. Este enfoque permite la determinación de los valores de la
probabilidad antes de observar cualquier evento y se basa en la suposición de que cada
resultado es igualmente posible.

Sea:

• E un evento determinado
• n número de casos posibles
• h número de casos favorables a la ocurrencia del evento

Entonces:

La probabilidad de ocurrencia del evento E está dado por:

Sea:
_
E el evento complementario de E

La probabilidad de no ocurrencia del evento E está dado por:

Por tanto:

EVENTO CIERTO =

EVENTO IMPOSIBLE =

Por tanto: 0  p  1

5|Página
También se le llama: espacio de eventos. Es el conjunto de todos los eventos posibles.

Ejemplo:

• Lanzamiento de un dado S = { 1, 2, 3, 4, 5, 6 } n = 6
• Cartas de una baraja estándar n = 52, hay cuatro palos (espadas, corazones, tréboles y
diamantes), cada uno de los cuales tiene 13 cartas diferentes (as, rey, reina, sota, 10, 9, 8,
7, 6, 5, 4, 3, 2).

Subconjunto del espacio muestral, que puede ser desde un punto del espacio muestral hasta el
espacio muestral completo.

Ejemplo:

• El evento de las cartas por palo: E = { espada, corazón, trébol y diamante }


• En el lanzamiento de un dado: que el resultado sea un número par: E = { 2, 4, 6 }.

El complemento del evento E incluye todos los eventos que no son parte del evento E. Está dado
por el símbolo E'.

La probabilidad simple consiste en la probabilidad de ocurrencia de un evento simple, p (E).


Ejemplo:

• La probabilidad de seleccionar un as= 4/52 = 1/13.


• La probabilidad de que al lanzar un dado caiga en la cara superior el número 6 = 1/6.

6|Página
Se refiere a fenómenos que contienen dos o más eventos, como por ejemplo la probabilidad de
que al escoger una carta obtengamos un as negro.

Eventos mutuamente excluyentes. Se da cuando ambos eventos no pueden ocurrir al mismo


tiempo (si ocurre un evento el otro no puede ocurrir, aunque ambos tienen la probabilidad).

Ejemplo: Moneda (cara o escudo), ganar o perder, hombre o mujer, día o noche, encendido o
apagado.
P (A o B) = P (A) + P (B) = P (A U B)

También se les llama: “eventos incompatibles”.

Ejemplo.

Determinar la probabilidad de sacar un as, un rey o un 10 de una baraja.

P = 4/52 + 4/52 + 4/52 = 12/52 = 3/13

Eventos no mutuamente excluyentes. En este caso si pueden ocurrir eventos al mismo tiempo.
Ejemplo: probabilidad de ganar el examen con 90.

Ejemplo.

Probabilidad de sacar un 10 y de corazones

P (A o B) = P (A) + P (B) – P (A  B)

Eventos independientes. Cuando la ocurrencia de un evento, no tiene efecto sobre la


probabilidad de ocurrencia del otro.
Ejemplo: Al lanzar una moneda varias veces la probabilidad de que caiga cara la primera vez, no
afecta la probabilidad de que caiga escudo las siguientes veces.
P (A y B) = P (A  B) = P (A) * P (B)

En este tipo de eventos se da reemplazo de los eventos ya escogidos anteriormente.

7|Página
Ejemplo.

Si tenemos en un saco cinco bolas blancas y tres bolas negras, encontrar la probabilidad de que
al efectuar 2 extracciones las dos sean bolas blancas, si ocurre un reemplazo.

P = 5/8 * 5/8 = 25/64

Eventos dependientes. En este tipo no se da reemplazo de lo ya escogido. Se da cuando la


ocurrencia o no de uno de los eventos afecta la probabilidad de ocurrencia del otro.

Ejemplo.

Sacar dos cartas sin reemplazo de una baraja.


P (A y B) = P (A B) = p (A) * P (B  A)

(La raya vertical significa dado que)

Considerar el ejemplo anterior si no ocurre reemplazo.

P = 5/8 * 4/7 = 20/56 = 5/14

Primero que nada, suponga que una moneda se ha lanzado al aire 10 veces ¿Cómo
determinaríamos el número de diferentes resultados posibles (las secuencias de caras y escudos)?

Si cualquiera de k eventos mutuamente excluyentes y colectivamente exhaustivos puede ocurrir


en cada uno de n intentos, el número de resultados posibles es igual a:

kⁿ
Si una moneda (con dos lados) se arroja 10 veces, el número de resultados es 2 ¹º = 1024.
Si un dado (con seis lados) se lanza dos veces, el número de resultados es 6² = 36.

8|Página
La segunda regla de conteo es una versión más general de la primera. Para ilustrar esta regla,
suponga que el número de eventos posibles es diferente en algunos de los intentos. Por ejemplo,
una oficina estatal de vehículos automotores desearía saber de cuantos números de placas
policíacas se dispondría si la placa consistiera en tres letras seguidas de tres dígitos. El hecho que
tres valores sean letras (cada una con 26 resultados posibles) y tres posiciones sean dígitos (cada
uno con 10 resultados) lleva a la segunda regla de conteo.
Si hay k1, eventos del primer intento, k2 eventos del segundo intento, ... y kn eventos del enésimo
intento, entonces el número de resultados posibles es:
(k1)(k2)…. (kn)
Por lo tanto, si una placa policíaca consistiera de tres letras seguidas de tres dígitos, el número
total de resultados posibles sería entonces (26)(26)(26)(10)(10)(10) = 17,576,000. Tomando otro
ejemplo, si un menú de restauran tuviera una cena completa de precio fijo que consistiera en un
aperitivo, entrada, bebida, y postre y hubiera la opción de cinco aperitivos, diez entradas, tres
bebidas y seis postres, el número total de cenas posibles sería (5)(10)(3)(6) = 900.

La tercera regla de conteo involucra el cálculo del número de formas que un conjunto de objetos
puede ordenarse. Si un conjunto de seis libros de texto se tienen que colocar sobre una repisa,
¿cómo podemos determinar el número de formas en que los seis libros pueden acomodarse?
Podemos comenzar dándonos cuenta que cualquiera de los seis libros podría ocupar la primera
posición en la repisa. Una vez que se llena la primera posición, hay cinco libros por escoger para
llenar la segunda. Este procedimiento de asignación se continúa hasta que se ocupen todas las
posiciones. Esta situación puede generalizarse como la regla de conteo 3.
El número de formas en que los n objetos pueden ordenarse es:

n!= n (n-1)…(1)

El número de formas en que los seis libros pueden ordenarse es:


n!= 6! = (6)(5)(4)(3)(2)(1)= 720

9|Página
En muchos casos necesitamos saber el número de formas en que un subconjunto del grupo
completo, puede ordenarse. Cada arreglo posible se llama una permutación. Por ejemplo,
modificando el problema anterior, si se tienen seis libros de texto, pero sólo hay espacio para
cuatro libros en el estante. ¿De cuántas formas se pueden acomodar estos libros en el estante?

Finalmente, en muchas situaciones no estamos interesados en el orden de los resultados, sino


sólo en el número de formas en que X objetos pueden seleccionarse de n objetos, sin tomar en
cuenta el orden. Esta regla se llama de combinaciones.

Comparando esta regla con la anterior, vemos que difiere sólo en la inclusión de un término x! en
el denominador. Esto se debe a que cuando contamos permutaciones, todos los arreglos de x
objetos eran distinguibles; con las combinaciones, los x! arreglos posibles de objetos no son
importantes. Así, el número de combinaciones de cuatro libros seleccionados de seis libros se
expresa mediante:

n! 6! 6! (6)(5)(4)(3)(2)(1)
= = = = 15
x!(n − x)! 4!(6 − 4)! 4!2! (4)(3)(2)(1)(2)(1)

10 | P á g i n a
Si una variable X puede asumir un conjunto discreto de valores:

X 1 , X 2 , X 3 ,..............X n
Con probabilidades:

P1 , P2 , P3 ,.................Pn

Se dice que para la variable X ha sido definida una DISTRIBUCION DE PROBABILIDAD DISCRETA.
P1 , P2 , P3 ,.................Pn
Surge entonces la función p(X) que asume valores.
Respectivamente, en correspondencia con los valores.

X 1 , X 2 , X 3 ,..............X n

A la función p(X) se le llama: “Función de probabilidad de x o Distribución de probabilidad de


x”.

Porque X asume esos valores discretos, con determinada probabilidad, se le llama Variable Casual
Discreta o Variable Estocástica Discreta.
Si acumulamos los valores de probabilidad obtenida para cada valor de X, tendremos una
distribución acumulada de probabilidad, cuya función asociada se llama Función de Distribución;
la cual se representa con F(X).
En el mismo caso visto anteriormente, es decir, X es la variable casual del número de hijos
hombres en familias con 3 hijos; tendremos:

X= 0 , 1 , 2 , 3

P (x) = 1/8 , 3/8 , 3/8 , 1/8

F (x) = 1/8 , 4/8 , 7/8 , 8/8

11 | P á g i n a
Si una variable X puede asumir un conjunto continuo de valores (a, b), siguiendo una determinada
ley de probabilidad Y = p (x), entonces llamamos a X con el nombre de variable Casual continua o
variable Estocástica continua y a p(X) la llamamos como una distribución continua de probabilidad
de X, o más corrientemente una función de Densidad de la Probabilidad.

Ejemplo Gráfico:
Hallar la probabilidad de que X caiga entre los valores a y b = p (a< x <b)
La solución está representada por la parte sombreada en la gráfica siguiente. (suponemos
conocida la ley de probabilidad o función de densidad Y = p (x))

12 | P á g i n a
Es una distribución de probabilidad discreta que implica la posibilidad de obtener x éxitos en n
pruebas de un experimento binomial.

La distribución binomial posee cuatro propiedades esenciales.

• Las observaciones posibles pueden obtenerse mediante dos métodos de muestreo


distintos. Cada observación puede considerarse como seleccionada de una población
infinita sin reemplazo o de una finita con reemplazo.
• Cada observación puede clasificarse en una de dos categorías mutuamente excluyentes y
colectivamente exhaustivas (si uno de los eventos debe de ocurrir), usualmente
denominados: éxito o fracaso.
• La probabilidad de que una observación se clasifique como éxito, p, es constante de
observación a observación (es estacionario).
• El resultado de cualquier observación es independiente de cualquier observación.

Un buen ejemplo de un experimento binomial es el de lanzar una moneda al aire varias veces.
Sólo hay dos resultados posibles en cada prueba o tirada de la moneda (cara o escudo), la
probabilidad de obtener cara o escudo sigue constante de una tirada a otra (0.5 para cada una) y
las tiradas son independientes entre sí.

13 | P á g i n a
Si p es la probabilidad de que una persona reciba una suma de dinero S, la esperanza matemática
o simplemente la esperanza se define como pS.
Ejemplo:
Si la probabilidad de que un hombre gane un premio de Q. 100.00 es 1/5, su Esperanza es 1/5*100 = 20.
El concepto de esperanza es fácilmente generalizado. Si X representa una variable aleatoria
discreta que puede tomar los valores X1, X2.........Xk con probabilidades respectivas p1, p2, ......pk
donde p1+ p2......+ pk = 1, la esperanza matemática de X o simplemente la esperanza de X
simbolizada por E(X), se define como:
E(X) = p1X1 + p2X2+...............+ pkXk
Esto es igual a:
k

 piXi =  pX
i =1

Si las probabilidades pi en esta esperanza se sustituyen por las frecuencias relativas fki/N, donde
N =fi, la esperanza se reduce a (  fX / N), que es la media aritmética de una muestra de tamaño
N, en la que X1, X2, ......Xk aparecen con estas frecuencias relativas. Cuando N crece, las
frecuencias relativas fi / N se aproximan a las probabilidades pi. Esto conduce a interpretar que
E (X) representa la media de la población de la que se ha extraído una muestra. Se denota por m
la media de la muestra, la media de la población vendrá representada por la correspondiente
letra griega .

La distribución normal es de vital importancia en estadística por tres razones principales:


• Numerosos fenómenos continuos parecen seguirla o pueden aproximarse mediante ésta.
• Podemos usarla para aproximar diversas distribuciones de probabilidad discreta y evitar
así pesados cálculos.
• Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema
del límite central.

La distribución normal es una distribución continua que tiene forma de campana y está
determinada por su media y su desviación estándar (es más probable que una observación esté
cerca de la media del conjunto de los datos que lejos).

14 | P á g i n a
La siguiente figura muestra la forma de una curva normal típica. Observe que la curva es
simétrica; la mitad del área bajo la curva está a la derecha de la media y la mitad a la izquierda,
lejos de la media hacia cualquiera de las colas, la altura de la curva disminuye. Esto corresponde
a una probabilidad decreciente de encontrar un valor mientras más lejos esté de la media. La
distribución normal teórica tiende al infinito en los extremos positivo y negativo de la curva. En
la práctica este aspecto se ignora ya que la probabilidad de que ocurra una observación es muy
pequeña cuando aumenta la distancia de la media.

• Tiene forma de campana y es simétrica en apariencia.


• Sus mediciones de tendencia central (media, mediana, moda) son todas idénticas.
• Su variable aleatoria asociada tiene un alcance infinito. ( -  X  + ) .
• El área total bajo la curva es igual a 1.0, o 100%. El 50% del área está a la derecha de la
media y el 50% a la izquierda.
• Cada combinación de la media y la desviación estándar específica una distribución normal
única.
• La probabilidad de que una variable aleatoria tenga un valor entre cualquiera dos puntos
es igual al área bajo la curva entre esos puntos. Esta área se puede determinar usando el
cálculo o la tabla normal estándar.
• La curva normal tendrá en su punto más alto la media aritmética y es cuando z = 0.
• El valor de la curtosis es igual a 3.
• Cuando z = 0 y = 0.39894

15 | P á g i n a
El modelo matemático para obtener las probabilidades en una distribución normal es:

e −(1 / 2)( x −  x /  x 
1 2
p( X ) =
2  x
Dónde:

e = es la constante matemática aproximada por 2.71828

 = constante matemática 3.14159

 = media de la población

 = desviación estándar de la población

X = cualquier valor de la variable aleatoria continua.

Una distribución normal estandarizada es una distribución cuya variable aleatoria Z siempre tiene
una  = 0 y una desviación estándar  = 1, para ello se utiliza la siguiente fórmula de
transformación:
X − x
z=
x
El valor z es una medida del número de desviaciones estándar entre la media o centro de la curva
normal y el valor de interés.

16 | P á g i n a
La probabilidad de Poisson es otra distribución de probabilidad discreta y tiene muchas
aplicaciones prácticas como, por ejemplo:

• Número de llamadas por hora que llegan al conmutador de una estación de policía.
• Número de llegadas de carros al día en un puente de peaje.
• Número de huelgas industriales importantes al año en el Reino Unido.
• Número de manchas en una yarda cuadrada de tela.
• Número de defectos por lote en un proceso de producción.

Se usa para modelar situaciones en las que el número de pruebas es muy grande y el número de
éxitos es muy pequeño.

Un proceso de Poisson existe si podemos observar eventos discretos en un área de oportunidad,


un intervalo continuo (de tiempo, longitud, área, etc.) de tal manera que si acortamos el área de
oportunidad o intervalo de manera suficiente:

• La probabilidad de observar exactamente un éxito en el intervalo es estable.


• La probabilidad de observar exactamente más de un éxito en el intervalo es 0.
• La ocurrencia de un éxito en cualquier intervalo es estadísticamente independiente de
aquella en cualquier otro intervalo.

Supongamos que examinamos el número de clientes que llegan durante la hora del almuerzo de
12 a 1 PM en un banco localizado en el distrito comercial central de una ciudad grande. Cualquier
llegada de un cliente es un evento discreto en un punto particular sobre el intervalo continuo de
una hora. Durante tal intervalo de tiempo puede haber un promedio de 180 llegadas. Ahora, si
tuviéramos que dividir el intervalo de una hora en 3600 intervalo consecutivos de un segundo.

• El número (o promedio) esperado de clientes que llegan en cualquier intervalo de


segundos sería 0.05.
• La probabilidad de que más de un cliente llegue en cualquier intervalo de un segundo es
0.
• La llegada de un cliente en cualquier intervalo de un segundo no tiene efecto sobre (es
decir, es estadísticamente independiente de la) llegada de cualquier otro cliente en
cualquier otro intervalo de un segundo.

17 | P á g i n a
La expresión matemática para la distribución de Poisson para obtener X éxitos, dado que se
esperan  éxitos es.
e − x
P( X = x ) =
x!
Dónde:

P(X= x ) = Probabilidad de X= x dado que se conoce .

 = número esperado de éxitos.

e = constante matemática aproximada por 2.71828

x = número de éxitos por unidad.

Observe que solo se necesita una medida para calcular la probabilidad de un valor dado de x: 
(número esperado de éxitos).

Forma: Cada vez que se especifica el parámetro  puede generarse una distribución de
probabilidad de Poisson específica. Una distribución de Poisson estará sesgada a la derecha
cuando  es pequeña, y se aproxima a la simetría (con un pico al centro) al crecer .

La Media y la Desviación Estándar. Una propiedad interesante de la distribución de Poisson es


que la media  y la varianza  son iguales al parámetro .

En problemas de distribución Binomial donde n es grande y la probabilidad de éxito (p) es


bastante pequeña o bastante grande, las probabilidades se pueden aproximar usando la
distribución de Poisson. En este método se supone que las ocurrencias de éxitos de la Binomial
siguen un proceso de Poisson. Aunque las probabilidades calculadas usando esta aproximación
no son exactas, son bastante cercanas a las probabilidades binomiales verdaderas.

18 | P á g i n a
La fórmula quedaría de la siguiente forma:
e− np (np) x
p( x) =
x!

Y se operaría normalmente con la ecuación para la distribución de Poisson o haciendo uso de la


tabla.

La función de probabilidad exponencial es una distribución de probabilidad de tipo continuo, y es


útil para describir el tiempo que se tarda en realizar una actividad, por ejemplo: el tiempo
necesario para cargar un camión, el tiempo entre llegadas de un autobús, la distancia entre los
principales defectos de una carretera, etc.

1
f ( x) = e− x / 

El área bajo la curva que corresponde a cierto intervalo equivale a la probabilidad de que la
variable aleatoria asuma un valor en ese intervalo.

p( x  xo ) = 1 − e− xo / 

19 | P á g i n a
Actividades

Nombre de la Actividad: Tarea Práctica "Probabilidades"

Instrucciones:

Resolver lo indicado en la sección de Tareas / Notas en su curso en el GES.


Valor: 5 puntos
Formato de entrega: Subir documento a la sección "Tareas / Notas" en la asignación "Actividad
2.1"

Fecha máxima de entrega: Domingo 05 de febrero, a las 11:55 pm

Nombre de la Actividad: Tarea Práctica "Probabilidad Binomial"


Instrucciones:
Resolver lo indicado en la sección de Tareas / Notas en su curso en el GES.
Valor: 5 puntos
Formato de entrega: Subir documento a la sección "Tareas / Notas" en la asignación "Actividad
2.2"
Fecha máxima de entrega: Domingo 05 de febrero, a las 11:55 pm

20 | P á g i n a
Nombre de la Actividad: Tarea Práctica "Probabilidad Normal"
Instrucciones:
Resolver lo indicado en la sección de Tareas / Notas en su curso en el GES.
Valor: 5 puntos
Formato de entrega: Subir documento a la sección "Tareas / Notas" en la asignación "Actividad
2.3"
Fecha máxima de entrega: Domingo 05 de febrero, a las 11:55 pm

Nombre de la Actividad: Tarea Práctica "Probabilidades Exponencial y Poisson"


Instrucciones:
Resolver lo indicado en la sección de Tareas / Notas en su curso en el GES.
Valor: 5 puntos
Formato de entrega: Subir documento a la sección "Tareas / Notas" en la asignación "Actividad
2.4"
Fecha máxima de entrega: Domingo 05 de febrero, a las 11:55 pm

Nombre de la Actividad: Foro Unidad 2


Instrucciones:
Ingrese al foro habilitado para esta unidad "Foro Unidad 2" y participe contestando lo que se le
solicita.
Valor: 3.33 puntos
Fecha máxima de participación: Domingo 05 de febrero, a las 11:55 pm

21 | P á g i n a
22 | P á g i n a

También podría gustarte