Está en la página 1de 27

PONTIFICIA UNIVERSIDAD CATÓLICA MADRE Y MAESTRA

FACULTAD DE CIENCIAS DE LA INGENIERĺA


DEPARTAMENTO DE INGENIERĺA INDUSTRIAL

ESTADÍSTICA I PARA INGENIEROS


II-222-T

GUÍA DE CONTENIDO TEÓRICO # 3


DISTRIBUCIONES DE PROBABILIDAD

PREPARADO POR:
LUIS A. GERMOSÉN R.

SANTIAGO DE LOS CABALLEROS


Estadística I Para Ingenieros
Distribuciones de Probabilidad

INDICE DE CONTENIDO
Pág.
Distribuciones de Probabilidad…..…………………………………………………...2
Distribución Binomial……………...……………………………………………………2
Distribución Hipergemetrica.……………………………………………………….....5
Distribución Multinomial…..…………………………………………………………...6
Distribución Poisson……………….…..……………………………………………….7
Distribución Normal…….……………………………………………………………….8
Distribución Uniforme..…………………...…………………………………………..18
Distribución Exponencial………………….………………………………………….19
Distribución T-Student….……………………………………………………………..21
Distribución Chi-Cuadrado....………………………………………………………...22

Luis Germosén 1
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Distribuciones de Probabilidad.

Una distribución de probabilidad teórica consiste en la definición de un modelo


matemático que define un experimento dado.

Existen distribuciones de probabilidad teóricas discretas y continúas


dependiendo del tipo de variable aleatoria definida en el experimento.

Distribuciones de probabilidad discretas:


0
888888888Distribución Binomial.
1- Distribución Poisson.
2- Distribución Multinomial.
3- Distribución Hipergeometrica.

Distribuciones de probabilidad continuas:

1- Distribución Normal.
2- Distribución Exponencial.
3- Distribución Uniforme.
4- Distribución T-student.
5- Distribución Chi-cuadrado.

Distribución Binomial.

La distribución Binomial está ligada a un tipo de experimento llamado ensayo de


Bernoulli, en honor a Jacques Bernoulli.
En ensayo Bernoulli es un experimento aleatorio que solo puede concluir de dos
maneras distintas mutuamente excluyentes e independientes.

La distribución Binomial es una distribución discreta de probabilidad aplicable


como modelo a diversas situaciones de toma de decisiones, siempre y cuando
pueda suponerse que el proceso de muestreo se ajusta a un proceso Bernoulli.
Un proceso Bernoulli es un proceso de muestreo en el que:

1- Sólo son posibles dos resultados mutuamente excluyentes en cada


ensayo u observación. Por conveniencia, a estos resultados se les
denomina éxito y fracaso.
2- Los resultados del conjunto de ensayos u observaciones constituyen
eventos independientes.
3- La probabilidad de éxito, que se denota P, permanece constante de un
ensayo a otro. Es decir, el proceso es estacionario.
Luis Germosén 2
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Supongamos que un experimento aleatorio tiene las siguientes características: 


En cada prueba del experimento sólo son posibles dos resultados: el
suceso A (éxito) y su contrario A’ (fracaso).
• El resultado obtenido en cada prueba es independiente de los
resultados obtenidos anteriormente.
• La probabilidad del suceso A es constante, la representamos por
p, y no varía de una prueba a otra. La probabilidad de A’ es 1- p y
la representamos por q.
• El experimento consta de un número n de pruebas.

Todo experimento que tenga estas características diremos que sigue el modelo
de la distribución Binomial. A la variable X que expresa el número de éxitos
obtenidos en cada prueba del experimento, la llamaremos variable aleatoria
binomial.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los
valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas. Como
hay que considerar todas las maneras posibles de obtener k-éxitos y (n-k)
fracasos debemos calcular éstas por combinaciones (número combinatorio n
sobre k).
La distribución Binomial se suele representar por B(n,p) siendo n y p los
parámetros de dicha distribución.

Función de Probabilidad de la v.a. Binomial


Función de probabilidad de la distribución Binomial o también denominada
función de la distribución de Bernoulli (para n=1). Verificándose: 0  p  1

Como el cálculo de estas probabilidades puede resultar algo tedioso se


han construido tablas para algunos valores de n y p que nos facilitan el
trabajo.

Luis Germosén 3
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Parámetros de la Distribución Binomial

Función de Distribución de la v.a. Binomial

Siendo k el mayor número entero menor o igual a x i.


Esta función de distribución proporciona, para cada número real x i, la
probabilidad de que la variable X tome valores menores o iguales que x i.

El cálculo de las F(x) = p( X x) puede resultar laborioso, por ello se han
construido tablas para algunos valores de n y p que nos facilitan el
trabajo.

Sea X una variable aleatoria discreta correspondiente a una distribución


binomial.

Puede utilizarse la distribución Binomial para determinar la probabilidad de


obtener un número determinado de éxitos en un proceso Bernoulli. Se requieren
tres valores: el número especifico de éxitos (x), el número ensayos u
observaciones (n) y la probabilidad de éxito en cada uno de los ensayos (P).

Luis Germosén 4
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Distribución Hipergeométrica.

Cuando el muestreo se realiza sin reemplazo para cada uno de los elementos
que se toman de una población finita de elementos, no se puede aplicar el
proceso Bernoulli debido a que existe un cambio sistemático en la probabilidad
de éxitos al ir extrayendo elementos de la población. Cuando se utiliza el
muestreo sin reemplazo en alguna situación en la que, de no ser por el
reemplazo, se le pudiera calificar como proceso Bernoulli, la distribución discreta
de probabilidad apropiada resulta ser la distribución Hipergeometrica.

Una variable tiene distribución hipergeométrica si procede de un experimento


que cumple las siguientes condiciones:

1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto


finito de N objetos.

2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como


fracasos.

X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral


es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.

En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante


pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no
son independientes entre sí.

aCx*NaCnx
p( x,n) 
N Cn
X: # defectuosos en una muestra de una población finita.

N: número de elementos en la población.

n: número de elementos en la muestra.

Luis Germosén 5
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

a : número total de éxitos incluidos en la población.

En general, puede mostrarse que cuando h(x,n,a,N) se aproxima a b(x,n,p) con


p = a/N cuando N → ∞.

Propiedades de la distribución Hipergeometrica.

μ = E(X) = n (a/N)

σ2 = n x a (N – a) (N-n) / N2 x(N-1)

Distribución Multinomial

Una variable aleatoria se distribuye según una multinomial si cumple con las
mismas características de una distribución binomial, pero en el experimento
pueden darse más de dos posibles resultados.

Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i


= 1, ... , K), la variable que expresa el número de resultados de cada tipo
obtenidos en n pruebas independientes tiene distribución multinomial.

La probabilidad de obtener x 1 resultados E1, x2 resultados E2, etc. se representa


como:

Luis Germosén 6
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Los parámetros de la distribución son p1,..., pK y n.

Propiedades de la distribución Multinomial

1- E(X) = nPi
2- V(X) = nPiqi
Distribución Poisson.

Una variable de tipo poisson cuenta ‚éxitos (es decir, objetos de un tipo
determinado) que ocurren en una región del espacio o del tiempo.

Puede utilizarse la distribución de Poisson para determinar la probabilidad de


que ocurra un número designado de eventos cuando estos ocurren en un
determinado intervalo de tiempo. A un proceso como este se le denomina
proceso Poisson. Es similar al proceso Bernoulli excepto en que los eventos
ocurren en un intervalo de tiempo en vez de ocurrir en ensayos u observaciones
fijas. Al igual que en el caso del proceso Bernoulli se supone que los eventos
son independientes y que el proceso es estacionario.
Ejemplos:

1- Número de accidentes por semana en una autopista.


2- Número de llamadas que entran en un conmutador telefónico.
3- Número de personas que llegan en una hora a un banco en solicitud de
servicios.
4- Número de errores por página que comete una mecanógrafa.

La distribución de Poisson está caracterizada porque sus respuestas están


orientadas a darle solución a problemas que se refieren al número de éxitos
esperados por unidad de tiempo o espacio.

La función de probabilidad de una variable Poisson es:

Una variable con distribución de Poisson debe tener la estructura o responder


interrogantes mediante el siguiente planteamiento:

Luis Germosén 7
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

x = número de veces que ocurre un suceso en la unidad de tiempo, espacio,


volumen, etc.

λ = promedio de ocurrencia del suceso en la unidad de tiempo, espacio o


volumen.

Hay que hacer notar que en esta distribución el número de éxitos que
ocurren por unidad de tiempo, área o producto es totalmente al azar y que
cada intervalo de tiempo es independiente de otro intervalo dado, así como
cada área es independiente de otra área dada y cada producto es
independiente de otro producto dado.

Propiedades de la distribución Poisson.

1- μ = λ

2- σ2 = λ

El parámetro de la distribución es λ que es igual a la media y a la varianza de la


variable.

Esta característica puede servirnos para identificar a una variable Poisson en


casos en que se presenten serias dificultades para verificar los postulados de
definición.

Aproximación de la distribución de Poisson a la binomial.

Cuando el número de observaciones o ensayos en un proceso Bernoulli es


grande, los cálculos resultan ser bastante laboriosos. Además, no es común
que esté disponibles probabilidades tabuladas para valores muy pequeños de
probabilidad. La distribución de Poisson es apropiada como aproximación de las
probabilidades binomiales cuando n es grande y P pequeña.

Luis Germosén 8
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

La distribución Normal.

Una de las distribuciones continuas más importantes es la distribución Normal, la


cual ocupa un lugar destacado en la inferencia estadística. Su gráfica recibe el
nombre de curva normal, la cual describe la forma aproximada muchos
fenómenos que suceden en la naturaleza, tales como la estatura de los seres
humanos, coeficientes de inteligencia, etc.
La importancia de esta se refiere al aspecto inferencial de la estadística y
sobretodo a lo relacionado con el análisis de datos, puesto que las distribuciones
de muchas estadísticas maestrales tienden a la distribución normal conforme
crece el tamaño de la muestra.

Quien primero obtuvo la función de densidad de la normal fue Abraham De


Moivre (1667-1754) quien la dedujo en 1733 como límite de la binomial. Pero
fue Kart Friedrich Gauss quien desarrolló más ampliamente los conceptos de la
curva y de la probabilidad; por ello a esta distribución se le suele llamar
distribución gaussiana.

La distribución normal es muy importante por lo siguiente:

1. Es la distribución a la que se aproximan la mayoría de los fenómenos físicos,


Químicos, Biológicos.

2. Se ha tomado como base en la inferencia estadística paramétrica.

3. Otras distribuciones bajo ciertas circunstancias se pueden aproximar a la


normal.

4. Es la base para definir otras distribuciones de importancia tales como la Chi


cuadrada, t de Student y F de Fisher.

CARACTERISTICAS DE LA DISTRIBUCION NORMAL

1. Forma

Es una campana simétrica con respecto a su centro


La curva tiene un solo pico; por tanto, es unimodal.
La media de una población distribuida normalmente cae en el centro de su curva
normal.

Luis Germosén 9
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Debido a la simetría de la distribución normal de probabilidad, la mediana y la


moda de la distribución se encuentran también en el centro; en consecuencia,
para una curva normal, la media, la mediana y la moda tienen el mismo valor.
Los dos extremos de la distribución normal de probabilidad se extienden
indefinidamente y nunca tocan el eje horizontal
0

2. Parámetros

Está caracterizada por dos parámetros

a).- Parámetro de localización: La media

b).- Parámetro de forma: La varianza

3. Función de densidad

Luis Germosén 10
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Para determinar las áreas bajo la curva de función de densidad normal se


requiere integrar la ecuación anterior, desafortunadamente no existe una
solución exacta para la integral, por lo que su evaluación solamente puede
obtenerse utilizando métodos de aproximación. Por esta razón, se aprovechó la
propiedad de transformación de cualquier curva normal a la NORMAL
ESTANDAR utilizando una nueva variable aleatoria Z llamada variable
aleatoria normal estándar.

Si X ~ N ( µ, 2 ) entonces X puede transformarse en Z

Sea X una variable aleatoria continua cuya media es el valor esperado de X


E(X) = μ(X) y cuya varianza es σ2X , entonces X tiene distribución normal si su
función de densidad es:

Propiedades de la distribución Nomal:

1- La moda que es el punto sobre ele eje horizontal donde la curva tiene su
máximo ocurre en X = μ.
2- La curva es simétrica respecto a un eje localizado en X = μ.
3- La curva normal se acerca al eje horizontal en forma asintótica en
cualquiera de las dos direcciones y se aleja de la media.
4- La curva tiene sus puntos de inflexión en X = μ±σ.
5- Su rango va desde -∞ a +∞.
6- El área total limitada por la curva y el eje horizontal es igual a 1.

Luis Germosén 11
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

La dificultad que se encuentra al resolver las integrales de las funciones de


densidad normal hace necesaria la tabulación de las áreas de la curva normal,
pero sería difícil elaborar una tabla para cada valor posible de μ y de σ.

Distribución Normal Estándar.

Se emplea para transformar todas las observaciones de cualquier variable


aleatoria normal X en un nuevo conjunto de observaciones de una variable
aleatoria normal Z con media cero y varianza 1.

Para calcular probabilidades en intervalos de valores de la variable, habría que


integrar la función de densidad entre los extremos del intervalo. por desgracia (o
por suerte), la función de densidad normal no tiene primitiva, es decir, no se
puede integrar. Por ello la única solución es referirse a tablas de la función de
distribución de la variable (calculadas por integración numérica) Estas tablas
tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una
complejidad enorme.

Afortunadamente, cualquier que sea la variable normal, X, se puede establecer


una correspondencia de sus valores con los de otra variable con distribución
normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La
equivalencia entre ambas variables se obtiene mediante la ecuación:

La función de distribución de la variable normal tipificada está tabulada y,


simplemente, consultando en las tablas se pueden calcular probabilidades en
cualquier intervalo que nos interese.

X = valor de la variable aleatoria que nos preocupa


media de la distribución de la variable aleatoria

= desviación estándar de la distribución

Z = número de desviaciones estándar que hay desde x a la media de la


distribución

Luis Germosén 12
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Utilizamos Z en lugar del ‘número de desviaciones estándar’ porque las variables


aleatorias normalmente distribuidas tienen muchas unidades diferentes de
medición: dólares, pulgadas, partes por millón, kilogramos, segundos. Como
vamos a utilizar una tabla, la tabla I, hablamos en términos de unidades
estándar (que en realidad significa desviaciones estándar), y denotamos a éstas
con el símbolo z.

50 25
X
-25 0 25 50 75 100 125
x

----------------------------------------- Z = 
-3 -2 -1 0 1 2 3

Histograma de una normal idealizada


Luis Germosén 13
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Histograma de una muestra de una variable normal

Luis Germosén 14
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Aproximación normal a probabilidades binomiales.

Cuando el número de observaciones o ensayos n es relativamente grande


puede utilizarse la distribución normal de probabilidad para aproximar las
probabilidades binomiales.

Si np > 5 → Normal

Una distribución binomial B(n,p) se puede aproximar por una distribución


normal, siempre que n sea grande y p no esté muy próxima a 0 o a 1. La
aproximación consiste en utilizar una distribución normal con la misma media y
desviación típica que la distribución binomial. En la práctica se utiliza la
aproximación cuando:

Luis Germosén 15
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

En cuyo caso:

Y tipificando se obtiene la normal estándar correspondiente:

Debemos tener en cuenta que cuanto mayor sea el valor de n, y cuanto más
próximo sea p a 0.5, tanto mejor será la aproximación realizada.

Gracias a esta aproximación es fácil hallar probabilidades binomiales, que para


valores grandes de n resulten muy laboriosos de calcular.
Hay que tener en cuenta que para realizar correctamente esta transformación de
una variable discreta (binomial) en una variable continua (normal) es necesario
hacer una corrección de continuidad.

Luis Germosén 16
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Luis Germosén 17
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Aproximación normal a probabilidades de poisson.

Cuando la media λ de una distribución poisson es relativamente grande puede


utilizarse la distribución normal de probabilidad para aproximar probabilidades
tipo poisson.

Luis Germosén 18
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Distribución Uniforme.

Una variable aleatoria seguirá una distribución uniforme si:

1- Es continua.
2- Si están definidos los extremos del intervalo entre los cuales estará
definido X.
3- Si su F(X) = 1 / b – a.

En resumen:

Una variable aleatoria X está distribuida uniformemente en a < x < b si su


función de densidad es:

y la distribución se llama distribución uniforme.

Luis Germosén 19
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

La función de distribución está dada por:

La media y la varianza son respectivamente:

Distribución Exponencial.

Esta ley de distribución describe procesos en los que:

• Nos interesa saber el tiempo hasta que ocurre determinado evento,


sabiendo que,
• el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que
ello ocurra en un instante tf, no depende del tiempo transcurrido
anteriormente en el que no ha pasado nada.

Ejemplos de este tipo de distribuciones son:

• El tiempo que tarda una partícula radiactiva en desintegrarse. El


conocimiento de la ley que sigue este evento se utiliza en Ciencia para,
por ejemplo, la datación de fósiles o cualquier materia orgánica mediante
la técnica del carbono 14, C14.

• El tiempo que puede transcurrir en un servicio de urgencias, para la


llegada de un paciente.

• En un proceso de Poisson donde se repite sucesivamente un experimento


a intervalos de tiempo iguales, el tiempo que transcurre entre la
ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico
Luis Germosén 20
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos


dos veces una herida importante.

Concretando, si una v.a. continua X distribuida a lo largo de , es tal que su


función de densidad es

se dice que sigue una distribución exponencial de parámetro ,

Figura: Función de densidad, f, de una .

Un cálculo inmediato nos dice que si x>0,

Luis Germosén 21
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Luego la función de distribución es:

donde  es una constante positiva real.

El valor esperado y la varianza de la distribución exponencial son:

Distribución T-Student.

La mayoría de las veces no se tiene la suerte suficiente como para conocer la


varianza de la población de la cual se seleccionan las muestras aleatorias. Para
muestras de tamaño n  30, se proporciona una buena estimación de 2 al
calcular un valor de S2 .
Si el tamaño muestral es pequeño, los valores de S 2 fluctúan considerablemente
de muestra a muestra y la distribución de la variable aleatoria x -  / s/n se
desvía en forma apreciable de una distribución normal estándar. Ahora se está
tratando con la distribución de un estadístico que recibe el nombre de T, donde
T es igual a:
t = x -  / s/n
La distribución es apropiada para realizar inferencias sobre la media cuando se
desconoce  y la población tiene una distribución normal. Sin embargo, al
aumentar el tamaño de la muestra (y los grados de libertad) la distribución T se
aproxima a la forma de la distribución normal.

Su función de densidad de probabilidad viene dada por:

F(x) = Y0 / (1 + T2 /) +1/2  = Grados de Libertad

Características:

1- Tiene forma acampanada.


2- Es simétrica.
3- Su rango va desde - hasta + . Por lo que es una distribución asintótica.
4- Su forma es ligeramente diferente, siendo más platicurtica.
Luis Germosén 22
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

5- Esta distribución depende de . Siendo  el número de grados de


libertad. Generalmente se calcula como:  = n-1

Para el cálculo de probabilidades se usarán tablas de distribución t-student que


evitan las operaciones de integración de f(x).
Para entrar en la tabla es necesario conocer los grados de libertad y el valor de t.
Grados de Libertad.
El número de grados de libertad de un estadístico denotado generalmente por ,
se define como el número n de observaciones independientes en la muestra(es
decir, el tamaño muestral) menos el número k de parámetros de la población
que deben estimarse a partir de las observaciones de la muestra.
En el caso del estadístico t = x -  / s/n el número de observaciones
independientes en la muestra es n con las que se calcula x y s. Sin embargo,
puesto que se debe estimar , k=1 y así  = n-1

Distribución Chi-Cuadrado. 2
En muchas investigaciones lo que interesa es la variabilidad de las medidas. La
variabilidad, por lo general, se mide mediante la varianza (desviación estándar) y
la estadística empleada para llevar a cabo procesos inferenciales es la varianza
muestral.

La distribución Chi-Cuadrado se aplicará:

1- Cuando la variable aleatoria es continua.


2- Para la distribución de la varianza.
Luis Germosén 23
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

3- Cuando la muestra es pequeña.


4- La muestra procede de una población normal.

Se dice que una variable aleatoria x tiene distribución 2 con  grados de


libertad, cuando su función de densidad está dada por:

Características:

1- Una variable con distribución 2 no toma valores negativos.


2- Su rango va de 0 a +.
3- La gráfica de una distribución 2 es del tipo de curvas sesgadas a la
derecha.

4- Si x es una variable con distribución 2 con  grados de libertad: E(x)= y


V(x)= 2
5- El estadístico 2 se calcula: 2 = (n-1)S2 / 2
6- A medida que aumentan los grados de libertad, la curva se va haciendo
más simétrica y su cola derecha se va extendiendo.

Luis Germosén 24
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

BIBLIOGRAFÍA

Bibliografía de la Asignatura (Incluida en programa de la asignatura)

Devore, Jay. (2012). Probabilidad y Estadística Para Ingeniería y Ciencias.


Editorial Cengage. Octava Edición.
Walpole, Ronald; Myers, Raymond. (2012). Probabilidad y Estadística Para
Ingenieros. Editorial Prentice-Hall. Novena Edición.
Montgomery, Douglas. (2013). Applied Statistics and Probability for
Engineers. Wiley. 6th Edition.
Ross, Sheldom. (2002). Probabilidad y Estadística para Ingeniería y
Ciencias. Editorial McGraw-Hill. Segunda Edición.
Miller, Irwin; Freund, John y Johnson, Richard. (2012). Probabilidad y
Estadística para Ingenieros. Editorial Prentice Hall. Octava Edición.
Montgomery, Douglas. (1996). Probabilidad y Estadística Aplicadas a la
Ingeniería. Editorial McGraw-Hill. Segunda Edición.

Chao, Lincoln. (1993). Estadística para las Ciencias Administrativas.


Editorial Mc GrawHill. Tercera Edición.
Spurr, William; Bonini Charles. (1978). Tomas de Decisiones en
Administración Mediante Métodos Estadísticos. Editorial Limusa.
Chou, Yalun. (1972). Probability and Statistics for Decisión Making.

Luis Germosén 25
II-222-T
Estadística I Para Ingenieros
Distribuciones de Probabilidad

Luis Germosén 26
II-222-T

También podría gustarte