Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DISTRIBUCIÓN___________________________________________________________2
DISTRUBUCION DE PROBABILIDAD 3
DISTRIBUCIONES DISCRETAS
DISTRIBUCION POISSON 5
DISTRIBUCION BINOMIAL 6
DISTRIBUCION GEOMETRICA 8
DISTRIBUCIONES CONTINUAS
DISTRIBUCION NORMAL 15
DISTRIBUCION t STUDENT 18
DISTRIBUCION JI CUADRADA 20
DISTRIBUCION F _______ 21
Página 2
DISTRIBUCIÓN
o Canal de distribución
o Red de distribución de energía eléctrica,
o Distribución cinematográfica
o gran distribución y gran distribución especializada
o Distribución Linux.
o Distribución BSD.
En matemáticas
Página 3
Distribución de probabilidad
Una distribución de probabilidad indica toda la gama de valores que pueden representarse
como resultado de un experimento. Una distribución de probabilidad es similar al
distribución de frecuencias relativas .Si embargo, en vez de describir el pasado, describe la
probabilidad que un evento se realice en el futuro, constituye una herramienta fundamental
para la prospectiva, puesto que se puede diseñar un escenario de acontecimientos futuros
considerando las tendencias actuales de diversos fenómenos naturales.
Las decisiones estadísticas basadas en la estadística inferencial son fundamentales en la
investigación que son evaluadas en términos de distribución de probabilidades.
Propiedades
Para dos números reales cualesquiera a y b tal que (a < b), los sucesos y
serán mutuamente excluyentes y su suma es el suceso , por lo
que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la
variable aleatoria x conoceremos completamente la distribución de probabilidad de la
variable.
Página 4
Para realizar cálculos es más cómodo conocer las distribución de probabilidad, para ver una
representación gráfica de la probabilidad es más práctico el uso de la función de densidad.
Página 5
Distribuciones de probabilidad para una variable discreta
Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo
toma valores positivos en un conjunto de valores de X finito o infinito numerable. A dicha
función se la llama función de masa de probabilidad. En este caso la distribución de
probabilidad es el sumatorio de la función de masa, por lo que tenemos entonces que:
Ejemplo
Página 6
CXCC 3 1/16
XCCC 3 1/16
CCCC 4 1/16
Si X es una variable aleatoria que puede asumir valores x1, x2, ...., xn, con
probabilidades asociadas f(x1), f(x2), ...., f(xn), entonces el conjunto de pares
ordenados (xi, fxi), i = 1, 2, ...., n, se llama Función de probabilidad o
Distribución de probabilidad de X.
Página 7
F (2) = P (X = 2) = 6/16
• Requisitos
o La función f(xi), asume un valor numérico para todas las xi, 1 " i " N
• Requisitos:
o 0 " F(x) " 1
o Si a < b, entonces F(a) < F(b).
o F(") = P(x " ") = 1 y F(- ") = P(x " - ") = 0
ESPERANZA MATEMÁTICA
E(x) =
= 2 caras.
VARIANCIA
Página 8
V(x) = 2(x) = (0 - 2)2 (1/16) + (1 - 2)2 (4/16) + ... + (4 - 2)2 (1/16)
= 1(cara)2
(x) = 1 cara
• Distribución binomial
• Distribución binomial negativa
• Distribución Poisson
• Distribución geométrica
• Distribución hipergeométrica
Página 9
Distribuciones de probabilidad de una variable continúa
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo especifico. En el caso de variable continua la distribución
de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
Página 10
Conclusión: la distribución de variable continua a diferencia de la distribución de variable
discreta nos dará a conocer aquellos valores que tienen como resultado décimas ejemplo: la
estatura de un estudiante.
Página 11
PRINCIPALES DISTRIBUCIONES DE VARIABLES DISCRETAS
DISTRIBUCION DE POISSON
dónde
Página 12
Como una función de k, ésta es la función probabilidad de masa. La distribución de
Poisson puede ser vista como un caso limitante de la distribución binomial, es decir,
que una distribución binomial en la que y se puede aproximar por
una distribución de Poisson de valor
Función de densidad de
probabilidad
Función de distribución de
probabilidad
PROPIEDADES
Página 13
• El valor esperado de una variable aleatoria con distribución Poisson es igual a
λ y también lo es su varianza. Los momentos más altos de la distribución
Poisson son polinomios de Touchard en λ cuyos coeficientes tienen un
sentido combinatorio. De hecho, cuando el valor esperado de la distribución
Poisson es 1, entonces la fórmula de Dobinski dice que el enésimo momento
iguala al número de particiones de tamaño n.
Página 14
CONCLUSION:
EJEMPLOS COMPLEMENTARIOS
1.-Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las
probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b)
10 cheques sin fondos en cualquiera de dos días consecutivos?
Solución:
a) x = variable que nos define el número de cheques sin fondo que llegan al banco
en un día cualquiera = 0, 1, 2, 3, ....., etc, etc.
λ = 6 cheques sin fondo por día
ε = 2.718
b) x= variable que nos define el número de cheques sin fondo que llegan al banco en
dos días consecutivos = 0, 1, 2, 3, ......, etc., etc.
λ = 6 x 2 = 12 cheques sin fondo en promedio que llegan al banco en dos días
consecutivos
Nota: λ siempre debe de estar en función de x siempre o dicho de otra forma, debe
“hablar” de lo mismo que x.
Solución:
Página 15
a) x = variable que nos define el número de imperfecciones en la hojalata por cada
3 minutos = 0, 1, 2, 3, ...., etc., etc.
=1-(0.367918+0.367918) = 0.26416
3.- Si ya se conoce que solo el 3% de los alumnos de Contabilidad son muy inteligentes
¿calcular la probabilidad de que si tomamos 100 alumnos al azar 5 de ellos sean muy
inteligentes.
e = 2.718281828
DISTRIBUCION BINOMIAL
Página 16
En estadística, la distribución binomial es una distribución de probabilidad
discreta, mide el número de éxitos en una secuencia de n experimentos
independientes, con una probabilidad θ de ocurrencia del éxito en cada uno de los
experimentos. (La distribución de Bernoulli es una distribución binomial con n = 1).
Gráficamente se tiene
Página 17
Figura: Función de probabilidad de una
variable binomial cuando n es grande.
Página 18
Obsérvese que para el caso concreto de la moneda al ser la probabilidad de éxito θ =
0,5 la función de masa de probabilidad solo depende del número combinatorio
ya que:
Propiedades reproductivas
• se toma
Entonces:
Por lo tanto, dadas n variables binomiales independientes, donde cada una tiene su
propio n pero todas tienen igual , su suma es también una variable binomial, cuyo
parámetro n es la suma de los n de las variables originales, y cuyo parámetro
coincide con el de las originales.
CONCLUSION:
Página 19
EJEMPLOS COMPLEMENTARIOS:
1. - S e l an za u na m on e da c ua t ro vec es . Ca l cu l a r l a p r ob ab i l i dad d e
qu e s al g a n m ás c ar as q u e c ruc es .
B(4, 0. 5) p = 0. 5q = 0. 5
a) L as ci nc o p er s on as .
B(5, 2/ 3) p = 2 /3 q = 1/ 3
b) Al men os tr es p er s on as .
3. - L a p r ob abi l i da d d e qu e u n h om b re ac i ert e e n el bl a nc o es 1/ 4.
Si d i sp ara 10 v e ce s ¿ cu ál e s l a pr ob a bi l i d a d d e qu e ac i ert e
Página 20
ex ac t am e nt e e n t r es oc as i on e s? ¿ Cu á l es l a pr oba bi l i d a d d e q u e
ac i ert e p or l o m en os en un a oc as i ón ?
B(1 0, 1 /4) p = 1/ 4q = 3 /4
DISTRIBUCION GEOMETRICA
Cual de éstas es la que uno llama "la" distribución geométrica, es una cuestión de
convención y conveniencia.
Página 21
para n = 0,1, 2, 3,....
Página 22
La distribución geométrica del número y de fallos antes del primer éxito es
infinitamente divisible, esto es, para cualquier entero positivo n, existen variables
aleatorias independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales
tiene la misma distribución que tiene Y. Estas no serán geométricamente
distribuidas a menos que n = 1.
EJEMPLOS COMPLEMENTARIOS
1.- Se lanza al aire una moneda cargada 8 veces, de tal manera que la
probabilidad de que aparezca águila es de 2/3, mientras que la probabilidad
de que aparezca sello es de 1/3, Determine la probabilidad de que en el último
lanzamiento aparezca una águila.
Solución:
SSSSSSSA
Sí denotamos;
x = el número de repeticiones del experimento necesarias para que ocurra un éxito
por primera y única vez = 8 lanzamientos
p = probabilidad de que aparezca una águila = p( éxito) = 2/3
q = probabilidad de que aparezca un sello = p(fracaso) = 1/3
x −1
=q*q*q*q*q*q*q*p = q p
Página 23
Donde:
p(x) = probabilidad de que ocurra un éxito en el ensayo x por primera y única vez
p = probabilidad de éxito
q = probabilidad de fracaso
8−1
p(x=8) = ( 1 / 3 ) ( 2 / 3 ) = 0.0003048
Solución:
5−1
p(x = 5) = ( 0.05 ) ( 0.95 ) = 0.0000059
Página 24
3.- Los registros de una compañía constructora de pozos, indican que la
probabilidad de que uno de sus pozos nuevos, requiera de reparaciones en el
término de un año es de 0.20. ¿Cuál es la probabilidad de que el quinto pozo
construido por esta compañía en un año dado sea el primero en requerir
reparaciones en un año?.
Solución:
5−1
p(x = 5) = ( 0.80 ) ( 0.20 ) = 0.08192
Página 25
DISTRIBUCIONES CONTINUAS
Caracterización
Función densidad de probabilidad
La función densidad de probabilidad de la distribución uniforme continua es:
Los valores en los dos extremos a y b no son por lo general importantes porque no afectan el
valor de las integrales de f(x) dx sobre el intervalo, ni de x f(x) dx o expresiones similares. A
veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a). Este último resulta
apropiado en el contexto de estimación por el metodo de maximum likelihood. En el
contexto del análisis de Fourier, se puede elegir que el valor de f(a) ó f(b) sean 1/(2(b − a)),
para que entonces la transformada inversa de muchas transformadas integrales de esta
función uniforme resulten en la función inicial, de otra forma la función que se obtiene sería
igual "en casi todo punto", o sea excepto en un conjunto de puntos con medida nula.
También, de esta forma resulta consistente con la función signo que no posee dicha
ambigüedad.
Página 26
a partir de la cual se pueden calcular los momentos m k
Para una variable aleatoria que satisface esta distribución, la esperanza matemática es
entonces m1 = (a + b)/2 y la varianza es m2 − m12 = (b − a)2/12.
Propiedades
Generalización a conjuntos de Borel [editar]
Esta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si S es
un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en S se
puede especificar definiendo que la pdf sea nula fuera de S e igual a 1/K dentro de S, donde K
es la medida de Lebesgue de S.
Estadísticas de orden
Sea X1,..., Xn una muestra i.i.d. de U(0,1). Sea X(k) el orden estadístico k-ésimo de esta
muestra. Entonces la distribución de probabilidad de X(k) es una distribución Beta con
parámetros k y n − k + 1. La esperanza matemática es
'Uniformidad'
La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre
dentro de algun intervalo de longitud finita es independiente de la ubicación del intervalo
(aunque si depende del tamaño del intervalo), siempre que el intervalo este contenido en el
dominio de la distribución.
Es posible verificar esto, por ejemplo si X ≈ U(0,b) y [x, x+d] es un subintervalo de [0,b] con
d fijo y d > 0, entonces
Página 27
lo cual es independiente de x. Este hecho es el que le da su nombre a la distribución.
Uniforme standard
Si se restringe <> y b = 1, a la distribución resultante U(0,1) se la llama distribución uniforme
standard.
Una propiedad interesante de la distribución uniforme standard es que si u1 es una
distribución uniforme standard, entonces 1-u1 también lo es.
Distribuciones relajadas
Si X tiene una distribución uniforme standard,
Y = -ln(X)/λ tiene una distribución exponencial con parámetro λ.
Y = 1 - X1/n tiene una distribución beta con parámetros 1 y n. (Notar que esto implica que la
distribución uniforme standard es un caso especial de la distribución beta, con parámetros 1
y 1.)
Página 28
Conclusión
Distribución exponencial
--
Su función de distribución es
El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son
Se pueden calcular una variable aleatoria de distribución exponencial x por medio de una
variable aleatoria de distribución uniforme u = U(0,1):
Página 29
Ejemplo
El tiempo que transcurre antes de que una persona sea atendida en una cafetería es una
variable aleatoria que tiene una distribución exponencial con una media de 4 minutos. ¿Cuál
es la probabilidad de que una persona sea atendida antes de que transcurran 3 minutos en al
menos 4 de los 6 días siguientes?
Solución:
Conclusión
La distribución exponencial es el equivalente continuo de la distribución geométrica
discreta. Esta ley de distribución describe procesos en los que nos interesa saber el tiempo
hasta que ocurre determinado evento, sabiendo que, el tiempo que pueda ocurrir desde
cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo
transcurrido anteriormente en el que no ha pasado nada
Página 30
Distribución normal
La distribución normal, también llamada distribución de Gauss o distribución gaussiana, es
la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de
probabilidades. Esto se debe a dos razones fundamentalmente:
Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación
como modelo a gran número de variables estadísticas. Es, además, límite de otras
distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las
probabilidades gracias a sus propiedades matemáticas.
La función de densidad está dada por:
Página 31
Uso de tablas
La probabilidad de que una variable aleatoria (que sigue una distribución normal) se
encuentre entre dos valores determinados será en general difícil de calcular (hay que usar la
integral de la función de probabilidad). Para ello, existen tablas de distribución normal
tipificada, si bien éstas se calculan para la distribución Normal Tipificada.
Básicamente, se busca un valor de x (por ejemplo, ), y la tabla nos da la
probabilidad de que :
En el caso de que la distribución no sea estándar, por ejemplo, con y
, tendremos que tipificar la variable:
Se obtiene una variable Z normal, que además está tipificada. Si ahora se consulta en la
tabla,
Conclusión
La distribución normal proporciona la estimación de la probabilidad de que una variable
aleatoria asuma un valor de k desviaciones estándar de su media para cualquier valor de k.
Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación
como modelo a gran número de variables estadísticas. De entre todas ellas, la más utilizada
es la distribución normal estándar, que corresponde a una distribución de media 0 y
varianza 1.
Distribución Erlang
En estadística y simulación la distribución Erlang, también llamada distribución de Erlang,
es una distribución de probabilidad continua con dos parámetros k y θ cuya función de
densidad para valores x > 0 es
Página 32
distribución Erlang para describir el tiempo de espera hasta el suceso número k en un
proceso de Poisson.
Esperanza
E(X) = k / λ
Varianza
V(X) = k / λ2
Conclusión
La distribución Erlang es una distribución Poisson truncada de la misma manera que las dos
distribuciones binomiales negativas. La distribución Erlang es el equivalente de la
distribución gamma con el parámetro y . Para eso es la distribución exponencial. Se utiliza la
distribución Erlang para describir el tiempo de espera hasta el suceso número en un proceso
de Poisson
Distribución Gamma
En estadística la distribución gamma es una distribución de probabilidad continua con dos
parámetros k y λ cuya función de densidad para valores x > 0 es
Relaciones
El tiempo hasta que el suceso número k ocurre en un Proceso de Poisson de intensidad λ es
una variable aleatoria con distribución gamma. Eso es la suma de k variables aleatorias
independientes de distribución exponencial con parámetro λ.
Conclusión
Es una función de probabilidad que genera variables aleatorias que sirve para dar un
panorama de la tendencia que estamos analizando.
Página 33
Distribución t de Student
En probabilidad y estadística, la distribución-t o distribución t de Student es una
distribución de probabilidad que surge del problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del
popular test de la t de Student para la determinación de las diferencias entre dos medias
muestrales y para la construcción del intervalo de confianza para la diferencia entre las
medias de dos poblaciones.
la media muestral y
Página 34
Con ν igual a n − 1.
Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las
medias de muestras de dos distribuciones normales se distribuye también normalmente, la
distribución t puede usarse para examinar si esa diferencia puede razonablemente suponerse
igual a cero.
Conclusión
Distribución Beta
En estadística la distribución beta es una distribución de probabilidad continua con dos
parámetros a y b
cuya función de densidad para valores 0 < x < 1 es
Página 35
.
Aplicaciones
Algunas áreas, en las que se emplea la distribución beta como modelo de probabilidad
incluyen la distribución de artículos defectuosos sobre un intervalo de tiempo específico; la
distribución del intervalo de tiempo necesario para completar una fase de proyecto PERT,
evaluación de programas y técnicas de revisión; la distribución de la proporción de los
valores que deben caer entre dos observaciones extremas. La esencia de esta última área
tiene relación con los límites estadísticos de tolerancia. Estos límites son muy importantes,
especialmente en el control estadístico de calidad donde el control de variabilidad de un
producto es esencial. Este control, en general, se lleva a cabo mediante la medición de
algunas propiedades del producto o determinando los ajustes que deben hacerse al proceso
de producción para mejorar la calidad del producto. Los límites estadísticos de tolerancia no
son iguales a las tolerancias físicas o especificaciones límite. Éstos son conjuntos de criterios
diseñados para un proceso de producción en particular y que se espera que todas las
unidades cumplan.
Conclusión
La distribución beta es una distribución que permite generar una gran variedad de perfiles.
Se ha utilizado para representar variables físicas cuyos valores de encuentran restringidos a
un intervalo de longitud finita y para encontrar ciertas cantidades que se conocen como
límites de tolerancia sin necesidad de la hipótesis de una distribución normal. Además, la
distribución beta juega un gran papel en la estadística bayesiana.
Distribución ji-cuadrada
En estadística, la distribución ji-cuadrado, también denominada ji-cuadrado de Pearson, es
una distribución de probabilidad continua con un parámetro k que representa los grados de
libertad de la variable aleatoria:
Página 36
Función de densidad
La función de densidad ji-cuadrado es:
donde y para .
Γ es la función gamma.
Función de distribución
La función de distribución es
Aplicaciones
La distribución ji-cuadrado tiene muchas aplicaciones en inferencia estadística, por ejemplo
en el test ji-cuadrado y en la estimación de varianzas. También está involucrada en el
problema de estimar la media de una población normalmente distribuida y en el problema
de estimar la pendiente de una recta de regresión lineal, a través de su papel en la
distribución t de Student, y participa en todos los problemas de análisis de varianza, por su
papel en la distribución F de Snedecor, que es la distribución del cociente de dos variables
aleatorias de distribución ji-cuadrado e independientes.
Conclusión
La distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las
muestras posibles de una población normal y a cada muestra se le calcula su varianza, se
obtendrá la distribución muestral de varianzas.
Página 37
Distribución F
Usada en teoría de probabilidad y estadística, la distribución F es una distribución de
probabilidad continua. También se la conoce como distribución F de Snedecor o como
distribución F de Fisher-Snedecor.
Una variable aleatoria de distribución F se construye como el siguiente cociente:
donde
U1 y U2 siguen una distribución ji-cuadrada con d1 y d2 grados de libertad respectivamente, y
U1 y U2 son estadísticamente independientes.
La distribución F aparece frecuentemente como la distribución nula de una prueba
estadística, especialmente en el análisis de varianza. Véase el test F.
La función de densidad de una F(d1, d2) viene dada por
para todo número real x ≥ 0, donde d1 y d2 son enteros positivos, y B es la distribución beta.
La función de distribución es
Distribuciones relacionadas
es una distribución ji-cuadrada cuando para .
Conclusión
La distribución F tiene una apariencia muy similar a la distribución ji-cuadrada; sin
embargo, se encuentra centrada respecto a 1, y los dos parámetros proporcionan una
flexibilidad adicional con respecto a la forma de la distribución
Página 38
PRUEBAS DE BONDAD DE AJUSTE
Para formular la hipótesis nula deberán tenerse en cuenta los siguientes aspectos o criterios:
a) La naturaleza de los datos a analizar. Por ejemplo, si tratamos de investigar la
distribución que siguen los tiempos de falla de unos componentes, podríamos pensar
en una distribución exponencial, o una distribución gama o una distribución
Weibull, pero en principio no consideraríamos una distribución normal. Si estamos
analizando los caudales de un río en un determinado sitio, podríamos pensar en una
distribución logarítmica normal, pero no en una distribución normal.
b)
b) Histograma. La forma que tome el histograma de frecuencia es quizás la mejor
indicación del tipo de distribución a considerar.
Página 39
Prueba Chi Cuadrado (ji dos)
Esta prueba se usa cuando se quiere probar la hipótesis de que unos datos muestrales
provienen de una determinada distribución.
La prueba chi cuadrado se basa en la comparación entre la frecuencia observada en un
intervalo de clase y la frecuencia esperada en dicho intervalo, calculada de acuerdo con la
hipótesis nula formulada. Es decir, se quiere determinar si las frecuencias observadas en la
muestra están lo suficientemente cerca de las frecuencias esperadas bajo la hipótesis nula.
Para esta prueba es necesario agrupar o distribuir las observaciones de la muestra en
intervalos de clase, preferiblemente del mismo tamaño. El estadístico de prueba está
definido como:
Si los límites del intervalo de clase i están dados por Xi-1 y Xi, como lo ilustra la presente
gráfica, el número esperado de observaciones para ese intervalo está dado por:
Ei =nPi
donde Pi representa la probabilidad de que una observación quede en el intervalo i, de
acuerdo con función de densidad que se esté analizando, y n es el número total de
observaciones.
La probabilidad de que una observación caiga en el intervalo i está dada por:
Página 40
Si definimos Y2 como Y2 = n - Y1, y P2 = 1 - P1, se tiene que Z² se puede desagregar de la
siguiente manera:
Ahora suponga que las observaciones pueden clasificarse no en dos sino en k clasificaciones
mutuamente excluyentes, y sean Yi y Pi el número de variables que caen en la categoría i y la
probabilidad respectiva. La distribución conjunta de Y1, Y2,...,Yk tiene una distribución
multinomial con parámetros n, P1, P2,... y Pn, donde Pk = 1 - P1 - P2 -... -Pk-1. Se puede
demostrar que la variable Z2 definida a continuación sigue una distribución chi cuadrado
con k-1 grados de libertad:
· Cálculo de Pn. De manera similar, el último intervalo corresponde no sólo a los valores que
están entre Xk-1 y Xk, sino que comprende también los valores de la población que sean
mayores que Xk, así éstos no se hayan presentado en la muestra. Por lo tanto, Pk se calcula
como:
Página 41
Ejemplo. A un grupo de 80 empleados se les ha aplicado una prueba de habilidad espacial.
En una graduación de 0 a 100 han obtenido las puntuaciones dadas en la tabla siguiente. Se
pide verificar la hipótesis de que los puntajes se pueden ajustar a una distribución normal.
Página 42
H0: f(x,θ) = N(µ, σ²),
H1: f(x,θ) ≠ N(µ, σ²),
La tabla siguiente presenta los valores distribuidos en los intervalos de clase y la frecuencia
absoluta de cada intervalo, correspondiente al número de observaciones que caen en él.
Igualmente se presentan en la tabla los cálculos necesarios para realizar la prueba chi
cuadrado.
Los principales cálculos se resumen a continuación:
En general Pi, la probabilidad de que una observación quede en el intervalo i está dada por:
donde j(zi-1) y j (zi) son las probabilidades de que la variable aleatoria normal estándar Z sea
menor o igual a zi-1 y zi, respectivamente.
Al realizar los cálculos para Pi se tuvieron en cuenta los intervalos extremos como casos
especiales, a saber:
· Cálculo de P1. El cálculo de P1 corresponde a la probabilidad de que la variable aleatoria sea
menor o igual que X1, (igual a 24). Es decir,
· Cálculo de P8. El último intervalo corresponde a los valores de la población que sean
mayores que xn (84 en nuestro caso). Por lo tanto, P8 se calcula como:
· Para los demás valores Pi se calculó como: Pi = F(Xi) - F(Xi-1) = ϕ(zi)- ϕ(zi-1)
Página 43
El valor chi cuadrado calculado es X² = 1.46. El valor crítico con un nivel de significancia del
5% y 7 grados de libertad es 14.07. Por lo tanto, se concluye que no hay evidencia para
rechazar la hipótesis de que el puntaje obtenido en la prueba de habilidad se puede
representar mediante una distribución normal con un puntaje medio de 55.8 puntos, y una
desviación estándar de 18.6 puntos.
Ejemplo. Para verificar un generador congruencial de número aleatorios se generó una
secuencia de 100 números, los cuales se distribuyeron en 10 intervalos de clase igualmente
espaciados, y que se presentan en la tabla siguiente. Se desea probar, mediante la prueba chi
cuadrado, la hipótesis de que los números generados se distribuyen uniformemente entre 0
y 1. Use un nivel de confianza del 1%.
Página 44
Prueba de uniformidad Chi Cuadrado
Página 45
H0: f(x,λ) = Poisson (λ = 3.5)
H1: f(x, λ) ≠ Poisson (λ = 3.5)
La tabla siguiente presenta los cálculos requeridos para realizar la prueba de bondad de
ajuste. Para el cálculo de f(x,λ) que es una distribución de Poisson se usó la siguiente
relación:
Página 46
Prueba de Smirnov - Kolmogorov (S-K)
En esta prueba también se está interesado en el grado de concordancia entre la distribución
de frecuencia muestral y la distribución de frecuencia teórica, bajo la hipótesis nula de que
la distribución de la muestra es f0(x,θ) e interesa probar que no existe diferencia
significativa. La prueba trabaja con la función de distribución ( distribución de frecuencia
acumulativa). Esta prueba pertenece al campo de la Estadística No Paramétrica.
Sea F0(x) la función de distribución teórica para la variable aleatoria X, y representa la
probabilidad de que la variable aleatoria X tome un valor menor o igual a x (también se
interpreta como la proporción esperada de observaciones que tengan un valor menor o igual
a x). Es decir:
Sea Sn (x) la función de distribución empírica, calculada con base en los valores observados
de la muestra n observaciones. Sn (x) representa la proporción de valores observados que son
menores o iguales a x, y está definida como:
Sn (x) = P ( X ≤ x/ dados los resultados muestrales) = m/n
donde m es el número de valores observados que son menores o iguales a x.
En la prueba de Smirnov-Kolmogorov se está interesado en la mayor desviación entre la
función de distribución teórica y la empírica, es decir entre F0 (x) y Sn(x), para todo el rango
de valores de x. Bajo la hipótesis nula se espera que estas desviaciones sean pequeñas y estén
dentro de los límites de errores aleatorios. Por lo tanto, en la prueba S-K se calcula la mayor
desviación existente entre F0 (x) y Sn(x), denotada por Dmax(x) y está dada por:
Dmax(x) = Max | FX (x) - Sn (x) |
La distribución de Dmax(x) es conocida y depende del número de observaciones n. Se acepta
la hipótesis nula de que no existe diferencia significativa entre las distribuciones teóricas y
empíricas si el valor de Dmax(x) es menor o igual que el valor crítico Dmaxp(α,n). (Ver tabla
adjunta para valores críticos).
Esta prueba se puede realizar para valores agrupados en intervalos de clase y también para
valores sin agrupar.
Página 47
Tabla tomada parcialmente del libro "Simulation and Analysis of Industrial Systems", de
Schmidt y Taylor.
El procedimiento general para realizar esta prueba para valores agrupados en intervalos de
clase es el siguiente:
1) Especificar la distribución nula es f0(x,θ), y estimar sus parámetros si es necesario.
2) Organizar la muestra en una distribución de frecuencia, en intervalos de clase.
3) Con base en la distribución observada de frecuencia, se calcula la distribución
acumulativa Sn(Xi) = mi/n, siendo Xi el límite superior del intervalo de clase, y mi el número
de valores de la muestra menores o iguales que Xi. Sn(Xi) corresponde simplemente a la
frecuencia relativa acumulada hasta el intervalo i.
4) Se calcula la función de distribución teórica F0Xi).
5) Para cada intervalo de clase se calcula la diferencia entre F0 (Xi ) y Sn (Xi), y se busca la
máxima Dmax = Max | FX (Xi) - Sn (Xi), i = 1, 2, ..., k.
6) Se busca en la tabla el valor crítico Dmaxp(α,n) con el nivel de significancia α. Si el valor
observado Dmax es menor o igual que el valor crítico, entonces se acepta la hipótesis nula de
que no existen diferencias significativas entre la distribución teórica y la distribución dada
por los resultados muestrales, es decir, que los valores generados siguen la distribución que
se había supuesto.
Página 48
Cuando la muestra es pequeña y/o los valores no se van a organizar en intervalos de clase el
procedimiento es similar, sólo que el paso 2 se cambia por "ordenar los valores de la
muestra" en forma ascendente, de menor a mayor", y en los pasos 3 y 4 se calculan las
funciones de distribución teórica y empírica para cada valor de la muestra.
Ejemplo. Considere de nuevo el ejemplo de la prueba de habilidad aplicada a un grupo de
80empleados. Mediante la prueba de Smirnov Kolomogorov. Con un nivel de significancia
del 5%, pruebe la hipótesis de que los puntajes obtenidos siguen una distribución normal.
Solución. De la tabla construida para realizar la prueba chi cuadrado tomaremos la
información pertinente y la complementaremos con la información faltante, relativa al
cálculo de Sn(Xi). Los cálculos se muestran a continuación.
Página 49
La diferencia máxima observada es Dmax(x) = 0.09 y el valor crítico para un nivel de
significancia del 1% es de 1.63/ = .163. Como Dmax(x) < D(0.01,100) no podemos rechazar
la hipótesis nula y debemos concluir que la muestra tomada del generador de números
aleatorios proviene de una distribución uniforme (0,1).
Ejemplo. Prueba de Smirnov - Kolmogorov - Valores individuales. Para realizar la prueba de
S-K no se requiere que las observaciones estén distribuidas en intervalos de clase, sino que
puede realizarse sin agrupar los valores en intervalos de clase, principalmente cuando el
tamaño de la muestra es pequeño. En este caso es necesario ordenar los valores en forma
ascendente, de menor a mayor, y calcular, para cada valor observado las distribuciones
teóricas F0(Xi) y empíricas Sn(Xi) en la forma como se explicó anteriormente. En la tabla
siguiente se presenta la prueba para los primeros 20 números aleatorios generados mediante
el generador congruencial multiplicativo mencionado anteriormente. La diferencia máxima
observada es 0.123 y la máxima permitida es 0.294 para 20 valores y un nivel de significancia
del 5%, lo cual lleva a la conclusión de que no existe evidencia de que las observaciones no
se distribuyan uniformemente en el intervalo (0,1).. Recordemos que F0(Xi) = Xi para la
distribución uniforme (0,1)
Página 50
Sea (X1, X2,…Xn) la muestra aleatoria. Los pasos a seguir serán los siguientes.
1) Se ordenan los valores de la muestra de menor a mayor. Sea X(1), X(2),…, X(n) la muestra
ordenada.
3) Sea
4) Se define como "Calificación normal" al valor de Z en la distribución normal que tiene una
probabilidad acumulada de Pi, es decir, Zi = ϕ (-1) (Pi). Pi recibe el nombre de Pi ésimo fractil
de la distribución normal. La relación entre las calificaciones normales Zi y los X(i) debe ser
aproximadamente lineal, si la muestra proviene efectivamente de una distribución normal.
Por lo tanto, la correlación entre X(i) y los Zi debe ser aproximadamente 1 para muestras
grandes. X(i) podría expresarse como:
X(i) = a + bZi +ei
La tabla siguiente presenta los valores de la muestra ordenados de menor a mayor, el rango
de cada valor, y las respectivas calificaciones normales (Zi).
Página 51
Como puede observarse, la relación entre los datos es aproximadamente lineal, lo cual indica
que la muestra puede provenir de una distribución normal. El coeficiente de correlación
entre los Pi y los Zi es 0.9785
Conclusión
La prueba de K-S es aplicable solamente a variables aleatorias continuas comparar la gráfica
de la distribución empírica acumulada con la correspondiente gráfica de la función de
densidad acumulada de la distribución teórica propuesta. Si hay un acercamiento entre las
gráficas existe una probabilidad de que la distribución teórica se ajusta a los datos.
Página 52