Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La estadística se aplica en varios ámbitos desde la antigüedad para tener control sobre las
cosas, en la salud, la economía, las ciencias sociales y por supuesto en la ingeniería.
Existen muchas herramientas estadísticas para trabajar con los datos de alguna muestra,
con el fin de analizar los resultados y tomar decisiones en base a ello. En el ámbito de la
ingeniería se aplica para control de calidad, mejoras en procesos, pronósticos, control del
personal, seguridad industrial, entre otros muchos usos.
A pesar de ser una ciencia exacta, también se pueden cometer errores por lo que es
importante saber aplicar las técnicas y herramientas
La estadística es una ciencia que ayuda a recopilar y analizar datos para su posterior
interpretación con un fin específico, esta puede utilizarse para diferentes objetivos en
diferentes ramas.
La estadística se refiere a un conjunto de métodos enfocados a la obtención, presentación
y análisis de observaciones numéricas. Como se ha visto anteriormente, la rama llamada
estadística descriptiva tiene como fin de describir al conjunto de datos obtenidos.
Contenido
..................................................................................................................... 3
..................................................................................................... 3
................................................................................................................... 3
....................................................................................................... 3
........................................................................................................................ 4
................................................................................................................ 7
1.4.1. OBJETIVOS GENERALES ................................................................................. 7
1.4.2. OBJETIVOS ESPECIFICOS ................................................................................ 7
............................................................... 8
.................................................................................................................... 8
................................................................................................................. 8
............................................................................................................ 8
2.1.1. POBLACION ........................................................................................................ 9
2.1.2. MUESTRA ............................................................................................................ 9
2.1.3. MUESTRA ALEATORIA .................................................................................. 10
2.1.4. MUESTREO ...........................................................Error! Bookmark not defined.
2.1.5. VARIABLE .............................................................Error! Bookmark not defined.
2.1.6. PARAMETRO .................................................................................................... 11
2.1.7. DESVIACION ESTANDAR .............................................................................. 11
2.1.8. MEDIANA .......................................................................................................... 12
2.1.9. MEDIA MUESTRAL ......................................................................................... 12
2.1.10. DATO .................................................................................................................. 12
...................................................................................................... 12
2.2.1. ESPACIO MUESTRAL ...................................................................................... 12
Definición 2.2: .................................................................................................................... 14
Definición 2.3: .................................................................................................................... 14
Definición 2.4: .................................................................................................................... 15
Definición 2.5: .................................................................................................................... 15
Definición 2.5: .................................................................................................................... 15
2.3 Conteo de puntos muestrales .......................................................................................... 18
Regla 2.1: ............................................................................................................................ 18
Regla 2.2: ............................................................................................................................ 18
Definición 2.6: .................................................................................................................... 19
2.2.2. EVENTOS........................................................................................................... 19
2.2.3. PROBABILIDAD DE EVENTO ........................................................................ 19
Definición 2.7: .................................................................................................................... 19
Regla 2.3: ............................................................................................................................ 20
2.2.4. TRANSPORTE ................................................................................................... 20
2.8.1. proceso de transporte .............................................................................................. 21
2.8.2. Tonelaje Anual Transportado (Mineral Y Relave) .............................................. 22
2.8.3.Descripción Del Monitoreo ...................................................................................... 22
......................................... 24
2.3.1. COVARIANZA .................................................................................................. 24
2.3.2. CORRELACION ................................................................................................ 25
2.3.3. REGRESION LINEAL SIMPLE ........................................................................ 27
2.3.4. RECTA DE REGRESION DE MINIMOS CUADRADOS ............................... 29
2.3.5. MORALES .......................................................................................................... 30
............................................................................. 30
2.4.1. JUVEL................................................................................................................. 31
2.4.2. MORALES .......................................................................................................... 31
.......................................................................... 31
2.5.1. TECHI ................................................................................................................. 32
2.5.2. FIDO ................................................................................................................... 32
................................................................... 32
2.6.1. DISTRIBUCION NORMAL .............................................................................. 33
2.6.2. DISTRIBUCION DE POISON ........................................................................... 36
2.6.3. DISTRIBUCION DE BERNOULLI ................................................................... 37
2.6.4. PRUEBA DE KOLMOGOROV – SMIRNOV................................................... 38
2.6.5. PRUEBA DE ANDERSON – DARLIN ............................................................. 41
2.6.6. PRUEBA DE RYAN – JONIER ......................................................................... 43
2.6.7. KURTOSIS ......................................................................................................... 44
................................................................................................................ 44
............. 44
................................................................................. 44
3.1.1. PERFORACION ................................................................................................. 44
3.1.2. LIMPIEZA .......................................................................................................... 48
3.1.3. CARGUIO ........................................................................................................... 49
3.1.4. ACARREO Y TRANSPORTE ........................................................................... 49
3.1.5. SOSTENIMIENTO ............................................................................................. 49
3.1.6. RORO .................................................................................................................. 50
.................................................................................. 50
3.2.1. JOS ...................................................................................................................... 50
3.2.2. MAR .................................................................................................................... 50
................................................................................................................ 50
........................................................................................... 50
.......................................................................................................... 50
4.1.1. GI......................................................................................................................... 50
4.1.2. ¿Estimador y estimación significa lo mismo en estadística? ............................... 51
4.1.3. ¿Cuál es la diferencia entre desviación estándar y error estándar? ..................... 51
............................................................................................................................ 52
4.2.1. HJ ........................................................................................................................ 52
4.2.2. HJ ........................................................................................................................ 52
.................................................................................................................. 52
................................................................. 52
..................................................................................................... 52
........................................................................................... 52
..................................................................................... 52
................................................................................................................ 52
..................................................................................................................... 52
................................................................................................................ 52
........................................................................................................................... 52
1.4.1. OBJETIVOS GENERALES
COLECCIONA
RECOPILA
ANALIZA Brindar
DATOS para
conclusiones
INTERPRETA
Conjunto total de individuos u objetos con alguna característica que es de interés estudiar,
ya sea finito o infinito, de elementos o individuos que interesa considerar y podrían ser
accesibles en el estudio.
Este concepto vamos a definir bajo diferentes enfoques. En investigación científica se le
define como la totalidad de elementos sobre los cuales recae la investigación. A cada
elemento se le llama unidad estadística, ésta se le observa o se le somete a una
experimentación, estas unidades son medidas pertinentemente.
X , X , X ,..., X N 1 2 3
2.1.2. MUESTRA
Sierra Bravo (1991) anota que: “Una muestra en general, es toda parte representativa de
la población, cuyas características debe reproducir en pequeño lo más exactamente
posible.” Para que sea representativa se debe seleccionar empleando el muestreo, tópico
importante de la Estadística, con la finalidad de que los resultados de esta muestra sean
válidos para la población de la que sea obtenido la muestra. Esta generalización se realiza
empleando la estadística inferencial.
EJEMPLO: Los estudiantes que cursan la serie 400 de la escuela profesional de
ingeniería de minas de la UNSCH.
2.1.3. VARIABLE
Discreta: Son aquellas que se obtienen por el procedimiento del conteo (valores enteros
no negativos).
Ejemplo: El número de estudiantes de la escuela de Ingeniería de Minas que cursan las
serie 400 de la UNSCH.
Continua: Son aquellas que se obtienen por el procedimiento de la medición (toma
valores no necesariamente enteros).
Ejemplo: El peso corporal de los estudiantes de la escuela de Ingeniería de Minas que
cursan las serie 400 de la UNSCH.
Sierra Bravo (1991) indica que parámetro deriva del vocablo griego parámetreo que
significa medir una cosa con otra:
En estadística se refiere a los valores o medidas que caracterizan una población como por
ejemplo la media y la desviación típica de una población (…) Son cantidades
indeterminadas constantes o fijas respecto a una condición o situación que caracteriza a
un fenómeno en un momento dado que ocurre en una población.
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
𝑆= √
𝑛
Donde:
n = Número de datos o elementos de la muestra
i = Índice de la suma que toma los valores 1, 2, 3, …, n
𝑋𝑖 = Valor del i-ésimo dato de la muestra
𝑋̅ = Media aritmética de la muestra
2.1.7. MEDIANA
E(X) = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖
La mediana de una variable aleatoria X es el numero Me que divide a la distribución en
dos partes iguales. Es decir, verifica:
de elementos, podemos listar los miembros separados por comas y encerrarlos entre
llaves. Por consiguiente, el espacio muestral S, de los resultados posibles cuando se lanza
S = {H, T},
escribiría como:
que se lee “S es el conjunto de todas las x, tales que x es una ciudad con una población de
más de un millón de habitantes”. La barra vertical se lee como “tal que”. De manera
similar, si S es el conjunto de todos los puntos (x, y) sobre los limites o el interior de un
S = {(x, y) | x2 + y2 ≤ 4}.
Definición 2.2:
Un evento es un subconjunto de un espacio muestral.
Es posible concebir que un evento puede ser un subconjunto que incluye todo el espacio
Definición 2.3:
El complemento de un evento A respecto de S es el subconjunto de todos los elementos
Ejemplo: Sea R el evento de que se seleccione una carta roja de una baraja ordinaria de
52 cartas,
y sea S toda la baraja. Entonces R´ es el evento de que la carta seleccionada de la baraja
Definición 2.4:
La intersección de dos eventos A y B, que se denota con el símbolo A ∩ B, es el evento
Ejemplo: Sea E el evento de que una persona seleccionada al azar en un salón de clases
sea estudiante de ingeniería, y sea F el evento de que la persona sea mujer. Entonces E ∩
F es el
Definición 2.5:
Dos eventos A y B son mutuamente excluyentes o disjuntos si A ∩ B = ϕ; es decir,
Definición 2.5:
La unión de dos eventos A y B, que se denota con el símbolo A ∪ B, es el evento que
espacio muestral como un rectángulo y los eventos con círculos trazados dentro del
rectángulo.
De esta forma, en la fi gura 2.3 vemos que
A ∩ B = regiones 1 y 2,
B ∩ C = regiones 1 y 3,
A ∪ C = regiones 1, 2, 3, 4, 5 y 7,
B´ ∩ A = regiones 4 y 7,
A ∩ B ∩ C = región 1,
(A ∪ B) ∩ C' = regiones 2, 6 y 7,
y así sucesivamente.
Figura 2.3: Eventos del espacio muestral S.
En la fi gura 2.3 vemos que los eventos A, B y C son subconjuntos del espacio muestral
representar una situación en la que se selecciona una carta al azar de una baraja ordinaria
A: la carta es roja,
C: la carta es un as.
Claramente, el evento A ∩ C consta solo de los dos ases rojos. Varios resultados que se
1. A ∩ ϕ = ϕ. 6. Φ´= S.
2. A ∪ ϕ = A. 7. (A´) ´= A.
3. A ∩ A´ = ϕ. 8. (A ∩ B) ´ = A´ ∪ B´.
4. A ∪ A´= S. 9. (A ∪ B) ´ = A´∩ B´.
5. S´ = ϕ.
Regla 2.1:
Si una operación se puede llevar a cabo en n1 formas, y si para cada una de estas se puede
realizar una segunda operación en n2 formas, entonces las dos operaciones se pueden
Ejemplo: Cuantos puntos muestrales hay en el espacio muestral cuando se lanza un par
de dados
una vez?
Solución: El primer dado puede caer en cualquiera de n1 = 6 maneras. Para cada una de
esas 6 maneras el segundo dado tambien puede caer en n2 = 6 formas. Por lo tanto, el par
Regla 2.2:
Si una operación se puede ejecutar en n1 formas, y si para cada una de estas se puede
llevar a cabo una segunda operación en n2 formas, y para cada una de las primeras dos se
puede realizar una tercera operación en n3 formas, y así sucesivamente, entonces la serie
Ejemplo: Sam va a armar una computadora y para comprar las partes tiene que elegir
entre las siguientes opciones: dos marcas de circuitos integrados, cuatro marcas de discos
duros, tres marcas de memorias y cinco tiendas locales en las que puede adquirir un
conjunto de accesorios. ¿De cuantas formas diferentes puede Sam comprar las partes?
Solución:
Como n1 = 2, n2 = 4, n3 = 3 y n4 = 5, hay
n1 × n2 × n3 × n4 = 2 × 4 × 3 × 5 = 120
Definición 2.6:
Una permutación es un arreglo de todo o parte de un conjunto de objetos.
Considere las tres letras a, b y c. Las permutaciones posibles son abc, acb, bac, bca, cab
y cba, por lo tanto, vemos que hay 6 arreglos distintos.
2.2.2. EVENTOS
Definición 2.7:
La probabilidad de un evento A es la suma de los pesos de todos los puntos muestrales
en A. Por lo tanto:
Además, si A1, A2, A3,… es una serie de eventos mutuamente excluyentes, entonces
P(A1 ∪ A2 ∪ A3 ∪…) = P(A1) + P(A2) + P(A3) +… .
Ejemplo Una moneda se lanza dos veces. ¿Cuál es la probabilidad de que ocurra al menos
Si la moneda está balanceada, cada uno de estos resultados tendrá las mismas
tienen las mismas probabilidades de ocurrir, asignamos una probabilidad igual a 1/N a
cada uno de los N puntos. La probabilidad de que cualquier evento A contenga n de estos
de elementos en S.
Regla 2.3:
Si un experimento puede dar como resultado cualquiera de N diferentes resultados que
P (A) =n/N.
2.2.4. TRANSPORTE
La etapa de transporte consiste en trasladar el mineral y desmonte fragmentado, desde los
mismos bancos de explotación hasta los Pads de lixiviación, ahora se está depositando el
mineral en el Pad Nº 03
Para el transporte del mineral en la Unidad Tucari cuenta con los servicios de terceros,
quienes se encargan de depositar el mineral en el Pad Nro 03. El recorrido es como sigue:
El Desmonte se traslada desde los bancos de explotación a los Botaderos; Bot. Nv 5142,
Bot Nv 5132, Bot. Nv 5112, Bot. Nv 5072, Bot. Nv 5002, Bot. Nv 4992,Bot. 4982 y se
tiene una distancia promedio de 0.600 a 0.920Km y también para mantenimiento de vías.
del movimiento de material; mineral, desmonte y relave, los cuales están distribuidos
TABLA 01
Resumen de dimensionamiento volquetes - volvo FMX 8x4
El transporte del mineral lo realizan por la vía principal el cual involucra el recorrido
desde interior mina una distancia de 15.5 km, así mismo el transporte de desmonte hacia
superficie el cual involucra el recorrido desde interior mina hasta la desmontera una
El monitoreo del equipo abarco un total de 3 días, en este tiempo se ha obtenido un total
Definición. la covarianza de n valores (X1, Y1), (X2, Y2), . . ., (Xn, Yn) de una variable bidimensional
(X, Y) es el numero 𝐶𝑂𝑉𝑥𝑦 o 𝑆𝑥𝑦 que se define igual a la media aritmética de los productos de
la desviación de los datos con respecto a sus correspondientes medias (𝑋̅, 𝑌̅). Esto es,
𝑛 𝑛
Luego,
2.3.2. CORRELACION
El análisis de correlación emplea métodos para medir la significación del grado o intensidad de
asociación entre dos o más variables. El concepto de correlación está estrechamente vinculado
al concepto de regresión, pues, para que una ecuación de regresión sea razonable los puntos
muestrales deben estar ceñidos a la ecuación de regresión; además el coeficiente de correlación
debe ser:
Sean (X1, Y1), (X2, Y2), . . ., (Xn, Yn) los n puntos del diagrama de dispersión de una variable
bidimensional (X, Y) es el numero abstracto o relativo r que se calcula por:
𝐶𝑂𝑉𝑥𝑦
𝑟=
𝑆𝑥𝑆𝑦
Donde, 𝑆𝑥 es la desviación estándar de X
𝑆𝑦 es la desviación estándar de Y
𝑆𝑥𝑦 ∑ 𝑋𝑌 − 𝑛 ∗ 𝑋̅ ∗ 𝑌̅
𝑟= =
√𝑆𝑥𝑥 ∗ √𝑆𝑦𝑦 √∑ 𝑋 2 − 𝑛𝑋̅ 2 ∗ √∑ 𝑦 2 − 𝑛𝑌̅ 2
Es un número que indica el grado o intensidad de asociación entre las variables X e Y. Su valor
varía entre -1 y +1; esto es: -1 ≤ r ≤ 1.
Si r = -1, la asociación es perfecta pero inversa; es decir, a valores altos de una variable
le corresponde valores bajos a la otra variable, y viceversa.
Si r=+1, también la asociación es perfecta pero directa.
Si r=0, no existe asociación entre las dos variables.
Luego puede verse que a medida que r se aproxime a -1 ó +1 la asociación es mayor, y cuando
se aproxima a cero la asociación disminuye o desaparece.
𝑦 = 𝑎 + 𝑏𝑋
Que mejor se ajuste a los valores de la muestra, con el fin de poder predecir o pronosticar los
valores de Y (variable dependiente) a partir de X (variable independiente).
Hallar la función lineal 𝑦 = 𝑎 + 𝑏𝑋, es un proceso que consiste en determinar los valores de a y
b aplicando los datos de la muestra.
𝑦 = 𝑎 + 𝑏𝑋.
̂
Del valor observado Yi y el valor pronostico, 𝑌𝑖
Un método para determinar la recta que mejor ajuste a los n datos de la muestra (Xi,Yi) es
el método de mínimos cuadrados.
𝑛 𝑛 𝑛
Luego, determinar una recta de regresión de mínimos cuadrados consiste en hallar los valores
de a y b de manera que hagan mínima, la suma:
𝑛 𝑛
∑ 𝑦𝑖 = 𝑛𝑎 + 𝑏 ∑ 𝑥𝑖
𝑖=1 𝑖=1
𝑛 𝑛 𝑛
∑ 𝑥𝑖 𝑦𝑖 = 𝑎 ∑ 𝑥𝑖 + 𝑏 ∑ 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1
Estas ecuaciones se obtienen de igualar a cero las derivadas de SCE con respecto a a y con
respecto a b respectivamente consideradas como variables, ya que (Xi, Yi) son datos observados.
n ∑ 𝑥𝑖 𝑦𝑖 − ∑ 𝑥𝑖 ∑ 𝑦𝑖
b=
n ∑ 𝑥𝑖2 − (∑ 𝑥𝑖 )2
𝑆𝑥𝑦
𝑏=
𝑆𝑥2
Y dividiendo por n la primera ecuación normal, se tiene: el valor:
𝑎 = 𝑌̅ − 𝑏𝑋̅
Que es otra forma de expresar la recta de regresión. Observar que la recta de regresión
contiene al punto (𝑋̅, 𝑌̅ ) cuyas componentes son las medias de X y de Y respectivamente.
2.3.5. MORALES
2.4.1. JUVEL
2.4.2. MORALES
Es la que requiere que los elementos que integran las muestras contengan elementos
parámetros o medibles. Puede resolver tres tipos de problemas:
2.5.1. TECHI
2.5.2. FIDO
La mayoría de estos test estadísticos están programados en los paquetes estadísticos más
frecuentes, quedando para el investigador, simplemente, la tarea de decidir por cuál de
todos ellos guiarse o qué hacer en caso de que dos test nos den resultados opuestos. Hay
que decir que, para poder aplicar cada uno existen diversas hipótesis nulas y condiciones
que deben cumplir nuestros datos para que los resultados de aplicar el test sean fiables.
Esto es, no se puede aplicar todos los test y quedarse con el que mejor convenga para la
investigación sin verificar si se cumplen las hipótesis y condiciones necesarias pues, si se
violan, invalidan cualquier resultado posterior y son una de las causas más frecuentes de
que un estudio sea estadísticamente incorrecto. Esto ocurre sobre todo cuando el
investigador desconoce la naturaleza interna de los test y se limita a aplicarlos
sistemáticamente.
Es importante mencionar que, si la distribución de los datos se ajusta a un tipo de
distribución conocida, existen otras [pruebas] que, en la práctica, son más aconsejables
pero que así mismo requieren otros supuestos. En este caso, la estadística a emplear es
la estadística paramétrica, dentro de la cual muchas veces podemos encontrar
equivalencias entre pruebas pero con diferencias en la potencia entre ambas siendo
siempre la potencia de las pruebas no paramétricas menor que la potencia de las pruebas
paramétricas equivalentes. Aun así, el uso adecuado de los tamaños muestrales disminuye
la posibilidad de cometer un [error tipo II], puesto que aumenta al mismo tiempo la
eficacia de la prueba. Es decir, a medida que se aumenta el tamaño de la muestra,
disminuye la posibilidad de cometer un error tipo II (un falso negativo: No rechazar la
hipótesis nula cuando ésta en realidad es falsa).
La distribución normal es una distribución con forma de campana donde las desviaciones
estándar sucesivas con respecto a la media establecen valores de referencia para estimar
el porcentaje de observaciones de los datos. Estos valores de referencia son la base de
muchas pruebas de hipótesis, como las pruebas Z y t.
Histograma de una distribución normal hipotética
Puesto que la distribución de estos datos es normal, usted puede determinar exactamente
qué porcentaje de los valores está dentro de cualquier rango específico. Por ejemplo:
En la figura 3 se muestran dos curvas normales con la misma media pero con desviaciones
estándar diferentes. Aquí se observa que las dos curvas están centradas exactamente en la
misma posición sobre el eje horizontal; sin embargo, la curva con la mayor desviación
estándar es más baja y más extendida. Recuerde que el área bajo una curva de
probabilidad debe ser igual a 1 y, por lo tanto, cuanto más variable sea el conjunto de
observaciones, más baja y más ancha será la curva correspondiente. La figura muestra
dos curvas normales que tienen diferentes medias y diferentes desviaciones estándar.
Evidentemente, están centradas en posiciones diferentes sobre el eje horizontal y sus
formas refl ejan los dos valores diferentes de σ.
Los experimentos que producen valores numéricos de una variable aleatoria X, el número
de resultados que ocurren durante un intervalo de tiempo determinado o en una región
específica, se denominan experimentos de Poisson. El intervalo de tiempo puede ser de
cualquier duración, como un minuto, un día, una semana, un mes o incluso un año. Por
ejemplo, un experimento de Poisson podría generar observaciones para la variable
aleatoria X que representa el número de llamadas telefónicas por hora que recibe una
oficina.
Propiedades del proceso de Poisson
1. El número de resultados que ocurren en un intervalo o región específica es
independiente del número que ocurre en cualquier otro intervalo de tiempo o
región del espacio disjunto. De esta forma vemos que el proceso de Poisson no
tiene memoria.
2. La probabilidad de que ocurra un solo resultado durante un intervalo de tiempo
muy corto o en una región pequeña es proporcional a la longitud del intervalo o
al tamaño de la región, y no depende del número de resultados que ocurren fuera
de este intervalo de tiempo o región.
3. La probabilidad de que ocurra más de un resultado en tal intervalo de tiempo corto
o que caiga en tal región pequeña es insignificante.
El número X de resultados que ocurren durante un experimento de Poisson se llama
variable aleatoria de Poisson y su distribución de probabilidad se llama distribución de
Poisson. El número medio de resultados se calcula a partir de μ = λt, donde t es el
“tiempo”, la “distancia”, el “área” o el “volumen” específicos de interés. Como las
probabilidades dependen de λ, denotaremos la tasa de ocurrencia de los resultados con
p(x; λt). La derivación de la fórmula para p(x; λt), que se basa en las tres propiedades de
un proceso de Poisson que se listaron antes, está fuera del alcance de este texto. La
siguiente fórmula se utiliza para calcular probabilidades de Poisson.La distribución de
probabilidad de la variable aleatoria de Poisson X, la cual representa el número de
resultados que ocurren en un intervalo de tiempo dado o región específi cos y se denota
con t, es:
𝑒 −𝜆 (𝜆)𝑥
𝑓(𝑥) = 𝑃(𝑥; 𝜆𝑡) = = 𝑒 𝑥 , 𝛾 > 0, 𝑥 = 0,1,2, . . . ,
𝑥!
Con frecuencia un experimento consta de pruebas repetidas, cada una con dos resultados
posibles que se pueden denominar éxito o fracaso. La aplicación más evidente tiene que
ver con la prueba de artículos a medida que salen de una línea de ensamble, donde cada
prueba o experimento puede indicar si un artículo está o no defectuoso.
Se denomina prueba o ensayo de Bernoulli a todo experimento aleatorio que consiste en
solo dos resultados posibles mutuamente excluyentes, generalmente llamados éxito (E) y
fracaso(F).
Por ejemplo, elegir al azar un objeto fabrica, con los resultados: defectuoso o no
defectuoso. Recibir opiniones de personas, a favor o en contra de algo, etc.
El espacio muestral asociado al experimento aleatorio de Bernoulli se puede escribir
como el conjunto:
Ώ = {𝐸, 𝐹}
La variable aleatoria x define en Ώ de manera que atribuye a E en el valor 1 y a F el valor
0, se denomina variable aleatoria de Bernoulli.
Si el éxito E se asigna la probabilidad p =P [X = 1] donde 0 < p < 1, entonces el fracaso
F tiene probabilidad P [X = 1] = 1 – p. luego, la distribución de probabilidad de Bernoulli
de parámetro p está definida por:
X x =0 x =1
f(x) = P [X = x] 1- p p
El proceso de Bernoulli
En términos estrictos el proceso de Bernoulli se caracteriza por lo siguiente:
1. El experimento consta de ensayos repetidos.
2. Cada ensayo produce un resultado que se puede clasificar como éxito o fracaso.
3. L a probabilidad de un éxito, que se denota con p, permanece constante de un
ensayo a otro.
4. Los ensayos repetidos son independientes.
Es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos
distribuciones de probabilidad entre sí.
la prueba Kolmogórov-Smirnov es más sensible a los valores cercanos a la mediana que
a los extremos de la distribución.
La prueba de Kolmogorov-Smirnov para una muestra es un procedimiento de "bondad
de ajuste", que permite medir el grado de concordancia existente entre la distribución de
un conjunto de datos y una distribución teórica específica. Su objetivo es señalar si los
datos provienen de una población que tiene la distribución teórica especificada, es decir,
contrasta si las observaciones podrían razonablemente proceder de la distribución
especificada.
Tal vez el método más recomendable para el caso en que F(x) es una distribución continua
es el método para una muestra de Kolmogorov-Smirnov o (K-S). Consiste en una prueba
de hipótesis en el que la hipótesis nula afirma que los datos sí se ajustan a la distribución
F(x) y la hipótesis alterna establece que no se ajustan. El estadístico de prueba está dado
por:
este valor se compara con el valor crítico que se encuentra en una tabla. Se rechaza la
hipótesis nula si Dc es mayor que el valor de tabla para el nivel de confianza y el tamaño
de muestra que se estén considerando.
Hipótesis a contrastar:
H0: Los datos analizados siguen una distribución M.
H1: Los datos analizados no siguen una distribución M.
Estadístico de contraste:
0
1
sup ˆ ( ) ( ) n i i
in
D Fx Fx
≤≤
=−
donde:
• xi es el i-ésimo valor observado en la muestra (cuyos
valores se han ordenado previamente de menor a mayor).
• ˆ ( ) n i F x es un estimador de la probabilidad de observar
valores menores o iguales que xi.
• 0F (x) es la probabilidad de observar valores menores o
iguales que xi cuando H0 es cierta.
Así pues, D es la mayor diferencia absoluta observada entre la
frecuencia acumulada observada ˆ ( ) n F x y la frecuencia
acumulada teórica 0F (x) , obtenida a partir de la distribución de
probabilidad que se especifica como hipótesis nula.
Si los valores observados ˆ ( ) n F x son similares a los esperados
0F (x) , el valor de D será pequeño. Cuanto mayor sea la
discrepancia entre la distribución empírica ˆ ( ) n F x y la distribución
teórica , mayor será el valor de D.
Por tanto, el criterio para la toma de la decisión entre las dos
hipótesis será de la forma:
Si D≤Dα ⇒ Aceptar H0
Si D>Dα ⇒ Rechazar H0
donde el valor Dα se elige de tal manera que:
()
()
00PHH
P D Dα
α
=
=>=
Rechazar es cierta
Los datos siguen la distribucion M
siendo α el nivel de significación del contraste.
Para el cálculo práctico del estadístico D deben obtenerse:
1010
max ( ) , max ( ) 1 i n i i n i
DiFxDFxi
nn
+−
≤≤≤≤
= − = −−
Si p-valor ≥ α ⇒ Aceptar H0
Si p-valor < α ⇒ Rechazar H0
La prueba de kolmogorov es una prueba de bondad y ajuste, es decir, del grado que la
distribución observada difiere de otra distribución. Es una alternativa a la prueba de chi-
cuadrada de bondad y ajuste cuando el dato es pequeño. La prueba no debe ser aplicada
cuando hay muchos empates.
Estadístico de Prueba:
Donde n es el número de observaciones, F(Y) es la distribución de probabilidades acumulada
normal con media y varianza especificadas a partir de la muestra y Yi son los datos obtenidos
en la
muestra, ordenados de menor a mayor.
Regla de Decisión:
La hipótesis nula se rechaza con un nivel de significancia si A2 es mayor que el valor critico
2
T A . Aunque la prueba de Anderson – Darling puede ser aplicada a cualquier distribución, no
se
dispone de tablas para todos los casos. A continuación se presenta una tabla para la prueba a
la
distribución normal.
La fórmula para el estadístico determina si los datos (observar que los datos se deben
ordenar) vienen de una distribución con función acumulativa F.
Formula: A2 = - n – S
Donde:
El estadístico de prueba Anderson – Darling es:
∞ [𝐹 (𝑥)−𝐹(𝑥)]2
𝐴2𝑛 = n ∫−∞ 𝐹(𝑥)[1−𝐹(𝑥)]
𝑛
𝑓(𝑥)𝑑𝑥
(2𝑖−1)
𝐴2𝑛 = - ∑𝑛𝑖=1 [𝑙𝑛𝐹(𝑌𝑖 ) + ln(1 − 𝐹(𝑌𝑛+1−𝑖 ))] − 𝑛
𝑛
Donde:
n es el número de datos
𝑭(𝒙) es la función de distribución de probabilidad teórica.
𝑭𝒏 (𝒙) es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el
estadístico ajustado para luego compararlo con los valores críticos de la tabla de
Anderson – Darling. En la siguiente figura se pueden observar los valores críticos para
distribuciones distintas, con parámetros conocidos.
Esta prueba evalúa la normalidad calculando la correlación entre los datos y los valores
normales de los datos. Si el coeficiente de correlación está cerca de 1, la población es
probablemente normal.
En estadística, la prueba de Ryan – Jonier es una prueba no paramétrica sobre si los datos
de una muestra provienen de una distribución normal.
Los resultados de la prueba indican si se debería aceptar o rechazar la hipótesis nula que
los datos vienen de una población normalmente distribuida. Se puede hacer una prueba
de normalidad y producir un argumento de probabilidad normal en el mismo análisis. La
prueba de normalidad y el argumento de probabilidad son por lo general los mejores
instrumentos para juzgar la normalidad, sobre todo para muestras pequeñas.
La estadística de Ryan-Joiner evalúa la fuerza de esta correlación; si se encuentra por
debajo del valor crítico apropiado, usted rechazará la hipótesis nula de normalidad en la
población(demográfica).
En el método de Anderson Darling o Ryan Joiner, si el valor de probabilidad “P” de la
prueba es mayor a 0.05, se considera que los datos son normales.
Las pruebas de Andeson – Darling y de kolmogorov – smirnov están basados en la
función de distribución empírica.
El Ryan – Joiner está basado en la regresión y correlación.
2.6.7. KURTOSIS
Ejemplo:
En el método de Anderson Darling o Ryan Joiner, si el valor de
probabilidad P de la prueba es mayor a 0.05, se considera que los
datos son normales. Seguir los siguientes
pasos:
El P value debe ser mayor a 0.05 para que los datos se distribuyan
normalmente
Gráfica de probabilidad de un proceso normal
Aproximadamente, el 99.7% de los hombres de Pennsylvania tiene una estatura entre 61.5 (μ -
3σ) y 76.5 (μ + 3σ) pulgadas.
3.1.5. PERFORACION
RENDIMIENTO DEL JUMBO
3.1.6. LIMPIEZA
RENDIMIENTO DEL SCOOPTRAM
3.2.1. JOS
3.2.2. MAR
Las tres pruebas tienden a ser adecuadas para identificar una distribución no normal
cuando la distribución es asimétrica. Las tres pruebas distinguen menos cuando la
distribución subyacente es una distribución t y la no normalidad se debe a la curtosis. Por
lo general, entre las pruebas que se basan en la función de distribución empírica, la prueba
de Anderson-Darling tiende a ser más efectiva para detectar desviaciones en las colas de
la distribución. Generalmente, si la desviación de la normalidad en las colas es el
problema principal, muchos profesionales de la estadística usarían una prueba de
Anderson-Darling como primera opción.
NOTA
4.1.2. GI
4.1.3. ¿Estimador y estimación significa lo mismo en estadística?