Está en la página 1de 52

CHAVEZ ORELLANA, Mekias Yak

LOA GUTIERREZ, Jhoselyn Jovana


MORALES MONTANO, Juvel A.
PRADO VASQUEZ, Ronny G.
QUISPE ALLCCA, Nancy
DEDICATORIA
A nuestras familias y amigos,
quienes constantemente nos alientan
para seguir adelante; y en especial al
ingeniero del curso, por su abnegada
labor.
El presente trabajo muestra el sistema informático para el control y programación de las
operaciones mineras para una mina. Se describen las funciones que el sistema considere
en su diseño junto con la relación funcional entre ellas: Flujos de información, sistema de
captación de datos y los resultados de los procedimientos en la información.

La estadística se aplica en varios ámbitos desde la antigüedad para tener control sobre las
cosas, en la salud, la economía, las ciencias sociales y por supuesto en la ingeniería.

Existen muchas herramientas estadísticas para trabajar con los datos de alguna muestra,
con el fin de analizar los resultados y tomar decisiones en base a ello. En el ámbito de la
ingeniería se aplica para control de calidad, mejoras en procesos, pronósticos, control del
personal, seguridad industrial, entre otros muchos usos.

A pesar de ser una ciencia exacta, también se pueden cometer errores por lo que es
importante saber aplicar las técnicas y herramientas

La estadística es una ciencia que ayuda a recopilar y analizar datos para su posterior
interpretación con un fin específico, esta puede utilizarse para diferentes objetivos en
diferentes ramas.
La estadística se refiere a un conjunto de métodos enfocados a la obtención, presentación
y análisis de observaciones numéricas. Como se ha visto anteriormente, la rama llamada
estadística descriptiva tiene como fin de describir al conjunto de datos obtenidos.

Por otro lado, la estadística inferencial se enfoca en la toma de decisiones o realización


de generalizaciones acerca de las características de todas las observaciones bajo
consideración con base en información parcial o incompleta.
También se le llama Inferencia Estadística, pero previamente recordemos que la
Estadística (EI) comprende el conjunto de métodos estadísticos que permiten deducir
(inferir) cómo se distribuye la población bajo estudio a partir de la información que
proporciona una muestra representativa, obtenida de dicha población.

En el presente trabajo, se desarrolla el tema de la estadística aplicada en la ingeniería


minera, tocando subtemas de estadística que son fundamentales para los procesos y que
son los que más se usan en el sector minero, así de ejemplos de cómo estos se utilizan
desde la antigüedad hasta la actualidad.
El marco teórico se basa en diversas fuentes como libros, revistas, base de datos y
páginas web de las que anteriormente se evaluó su fiabilidad.

Contenido
..................................................................................................................... 3
..................................................................................................... 3
................................................................................................................... 3
....................................................................................................... 3
........................................................................................................................ 4
................................................................................................................ 7
1.4.1. OBJETIVOS GENERALES ................................................................................. 7
1.4.2. OBJETIVOS ESPECIFICOS ................................................................................ 7
............................................................... 8
.................................................................................................................... 8
................................................................................................................. 8
............................................................................................................ 8
2.1.1. POBLACION ........................................................................................................ 9
2.1.2. MUESTRA ............................................................................................................ 9
2.1.3. MUESTRA ALEATORIA .................................................................................. 10
2.1.4. MUESTREO ...........................................................Error! Bookmark not defined.
2.1.5. VARIABLE .............................................................Error! Bookmark not defined.
2.1.6. PARAMETRO .................................................................................................... 11
2.1.7. DESVIACION ESTANDAR .............................................................................. 11
2.1.8. MEDIANA .......................................................................................................... 12
2.1.9. MEDIA MUESTRAL ......................................................................................... 12
2.1.10. DATO .................................................................................................................. 12
...................................................................................................... 12
2.2.1. ESPACIO MUESTRAL ...................................................................................... 12
Definición 2.2: .................................................................................................................... 14
Definición 2.3: .................................................................................................................... 14
Definición 2.4: .................................................................................................................... 15
Definición 2.5: .................................................................................................................... 15
Definición 2.5: .................................................................................................................... 15
2.3 Conteo de puntos muestrales .......................................................................................... 18
Regla 2.1: ............................................................................................................................ 18
Regla 2.2: ............................................................................................................................ 18
Definición 2.6: .................................................................................................................... 19
2.2.2. EVENTOS........................................................................................................... 19
2.2.3. PROBABILIDAD DE EVENTO ........................................................................ 19
Definición 2.7: .................................................................................................................... 19
Regla 2.3: ............................................................................................................................ 20
2.2.4. TRANSPORTE ................................................................................................... 20
2.8.1. proceso de transporte .............................................................................................. 21
2.8.2. Tonelaje Anual Transportado (Mineral Y Relave) .............................................. 22
2.8.3.Descripción Del Monitoreo ...................................................................................... 22
......................................... 24
2.3.1. COVARIANZA .................................................................................................. 24
2.3.2. CORRELACION ................................................................................................ 25
2.3.3. REGRESION LINEAL SIMPLE ........................................................................ 27
2.3.4. RECTA DE REGRESION DE MINIMOS CUADRADOS ............................... 29
2.3.5. MORALES .......................................................................................................... 30
............................................................................. 30
2.4.1. JUVEL................................................................................................................. 31
2.4.2. MORALES .......................................................................................................... 31
.......................................................................... 31
2.5.1. TECHI ................................................................................................................. 32
2.5.2. FIDO ................................................................................................................... 32
................................................................... 32
2.6.1. DISTRIBUCION NORMAL .............................................................................. 33
2.6.2. DISTRIBUCION DE POISON ........................................................................... 36
2.6.3. DISTRIBUCION DE BERNOULLI ................................................................... 37
2.6.4. PRUEBA DE KOLMOGOROV – SMIRNOV................................................... 38
2.6.5. PRUEBA DE ANDERSON – DARLIN ............................................................. 41
2.6.6. PRUEBA DE RYAN – JONIER ......................................................................... 43
2.6.7. KURTOSIS ......................................................................................................... 44
................................................................................................................ 44
............. 44
................................................................................. 44
3.1.1. PERFORACION ................................................................................................. 44
3.1.2. LIMPIEZA .......................................................................................................... 48
3.1.3. CARGUIO ........................................................................................................... 49
3.1.4. ACARREO Y TRANSPORTE ........................................................................... 49
3.1.5. SOSTENIMIENTO ............................................................................................. 49
3.1.6. RORO .................................................................................................................. 50
.................................................................................. 50
3.2.1. JOS ...................................................................................................................... 50
3.2.2. MAR .................................................................................................................... 50
................................................................................................................ 50
........................................................................................... 50
.......................................................................................................... 50
4.1.1. GI......................................................................................................................... 50
4.1.2. ¿Estimador y estimación significa lo mismo en estadística? ............................... 51
4.1.3. ¿Cuál es la diferencia entre desviación estándar y error estándar? ..................... 51
............................................................................................................................ 52
4.2.1. HJ ........................................................................................................................ 52
4.2.2. HJ ........................................................................................................................ 52
.................................................................................................................. 52
................................................................. 52
..................................................................................................... 52
........................................................................................... 52
..................................................................................... 52
................................................................................................................ 52
..................................................................................................................... 52
................................................................................................................ 52
........................................................................................................................... 52
1.4.1. OBJETIVOS GENERALES

 Investigar las aplicaciones más comunes de la estadística en la ingeniería,


principalmente, en la industria, para verlo desde el punto de vista práctico, es
decir, en donde pueden usarse las herramientas y técnicas estadísticas para lograr
alguna optimización, mejora o control.

 Cumplimiento de los estimados de producción de los ciclos de minado.

1.4.2. OBJETIVOS ESPECIFICOS

 Identificar y conocer las diferencias del sostenimiento pasivo y activo.

 Conocer y detallar los equipos utilizados en el sostenimiento minero.

 Comparar las especificaciones técnicas, tipos y marcas en el mercado de cada


jumbo empernador.

 Identificar las características, propiedades y partes de los equipos utilizados en el


sostenimiento.

 La prueba de bondad y ajuste de Kolmogorov – Smirnov, Anderson – Darling y


Ryan – Jonier son para determinar y señalar si los datos estudiados o mediciones
muestrales provienen de una población que tienen una distribución teórica
determinada.
La estadística se puede definir como un conjunto de procedimientos, herramientas y
técnicas utilizadas para recolectar, presentar y analizar datos, sobre los cuales basar
decisiones en una situación de incertidumbre o frente a información incompleta, cuando
no se puede conocer la realidad en forma exhaustiva. (Emery, 2013, pág. 3).
Si bien es cierto que hay varios conceptos de estadística, todos coinciden en que se
encarga de recopilar datos, analizar y brindar conclusiones con la finalidad de toma de
decisiones. Esto se le puede definir en un gráfico.
ESTADISTICA

COLECCIONA
RECOPILA

ANALIZA Brindar
DATOS para
conclusiones
INTERPRETA

La estadística se divide en:


2.1.1. POBLACION

Conjunto total de individuos u objetos con alguna característica que es de interés estudiar,
ya sea finito o infinito, de elementos o individuos que interesa considerar y podrían ser
accesibles en el estudio.
Este concepto vamos a definir bajo diferentes enfoques. En investigación científica se le
define como la totalidad de elementos sobre los cuales recae la investigación. A cada
elemento se le llama unidad estadística, ésta se le observa o se le somete a una
experimentación, estas unidades son medidas pertinentemente.

Si representamos mediante, X, una variable aleatoria bajo investigación, al estudiar a esta


variable en la población, como resultado tendremos los valores:

X , X , X ,..., X N 1 2 3

Donde N es el total de elementos de la población.


EJEMPLO: Los estudiantes que cursan la serie 400 de la UNSCH.

2.1.2. MUESTRA

Es un subconjunto de la población y contiene elementos en los cuales debe estudiarse la


característica de interés para la población; de manera que se puede hacer deducciones de
ella respecto de la población completa.

Sierra Bravo (1991) anota que: “Una muestra en general, es toda parte representativa de
la población, cuyas características debe reproducir en pequeño lo más exactamente
posible.” Para que sea representativa se debe seleccionar empleando el muestreo, tópico
importante de la Estadística, con la finalidad de que los resultados de esta muestra sean
válidos para la población de la que sea obtenido la muestra. Esta generalización se realiza
empleando la estadística inferencial.
EJEMPLO: Los estudiantes que cursan la serie 400 de la escuela profesional de
ingeniería de minas de la UNSCH.

2.1.3. VARIABLE

Una variable estadística es una característica de la población que interesa al


investigador y que puede tomar diferentes valores.
2.1.3.1. VARIABLE CUALITATIVA
Son aquellas que están asociadas con una característica cualitativa, es decir, son variables
cuyos valores son cualidades, propiedades o atributos que presenta la población y que son
objeto de estudio. A su vez, esta variable se puede clasificar de la siguiente manera:
Nominal
Ejemplo: Los estudiantes de la escuela de Ingeniería de Minas que cursan las serie 400
que buscan diferentes especialidades (Dominio de la variable): Gestión minera, Mecánico
de rocas, Ventilación, Seguridad, etc.
Ordinal
Ejemplo: Los estudiantes de la escuela de Ingeniería de Minas que cursan las serie 400
según su nivel socioeconómico (Dominio de la variable): bajo, medio, alto, etc.
2.1.3.2. VARIABLE CUANTITATIVA
Se le denomina así cuando la variable está asociada con una característica cuantitativa, es decir,
que se obtiene como resultado de mediciones o conteos. A su vez, la variable cuantitativa se
clasifica en los siguientes:

Discreta: Son aquellas que se obtienen por el procedimiento del conteo (valores enteros
no negativos).
Ejemplo: El número de estudiantes de la escuela de Ingeniería de Minas que cursan las
serie 400 de la UNSCH.
Continua: Son aquellas que se obtienen por el procedimiento de la medición (toma
valores no necesariamente enteros).
Ejemplo: El peso corporal de los estudiantes de la escuela de Ingeniería de Minas que
cursan las serie 400 de la UNSCH.

2.1.4. MUESTRA ALEATORIA

Una muestra aleatoria de tamaño n de la función de distribución de la variable aleatoria


X es una colección de n variables aleatorias independientes X, X, X, Xn 1 2 3 cada una con
la misma función de distribución de la variable aleatoria X.
2.1.5. PARAMETRO

características de la población que se desea investigar y que suelen ser desconocidas a


priori. Es un valor numérico que expresa una característica de una población.

Sierra Bravo (1991) indica que parámetro deriva del vocablo griego parámetreo que
significa medir una cosa con otra:

En estadística se refiere a los valores o medidas que caracterizan una población como por
ejemplo la media y la desviación típica de una población (…) Son cantidades
indeterminadas constantes o fijas respecto a una condición o situación que caracteriza a
un fenómeno en un momento dado que ocurre en una población.

Se suele representar a un parámetro mediante letras griegas, por ejemplo la media


poblacional se representa mediante 𝜇𝑥 y se lee como media poblacional de la variable
aleatoria X, la varianza poblacional se representa mediante 𝜎𝑥2 y se lee como varianza
poblacional de la
variable aleatoria X.
En términos prácticos un parámetro es un valor que resulta al emplear los valores que se
obtiene de una población.

2.1.6. DESVIACION ESTANDAR

La desviación estándar se considera una medida cuadrática que representa el promedio


de las desviaciones (distancias) de los datos muestrales respecto de su media aritmética,
expresada en las mismas unidades que la variable.
La desviación estándar es una medida de dispersión que nos permite evaluar la
incertidumbre de los datos obtenidos por la muestra; es decir, analiza todos aquellos datos
que se alejan de nuestro promedio para determinar si nuestra predicción o teoría está
alejada del modelo que se construyó con la muestra.

∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
𝑆= √
𝑛
Donde:
n = Número de datos o elementos de la muestra
i = Índice de la suma que toma los valores 1, 2, 3, …, n
𝑋𝑖 = Valor del i-ésimo dato de la muestra
𝑋̅ = Media aritmética de la muestra
2.1.7. MEDIANA

Su característica principal es que divide un conjunto ordenado en dos grupos iguales; la


mitad de los números tendrá valores que son menores que la mediana, y la otra mitad
alcanzará valores mayores que esta. Para encontrar la mediana primeramente es necesario
ordenar los valores (generalmente de menor a mayor).
El procedimiento para obtener la mediana es como sigue:

1. Ordenar o clasificar los valores

2. Contar para saber si el número de valores es par o impar

3. En caso de que tenga un número impar de valores, la mediana es el valor


intermedio. En cambio, para un número par de valores, la mediana es el promedio
de los dos valores intermedios.

2.1.8. MEDIA MUESTRAL

La media de una variable aleatoria X o media de la distribución de la probabilidad de X


es un número real que se denota por 𝝁; la media es denominado también valor esperado
o esperanza matemática de X, y se le denota también por E(X).
La media de una variable aleatoria discreta X con función de probabilidad f(x) es el
número real:
𝝁 = E(X) = ∑𝒙𝒊 ∈𝑹𝑿 𝒙𝒊 𝒑𝒊 , donde 𝒑𝒊 = f(𝒙𝒊 ), es la probabilidad de 𝒙𝒊

Si el rango de X es el conjunto finito 𝑅𝑋 = {𝑥1 , 𝑥2 , … , 𝑥𝑛 }, entonces:

E(X) = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖
La mediana de una variable aleatoria X es el numero Me que divide a la distribución en
dos partes iguales. Es decir, verifica:

F(Me) = P[𝑋 ≤ 𝑀𝑒] = 0.5


2.1.9. DATO

2.2.1. ESPACIO MUESTRAL


Al conjunto de todos los resultados posibles de un experimento estadístico se le llama

espacio muestral y se representa con el símbolo S.

A cada resultado en un espacio muestral se le llama elemento o miembro del espacio

muestral, o simplemente punto muestral. Si el espacio muestral tiene un numero fi nito

de elementos, podemos listar los miembros separados por comas y encerrarlos entre

llaves. Por consiguiente, el espacio muestral S, de los resultados posibles cuando se lanza

una moneda al aire, se puede escribir como

S = {H, T},

en donde H y T corresponden a “caras” y “sello”, respectivamente.

Figura 2.1: Diagrama de arbol.

S = {HH, HT, T1, T2, T3, T4, T5, T6}.

Los espacios muestrales con un numero grande o infinito de puntos muestrales se

describen mejor mediante un enunciado o método de la regla. Por ejemplo, si el

conjunto de resultados posibles de un experimento fuera el conjunto de ciudades en el


mundo con una población de más de un millón de habitantes, nuestro espacio muestral se

escribiría como:

S = {x | x es una ciudad con una población de más de un millón de habitantes},

que se lee “S es el conjunto de todas las x, tales que x es una ciudad con una población de

más de un millón de habitantes”. La barra vertical se lee como “tal que”. De manera

similar, si S es el conjunto de todos los puntos (x, y) sobre los limites o el interior de un

circulo de radio 2 con centro en el origen, escribimos la regla

S = {(x, y) | x2 + y2 ≤ 4}.
Definición 2.2:
Un evento es un subconjunto de un espacio muestral.

Ejemplo: Dado el espacio muestral S = {t / t ≥ 0}, donde t es la vida en anos de cierto

componente de un equipo, el evento A de que el componente falle antes de que finalice el

quinto año es el subconjunto A = {t /0 ≤ t < 5}.

Es posible concebir que un evento puede ser un subconjunto que incluye todo el espacio

muestral S, o un subconjunto de S que se denomina conjunto vacío y se denota con el

símbolo ϕ, que no contiene ningún elemento.

Definición 2.3:
El complemento de un evento A respecto de S es el subconjunto de todos los elementos

de S que no están en A. Denotamos el complemento de A mediante el símbolo A´.

Ejemplo: Sea R el evento de que se seleccione una carta roja de una baraja ordinaria de

52 cartas,
y sea S toda la baraja. Entonces R´ es el evento de que la carta seleccionada de la baraja

no sea una roja sino una negra.

Definición 2.4:
La intersección de dos eventos A y B, que se denota con el símbolo A ∩ B, es el evento

que contiene todos los elementos que son comunes a A y a B.

Ejemplo: Sea E el evento de que una persona seleccionada al azar en un salón de clases

sea estudiante de ingeniería, y sea F el evento de que la persona sea mujer. Entonces E ∩

F es el

evento de todas las estudiantes mujeres de ingeniería en el salón de clases.

Definición 2.5:
Dos eventos A y B son mutuamente excluyentes o disjuntos si A ∩ B = ϕ; es decir,

si A y B no tienen elementos en común.

Definición 2.5:
La unión de dos eventos A y B, que se denota con el símbolo A ∪ B, es el evento que

contiene todos los elementos que pertenecen a A o a B, o a ambos.

Ejemplo: Sea A = {a, b, c} y B = {b, c, d, e}; entonces, A ∪ B = {a, b, c, d, e}.

La relación entre eventos y el correspondiente espacio muestral se puede ilustrar de forma

gráfica utilizando diagramas de Venn. En un diagrama de Venn representamos el

espacio muestral como un rectángulo y los eventos con círculos trazados dentro del

rectángulo.
De esta forma, en la fi gura 2.3 vemos que

A ∩ B = regiones 1 y 2,

B ∩ C = regiones 1 y 3,

Figura 2.2: Eventos representados por varias regiones.

A ∪ C = regiones 1, 2, 3, 4, 5 y 7,

B´ ∩ A = regiones 4 y 7,

A ∩ B ∩ C = región 1,

(A ∪ B) ∩ C' = regiones 2, 6 y 7,

y así sucesivamente.
Figura 2.3: Eventos del espacio muestral S.

En la fi gura 2.3 vemos que los eventos A, B y C son subconjuntos del espacio muestral

S. También es claro que el evento B es un subconjunto del evento A; el evento B ∩ C no

tiene elementos, por lo tanto, B y C son mutuamente excluyentes; el evento A ∩ C tiene

al menos un elemento; y el evento A ∪ B = A. Por consiguiente, la fi gura 2.4 podría

representar una situación en la que se selecciona una carta al azar de una baraja ordinaria

de 52 cartas y se observa si ocurren los siguientes eventos:

A: la carta es roja,

B: la carta es la jota, la reina o el rey de diamantes,

C: la carta es un as.

Claramente, el evento A ∩ C consta solo de los dos ases rojos. Varios resultados que se

derivan de las definiciones precedentes, y que se pueden verificar de forma sencilla

empleando diagramas de Venn, son como los que siguen:

1. A ∩ ϕ = ϕ. 6. Φ´= S.

2. A ∪ ϕ = A. 7. (A´) ´= A.

3. A ∩ A´ = ϕ. 8. (A ∩ B) ´ = A´ ∪ B´.
4. A ∪ A´= S. 9. (A ∪ B) ´ = A´∩ B´.

5. S´ = ϕ.

2.3 Conteo de puntos muestrales


El principio fundamental del conteo, a menudo denominado regla de multiplicación, se

establece en la regla 2.1.

Regla 2.1:
Si una operación se puede llevar a cabo en n1 formas, y si para cada una de estas se puede

realizar una segunda operación en n2 formas, entonces las dos operaciones se pueden

ejecutar juntas de n1n2 formas.

Ejemplo: Cuantos puntos muestrales hay en el espacio muestral cuando se lanza un par

de dados

una vez?

Solución: El primer dado puede caer en cualquiera de n1 = 6 maneras. Para cada una de

esas 6 maneras el segundo dado tambien puede caer en n2 = 6 formas. Por lo tanto, el par

de dados puede caer en n1n2 = (6)(6) = 36 formas posibles.

Regla 2.2:
Si una operación se puede ejecutar en n1 formas, y si para cada una de estas se puede

llevar a cabo una segunda operación en n2 formas, y para cada una de las primeras dos se

puede realizar una tercera operación en n3 formas, y así sucesivamente, entonces la serie

de k operaciones se puede realizar en n1n2...nk formas.

Ejemplo: Sam va a armar una computadora y para comprar las partes tiene que elegir

entre las siguientes opciones: dos marcas de circuitos integrados, cuatro marcas de discos
duros, tres marcas de memorias y cinco tiendas locales en las que puede adquirir un

conjunto de accesorios. ¿De cuantas formas diferentes puede Sam comprar las partes?

Solución:

Como n1 = 2, n2 = 4, n3 = 3 y n4 = 5, hay

n1 × n2 × n3 × n4 = 2 × 4 × 3 × 5 = 120

formas diferentes de comprar las partes.

Definición 2.6:
Una permutación es un arreglo de todo o parte de un conjunto de objetos.

Considere las tres letras a, b y c. Las permutaciones posibles son abc, acb, bac, bca, cab
y cba, por lo tanto, vemos que hay 6 arreglos distintos.

2.2.2. EVENTOS

En cualquier experimento dado, podríamos estar interesados en la ocurrencia de ciertos


eventos, más que en la ocurrencia de un elemento especifico en el espacio muestral.
Para cada evento asignamos un conjunto de puntos muestrales, que constituye un
subconjunto del espacio muestral. Este subconjunto representa la totalidad de los
elementos para los que el evento es cierto.

2.2.3. PROBABILIDAD DE EVENTO

Definición 2.7:
La probabilidad de un evento A es la suma de los pesos de todos los puntos muestrales

en A. Por lo tanto:

0 ≤ P(A) ≤ 1, P(ϕ) = 0 y P(S) = 1.

Además, si A1, A2, A3,… es una serie de eventos mutuamente excluyentes, entonces
P(A1 ∪ A2 ∪ A3 ∪…) = P(A1) + P(A2) + P(A3) +… .

Ejemplo Una moneda se lanza dos veces. ¿Cuál es la probabilidad de que ocurra al menos

una cara (H)?

Solución: El espacio muestra para este experimento es

S = {HH, HT, TH, TT}

Si la moneda está balanceada, cada uno de estos resultados tendrá las mismas

probabilidades de ocurrir. Por lo tanto, asignamos una probabilidad de ω a cada uno de

los puntos muestrales. Entonces, 4ω = 1 o ω = 1/4. Si A representa el evento de que ocurra

al menos una cara (H), entonces

A = {HH ,H T, TH } y P (A) =1/4+1/4+1/4=3/4.

Si el espacio muestral para un experimento contiene N elementos, todos los cuales

tienen las mismas probabilidades de ocurrir, asignamos una probabilidad igual a 1/N a

cada uno de los N puntos. La probabilidad de que cualquier evento A contenga n de estos

N puntos muestrales es entonces el cociente del numero de elementos en A y el numero

de elementos en S.

Regla 2.3:
Si un experimento puede dar como resultado cualquiera de N diferentes resultados que

tienen las mismas probabilidades de ocurrir, y si exactamente n de estos resultados

corresponden al evento A, entonces la probabilidad del evento A es

P (A) =n/N.

2.2.4. TRANSPORTE
La etapa de transporte consiste en trasladar el mineral y desmonte fragmentado, desde los

mismos bancos de explotación hasta los Pads de lixiviación, ahora se está depositando el

mineral en el Pad Nº 03

Para el transporte del mineral en la Unidad Tucari cuenta con los servicios de terceros,

quienes se encargan de depositar el mineral en el Pad Nro 03. El recorrido es como sigue:

Techo – Pad Nro 03 = 3.597 Km (ABRA) ,33.985km (ANILLO)

Tajo Nv 5032 –Pad 03 = 22.228Km.

Tajo Nv 5000- Pad 03 = 2.135Km.

El Desmonte se traslada desde los bancos de explotación a los Botaderos; Bot. Nv 5142,

Bot Nv 5132, Bot. Nv 5112, Bot. Nv 5072, Bot. Nv 5002, Bot. Nv 4992,Bot. 4982 y se

tiene una distancia promedio de 0.600 a 0.920Km y también para mantenimiento de vías.

2.8.1. proceso de transporte


El cual cuenta con una flota total de 12 unidades VOLVO FMX 8 x 4, para la realización

del movimiento de material; mineral, desmonte y relave, los cuales están distribuidos

según la tabla que a continuación se mostrara:

TABLA 01
Resumen de dimensionamiento volquetes - volvo FMX 8x4
El transporte del mineral lo realizan por la vía principal el cual involucra el recorrido

desde interior mina una distancia de 15.5 km, así mismo el transporte de desmonte hacia

superficie el cual involucra el recorrido desde interior mina hasta la desmontera una

distancia de 2.7 km [Pillaca, 2017, p77]

2.8.2. Tonelaje Anual Transportado (Mineral Y Relave)


Tabla 02
Resumen de tonelaje anual transportado (mineral y relave)

Fuente: tesis, pillaca chilcce,

2.8.3. Descripción Del Monitoreo


El monitoreo de la operatividad del Camión VOLVO 10x4 ha sido llevado entre el

siguiente punto de carguío y descarga.

 Zonas de carguío de mineral: Tolva 405 y Tv 436

 Zona de descarga de mineral: Cancha Mineral (Planta) y Tolva de gruesos

El monitoreo del equipo abarco un total de 3 días, en este tiempo se ha obtenido un total

de 04 viajes los cuales están distribuidos de la siguiente manera:


2.3.1. COVARIANZA
la covarianza es una estadística que mide el grado de dispersión o variabilidad conjunta de dos
variables X e Y con respecto a sus medias respectivas (𝑋̅, 𝑌̅).

Definición. la covarianza de n valores (X1, Y1), (X2, Y2), . . ., (Xn, Yn) de una variable bidimensional
(X, Y) es el numero 𝐶𝑂𝑉𝑥𝑦 o 𝑆𝑥𝑦 que se define igual a la media aritmética de los productos de
la desviación de los datos con respecto a sus correspondientes medias (𝑋̅, 𝑌̅). Esto es,

∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅) ∗ (𝑌𝑖 − 𝑌̅)


𝑆𝑥𝑦 =
𝑛

En el numerador 𝑆𝑥𝑦 se verifica la relación:

𝑛 𝑛

∑(𝑋𝑖 − 𝑋̅) ∗ (𝑌𝑖 − 𝑌̅) = ∑ 𝑋𝑖 𝑌𝑖 − 𝑛𝑋𝑌


̅̅̅̅
𝑖=1 𝑖=1

Luego,

La covarianza a diferencia de la varianza, puede ser negativa

2.3.2. CORRELACION

El análisis de correlación emplea métodos para medir la significación del grado o intensidad de
asociación entre dos o más variables. El concepto de correlación está estrechamente vinculado
al concepto de regresión, pues, para que una ecuación de regresión sea razonable los puntos
muestrales deben estar ceñidos a la ecuación de regresión; además el coeficiente de correlación
debe ser:

 grande cuando el grado de asociación es alto (cerca de +1 o -1, y pequeño cuando es


bajo, cerca de cero.
 independiente de las unidades en que se miden las variables.
Coeficiente de correlación Lineal Simple (r).

El coeficiente de correlación, se define, que es una medida numérica de la fuerza de la relación


lineal entre dos variables.

Sean (X1, Y1), (X2, Y2), . . ., (Xn, Yn) los n puntos del diagrama de dispersión de una variable
bidimensional (X, Y) es el numero abstracto o relativo r que se calcula por:

𝐶𝑂𝑉𝑥𝑦
𝑟=
𝑆𝑥𝑆𝑦
Donde, 𝑆𝑥 es la desviación estándar de X

𝑆𝑦 es la desviación estándar de Y

Si hacemos 𝑆𝑥𝑥 = ∑𝑛𝑖=1 𝑋𝑖 2 − 𝑛 ∗ 𝑥̅ 2 y 𝑆𝑦𝑦 = ∑𝑛𝑖=1 𝑦𝑖 2 − 𝑛 ∗ 𝑦̅ 2 verificamos:

𝑆𝑥𝑦 ∑ 𝑋𝑌 − 𝑛 ∗ 𝑋̅ ∗ 𝑌̅
𝑟= =
√𝑆𝑥𝑥 ∗ √𝑆𝑦𝑦 √∑ 𝑋 2 − 𝑛𝑋̅ 2 ∗ √∑ 𝑦 2 − 𝑛𝑌̅ 2

Es un número que indica el grado o intensidad de asociación entre las variables X e Y. Su valor
varía entre -1 y +1; esto es: -1 ≤ r ≤ 1.

 Si r = -1, la asociación es perfecta pero inversa; es decir, a valores altos de una variable
le corresponde valores bajos a la otra variable, y viceversa.
 Si r=+1, también la asociación es perfecta pero directa.
 Si r=0, no existe asociación entre las dos variables.
Luego puede verse que a medida que r se aproxime a -1 ó +1 la asociación es mayor, y cuando
se aproxima a cero la asociación disminuye o desaparece.

El coeficiente de correlación es 0.00 El coeficiente de correlación es 0.30


El coeficiente de correlación es 0.50 El coeficiente de correlación es 0.70

El coeficiente de correlación es 0.90 El coeficiente de correlación es 0.95

2.3.3. REGRESION LINEAL SIMPLE


Dada una muestra de n datos (X1, Y1), (X2, Y2), . . ., (Xn, Yn) observados de la variable bidimensional
(X, Y). La regresión lineal simple de la variable dependiente Y con respecto a la variable
independiente X, consiste en obtener la ecuación de la recta: o modelos de regresión:

𝑦 = 𝑎 + 𝑏𝑋

Que mejor se ajuste a los valores de la muestra, con el fin de poder predecir o pronosticar los
valores de Y (variable dependiente) a partir de X (variable independiente).

El proceso de obtener el modelo de regresión, analiza su validez y predecir Y dado X, es la


regresión.

Hallar la función lineal 𝑦 = 𝑎 + 𝑏𝑋, es un proceso que consiste en determinar los valores de a y
b aplicando los datos de la muestra.

̂ para representar un valor de Y calculado de la ecuación de regresión 𝑦 =


Se usará la notación 𝑌𝑖
̂. Esto es 𝑌𝑖
𝑎 + 𝑏𝑋 cuando X es igual a 𝑋𝑖 ̂ = 𝑎 + 𝑏𝑋𝑖
̂.

̂ se denomina valor pronosticado o ajustado de Y cuando X=𝑋𝑖


Al valor 𝑌𝑖 ̂.

̂ ) es un punto de la recta de regresión


Si Xi es un valor de la muestra, entonces (Xi, 𝑌𝑖

𝑦 = 𝑎 + 𝑏𝑋.

Figura: Desviaciones de valores observados y ajustados

Se denomina error o residuo a cada diferencia (positiva o negativa).


̂
𝑑𝑖 = 𝑦𝑖−, 𝑌𝑖

̂
Del valor observado Yi y el valor pronostico, 𝑌𝑖

Un método para determinar la recta que mejor ajuste a los n datos de la muestra (Xi,Yi) es
el método de mínimos cuadrados.

2.3.4. RECTA DE REGRESION DE MINIMOS CUADRADOS

La recta de regresión de mínimos cuadrados de Y en X es aquello que hace mínima la suma de


los cuadrados de errores (SCE) cuya expresión es:

𝑛 𝑛 𝑛

SCE = ∑ 𝑑𝑖2 = ∑(𝑦𝑖2 ̂ ) = ∑(𝑦𝑖 − 𝑎 − 𝑏𝑋𝑖 )2


− 𝑌𝑖 2

𝑖=1 𝑖=1 𝑖=1

Luego, determinar una recta de regresión de mínimos cuadrados consiste en hallar los valores
de a y b de manera que hagan mínima, la suma:

𝑆𝐶𝐸 = ∑(𝑦𝑖 − (𝑎 + 𝑏𝑋𝑖 ))2


𝑖=1

Este requisito se cumple, de acuerdo con el teorema de gas-markow, si a y b se determinan


resolviendo el siguiente sistema de ecuaciones normales:

𝑛 𝑛

∑ 𝑦𝑖 = 𝑛𝑎 + 𝑏 ∑ 𝑥𝑖
𝑖=1 𝑖=1

𝑛 𝑛 𝑛

∑ 𝑥𝑖 𝑦𝑖 = 𝑎 ∑ 𝑥𝑖 + 𝑏 ∑ 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1

Estas ecuaciones se obtienen de igualar a cero las derivadas de SCE con respecto a a y con
respecto a b respectivamente consideradas como variables, ya que (Xi, Yi) son datos observados.

Resolviendo el sistema de ecuaciones normales para b, se obtiene:

n ∑ 𝑥𝑖 𝑦𝑖 − ∑ 𝑥𝑖 ∑ 𝑦𝑖
b=
n ∑ 𝑥𝑖2 − (∑ 𝑥𝑖 )2

𝑆𝑥𝑦
𝑏=
𝑆𝑥2
Y dividiendo por n la primera ecuación normal, se tiene: el valor:

𝑎 = 𝑌̅ − 𝑏𝑋̅

NOTA: sustituyendo 𝑎 = 𝑌̅ − 𝑏𝑋̅ en 𝑦 = 𝑎 + 𝑏𝑋, resulta, 𝑌 − 𝑌̅ = 𝑏(𝑋 − 𝑋̅)

Que es otra forma de expresar la recta de regresión. Observar que la recta de regresión
contiene al punto (𝑋̅, 𝑌̅ ) cuyas componentes son las medias de X y de Y respectivamente.

2.3.5. MORALES

También se le llama Inferencia Estadística, pero previamente recordemos que la


Estadística (EI) comprende el conjunto de métodos estadísticos que permiten deducir
(inferir) cómo se distribuye la población bajo estudio a partir de la información que
proporciona una muestra representativa, obtenida de dicha población.

Se denomina inferencia estadística al conjunto de métodos con los que se hacen la


generalización o la inferencia sobre una población utilizando una muestra. La inferencia
puede contener conclusiones que pueden no ser ciertas en forma absoluta, por lo que es
necesario que estas sean dadas con una medida de confiabilidad que es la probabilidad.
A partir de una determinada cantidad de datos (muestra), se obtiene una conclusión acerca
de una mayor cantidad de datos (población). Dado que no es posible establecer tales
conclusiones o inferencias con total certeza, se utilizan términos del lenguaje de la
probabilidad

Rama de la Estadística que estudia el comportamiento y propiedades de las muestras y la


posibilidad, y límites, de la generalización de los resultados obtenidos a partir de aquellas
a las poblaciones que representan. Esta generalización de tipo inductivo, se basa en la
probabilidad. También se le llama también Estadística Matemática, por su complejidad
matemática en relación a la Estadística Descriptiva.
Tiene como objetivo, generalizar las propiedades de la población bajo estudio, basado en
los resultados de una muestra representativa de la población.

Para que la Estadística Inferencial proporcione buenos resultados debe:

a. Basarse en una técnica estadístico-matemática adecuada al problema y


suficientemente validada.

b. Utilizar una muestra que realmente sea representativa de la población y de un


tamaño suficiente.

2.4.1. JUVEL
2.4.2. MORALES

La estadística paramétrica es una rama de la estadística inferencial que comprende los


procedimientos estadísticos y de decisión que están basados en distribuciones conocidas.
Estas son determinadas usando un número finito de parámetros. Esto es, por ejemplo, si
conocemos que la altura de las personas sigue una distribución normal, pero
desconocemos cuál es la media y la desviación de dicha normal. La media y la desviación
típica de la distribución normal son los dos parámetros que queremos estimar. Cuando
desconocemos totalmente qué distribución siguen nuestros datos entonces deberemos
aplicar primero un test no paramétrico, que nos ayude a conocer primero la distribución.
La mayoría de procedimientos paramétricos requiere conocer la forma de distribución
para las mediciones resultantes de la población estudiada. Para la inferencia paramétrica
es requerida como mínimo una escala de intervalo, esto quiere decir que nuestros datos
deben tener un orden y una numeración del intervalo. Es decir, nuestros datos pueden
estar categorizados en: menores de 20 años, de 20 a 40 años, de 40 a 60, de 60 a 80, etc.,
ya que hay números con los cuales realizar cálculos estadísticos. Sin embargo, datos
categorizados en: niños, jóvenes, adultos y ancianos no pueden ser interpretados mediante
la estadística paramétrica ya que no se puede hallar un parámetro numérico (como por
ejemplo la media de edad) cuando los datos no son numéricos.

Es la que requiere que los elementos que integran las muestras contengan elementos
parámetros o medibles. Puede resolver tres tipos de problemas:

 Estimación puntual: En la que pretendemos darle un valor al parámetro a estimar.


 Estimación por intervalos (buscamos un intervalo de confianza).
Contraste de hipótesis, donde buscamos contrastar información acerca del parámetro.

2.5.1. TECHI
2.5.2. FIDO

La estadística no paramétrica es una rama de la estadística que estudia las pruebas y


modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios
paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados
los que la determinan. La utilización de estos métodos se hace recomendable cuando no
se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de
medida empleado no sea, como mínimo, de intervalo.

Las principales pruebas no paramétricas son las siguientes:


Prueba χ² de Pearson
Prueba binomial
Prueba de Anderson-Darling
Prueba de Cochran
Prueba de Cohen kappa
Prueba de Fisher
Prueba de Friedman
Prueba de Kendall
Prueba de Kolmogórov-Smirnov
Prueba de Kruskal-Wallis
Prueba de Kuiper
Prueba de Mann-Whitney o prueba de Wilcoxon
Prueba de McNemar
Prueba de la mediana
Prueba de Siegel-Tukey
Prueba de los signos
Coeficiente de correlación de Spearman
Tablas de contingencia

La mayoría de estos test estadísticos están programados en los paquetes estadísticos más
frecuentes, quedando para el investigador, simplemente, la tarea de decidir por cuál de
todos ellos guiarse o qué hacer en caso de que dos test nos den resultados opuestos. Hay
que decir que, para poder aplicar cada uno existen diversas hipótesis nulas y condiciones
que deben cumplir nuestros datos para que los resultados de aplicar el test sean fiables.
Esto es, no se puede aplicar todos los test y quedarse con el que mejor convenga para la
investigación sin verificar si se cumplen las hipótesis y condiciones necesarias pues, si se
violan, invalidan cualquier resultado posterior y son una de las causas más frecuentes de
que un estudio sea estadísticamente incorrecto. Esto ocurre sobre todo cuando el
investigador desconoce la naturaleza interna de los test y se limita a aplicarlos
sistemáticamente.
Es importante mencionar que, si la distribución de los datos se ajusta a un tipo de
distribución conocida, existen otras [pruebas] que, en la práctica, son más aconsejables
pero que así mismo requieren otros supuestos. En este caso, la estadística a emplear es
la estadística paramétrica, dentro de la cual muchas veces podemos encontrar
equivalencias entre pruebas pero con diferencias en la potencia entre ambas siendo
siempre la potencia de las pruebas no paramétricas menor que la potencia de las pruebas
paramétricas equivalentes. Aun así, el uso adecuado de los tamaños muestrales disminuye
la posibilidad de cometer un [error tipo II], puesto que aumenta al mismo tiempo la
eficacia de la prueba. Es decir, a medida que se aumenta el tamaño de la muestra,
disminuye la posibilidad de cometer un error tipo II (un falso negativo: No rechazar la
hipótesis nula cuando ésta en realidad es falsa).

2.6.1. DISTRIBUCION NORMAL

La distribución normal es el modelo de probabilidad fundamental de la estadística, tiene


diversas aplicaciones y sirve como una buena aproximación de otras distribuciones, sean
estos simétricos o asimétricos. Su gráfica, denominada curva normal, es la curva con
forma de campana de la figura 1, la cual describe de manera aproximada muchos
fenómenos que ocurren en la naturaleza, la industria y la investigación.

La distribución normal es una distribución con forma de campana donde las desviaciones
estándar sucesivas con respecto a la media establecen valores de referencia para estimar
el porcentaje de observaciones de los datos. Estos valores de referencia son la base de
muchas pruebas de hipótesis, como las pruebas Z y t.
Histograma de una distribución normal hipotética
Puesto que la distribución de estos datos es normal, usted puede determinar exactamente
qué porcentaje de los valores está dentro de cualquier rango específico. Por ejemplo:

Alrededor del 95% de las observaciones está dentro de 2 desviaciones estándar de la


media, indicado por el área sombreada en azul. El 95% de los valores se ubicará dentro
de 1.96 desviaciones estándar con respecto a la media (entre −1.96 y +1.96). Por lo tanto,
menos del 5% (0.05) de las observaciones estará fuera de este rango. Este rango es la base
del nivel de significancia de 0.05 que se utiliza para muchas pruebas de hipótesis.
Aproximadamente el 68% de las observaciones está dentro de una 1 desviación estándar
de la media (-1 a +1), y alrededor del 99.7% de las observaciones estarían dentro de 3
desviaciones estándar con respecto a la media (-3 a +3).

Una variable aleatoria continua X que tiene la distribución en forma de campana de la fi


gura se denomina variable aleatoria normal. La ecuación matemática para la distribución
de probabilidad de la variable normal depende de los dos parámetros μ y σ, su media y su
desviación estándar, respectivamente. Por ello, denotamos los valores de la densidad de
X por n(x; μ, σ).
La densidad de la variable aleatoria normal X, con media μ y varianza σ2, es:
1 𝑥−𝜇 2
1 − ( )
𝑓(𝑥) = 𝜎√2𝜋 × 𝑒 2 𝜇 ; −∞ < x < ∞

donde π = 3.14159. . . y e = 2.71828. . .

En la gráfica se observa que los


valores de una distribución normal
tienden a acumularse en el centro y
a disminuir en los extremos.

Fig1 . Grafica de la funcion de densidad normal.


Una vez que se especifican μ y σ, la curva normal queda determinada por completo. En
la figura aparecen dos curvas normales que tienen la misma desviación estándar pero
diferentes medias. Las dos curvas son idénticas en forma, pero están centradas en
diferentes posiciones a lo largo del eje horizontal.

Figura 2: Curvas normales con μ1 < μ2 y σ1 = σ2

En la figura 3 se muestran dos curvas normales con la misma media pero con desviaciones
estándar diferentes. Aquí se observa que las dos curvas están centradas exactamente en la
misma posición sobre el eje horizontal; sin embargo, la curva con la mayor desviación
estándar es más baja y más extendida. Recuerde que el área bajo una curva de
probabilidad debe ser igual a 1 y, por lo tanto, cuanto más variable sea el conjunto de
observaciones, más baja y más ancha será la curva correspondiente. La figura muestra
dos curvas normales que tienen diferentes medias y diferentes desviaciones estándar.
Evidentemente, están centradas en posiciones diferentes sobre el eje horizontal y sus
formas refl ejan los dos valores diferentes de σ.

Figura 3 : Curvas normales con μ1 = μ2 y σ1 < σ2

Propiedades de la distribucion normal


1. La moda, que es el punto sobre el eje horizontal donde la curva tiene su punto
máximo, ocurre en x = μ.
2. La curva es simétrica alrededor de un eje vertical a través de la media μ.
3. La curva tiene sus puntos de inflexión en x = μ ± σ, es cóncava hacia abajo si μ –
σ < X < μ + σ, y es cóncava hacia arriba en otro caso.
4. La curva normal se aproxima al eje horizontal de manera asintótica, conforme nos
alejamos de la media en cualquier dirección.
5. El área total bajo la curva y sobre el eje horizontal es igual a uno.

2.6.2. DISTRIBUCION DE POISON

Los experimentos que producen valores numéricos de una variable aleatoria X, el número
de resultados que ocurren durante un intervalo de tiempo determinado o en una región
específica, se denominan experimentos de Poisson. El intervalo de tiempo puede ser de
cualquier duración, como un minuto, un día, una semana, un mes o incluso un año. Por
ejemplo, un experimento de Poisson podría generar observaciones para la variable
aleatoria X que representa el número de llamadas telefónicas por hora que recibe una
oficina.
Propiedades del proceso de Poisson
1. El número de resultados que ocurren en un intervalo o región específica es
independiente del número que ocurre en cualquier otro intervalo de tiempo o
región del espacio disjunto. De esta forma vemos que el proceso de Poisson no
tiene memoria.
2. La probabilidad de que ocurra un solo resultado durante un intervalo de tiempo
muy corto o en una región pequeña es proporcional a la longitud del intervalo o
al tamaño de la región, y no depende del número de resultados que ocurren fuera
de este intervalo de tiempo o región.
3. La probabilidad de que ocurra más de un resultado en tal intervalo de tiempo corto
o que caiga en tal región pequeña es insignificante.
El número X de resultados que ocurren durante un experimento de Poisson se llama
variable aleatoria de Poisson y su distribución de probabilidad se llama distribución de
Poisson. El número medio de resultados se calcula a partir de μ = λt, donde t es el
“tiempo”, la “distancia”, el “área” o el “volumen” específicos de interés. Como las
probabilidades dependen de λ, denotaremos la tasa de ocurrencia de los resultados con
p(x; λt). La derivación de la fórmula para p(x; λt), que se basa en las tres propiedades de
un proceso de Poisson que se listaron antes, está fuera del alcance de este texto. La
siguiente fórmula se utiliza para calcular probabilidades de Poisson.La distribución de
probabilidad de la variable aleatoria de Poisson X, la cual representa el número de
resultados que ocurren en un intervalo de tiempo dado o región específi cos y se denota
con t, es:
𝑒 −𝜆 (𝜆)𝑥
𝑓(𝑥) = 𝑃(𝑥; 𝜆𝑡) = = 𝑒 𝑥 , 𝛾 > 0, 𝑥 = 0,1,2, . . . ,
𝑥!

Para comprobar que la suma de la probabilidades de poisson es igual a 1, se utiliza la


suma exponencial:

(𝛾)𝑘
∑ = 𝑒𝛾
𝑘!
𝑘=0
En efecto,
∞ ∞
𝑒 −𝛾 (𝛾)𝑘 −𝛾
(𝛾)𝑘
∑ =𝑒 ∑ = 𝑒 𝛾 𝑒 −𝛾 = 𝑒 0 = 1
𝑘! 𝑘!
𝑘=0 𝑘=0

donde λ es el número promedio de resultados por unidad de tiempo, distancia, área o


volumen y e = 2.71828…
Naturaleza de la función de probabilidad de Poisson
Al igual que muchas distribuciones discretas y continuas, la forma de la distribución de
Poisson se vuelve cada vez más simétrica, incluso con forma de campana, a medida que
la media se hace más grande. Una ilustración de esto son las gráficas de la función de
probabilidad para μ = 0.1, μ = 2 y fi nalmente μ = 5 que se muestran en la figura Observe
cómo se acercan a la simetría cuando μ se vuelve tan grande como 5.

Figura 1: Funciones de densidad de Poisson para diferentes medias.

2.6.3. DISTRIBUCION DE BERNOULLI

Con frecuencia un experimento consta de pruebas repetidas, cada una con dos resultados
posibles que se pueden denominar éxito o fracaso. La aplicación más evidente tiene que
ver con la prueba de artículos a medida que salen de una línea de ensamble, donde cada
prueba o experimento puede indicar si un artículo está o no defectuoso.
Se denomina prueba o ensayo de Bernoulli a todo experimento aleatorio que consiste en
solo dos resultados posibles mutuamente excluyentes, generalmente llamados éxito (E) y
fracaso(F).
Por ejemplo, elegir al azar un objeto fabrica, con los resultados: defectuoso o no
defectuoso. Recibir opiniones de personas, a favor o en contra de algo, etc.
El espacio muestral asociado al experimento aleatorio de Bernoulli se puede escribir
como el conjunto:
Ώ = {𝐸, 𝐹}
La variable aleatoria x define en Ώ de manera que atribuye a E en el valor 1 y a F el valor
0, se denomina variable aleatoria de Bernoulli.
Si el éxito E se asigna la probabilidad p =P [X = 1] donde 0 < p < 1, entonces el fracaso
F tiene probabilidad P [X = 1] = 1 – p. luego, la distribución de probabilidad de Bernoulli
de parámetro p está definida por:
X x =0 x =1
f(x) = P [X = x] 1- p p

Y en forma resumida por la ecuación o modelo (donde usamos por comodidad q = 1 – p)


𝑓(𝑥) = P [X = x] = px q1-x , x = 0 , 1.
Su grafica consiste de dos segmentos (bastones) uno en 0 proporcional a q y otro en 1
proporcional a p.
La función de distribución acumulativa de Bernoulli es definida en la siguiente tabla:

X x <0 0≤x <1 x ≥1


f(x) = P [X = x] 0 1- p 1

El proceso de Bernoulli
En términos estrictos el proceso de Bernoulli se caracteriza por lo siguiente:
1. El experimento consta de ensayos repetidos.
2. Cada ensayo produce un resultado que se puede clasificar como éxito o fracaso.
3. L a probabilidad de un éxito, que se denota con p, permanece constante de un
ensayo a otro.
4. Los ensayos repetidos son independientes.

2.6.4. PRUEBA DE KOLMOGOROV – SMIRNOV

Es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos
distribuciones de probabilidad entre sí.
la prueba Kolmogórov-Smirnov es más sensible a los valores cercanos a la mediana que
a los extremos de la distribución.
La prueba de Kolmogorov-Smirnov para una muestra es un procedimiento de "bondad
de ajuste", que permite medir el grado de concordancia existente entre la distribución de
un conjunto de datos y una distribución teórica específica. Su objetivo es señalar si los
datos provienen de una población que tiene la distribución teórica especificada, es decir,
contrasta si las observaciones podrían razonablemente proceder de la distribución
especificada.

Tal vez el método más recomendable para el caso en que F(x) es una distribución continua
es el método para una muestra de Kolmogorov-Smirnov o (K-S). Consiste en una prueba
de hipótesis en el que la hipótesis nula afirma que los datos sí se ajustan a la distribución
F(x) y la hipótesis alterna establece que no se ajustan. El estadístico de prueba está dado
por:

este valor se compara con el valor crítico que se encuentra en una tabla. Se rechaza la
hipótesis nula si Dc es mayor que el valor de tabla para el nivel de confianza y el tamaño
de muestra que se estén considerando.

Hipótesis a contrastar:
H0: Los datos analizados siguen una distribución M.
H1: Los datos analizados no siguen una distribución M.
Estadístico de contraste:
0
1
sup ˆ ( ) ( ) n i i
in
D Fx Fx
≤≤
=−
donde:
• xi es el i-ésimo valor observado en la muestra (cuyos
valores se han ordenado previamente de menor a mayor).
• ˆ ( ) n i F x es un estimador de la probabilidad de observar
valores menores o iguales que xi.
• 0F (x) es la probabilidad de observar valores menores o
iguales que xi cuando H0 es cierta.
Así pues, D es la mayor diferencia absoluta observada entre la
frecuencia acumulada observada ˆ ( ) n F x y la frecuencia
acumulada teórica 0F (x) , obtenida a partir de la distribución de
probabilidad que se especifica como hipótesis nula.
Si los valores observados ˆ ( ) n F x son similares a los esperados
0F (x) , el valor de D será pequeño. Cuanto mayor sea la
discrepancia entre la distribución empírica ˆ ( ) n F x y la distribución
teórica , mayor será el valor de D.
Por tanto, el criterio para la toma de la decisión entre las dos
hipótesis será de la forma:
Si D≤Dα ⇒ Aceptar H0
Si D>Dα ⇒ Rechazar H0
donde el valor Dα se elige de tal manera que:
()
()
00PHH
P D Dα
α
=
=>=
Rechazar es cierta
Los datos siguen la distribucion M
siendo α el nivel de significación del contraste.
Para el cálculo práctico del estadístico D deben obtenerse:
1010
max ( ) , max ( ) 1 i n i i n i
DiFxDFxi
nn
+−
≤≤≤≤
= − = −−

y a partir de estos valores:


D = max{D+ ,D−}
A su vez, el valor de Dα depende del tipo de distribución a probar
y se encuentra tabulado. En general es de la forma:
()
Dc
kn
α
α=
donde cα y k(n) se encuentran en las tablas siguientes:
Modo alternativo de realizar la prueba de Kolmogorov
Smirnov.
La toma de la decisión en el contraste anterior puede llevarse a cabo también mediante
el empleo del p-valor asociado al estadístico D observado. El p-valor se define como:
( obs 0 ) p-valor = P D > D H es cierta Si el p-valor es grande significa que, siendo
cierta la hipótesis nula, el valor observado del estadístico D era esperable. Por tanto, no
hay razón para rechazar dicha hipótesis. Asimismo, si el p-valor fuera pequeño, ello
indicaría que, siendo cierta la hipótesis nula, era muy difícil que se produjera el valor de
D que efectivamente se ha observado. Ello obliga a poner muy en duda, y por tanto a
rechazar, la hipótesis nula. De esta forma, para un nivel de significación α, la regla de
decisión para este contraste es:

Si p-valor ≥ α ⇒ Aceptar H0
Si p-valor < α ⇒ Rechazar H0

Obviamente, la obtención del p-valor requiere conocer la distribución de D bajo la


hipótesis nula y hacer el cálculo correspondiente. En el caso particular de la prueba de
Kolmogorov Smirnov, la mayoría de los paquetes de software estadístico realizan este
cálculo y proporcionan el p-valor directamente.

La prueba de kolmogorov es una prueba de bondad y ajuste, es decir, del grado que la
distribución observada difiere de otra distribución. Es una alternativa a la prueba de chi-
cuadrada de bondad y ajuste cuando el dato es pequeño. La prueba no debe ser aplicada
cuando hay muchos empates.

2.6.5. PRUEBA DE ANDERSON – DARLING

En estadística, la prueba de Anderson-Darling es una prueba no paramétrica usada


para probar si los datos de una muestra provienen de una distribución específica. Esta
prueba es una modificación de la prueba de Kolmogorov-Smirnov donde se les da más
peso a las colas de la distribución que la cola de Kolmogorov - Smirnov.

Esta prueba es aplicada para evaluar el ajuste a cualquier distribución de probabilidades. Se


basa
en al comparación de la distribución de probabilidades acumulada empírica (resultado de los
datos)
con la distribución de probabilidades acumulada teórica (definida por H0).
Hipótesis:

Estadístico de Prueba:
Donde n es el número de observaciones, F(Y) es la distribución de probabilidades acumulada
normal con media y varianza especificadas a partir de la muestra y Yi son los datos obtenidos
en la
muestra, ordenados de menor a mayor.
Regla de Decisión:
La hipótesis nula se rechaza con un nivel de significancia si A2 es mayor que el valor critico
2
T A . Aunque la prueba de Anderson – Darling puede ser aplicada a cualquier distribución, no
se
dispone de tablas para todos los casos. A continuación se presenta una tabla para la prueba a
la
distribución normal.

La fórmula para el estadístico determina si los datos (observar que los datos se deben
ordenar) vienen de una distribución con función acumulativa F.

Formula: A2 = - n – S
Donde:
El estadístico de prueba Anderson – Darling es:
∞ [𝐹 (𝑥)−𝐹(𝑥)]2
𝐴2𝑛 = n ∫−∞ 𝐹(𝑥)[1−𝐹(𝑥)]
𝑛
𝑓(𝑥)𝑑𝑥

(2𝑖−1)
𝐴2𝑛 = - ∑𝑛𝑖=1 [𝑙𝑛𝐹(𝑌𝑖 ) + ln(1 − 𝐹(𝑌𝑛+1−𝑖 ))] − 𝑛
𝑛

Donde:
n es el número de datos
𝑭(𝒙) es la función de distribución de probabilidad teórica.
𝑭𝒏 (𝒙) es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el
estadístico ajustado para luego compararlo con los valores críticos de la tabla de
Anderson – Darling. En la siguiente figura se pueden observar los valores críticos para
distribuciones distintas, con parámetros conocidos.

Tabla 1. Tabla de valores críticos para la prueba Anderson - Darling

Una vez obtenido el estadístico ajustado, la regla de rechazo se realiza análogamente a


utilizada en la prueba K-S, en este caso el valor es el siguiente:
Valor p = (𝐴2𝑛 ≥ 𝑎0 , cuando la hipótesis nula es verdadera). En donde 𝑎0 es el valor
asociado al estadístico de prueba 𝐴2𝑛
El estadístico de la prueba se puede entonces comparar contra las distribuciones del
estadístico de prueba (dependiendo de F se utiliza) para determinar el p valor.

2.6.6. PRUEBA DE RYAN – JONIER

Esta prueba evalúa la normalidad calculando la correlación entre los datos y los valores
normales de los datos. Si el coeficiente de correlación está cerca de 1, la población es
probablemente normal.
En estadística, la prueba de Ryan – Jonier es una prueba no paramétrica sobre si los datos
de una muestra provienen de una distribución normal.
Los resultados de la prueba indican si se debería aceptar o rechazar la hipótesis nula que
los datos vienen de una población normalmente distribuida. Se puede hacer una prueba
de normalidad y producir un argumento de probabilidad normal en el mismo análisis. La
prueba de normalidad y el argumento de probabilidad son por lo general los mejores
instrumentos para juzgar la normalidad, sobre todo para muestras pequeñas.
La estadística de Ryan-Joiner evalúa la fuerza de esta correlación; si se encuentra por
debajo del valor crítico apropiado, usted rechazará la hipótesis nula de normalidad en la
población(demográfica).
En el método de Anderson Darling o Ryan Joiner, si el valor de probabilidad “P” de la
prueba es mayor a 0.05, se considera que los datos son normales.
Las pruebas de Andeson – Darling y de kolmogorov – smirnov están basados en la
función de distribución empírica.
El Ryan – Joiner está basado en la regresión y correlación.

2.6.7. KURTOSIS

3.1.1. PRUEBA DE KOLMOGOROV – SMIRNOV

3.1.2. PRUEBA DE ANDERSON – DARLING

Ejemplo:
En el método de Anderson Darling o Ryan Joiner, si el valor de
probabilidad P de la prueba es mayor a 0.05, se considera que los
datos son normales. Seguir los siguientes
pasos:

Generar 100 datos aleatorios en Minitab con Media = 264.6 y


Desviación estándar S = 32.02 con:

1. Calc > Random data > Normal


2. Generate 100 Store in columns C1 Mean 264.06 Estandar
deviation 32.02 OK.

Nos aseguramos que los datos se distribuyan normalmente con la


prueba de Anderson Darling o Ryan joiner como sigue.

1. Stat > Basic statistics > Normality Test


2. Variable C1 Seleccionar Ryan Joiner test OK .

El P value debe ser mayor a 0.05 para que los datos se distribuyan
normalmente
Gráfica de probabilidad de un proceso normal

3.1.3. PRUEBA DE JONIER


3.1.4. DISTRIBUCION NORMAL

Ejemplo de una distribución normal


La estatura de todos los adultos masculinos que residen en el estado de
Pennsylvania siguen aproximadamente una distribución normal. Por lo tanto, la
estatura de la mayoría de los hombres estará cerca de la estatura media de 69
pulgadas. Un número similar de hombres serán un poco más altos y un poco más
bajos que 69 pulgadas. Solo unos pocos serán mucho más altos o mucho más
bajos. La desviación estándar es de 2.5 pulgadas.
Aproximadamente, el 68% de los hombres de Pennsylvania tiene una estatura de entre 66.5 (μ -
1σ) y 71.5 (μ + 1σ) pulgadas.

Aproximadamente, el 95% de los hombres de Pennsylvania tiene una estatura de entre 64 (μ -


2σ) y 74 (μ + 2σ) pulgadas.

Aproximadamente, el 99.7% de los hombres de Pennsylvania tiene una estatura entre 61.5 (μ -
3σ) y 76.5 (μ + 3σ) pulgadas.

3.1.5. PERFORACION
RENDIMIENTO DEL JUMBO
3.1.6. LIMPIEZA
RENDIMIENTO DEL SCOOPTRAM

APLICACIÓN DE TOMA DE TIEMPOS


3.1.7. CARGUIO
3.1.8. ACARREO Y TRANSPORTE
3.1.9. SOSTENIMIENTO
RENDIMIENTO DEL BOOLTER “ROBOLT5 - SANVICK”
3.1.10. RORO

3.2.1. JOS
3.2.2. MAR

4.1.1. COMPARACION DE LAS PRUEBAS DE NORMALIDAD


DE ANDERSON – DARLING, KOLMOGOROV – SMIRNOV
Y RYAN – JONIER
Las pruebas de Anderson-Darling y Kolmogorov-Smirnov se basan en la función de
distribución empírica. La prueba de Ryan-Joiner (similar a la prueba de Shapiro-Wilk) se
basa en regresión y correlación.

Las tres pruebas tienden a ser adecuadas para identificar una distribución no normal
cuando la distribución es asimétrica. Las tres pruebas distinguen menos cuando la
distribución subyacente es una distribución t y la no normalidad se debe a la curtosis. Por
lo general, entre las pruebas que se basan en la función de distribución empírica, la prueba
de Anderson-Darling tiende a ser más efectiva para detectar desviaciones en las colas de
la distribución. Generalmente, si la desviación de la normalidad en las colas es el
problema principal, muchos profesionales de la estadística usarían una prueba de
Anderson-Darling como primera opción.

NOTA

Si está verificando la normalidad como preparación para un análisis de capacidad normal,


las colas son la parte más crítica de la distribución.

4.1.2. GI
4.1.3. ¿Estimador y estimación significa lo mismo en estadística?

Esa información no es correcta debido a que:

ESTIMADOR: Es el estadístico utilizado para generar una estimación y es una


variable aleatoria

ESTIMACIÓN: Es el valor que toma el estimador.

4.1.4. ¿Cuál es la diferencia entre desviación estándar y error


estándar?

La diferencia es que la desviación estándar describe la variabilidad de los valores de


una variable, en cambio el error estándar describe la precisión del estadístico.
4.2.1. HJ
4.2.2. HJ

También podría gustarte