Está en la página 1de 16

UNIVERSIDAD NACIONAL

DE FRONTERA – SULLANA

FACULTAD DE INGENIERÍA DE INDUSTRIAS


ALIMENTARIAS
CONCEPTOS DE LOSTEMAS
DESARROLLADOS EN CLASE

ESTUDIO MONOGRÁFICO
ESTUDIANTE:
 ROSALES RUIZ MILAGROS

CÁTEDRA:
METODOS ESTADISTICOS PARA LA INVESTIGACION

SULLANA - PERÚ
2018
Dedicatoria
Este trabajo está dedicado a nuestros queridos
padres, por brindarnos su apoyo incondicional día a
día y al docente por educarnos con esfuerzo y
entusiasmo, para lograr nuestros objetivos y
agradecerle por su dedicación.
INDICE
TEMA
TITULO i
DEDICATORIA ii
INDICE iii
I. INTRODUCCIÓN
II. MARCO TEORICO
III. CAPITULO I
IV. ANALISIS DE REGRESION
V. INTERVALO DE CONFIANZA
VI. DISEÑO DE ANALISIS EXPERIMENTAS
VII. DISEÑO DE EXPERIMENTOS CON UN SOLO FACTOR: EL ANÁLISIS
DE VARIANZA
VIII. CONTROL ESTADISTICO DE CALIDAD
IX. CONCLUSIONES
X. BIBLOGRAFIA
I. INTODUCCCION
Este presente trabajo se refiere al tema de estadística, que se puede definir es
la ciencia cuyo objetivo es reunir una información para facilitar al hombreen
el estudio de datos masivos de individuos, grupos, etc. El método y la
importancia de la estadística ya que se relaciona con el estudio de los procesos
cuyo resultado es más o menos imprescindibles con la finalidad de tener
conclusiones razonables. la estadística se ocupa de los métodos científico para
recolectar, resumir, organizar, presentar y analizar datos. La estadística
inferencial aporta las técnicas necesarias para extraer conclusiones sobre el
valor poblacional de un determinado parámetro a partir de la evaluación de
una muestra. Las conclusiones derivadas de este proceso inferencial siempre
estarán sujetas a error como consecuencia de la variabilidad aleatoria unida al
propio procedimiento de selección muestral.
Uno de los aspectos más relevantes de la Estadística es el análisis de la
relación o dependencia entre variables. Frecuentemente resulta de interés
conocer el efecto que una o varias variables pueden causar sobre otra, e incluso
predecir en mayor o menor grado valores en una variable a partir de otra. Por
ejemplo, supongamos que la altura de los padres influyen significativamente
en la de los hijos. Podríamos estar interesados en estimar la altura media de
los hijos cuyos padres presentan una determinada estatura.
Intervalos de confianza métodos que se usan para tomar decisiones sobre
poblaciones, a partir de los resultados de una muestra aleatoria escogida de
esa población. Para llegar a tomar decisiones estadísticas se debe partir de
afirmaciones o conjeturas con respecto a la población en el que estamos
interesados. Tales suposiciones, pueden ser verdaderas o no. Una conjetura
hecha sobre una población o sobre sus parámetros deberá ser sometida a
comprobación experimental con el propósito de saber si los resultados de una
muestra aleatoria extraída de esa población, contradicen o no tal conjetura.
En cualquier experimento, la variabilidad proveniente de un factor de ruido
puede afectar los resultados.
Un factor de ruido es un factor que probablemente tiene un efecto en la
respuesta pero que no nos interesa estudiar.
Si el factor de ruido es desconocido y no controlable, la soluciones la
aleatorización, que tiende a distribuirlos niveles y efectos de este factor entre
todas las factoras de ruido es conocido y no controlable, pero por lo menos
podemos medir su valor en cada corrida del experimento, entonces podemos
compensarlo usando análisis de con varianza.
Si el factor de ruido es conocido y controlable, se utilizan bloques para
eliminar su efecto en la comparación estadística.
II. MARCO TEORICO

2.1.CONCEPTO I : REGRESION LINEAL


Uno de los aspectos más relevantes de la Estadística es el análisis de la
relación o dependencia entre variables. Frecuentemente resulta de interés
conocer el efecto que una o varias variables pueden causar sobre otra, e
incluso predecir en mayor o menor grado valores en una variable a partir
de otra. Por ejemplo, supongamos que la altura de los padres influyen
significativamente en la de los hijos. Podríamos estar interesados en estimar la
altura media de los hijos cuyos padres presentan una determinada estatura. Los
métodos de regresión estudian la construcción de modelos para explicar o
representar la dependencia entre una variable respuesta o dependiente (Y) y la(s)
variable(s) explicativa(s) o dependiente(s), X. En este Tema abordaremos el
modelo de regresión lineal, que tiene lugar cuando la dependencia es de tipo
lineal (X).

Ejemplo 9.1. El inventor de un nuevo material aislante quiere determinar la


magnitud de la compresión (Y) que se producirá en una pieza de 2 pulgadas de
espesor cuando se somete a diferentes cantidades de presión (X). Para ello prueba
5 piezas de material bajo diferentes presiones. Los pares de valores observados
(x, y) se muestran en la siguiente tabla: Pieza Presión (x) Compresión (y).

PIEZA PRESION (X) COMPRESION (Y)


1 1 1
2 2 1
3 3 2
4 4 2
5 5 4

La variable dependiente se mide con un error que no se controla en el experimento,


por tanto, Y es una variable aleatoria. Las variables independientes X1, X2, ... , Xk
se miden con un error despreciable, que en la mayoría de los casos se controla en el
experimento, y por lo tanto, no tienen la propiedad de ser variables aleatorias.

Existen dos formas distintas pero relacionadas del estudio de la asociación entre
variables a partir de una muestra aleatoria. La primera forma, es determinar una
relación funcional de la variable dependiente Y con respecto a una o más variables
independientes con el fin de predecir valores de Y. Este método es el análisis de
regresión. La segunda forma de estudio de la asociación entre variables, es, medir el
grado de relación entre ellas, mediante un coeficiente o índice. A esta técnica se
denomina análisis de correlación.

Los métodos de regresión y correlación entre variables se clasifican por el número de


variables independientes, en simples y múltiple. El análisis de asociación se
denomina simple , si hay una sola variable independiente, si hay dos o más variables
independientes se denomina el análisis de asociación Múltiple.
Por el tipo de función matemática que se puede ajustar a los datos, la asociación de
las variables puede ser lineal o no lineal, como, por ejemplo: parábola, polinomio,
exponencial, etc.

MODELO DE REGRESIÓN LINEAL SIMPLE.

Consideremos una variable dependiente Y con una sola variable


independiente X. Representemos una muestra aleatoria de tamaño n de (X, Y)
por el conjunto de pares de datos: (X Y) n 1, 2..., i /) y, (x i i).

Denotaremos por Y/ X la variable aleatoria Y dependiente de X. Su media y


varianza se denotan respectivamente por X / Yμ y por 2/ XY. En particular el
símbolo Y/ xi representa a la variable aleatoria Yi cuando X = xi.
RELACIONES ENTRE VARIABLES.

4.1. El coeficiente de correlación de Pearson.

Definición. - Es una prueba estadística para analizar la relación entre dos


variables medidas en un nivel por intervalos o de razón.

Hipótesis a probar: Correlacional, del tipo “A mayor X, mayor Y”, “A mayor


X, menor Y”, “Altos valores en X están asociados con altos valores en Y”,
“Altos valores en X se asocian con bajos valores de Y”.

La prueba en si no considera a una variable como independiente y a otra como


dependiente, ya que no se trata de una prueba que evalúa la causalidad. La
noción de causa-efecto (independiente-dependiente) se puede establecer
teóricamente, pero la prueba no considera dicha causalidad.

El coeficiente de correlación de Pearson ( r ), se calcula a partir de las


puntuaciones obtenidas en una muestra en dos variables. Se relacionan las
puntuaciones obtenidas de una variable con las puntuaciones obtenidas de otra
variable, en los mismos sujetos.
SUPUESTOS

Los supuestos para el modelo de regresión lineal simple son:

1) Igualdad de varianzas (Homoscedasticidad). Para cada valor xi de la


variable independiente X, la distribución de la variable aleatoria dependiente
Yi tiene media iY/ xμ y varianza 2 / i xY. Se supone que cada una de estas
varianzas son iguales a la varianza común 2 σ, denominada varianza de la
regresión.

2) Independencia. Se supone que las Yi son variables aleatorias


estadísticamente independientes.

3) Linealidad. Se supone que la relación de Y con X es lineal, es decir todas


las medias
iY/ xμ deben estar en una línea recta denominada línea de regresión
poblacional, cuya ecuación es, (ver figura 4.1) βXαμ Y/X.

. V. INTERVALO DE CONFIANZA
El proceso de inferencia es aquel mediante el cual se pretende estimar el valor de
un parámetro a partir del valor de un estadístico. Esta estimación puede ser puntual
o bien por intervalo. La mejor estimación puntual de un parámetro es simplemente
el valor del estadístico correspondiente, pero es poco informativa porque la
probabilidad de no dar con el valor correcto es muy elevada, es por eso que se
acostumbra a dar una estimación por intervalo, en el que se espera encontrar el
valor del parámetro con una elevada probabilidad. Esta estimación recibe el
nombre de estimación mediante intervalos de confianza.
La estimación por intervalos de confianza consiste en determinar un posible rango
de valores o intervalo (a; b), en el que, con una determinada probabilidad, sus
límites contendrán el valor del parámetro poblacional que andamos buscando.
Para cada muestra obtendremos un intervalo distinto que, para el X % de ellas,
contendrá el verdadero valor del parámetro. A este intervalo se le denomina
intervalo de confianza.
Evidentemente esta técnica no tiene por qué dar siempre un resultado correcto,
tal y como hemos comentado para algunas muestras el intervalo correspondiente
contendrá el verdadero valor del parámetro y para otras no. A la probabilidad de
que hayamos acertado al decir que el intervalo contiene al parámetro se la
denomina nivel de confianza (o simplemente confianza). También se denomina
nivel de significación a la probabilidad de errar en esta afirmación, es decir la
significación (probabilidad de errar.
Intervalo de confianza para la media poblacional.

10.1. Intervalo de confianza para la media : Varianza 2 supuestamente


conocida. Se utiliza la distribución muestral de la media X para determinar el
intervalo de confianza del parámetro.
Si la población es normal ) σμ,( 2N , entonces, la distribución del estadístico X
es normal /n)σ μ,( 2N para cualquier valor de n (n 2).
Si la población no es normal, pero tiene media y varianza 2 finitas,
entonces, siempre que el tamaño n de la muestra sea suficientemente grande (n
30), por el teorema del límite central, la distribución de X es
aproximadamente normal /n) σμ, ( 2N
Por tanto, según sea el caso, la distribuVVVV ción de la variable aleatoria .
El intervalo de confianza calculado dependerá de:
Lo estimado en la muestra (porcentaje, media,) El I.C. está formado por valores
ligeramente menores y mayores que la aproximación ofrecida por la muestra.
El tamaño muestral. Cuantos más datos hayan participado en el cálculo, más pequeño
esperamos que sea la diferencia entre el valor estimado y el valor real desconocido
La probabilidad, nivel de confianza (1-α), con la que el método dará una respuesta
correcta. Niveles de confianza habituales para los I.C. son el 95% y el 99%. El llamado
valor crítico, es aquel punto zα/2 tal que P (Z >α/z) = α/2, dónde Z es una variable N (0,
1).
DISTRIBUCIÓN DE ESTADÍSTICOS EN EL MUESTREO.
Error estándar de la media muestral
El Teorema Central del Límite nos asegura que si nuestra muestra es razonablemente
grande la distribución de la media muestral de cualquier variable sigue una distribución
Normal y que además, la desviación típica de esta media tiene como expresión:


√𝑛
que representa la desviación típica de la variable original y n es el tamaño de la muestra.
a la expresión anterior se le llama error estándar de la media. supongamos que tenemos
una variable cuantitativa cualquiera x, cuya media en la población es m y cuya desviación
típica (también en la población) es s. si se toman varias muestras de tamaño
suficientemente grande y llamamos x a la variable que guarda las medias
muestralesXXXX para cada una de las muestras, por el teorema central del límite tenemos
asegurado:


x~N(u )
√𝑛
ERROR ESTÁNDAR DE UN PORCENTAJE

En el caso de que la variable de interés sea una variable nominal no tiene sentido que nos
planteemos el error estándar de su media (de hecho, la media de una variable nominal no
tiene tampoco sentido) sino el de su porcentaje de individuos en cada uno de sus valores.
En este caso si P es el porcentaje de respuestas en ese valor su error estándar será:

𝑝(100 − 𝑝)

𝑛
En la expresión anterior se ha supuesto que la variable P está expresada en tantos por 100,
si estuviera expresada en tantos por uno (es decir P es un valor entre 0 y 1) únicamente
habríamos de cambiar en ella el valor 100 por 1 y la expresión seguiría siendo válida.
Supongamos que tenemos una variable categórica y que nos interesa estimar el porcentaje
de una de sus categorías en la población, al que llamamos P. Si tomamos varias muestras
de tamaño suficientemente grande (n) y en cada una de esas muestras obtenemos una
estimación del porcentaje de interés, si llamamos b P a la variable que guarda los
porcentajes de esas muestras, se cumple que esta variable aleatoria sigue la siguiente
distribución:

𝑃∗(100_1 )
p~N(P,√ 𝑛
4.2.3. DISEÑO Y ANALISIS DE EXPERIMENTOS
la Experimentación es concebida como el proceso de realización de un experimento; y el
Experimento, como un procedimiento que le permite al investigador, reproducir bajo
condiciones “controladas” un fenómeno real con el objetivo de obtener la información
necesaria para la contrastación objetiva de hipótesis relativas al efecto de factores
específicos de la producción.
Antes de realizar un experimento hay que planificarlo de tal manera que permita obtener
la información pertinente al problema bajo investigación, a esta etapa se le conoce como
diseño del experimento, y puede concebirse como la secuencia completa de pasos a
realizar para asegurar que se obtendrá la información necesaria para el contraste de la (s)
hipótesis planteada (s). 4.1. Principios básicos del diseño experimental. Existen tres
principios básicos inherentes a todo plan experimental, esenciales para los objetivos de la
investigación científica: la repetición, la aleatorización y el control local.

1. Repetición: Significa que cada tratamiento será efectuado más de una vez (habrá más
de una unidad experimental para cada tratamiento). Es necesario indicar que las medidas
repetidas en la misma unidad experimental no significan repeticiones sino submuestreo.

2. Aleatorización: es la asignación de los tratamientos a las unidades experimentales de


tal manera que todas las unidades tengan la misma probabilidad de recibir cualquier
tratamiento, eliminando de esta manera, tendencias, errores sistemáticos y preferencias
que puedan darse. Si la repetición hace posible una prueba de hipótesis, la aleatorización
contribuye a hacerla válida.

3. Control local: son las acciones que se realizan con el propósito de hacer más eficiente
el experimento, incrementando la sensibilidad de las pruebas de significancia al reducir
la magnitud del error experimental.
Necesidad del análisis estadístico.

Según Davies (1958), “un buen diseño experimental es aquel que proporciona la
información requerida con el mínimo esfuerzo experimental”. La información requerida
se refiere a que los datos permitan un análisis objetivo que conduzca a conclusiones
válidas con respecto al problema que se estudia, en cuanto al esfuerzo experimental se
entiende por el ahorro de tiempo, dinero, personal y material experimental.

Vale hacer énfasis en características como: 1. Simplicidad: la selección de los


tratamientos y su disposición en el experimento debe ser lo más simple posible, pero
consistente con los objetivos del problema.

2. Grado de precisión: el experimento debe ser capaz de medir diferencias entre


tratamientos, con el grado de precisión deseado, lo cual está muy asociado al diseño
empleado, al tamaño de la unidad experimental y al número de repeticiones.

3. Ausencia de errores sistemáticos: las unidades experimentales que reciben el mismo


tratamiento no deben tener diferencias sistemáticas con las que reciben cualquier otro
tratamiento, para poder obtener una buena estimación del efecto de los tratamientos.

4. Amplio rango de validez a las conclusiones: es deseable tratar de que las conclusiones
a las que se llegue, tengan un rango de validez lo más amplio posible. Repetir en el tiempo
y/o espacio un experimento ayuda para esto, los experimentos factoriales también son
útiles para este propósito.

5. Grado de incertidumbre. Un buen experimento debe permitir calcular la probabilidad


de que los resultados hayan sido obtenidos únicamente por casualidad, es decir, que debe
proveer los datos suficientes y necesarios para contrastar objetivamente la hipótesis nula.
Algunos conceptos fundamentales.

Factor: es cada una de las variables independientes cuyo efecto se está interesado en
evaluar. Si un experimento consta de un solo factor se llama experimento simple, y si
incluye dos o más factores se llama experimento factorial. Tratamiento: en un
experimento simple es cada una de los valores que toma el factor y que van a ser incluidos
en el experimento. En un experimento factorial, los tratamientos son todas las
combinaciones posibles entre los niveles de los factores a estudiar. Cada tratamiento está
compuesto por la combinación de un nivel de cada factor, estando presentes todos los
tratamientos.
Unidad experimental: es la porción de material experimental a la cual se le aplica un
tratamiento en una repetición de un experimento. Puede ser: un número de surcos en una
parcela de terreno, un grupo de árboles, una planta, una hoja, un animal, un grupo de
animales, etc.

Variable respuesta: es la característica a través de la cual se medirá el efecto que los


tratamientos producen. Debe seleccionarse la o las variables más idóneas que realmente
permitan juzgar o evaluar el comportamiento o efecto de los tratamientos en estudio. En
los ejemplos anteriores puede ser la duración, la calidad nutritiva o la calidad física del
heno, el número de pústulas en el caso de la roya y el rendimiento o grado de control de
las malezas en el cardamomo. Es necesario considerar la medición de variables
relacionadas y realizar observaciones adicionales que pueden ser importantes en la
discusión de los resultados.

Análisis de Yates
La técnica fundamental consiste en repartir el total en componentes mediante sumas de
cuadrados. Esta técnica tuvo efectos secundarios en el modelo. Por ejemplo, demostramos
el modelo para un ANOVA simplificado con un tipo de tratamiento en diversos niveles.
𝑺𝑪𝒕𝒐𝒕𝒂𝒍 = 𝑺𝑪𝒆𝒓𝒓𝒐𝒓+𝑺𝑪𝒕𝒓𝒂𝒕𝒂𝒎𝒊𝒆𝒏𝒕𝒐𝒔 Los grados de libertad se pueden repartir de
manera similar y especifican distribuciones χ² que describen las sumas asociadas de
cuadrados.
𝒈𝒍𝑻𝒐𝒕𝒂𝒍 = 𝒈𝒍𝑬𝒓𝒓𝒐𝒓+ 𝒈𝒍𝑻𝒓𝒂𝒕𝒂𝒎𝒊𝒆𝒏𝒕𝒐𝒔

Fisher 2.5.1 Principios de Fisher


El biólogo y estadístico inglés Ronald Fisher propuso una metodología por el diseño de
experimentos en sus libros The Errantemente of Field Experimentos (1926) y The Design
of Experiments (1935). Mucho de su obra pionera trató de las aplicaciones agrícolas de
sus métodos de estadística. Por ejemplo, describió como probar la hipótesis de la catadora
de té. Estos métodos se han adaptado en las ciencias sociales y físicas y se usan todavía
en la ingeniería agrícola y que se difieren del diseño y análisis de experimentos de
computación.

DISEÑO DE EXPERIMENTOS CON UN SOLO FACTOR: EL


ANÁLISIS DE VARIANZA.
En el presente capitulo se introduce la técnica del Análisis de la varianza (ANOVA) que
constituye, sin lugar a dudas, una de las herramientas más valiosas de la inferencia
estadística. Desarrollado hacia 1930 por R.A FISHER, cuando trabajaba en la estación
de investigación agraria de Rothmasted (Inglaterra), el ANOVA constituye la técnica
básica para el estudio de observaciones que dependen de varios factores, siendo la
herramienta fundamental en el análisis de los modelos de Regresión y de Diseño de
Experimentos.
En esta sección se explica cómo puede usarse el análisis de varianza para comparar
medias cuando hay más de dos niveles de un solo factor. En las secciones siguientes se
expli cara como diseñar y analizar experimentos con varios factores

Diseño factorial 2k
Cuando en un experimento hay varios factores de interés, utilizamos el diseño
experimental factorial. En el experimento factorial, se analizarán todas las posibles
combinaciones de los niveles de los factores en cada réplica del experimento, para
estudiar el efecto conjunto de estos sobre una respuesta. Un experimento 2k proporciona
el menor número de ensayos con los cuales se pueden estudiar k factores en un diseño
factorial completo. Existen varios casos especiales del diseño factorial, pero el más
importante de todos ocurre cuando se tienen k factores, cada uno de ellos a dos niveles
(22 es el factorial más pequeña). Debido a que sólo hay dos niveles para cada factor,
asumimos que la respuesta es aproximadamente lineal en el rango de los niveles elegidos
de los factores. El efecto de un factor se define como el cambio en la respuesta que
produce un cambio en el nivel del factor.
Diseño 2k para k = 2 factores Este diseño, es el más sencillo de la serie. Consideramos
dos factores: A y B, cada uno a 2 niveles. Normalmente consideramos estos niveles como
los niveles alto y bajo del factor ojtet El diseño 22 puede ser representado
geométricamente como un cuadrado con 4 ensayos.
Para cualquier diseño 2k con n replicas, la estimación del efecto y de los cuadrados se
estiman de la siguiente forma:
Efecto = Contraste/n2K-1
SSx = [Contraste] 2/n2k Los efectos de interés en el diseño 22,
son los efectos principales de A y B y la interacción AB. Estimaremos cada uno de los
efectos de la siguiente forma: A = [a+ab-b-(1)]/2n B
= [b+ab-a-(1)]/2n AB = [ab+(1)-a-b]/2n

CONTROL ESTADISTICO DE LA CALIDAD


La gran importancia del control de calidad puede vislumbrarse si se considera que ha
pasado históricamente por tres etapas distintas. En una primera etapa, el énfasis se
centraba en la labor de inspección y en el establecimiento de tolerancias para los
productos. Esta etapa comienza en los años 30 y se extiende hasta comienzos de los 60.
El control típico, en esta concepción, es el control de recepción para materiales y el
control de auditoría del producto final. Las limitaciones de este enfoque son claras: no
evita los defectos de fabricación, sino, únicamente, que se envíen al mercado unidades
defectuosas.
La segunda etapa del control de calidad se propone evitar las causas de los problemas de
calidad durante la fabricación. Se extiende, por occidente, a finales de los años 50, con
los estudios de capacidad de procesos y diseño de procesos. El control más importante es
el control de calidad en curso de fabricación; las tolerancias comienzan a contemplarse
como estándares a superar y no como objetivos a conseguir. Las ventajas de este enfoque
radican en su capacidad para mejorar procesos y prevenir la aparición de problemas.
Finalmente, como consecuencia de la intensa competencia internacional, la tercera etapa,
desarrollada especialmente en Japón, prosigue la dirección de evitar los problemas antes
de que aparezcan, y pone el énfasis en el diseño de productos para que cumplan altas
cotas de calidad.
En la década de los 80, los cambios en los mercados internacionales elevan los problemas
relacionados con la calidad a un lugar preeminente. Productos de baja calidad o excesivo
precio pasarán por situaciones difíciles debido a:
o La creciente sensibilización de los consumidores por los temas de calidad y fiabilidad
y la saturación de mercados. Esta sensibilización afecta no sólo a los productos, sino
también a los servicios.
o El aumento espectacular de la competencia a nivel mundial. Las empresas tienden a
internacionalizarse y su posible imagen local debe ser sustituida por otra de calidad
intrínseca de sus productos y servicios. El notable incremento de la información que los
consumidores reciben acerca de productos y servicios existentes en otros países, crea
necesidades y/o expectativas que no se pueden obviar durante mucho tiempo con la
utilización de políticas proteccionistas.
La aceleración en la disminución del ciclo de vida de muchos productos destaca la
necesidad de innovación y rediseño constante y, en consecuencia, la necesidad de tener
en los temas de calidad, de costes en la etapa de diseño y de comportamiento en uso de
productos y servicios.
o Las tendencias actuales hacia la automatización y robotización de procesos industriales.
Estas tendencias acentúan la importancia de los problemas de calidad ya que la
robotización, para que se eficiente, exige niveles de calidad mucho mayores en las partes
y piezas con las que se trabaja.
El ingrediente básico en la nueva concepción del control de calidad es la utilización
masiva del método científico –y, en concreto, de la estadística-, en la planificación de
recogida y análisis de los datos necesarios para la toma de decisiones tendentes a mejorar
todos los procesos. Un control de calidad del que no se deriven actuaciones constantes
para el perfeccionamiento de los sistemas no es un control de calidad verdadero.

CONCLUSIONES
 Se determinó como se puede aplicar control estadístico en la
calidad en el momento de su elaboración y fabricación de los
alimentos.
 Conocer cada uno de los métodos que se puede utilizar
en el curso de métodos de estadística.
Bibliografía

MATEO LÓPEZ, L. J. (1991): Control estadístico de calidad. Mateo López, Luis Juan
(Autoeditor). Madrid

(2008). analisis de regresion. capitulo 5.

Analisis de regresion. (2008).

(2004). coeficiente de correlacion fr pirde. lima.

M., M. B. (s.f.). Inferencia estadística (intervalos de confianza y p-valor). Comparación de dos


poblaciones (test t de comparación de medias, comparación de dos proporciones,
comparación de dos varianzas). .

También podría gustarte