Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ESTADÍSTICA:
Sistema o método usado para la recolección, organización, análisis y descripción numérica de la información. Se podría decir que
estudia el comportamiento de hechos o fenómenos de grupo.
Las características cuantitativas se denominan variables y se pueden expresar mediante números. Estas se dividen en variables
discretas, si admiten solo números enteros y variables continuas, si admiten valores fraccionarios. El valor que puede tomar la
variable discreta se denomina como yi.
Para identificar cada valor observado se utilizan las letras x i, en minúscula para valores de la muestra, o X i, en mayúscula para valores
de la población.
Distribución de frecuencias: método utilizado para organizar y resumir información, generalmente una tabla, en donde los datos
recolectados se ordenan y clasifican, indicando la frecuencia, es decir, el número de veces que se repiten.
1. Se tiene una población constituida por 2000 cajas y se desean examinar con el fin de determinar el número de piezas o elementos
defectuosos que contiene cada caja. Por diferentes razones, se desea que la investigación no sea exhaustiva, es decir, no examinar la
totalidad de las 2000 cajas o universo sino, por el contrario, seleccionar una muestra de tamaño 30, correspondiente a una
investigación parcial:
X1 = 3 X2 = 2 X3 = 0 X4 = 2 X5 = 3 X6 = 3 X7 = 1 X8 = 1 X9 = 0 X10 = 1
X11 = 3 X12 = 3 X13 = 4 X14 = 4 X15 = 3 X16 = 2 X17 = 4 X18 = 2 X19 = 4 X20 = 2
X21 = 4 X22 = 0 X23 = 0 X24 = 1 X25 = 3 X26 = 4 X27 = 2 X28 = 3 X29 = 1 X30 = 2
2. Se seleccionó una muestra de 30 aprendices, a fin de conocer su peso en kilos; para facilitar el trabajo se redondearon las cifras, es
decir, los datos originales se tomaron con decimales o admitieron fraccionarios.
X1 = 74 X2 = 67 X3 = 94 X4 = 70 X5 = 69 X6 = 61 X7 = 71 X8 = 79 X9 = 47 X10 = 85
X11 = 82 X12 = 55 X13 = 65 X14 = 88 X15 = 52 X16 = 58 X17 = 76 X18 = 57 X19 = 72 X20 = 66
X21 = 48 X22 = 56 X23 = 63 X24 = 71 X25 = 60 X26 = 64 X27 = 68 X28 = 83 X29 = 74 X30 = 92
Desviaciones:
Son las deviaciones respecto a la media las diferencias que hay entre los distintos valores que toma la variable y la media aritmética,
tanto en datos sin agrupar como en datos agrupados, se simboliza como Zi o di.
Medidas de dispersión:
Son indicadas cuando se quieren evaluar dos o más promedios, ya que permiten determinar si hay concentración o no de datos a su
alrededor, de haberla, indicaría una buena aplicación de no existir indicaría poca representitividad.
Varianza:
Media aritmética de los cuadrados de las diferencias (desviaciones) entre los valores que toma la variable y si media aritmética. Su
símbolo es S2 en la muestra y σ2 en la población.
2 ∑ (xi −ẋ)2
S= (Para datos no agrupados)
n
2 ∑ ( y i− ẏ)2 ni
S= (Para datos no agrupados)
n
La varianza siempre se expresa en unidades diferentes a las originales, siendo el cuadrado de la unidad de la variable evaluada,
mientras que la desviación típica o estándar se expresa en las mismas unidades de la variable.
Variación absoluta:
Dos o más varianzas o dos o más desviaciones típicas se pueden comparar entre sí, si las variables están dadas en las mismas
unidades de medidas, en caso contrario, se deberá utilizar el coeficiente de variación.
Coeficiente de variación:
También conocido como variación relativa, permite comparar la variabilidad de dos series de datos si sus varianzas y desviaciones
típicas están expresadas en diferentes unidades de medida. Su propósito es comparar la variabilidad entre varias distribuciones de
frecuencias.
S S
CV = (Relativo) CV = 100 (Porcentual)
ẋ ẋ
3. Determinar la media aritmética simple y las desviaciones de los datos de los puntos 1 y 2. (Las desviaciones se deben determinar
para cada dato).
ẋ=
∑ x i , donde: ẋ = x 1 + x2 + x 3 … .. x n y Zi =xi −ẋ (En datos sin agrupar)
n n
4. Determinar la media aritmética ponderada y las desviaciones de los datos de los puntos 1 y 2. (Las desviaciones se deben
determinar para cada dato).
y 1 n1+ y 2 n2 + y 3 n3 … .. y m nm
ẏ=
∑ y i ni donde: ¿ y Zi = y i− ẏ (En datos agrupados)
n ẏ= ¿
n
5. Determinar varianza, desviación estándar y coeficiente de variación para los datos del punto 1.
S=
2 ∑ (xi −ẋ)2 ; S=+ √ S 2; CV = S (Relativo) y CV = S 100 (Porcentual)
n ẋ ẋ
6. Determinar varianza, desviación estándar y coeficiente de variación para los datos del punto 2.
∑ ( xi −ẋ)2 2 ∑ ( y i− ẏ)2 ni S S
; S=+ √ S 2; CV = (Relativo) y CV = 100
2
S= S= (Porcentual)
n n ẋ ẋ
2. sesión: 22 de agosto. Cristian García, Nicol, Juan José y Yenifer quien explica los ejercicios.
Límites de confianza:
Dos valores (superior e inferior) asignados a un valor estimado, con el objeto de establecer el intervalo dentro del cual se supone
está comprendido el valor verdadero (parámetro). Tendrán los valores Zs y Zi cuando la muestra es grande (ts y ti cuando la muestra
es pequeña) que forman los extremos superior e inferior respectivamente de los intervalos de confianza, con respecto a un valor
puntual. Sirven para establecer dos puntos, dentro de los cuales estará el parámetro con cierto grado de confiabilidad.
ŝ
μ= ẋ ± t
√ n−1
La media aritmética poblacional (µ) tendrá dos valores, uno superior y otro inferior, dentro de los cuales debe estar la media
aritmética de la muestra (ẋ).
Intervalos de confianza:
Cuando se han establecido los límites de confianza, dentro de este intervalo deberá estar el parámetro con cierto grado de
confianza, significando que no hay error.
Hipótesis estadística: Supuestos acerca de un parámetro o de algún valor estadístico de una población. No todas las hipótesis son
hipótesis estadísticas, se deben tomar con referencia a un parámetro estadístico (media, porcentaje, varianza) para que lo sean.
Hipótesis nula (H0) = aquella por medio de la cual se hace una afirmación sobre un parámetro, que se va a constatar con el resultado
muestral.
Hipotesis alternativa (Ha) = Toda aquella hipótesis que difiere de la H0, ofrece una alternativa afirmando que esta es falsa.
Grados de libertad (n – 1): Numero de valores que pueden ser asignados libremente. Se utilizan cuando se supone que no se conoce
la varianza poblacional y utilizamos la obtenida en la muestra.
Nivel de significancia (α): Valor que se le da a la región crítica, cuando se realiza una prueba de hipótesis, cuando el valor de “t”
obtenido mediante la variante estadística, cae en esa región se estará rechazando la hipótesis nula. Se trabajan generalmente con
niveles del 1%, 5% y 10 % dependiendo del tipo de investigación y suele trabajarse con 0,05 o 5%. Cuando se trabaja con 5% el
resultado es significativo, si se emplea el 1% es altamente significativo, y si es del 10% es poco significativo.
√ +
n1 n2
Prueba para datos independientes en la comparación de dos grupos, cundo no se conocen las varianzas entre ambos grupos:
t de Student:
El primer problema a resolver es el de encontrar un método estadístico que nos permita decidir si la varianza en ambos grupos es o
no la misma. El test de la razón de varianzas o test de Levene viene a resolver este problema. Bajo la suposición de que las dos
poblaciones siguen una distribución normal y tienen igual varianza (H0: σ1 = σ2) se espera que la razón de varianzas siga una
distribución F de Snedecor con parámetros (n-1) y (m-1):
Donde:
F – Distribución Ŝ1 o Ŝ2 – Cuasivarianzas
X o Y – Cada valor observado n-1 o m-1 – Grados de libertad para
Ẋ o Ẏ– Media poblacional cada grupo
Esta prueba permitirá conocer si las varianzas de los dos grupos de observaciones son o no iguales. Si su p-valor es menor a 0,05,
rechazaremos la hipótesis nula y supondremos que la variabilidad en ambos grupos es sustancialmente distinta (varianzas no
homogéneas). Por lo tanto, el estadístico a calcular, variará ligeramente en función de las variabilidades muestrales. El estadístico a
utilizar sería el siguiente:
En la tabla, se determina los grados de libertad (en la primera columna) y el valor de α (en la primera fila). El número que determina
su intersección es el valor crítico correspondiente. De este modo, si el estadístico que se obtiene toma un valor mayor se dirá que la
diferencia es significativa.
1. Supóngase que una empresa desarrolla un curso de entrenamiento para sus técnicos, formando dos grupos y aplicando métodos
distintos de entrenamiento, los dos grupos se consideran homogéneos en su capacidad. El primer grupo lo componen 30 técnicos que
obtuvieron un puntaje de 6 (en una escala de 0 a 10 puntos) y una desviacón típica de 4 puntos y el segundo grupo de 32 técnicos
cuyo promedio fue 8,2 y desviación típica de 4,3 puntos. Se podría concluir que el método aplicado al segundo grupo fue superior al
primero? Nivel de significancia: 1% (0,01).
ẋ− ẏ
Z=
s2x s2y
√ +
n1 n2
Plantear las hipótesis nula y alternativa.
Hay o no diferencias significativas entre ambos entrenamientos (tratamientos).
Recuerde que para rechazar la hipótesis nula Z debe encontrarse dentro de la zona de rechazo.
2. El propietario de una pequeña fabrica de artesanías, toma una muestra aleatoria de la producción semanal de 6 de los 35
empleados, obteniendo un promedio de 22,5 figuritas, con una desviación estándar de 3,1. Cuál será el intervalo superior e inferior de
la producción semanal real por empleado con un límite de confianza del 95%? (El valor de t=2,571)
ŝ
μ= ẋ ± t
√ n−1
3. sesión: 29 de agosto. Juan David, Cristian Gutiérrez, Luz Angela y Liceth quien explica los ejercicios.
Regresión lineal:
Técnica que permite cuantificar la relación que puede ser observada cuando se grafica un diagrama de puntos dispersos
correspondientes a dos variables, cuya tendencia general es rectilínea; relación que cabe compendiar mediante una ecuación “del
mejor ajuste” de la forma: y=a+bx .
En esta ecuación, “y” representa los valores de la coordenada a lo largo del eje vertical en el gráfico (ordenada); en tanto que “x”
indica la magnitud de la coordenada sobre el eje horizontal (abscisa). El valor de “a” (que puede ser negativo, positivo o igual a cero)
es llamado el intercepto; en tanto que el valor de “b” (el cual puede ser negativo o positivo) se denomina la pendiente o coeficiente
de regresión.
El procedimiento para obtener valores de “a” y “b” para una serie de pares de datos de “x” y de “y” es como sigue:
Paso 1: Calcule, para cada par de valores de “x” e “y”, las cantidades “x²”, “y²”, y “x·y”.
Paso 2: Obtenga las sumas (∑) de estos valores para todos los pares de datos de “x” e “y”, así como las sumas del total de los
valores de “x” e “y”. Los resultados de los Pasos 1 y 2 aparecerán en forma similar a la siguiente:
A partir de esos valores de “a” y de “b” obtenidos, es posible trazar a lo largo de una serie de puntos dispersos de un gráfico la línea
recta mejor ajustada a los mismos, hallando de la ecuación x cuando y es 0 y viceversa, y verificar visualmente si tales puntos están
bien “expresados” por la línea.
Los valores de “r” pueden calcularse fácilmente con base en una serie de pares de datos de “x” e “y” a partir de la relación:
La correlación proporciona el valor del “coeficiente de determinación” (r²). Entonces, lo único necesario es calcular:
Es decir, tomar la raíz indicada del coeficiente de determinación a los fines de obtener el valor absoluto de “r”, y luego agregar el
signo (+ o -) de acuerdo a que la correlación sea positiva o negativa (lo cual puede ser establecido visualmente a partir del gráfico, o
bien en base al cálculo del valor de “b” de la correspondiente regresión y utilizando para “r” el mismo signo). Cuando se calculan los
valores de “r” se querrá saber, sin embargo, hasta qué punto la correlación identificada pudiera haber surgido únicamente por
casualidad. Esto puede ser establecido verificando si el valor estimado de “r” es “significativo”, es decir si el valor absoluto de “r” es
mayor o igual que un valor “crítico” de “r” indicado en las tablas estadísticas, según la tabla.
df (= “grados de libertad”), igual al número de observaciones (pares de datos) menos dos (en consecuencia, df = n-2)
Sesgo:
Si medimos algo varias veces y los valores están cerca unos de otros, pueden estar todos equivocados si hay "sesgo". Un sesgo es un
error sistemático (pasa siempre) que hace que todas las medidas estén desviadas en una cierta cantidad.
El sesgo de un estimador puede ser:
Positivo: Si produce, en promedio, estimaciones por exceso.
Cero: Si es un estimador centrado o insesgado.
Negativo: Si produce, en promedio, estimaciones por defecto.
Incertidumbre:
La guía ISO 3534-1 [ISO 1993], define incertidumbre como “una estimación unida al resultado de un ensayo que caracteriza el
intervalo de valores dentro de los cuales se afirma que está el valor verdadero”. El término incertidumbre quiere ser más
globalizador, en el sentido de considerar todas las fuentes posibles de error que intervienen en el resultado final. “Puede
considerarse un parámetro, asociado al resultado de una medida, que caracteriza el intervalo de valores que puede ser
razonablemente atribuidos al mensurando”. En esta definición el mensurando indica: “la propiedad sujeta a medida”. Por tanto, la
incertidumbre nos da una idea de la calidad del resultado ya que nos muestra un intervalo alrededor del valor estimado dentro del
cual se encuentra el valor considerado verdadero.
Reproducibilidad: R
La proximidad de concordancia entre los resultados de mediciones sucesivas del mismo mensurando bajo condiciones de medición
que cambian. Donde: (1) Una declaración válida de reproducibilidad requiere que se especifique la condición que cambia. (2) Las
condiciones que cambian pueden incluir: principio de medición, método de medición, observador, instrumento de medición, patrón
de referencia, lugar, condiciones de uso y tiempo. (3) La reproducibilidad puede ser expresada cuantitativamente en términos de
dispersión característica de los resultados. (4) Se entiende que los resultados usualmente son corregidos.
Repetitividad (repetibilidad): r
La proximidad de concordancia entre los resultados de mediciones sucesivas del mismo mensurando bajo las mismas condiciones de
medición. Donde: (1) Estas condiciones son llamadas condiciones de repetibilidad. (2) Las condiciones de repetibilidad incluyen: el
mismo procedimiento de medición, el mismo observador, el mismo instrumento de medición, utilizado bajo las mismas condiciones,
el mismo lugar, repetición en un periodo corto de tiempo. (3) La repetibilidad puede ser expresada cuantitativamente en términos
de la dispersión característica de los resultados.
Sensibilidad:
La sensibilidad de un instrumento o método se define como su capacidad para discriminar entre pequeñas diferencias en la
concentración de un analito, es decir, es la capacidad de un método analítico de registrar pequeñas variaciones de la concentración.
La IUPAC, la define como la pendiente de la curva de calibración a la concentración de interés. Viene limitada por la pendiente de la
curva de calibración y la reproducibilidad o precisión del sistema de medida, para dos métodos que tengan igual precisión, el que
presente mayor pendiente en la curva de calibración será el más sensible.
b
γ= Donde γ es la sensibilidad; b es la pendiente de la curva y Sm es la desviación estándar de la pendiente.
Sm
Selectividad o especificidad:
Capacidad del método analítico para medir en forma exacta un analito particular dentro de una mezcla compleja, sin interferencia
de otras sustancias o analitos. La selectividad de un método analítico indica el grado de ausencia de interferencias, debidas a otras
especies contenidas en la matriz de la muestra. Los coeficientes de selectividad son parámetros de calidad útiles para describir la
selectividad de los métodos analíticos.
Coeficiente de selectividad:
Medida de la sensibilidad de un método para un interferente dado en comparación con su sensibilidad para el analito; el coeficiente
de selectividad de un electrodo específico para iones (K A,B) es una medida de la respuesta relativa del electrodo a los iones A y B.
A analito
ε i ,a= , donde: ε = coeficiente de selectividad; A = pendiente de la recta de calibrado para analito e interferente.
Ainterferente
LD = (yB + 3 SB)/b
En donde: LD = Límite de detección; yB = señal del blanco; SB = Desviación estándar del blanco y b = Pendiente del analito.
Límite de cuantificación (LC) o determinación, es considerado como el límite de concentración más bajo para mediciones
cuantitativamente precisas. Se define como la cantidad de analito que proporciona una señal igual a la del blanco más diez veces la
desviación estándar del blanco:
LC = (yB + 10 SB)/b
En donde: LC = Límite de cuantificación; yB = señal del blanco; SB = Desviación estándar del blanco y b = Pendiente del analito.
Linealidad:
Capacidad del método para producir resultados que son directamente proporcionales a la concentración del analito en la muestra.
Rango lineal:
Se considera que el rango lineal comprende desde la menor concentración que puede medirse (LC) hasta la pérdida de la linealidad.
Intervalo entre las concentraciones máxima y mínima del analito que se ha demostrado que el método tiene niveles aceptables de
precisión, exactitud y linealidad.
Rango dinámico:
El intervalo de concentraciones en que es aplicable un método analítico, se considera que va desde la menor concentración
detectable (LD) hasta la pérdida de relación entre respuesta y concentración.
Recuperación:
La recuperación de un analito se refiere a la eficiencia de la extracción en un proceso analítico, se reporta como porcentaje de
analito obtenido del proceso de extracción.
a. Con los datos anteriores estimar los valores de la pendiente (b), el intercepto (a) y el coeficiente de determinación (r2).
b. Hacer la gráfica de los datos, en donde, xi (variable independiente) e yi (variable dependiente).
b
c. Hallar la sensibilidad del método cromatográfico para la determinación de isooctano.γ =
Sm
d. Hallar los límites de detección (LD = (yB + 3SB)/b) y cuantificación (LC = (yB + 10SB)/b) del método cromatográfico para la
determinación de isooctano, sabiendo que la señal media del blanco fue 2,11 x10 -3 unidades y su desviación estándar fue 7 x10 -3
unidades.
2. Se diluyeron 3,00 g de una sal en 100 mL de agua destilada, para su recuperación se optó por evaporar el agua y luego del proceso
de recristalización se obtuvieron 2,88 g de la sal. Cuál fue el porcentaje de recuperación en dicho procedimiento?
Se optó luego por preparar otra solución a esta misma concentración de esta sal, pero se decidió recristalizar por adición de un alcohol
a dicha solución acuosa, en este caso luego del proceso de recristalización y recuperación, se obtuvieron 1,99 g de la sal. Cuál fue el
porcentaje de recuperación de dicho procedimiento? Cuál de los dos procedimientos fue más efectivo para la recuperación de dicha
sal?
4. Sesión: 5 septiembre. Carolina, Angie, Andrés quien explica los ejercicios y Pamela quien explica las gráficas.
Test de rechazo:
Dato dudoso: aquel que está muy alejado del promedio del conjunto de datos.
Se debe verificar el aceptar o rechazar un resultado anómalo (outlier) debido a que normalmente se producen errores o fallos en
una metodología aplicada (test Q de Dixon), para esto se ordenan los datos en forma creciente y se calcula Q empleando la siguiente
formula:
x q−x q −1
Q exp=
X n−X 1
Xq: resultado dudoso
Xq-1: resultado más próximo al dudoso
Xn: valor más grande de la serie de resultados
X1: valor más pequeño de la serie de resultados
Cuando Qexp > Qtab, el punto dudoso deberá rechazarse para determinado nivel de significancia, de acuerdo a la tabla:
Error:
Diferencia que puede haber entre el valor esperado y el verdadero o la diferencia entre el valor de un estimador y el del parámetro
correspondiente.
Según la causa son clasificados en errores de muestreo y de no muestreo.
El error de no muestreo puede ocurrir en cualquier encuesta, sea un censo o una muestra. Estos errores comprenden errores
sistemáticos y equivocaciones, los cuales no se pueden cuantificar. Los factores que causan error sistemático son: falta de definición
clara de la población, inadecuada elaboración del marco de muestreo, falta de definición del cuestionario, vaga concepción de la
información deseada, métodos imprecisos de entrevistas. Surgen errores por equivocación cuando las respuestas son anotadas en
lugares equivocados, cuando los entrevistados no responden, dan respuestas incorrectas o inapropiadas y cuando se hacen cálculos
y anotaciones incorrectas al procesar los datos. "Los errores de no muestreo pueden ser controlados mediante una atención
cuidadosa en la construcción de los cuestionarios y en los detalles del trabajo de campo". Estos errores en las encuestas pueden ser
minimizados así: la no respuesta con un plan para hacer reentrevistas a los elementos muestreados, con recompensas e incentivos
para quien responde y entrevistadores adiestrados; la respuesta incorrecta se puede corregir si los cuestionarios después de
diligenciados son revisados por alguien diferente al encuestador.
Los errores de muestreo son resultado de la elección casual de unidades de muestreo. Este tipo de error ocurre porque solo se
observa una parte de la población; así que si se hace un censo, puede esperarse que desaparezca el error de muestreo.
Precisión:
Indica la reproducibilidad de las medidas, es decir, la cercanía entre resultados obtenidos exactamente de la misma manera. La
precisión de una medida se determina con facilidad, simplemente al repetir la medida en muestras duplicadas o replicas, que son
muestras de aproximadamente el mismo tamaño y que son sometidas exactamente de la misma manera en un análisis.
Son tres los términos estadísticos que describen la precisión de un conjunto de datos replicados: desviación estándar, varianza y
coeficiente de variación. Los tres son funciones que informan sobre cuanto difiere de la media un resultado xi, lo que se llama
desviación de la media, di.
d i=¿ x i− ẋ∨¿
Exactitud:
Indica la cercanía de la medida al valor aceptado o verdadero y se expresa mediante el error, por lo que se expresa en términos de
error absoluto y/o relativo.
Equivale al error absoluto dividido entre el valor verdadero, se puede expresar en porcentaje, partes por mil (%Er x 10) o partes por
millón (%Er x 1000) según la magnitud del resultado.
Errores experimentales.
Tenemos dos tipos de errores en el proceso de medida:
Errores sistemáticos. Tienen que ver con la metodología del proceso de medida (forma de realizar la medida):
Calibrado del aparato. Normalmente errores en la puesta a cero. En algunos casos errores de fabricación del aparato de medida que
desplazan la escala. Una forma de arreglar las medidas es valorando si el error es lineal o no y descontándolo en dicho caso de la
medida.
Error de paralaje: cuando un observador mira oblicuamente un indicador (aguja, superficie de un líquido,...) y la escala del aparato.
Para tratar de evitarlo o, al menos disminuirlo, se debe mirar perpendicularmente la escala de medida del aparato.
Los errores aleatorios o indeterminados afectan la precisión de las mediciones, mientras que los sistemáticos afectan la exactitud de
los resultados.
1. El análisis de una muestra de calcita muestra porcentajes de CaO de 55,95; 56,00; 56,04; 56,08; y 56,23. Este último valor parece
anómalo, debe conservarse o rechazarse para el nivel de confianza del 95%?
2. Se pide a tres estudiantes que determinen la masa de una pieza de alambre de cobre. Los resultados de dos pesadas sucesivas
hechas por cada estudiante son:
Estudiante A: 1,964 g y 1,978 g (Valor medio= 1,971 g)
Estudiante B: 1,972 g y 1,968 g (Valor medio= 1,970 g)
Estudiante C: 2,000 g y 2,002 g (valor medio= 2,001 g)
Si la masa real del alambre es de 2,000 g. Calcular la precisión de cada medida respecto al promedio (di), la exactitud de cada
estudiante como error absoluto (Ea) y relativo (Er). Concluir cuál de los tres estudiantes fue más preciso y exacto en sus pesadas y
porque…
Gráficos de Pareto:
El principio o regla de Pareto nos dice que para diversos casos, el 80% de las consecuencias proviene del 20% de las causas.
Algunos enunciados clásicos de la ley:
El 80% de los ingresos se generan con 20% de los clientes.
El 80% de las ventas se genera por el 20% de los productos.
En una situación problemática: El 80% de “problema” se genera del 20% de “causas”.
El diagrama de Pareto consiste en un gráfico de barras que clasifica de izquierda a derecha en orden descendente las causas o
factores detectados en torno a un fenómeno.
Esto nos permite concentrar nuestros esfuerzos en aquellos problemas que representan ese 80%. En este sentido, utilizamos el
Gráfico de Pareto para: La mejora continua, el estudio de implementaciones o cambios recientes (cómo estaba antes – cómo esta
después) o el análisis y priorización de problemas. Ejemplo:
Histogramas:
Un histograma es una representación gráfica de una variable en forma de barras, donde la superficie de cada barra es proporcional a
la frecuencia de los valores representados. En el eje vertical se representan las frecuencias, y en el eje horizontal los valores de las
variables, normalmente señalando las marcas de clase, es decir, la mitad del intervalo en el que están agrupados los datos.
Se agrupan los datos en clases, y se cuenta cuántas observaciones (frecuencia absoluta) hay en cada una de ellas. En algunas
variables (variables cualitativas) las clases están definidas de modo natural, p.e sexo con dos clases: mujer, varón o grupo sanguíneo
con cuatro: A, B, AB, O. En las variables cuantitativas, las clases hay que definirlas explícitamente (intervalos de clase).
Se representan los intervalos de clase en A veces es más útil representar las Se representan simultáneamente los
el eje de abcisas (eje horizontal) y las frecuencias acumuladas. histogramas de una variable en dos
frecuencias, absolutas o relativas, en el situaciones distintas.
de ordenadas (eje vertical).
Gráficos de Causa-Efecto:
Un diagrama de Causa y Efecto es la representación de varios elementos (causas) de un sistema que pueden contribuir a un
problema (efecto). Fue desarrollado en 1943 por el Profesor Kaoru Ishikawa en Tokio. Algunas veces es denominado Diagrama
Ishikawa o Diagrama Espina de Pescado por su parecido con el esqueleto de un pescado. Es una herramienta efectiva para estudiar
procesos y situaciones, y para desarrollar un plan de recolección de datos.
El Diagrama de Causa y Efecto es utilizado para identificar las posibles causas de un problema específico. La naturaleza gráfica del
Diagrama permite que los grupos organicen grandes cantidades de información sobre el problema y determinar exactamente las
posibles causas. Finalmente, aumenta la probabilidad de identificar las causas principales.
El Diagrama de Causa y Efecto se debe utilizar cuando se pueda contestar “sí” a una o a las dos preguntas siguientes:
1. ¿Es necesario identificar las causas principales de un problema?
2. ¿Existen ideas y/u opiniones sobre las causas de un problema?
Gráficos de control:
Recurso grafico empleado para mostrar resultados obtenidos de muestras repetidas, provenientes de un proceso de producción. Los
gráficos o diagramas de control son un mecanismo para detectar si el proceso está funcionando correctamente, o si se están
produciendo situaciones anómalas. Cuando una gráfica muestra una situación fuera de control, se puede iniciar una investigación
para identificar las causas y tomar una decisión que corrija las desviaciones.
En este tipo de gráficos se muestran datos del desempeño de un proceso. Estos datos pueden ser continuos (ej: las medidas de una
pieza, o el número de piezas conformes respecto de cada lote de X unidades) o bien también se pueden mostrar datos discretos (ej:
pieza conforme o pieza no conforme). En el caso de ser datos continuos, se suele incluir una línea horizontal con el valor medio de
referencia y dos líneas más con los límites de control estadístico, superior e inferior, en la gráfica.