Está en la página 1de 19

1. sesión: 15 de agosto. Miguel, Raquel, Ingrith y Gilderzón quien debe explicar los ejercicios.

ESTADÍSTICA:
Sistema o método usado para la recolección, organización, análisis y descripción numérica de la información. Se podría decir que
estudia el comportamiento de hechos o fenómenos de grupo.

Estadística descriptiva o deductiva:


Coloca en evidencia aspectos característicos del grupo (promedios, variabilidad de los datos, etc.) que sirven para hacer
comparaciones, sin sacar conclusiones de manera general.

Estadística analítica o inductiva:


Busca dar explicaciones al comportamiento de un conjunto de observaciones, probar la significancia o validez de los resultados e
intenta descubrir las causas que lo originan. Es de gran utilidad en el muestreo al poder obtener conclusiones que van más allá de las
muestras estadísticas mismas.

Población o universo: Tamaño de la población o universo se designa con la letra - N


Conjunto de medidas para ser aplicadas a una característica cuantitativa.
Recuento de todas las unidades que presentan una característica común, siendo esta cualitativa.
Conjunto de elementos o unidades y lo que se estudia de estos son sus características.

Las características de una población pueden ser cualitativas o cuantitativas.


Los datos cualitativos se denominan también atributos, aquellos elementos que pueden ser descritos por palabras.

Las características cuantitativas se denominan variables y se pueden expresar mediante números. Estas se dividen en variables
discretas, si admiten solo números enteros y variables continuas, si admiten valores fraccionarios. El valor que puede tomar la
variable discreta se denomina como yi.

Para identificar cada valor observado se utilizan las letras x i, en minúscula para valores de la muestra, o X i, en mayúscula para valores
de la población.

Muestra: Tamaño de una muestra se designa con la letra - n


Partes que se estudian de una población y para que sea representativa de esta, las unidades o elementos deben ser seleccionados al
azar, dicha selección se reconoce como MUESTREO.

Distribución de frecuencias: método utilizado para organizar y resumir información, generalmente una tabla, en donde los datos
recolectados se ordenan y clasifican, indicando la frecuencia, es decir, el número de veces que se repiten.

Frecuencia absoluta: Se designa con las letras ni o fi


El número de veces que se repite el valor que toma la variable.

Frecuencia absoluta acumulada: Se designa con las letras Ni o Fi


En una tabla de frecuencias son la suma de las frecuencias absolutas.

Frecuencia relativa: Se designa con las letras hi o fi/n


Corresponde a cada una de las frecuencias absolutas que toma la variable, dividida por el total de observaciones ya sea en la
población o la muestra.

Frecuencia relativa acumulada: Se designa con las letras Hi


En una tabla de frecuencias son la suma de las frecuencias relativas.

Distribución de frecuencias para variables continuas:


Algunas ocasiones se trabajan tablas de frecuencias en las que se utilizan intervalos de valores dentro de los que se puede encontrar
la variable indicando sus respectivas frecuencias. Para determinar la amplitud del intervalo (i o C) se utiliza la fórmula:
Rango
i=C= .
m
Rango o recorrido: Valor máximo y mínimo que toma la variable es igual a: x máx −x mín

Número de intervalos (m):


Se puede determinar de varias maneras:
Tomando un número arbitrario que sea mayor o igual a 5, y menor o igual a 16: 5 ≤ m≤ 16
O por medio de la aplicación de la fórmula Sturges: m=1+3,3 log n
Cuando se utilizan variables continuas se designa con y ' i−1− y ' i o X ' i −1 −X ' i, la columna correspondiente a los distintos valores
que toma la variable, el primer valor y ' i−1o X ' i −1 se denomina límite inferior del intervalo y y ' i o X ' i al límite superior; la
diferencia entre estos límites corresponde al valor de amplitud del intervalo C o i. La variable discreta o las marcas de clase continua
yi, para este tipo de distribución de frecuencias, son el número entero más próximo al promedio ponderado entre y ' i−1− y ' i o
X ' i −1 −X ' i.

1. Se tiene una población constituida por 2000 cajas y se desean examinar con el fin de determinar el número de piezas o elementos
defectuosos que contiene cada caja. Por diferentes razones, se desea que la investigación no sea exhaustiva, es decir, no examinar la
totalidad de las 2000 cajas o universo sino, por el contrario, seleccionar una muestra de tamaño 30, correspondiente a una
investigación parcial:

X1 = 3 X2 = 2 X3 = 0 X4 = 2 X5 = 3 X6 = 3 X7 = 1 X8 = 1 X9 = 0 X10 = 1
X11 = 3 X12 = 3 X13 = 4 X14 = 4 X15 = 3 X16 = 2 X17 = 4 X18 = 2 X19 = 4 X20 = 2
X21 = 4 X22 = 0 X23 = 0 X24 = 1 X25 = 3 X26 = 4 X27 = 2 X28 = 3 X29 = 1 X30 = 2

Cuál es la población o universo, (N) y cuál es su tamaño:


Cuál es la muestra (n) y cuál es su tamaño:
Qué tipo de variable se está trabajando:

Completar las siguientes tablas de frecuencias y distribución de frecuencias:

Número de piezas Número de cajas


defectuosas (yi) (ni)
0
1
2
3
4
Σ 30

yi ni = fi hi = fi/n Ni = Σni Hi = Σhi


0
1
2
3
4
Σ 30 1,00 ---- ----

2. Se seleccionó una muestra de 30 aprendices, a fin de conocer su peso en kilos; para facilitar el trabajo se redondearon las cifras, es
decir, los datos originales se tomaron con decimales o admitieron fraccionarios.

X1 = 74 X2 = 67 X3 = 94 X4 = 70 X5 = 69 X6 = 61 X7 = 71 X8 = 79 X9 = 47 X10 = 85
X11 = 82 X12 = 55 X13 = 65 X14 = 88 X15 = 52 X16 = 58 X17 = 76 X18 = 57 X19 = 72 X20 = 66
X21 = 48 X22 = 56 X23 = 63 X24 = 71 X25 = 60 X26 = 64 X27 = 68 X28 = 83 X29 = 74 X30 = 92

Cuál es la población o universo, (N):


Cuál es la muestra (n) y cuál es su tamaño:
Qué tipo de variable se está trabajando:

Determinar el recorrido o rango: x máx −x mín=


Con la fórmula de Sturges m=1+3,3 log n, determinar el número de intervalos, m: ______ (Deben aproximar al número entero
superior más próximo).
Rango
Determinar la amplitud del intervalo, i=C= = _______
m
(Deben aproximar al número entero superior más próximo). Siempre que el valor de C sea un valor entero con alguna fracción, por
pequeña que sea esta, debe ser aproximada siempre al valor inmediatamente superior.
Completar las siguientes tablas de frecuencias y distribución de frecuencias:
y’i-1 - y’i ni = fi hi = fi/n Ni = Σni Hi = Σhi yi = ẋ de y’i-1 - y’i
47 – 54
55 – 62
63 – 70
71 – 78
79 – 86
87 – 94
Σ 30 1,00 ---- ---- ----

Medidas de tendencia central:


También denominada de medidas de posición o como promedios, permiten determinar la posición de un valor respecto a un
conjunto de datos, el cual se considera representativo o típico para el total de las observaciones. Se denominan “estimadores o
estadígrafos” cuando se hablan de muestras y “parámetros o valores estadísticos” para poblaciones.

Media aritmética simple:

Se trabaja con datos sin agrupar u originales, siendo: ẋ=


∑ x i donde: ẋ = x 1 + x2 + x 3 … .. x n
n n

Media aritmética ponderada:


Se aplica en datos agrupados, es decir, en aquellos que se encuentran organizados en una tabla de frecuencias, siendo sus
y 1 n1+ y 2 n2 + y 3 n3 … .. y m nm
frecuencias absolutas sus ponderaciones (yini), es decir, siendo: ẏ=
∑ y i ni donde: ¿
n ẏ= ¿
n

Desviaciones:
Son las deviaciones respecto a la media las diferencias que hay entre los distintos valores que toma la variable y la media aritmética,
tanto en datos sin agrupar como en datos agrupados, se simboliza como Zi o di.

Zi =xi −ẋ (En datos sin agrupar)


Zi = y i− ẏ (En datos agrupados)

Medidas de dispersión:
Son indicadas cuando se quieren evaluar dos o más promedios, ya que permiten determinar si hay concentración o no de datos a su
alrededor, de haberla, indicaría una buena aplicación de no existir indicaría poca representitividad.

Varianza:
Media aritmética de los cuadrados de las diferencias (desviaciones) entre los valores que toma la variable y si media aritmética. Su
símbolo es S2 en la muestra y σ2 en la población.

2 ∑ (xi −ẋ)2
S= (Para datos no agrupados)
n
2 ∑ ( y i− ẏ)2 ni
S= (Para datos no agrupados)
n

Desviación típica o estándar:


Es la raíz cuadrada de la varianza, considerada siempre como signo positivo. Es la medida de dispersión más extensamente aplicada.
Se simboliza como S en la muestra o como σ en la población.
S=+ √ S 2

La varianza siempre se expresa en unidades diferentes a las originales, siendo el cuadrado de la unidad de la variable evaluada,
mientras que la desviación típica o estándar se expresa en las mismas unidades de la variable.
Variación absoluta:
Dos o más varianzas o dos o más desviaciones típicas se pueden comparar entre sí, si las variables están dadas en las mismas
unidades de medidas, en caso contrario, se deberá utilizar el coeficiente de variación.
Coeficiente de variación:
También conocido como variación relativa, permite comparar la variabilidad de dos series de datos si sus varianzas y desviaciones
típicas están expresadas en diferentes unidades de medida. Su propósito es comparar la variabilidad entre varias distribuciones de
frecuencias.

S S
CV = (Relativo) CV = 100 (Porcentual)
ẋ ẋ
3. Determinar la media aritmética simple y las desviaciones de los datos de los puntos 1 y 2. (Las desviaciones se deben determinar
para cada dato).

ẋ=
∑ x i , donde: ẋ = x 1 + x2 + x 3 … .. x n y Zi =xi −ẋ (En datos sin agrupar)
n n
4. Determinar la media aritmética ponderada y las desviaciones de los datos de los puntos 1 y 2. (Las desviaciones se deben
determinar para cada dato).

y 1 n1+ y 2 n2 + y 3 n3 … .. y m nm
ẏ=
∑ y i ni donde: ¿ y Zi = y i− ẏ (En datos agrupados)
n ẏ= ¿
n
5. Determinar varianza, desviación estándar y coeficiente de variación para los datos del punto 1.

S=
2 ∑ (xi −ẋ)2 ; S=+ √ S 2; CV = S (Relativo) y CV = S 100 (Porcentual)
n ẋ ẋ
6. Determinar varianza, desviación estándar y coeficiente de variación para los datos del punto 2.

∑ ( xi −ẋ)2 2 ∑ ( y i− ẏ)2 ni S S
; S=+ √ S 2; CV = (Relativo) y CV = 100
2
S= S= (Porcentual)
n n ẋ ẋ
2. sesión: 22 de agosto. Cristian García, Nicol, Juan José y Yenifer quien explica los ejercicios.

Límites de confianza:
Dos valores (superior e inferior) asignados a un valor estimado, con el objeto de establecer el intervalo dentro del cual se supone
está comprendido el valor verdadero (parámetro). Tendrán los valores Zs y Zi cuando la muestra es grande (ts y ti cuando la muestra
es pequeña) que forman los extremos superior e inferior respectivamente de los intervalos de confianza, con respecto a un valor
puntual. Sirven para establecer dos puntos, dentro de los cuales estará el parámetro con cierto grado de confiabilidad.

ŝ
μ= ẋ ± t
√ n−1
La media aritmética poblacional (µ) tendrá dos valores, uno superior y otro inferior, dentro de los cuales debe estar la media
aritmética de la muestra (ẋ).

Intervalos de confianza:
Cuando se han establecido los límites de confianza, dentro de este intervalo deberá estar el parámetro con cierto grado de
confianza, significando que no hay error.

Comparación de medias y varianzas:


La prueba t de Student para datos independientes se utiliza cuando deseamos comparar única y exclusivamente las medias entre
dos grupos (por ejemplo: saber si la altura varía según el género (estudio de una variable cuantitativa en dos poblaciones diferentes)
o saber si individuos con sobrepeso sometidos a dos dietas alimenticias distintas varían (dos tratamientos aplicados en una misma
población), mientras que el ANOVA (Análisis de Varianza) resulta conveniente cuando deseamos comparar las medias entre más de
dos grupos (por ejemplo deseamos saber si las cifras de tensión arterial sistólica difieren según la edad, considerando a los sujetos
en 3 grupos de edad: menores de 35 años, entre 35 y 55 años y mayores de 55 años).

Hipótesis estadística: Supuestos acerca de un parámetro o de algún valor estadístico de una población. No todas las hipótesis son
hipótesis estadísticas, se deben tomar con referencia a un parámetro estadístico (media, porcentaje, varianza) para que lo sean.

Hipótesis nula (H0) = aquella por medio de la cual se hace una afirmación sobre un parámetro, que se va a constatar con el resultado
muestral.

Hipotesis alternativa (Ha) = Toda aquella hipótesis que difiere de la H0, ofrece una alternativa afirmando que esta es falsa.

Grados de libertad (n – 1): Numero de valores que pueden ser asignados libremente. Se utilizan cuando se supone que no se conoce
la varianza poblacional y utilizamos la obtenida en la muestra.

Nivel de significancia (α): Valor que se le da a la región crítica, cuando se realiza una prueba de hipótesis, cuando el valor de “t”
obtenido mediante la variante estadística, cae en esa región se estará rechazando la hipótesis nula. Se trabajan generalmente con
niveles del 1%, 5% y 10 % dependiendo del tipo de investigación y suele trabajarse con 0,05 o 5%. Cuando se trabaja con 5% el
resultado es significativo, si se emplea el 1% es altamente significativo, y si es del 10% es poco significativo.

Región crítica o zona de rechazo:


Área bajo la curva de probabilidad que corresponde al nivel de significancia, p-valor.
En toda prueba existe una hipótesis nula que es normalmente la igualdad de medias, frente a la hipótesis alternativa, que engloba la
existencia de un rasgo diferencial entre las medias, es decir, no son iguales, por ello se utiliza la información procedente de las
medias y desviaciones estándar (medidas resumen) de cada uno de los grupos de estudio.

Distribución de diferencias entre dos medias muestrales ẏ - ẋ:


Estra prueba está indicada en aquellos casos cuando se quiere establecer si la diferencia entre dos medias muestrales, extraidas de
dos poblaciones independientes, son significativas o si una media es mayor o menor que otra. Se utiliza cuando las dos muestras son
mayores a 30 o cuando se dan las desviaciones tipicas poblacionales, en este caso no interesarían los tamaños muestrales.
ẋ− ẏ ẋ− ẏ
Z= Z=
2 2
σ σ (Para varianzas poblaciones) o s2x s2y (Para varianzas muestrales)
√ x
+
n1 n2
y

√ +
n1 n2

Prueba para datos independientes en la comparación de dos grupos, cundo no se conocen las varianzas entre ambos grupos:
t de Student:
El primer problema a resolver es el de encontrar un método estadístico que nos permita decidir si la varianza en ambos grupos es o
no la misma. El test de la razón de varianzas o test de Levene viene a resolver este problema. Bajo la suposición de que las dos
poblaciones siguen una distribución normal y tienen igual varianza (H0: σ1 = σ2) se espera que la razón de varianzas siga una
distribución F de Snedecor con parámetros (n-1) y (m-1):

Donde:
F – Distribución Ŝ1 o Ŝ2 – Cuasivarianzas
X o Y – Cada valor observado n-1 o m-1 – Grados de libertad para
Ẋ o Ẏ– Media poblacional cada grupo

Esta prueba permitirá conocer si las varianzas de los dos grupos de observaciones son o no iguales. Si su p-valor es menor a 0,05,
rechazaremos la hipótesis nula y supondremos que la variabilidad en ambos grupos es sustancialmente distinta (varianzas no
homogéneas). Por lo tanto, el estadístico a calcular, variará ligeramente en función de las variabilidades muestrales. El estadístico a
utilizar sería el siguiente:

n+m-2 – Grados de libertad para ambos grupos

En la tabla, se determina los grados de libertad (en la primera columna) y el valor de α (en la primera fila). El número que determina
su intersección es el valor crítico correspondiente. De este modo, si el estadístico que se obtiene toma un valor mayor se dirá que la
diferencia es significativa.
1. Supóngase que una empresa desarrolla un curso de entrenamiento para sus técnicos, formando dos grupos y aplicando métodos
distintos de entrenamiento, los dos grupos se consideran homogéneos en su capacidad. El primer grupo lo componen 30 técnicos que
obtuvieron un puntaje de 6 (en una escala de 0 a 10 puntos) y una desviacón típica de 4 puntos y el segundo grupo de 32 técnicos
cuyo promedio fue 8,2 y desviación típica de 4,3 puntos. Se podría concluir que el método aplicado al segundo grupo fue superior al
primero? Nivel de significancia: 1% (0,01).
ẋ− ẏ
Z=
s2x s2y
√ +
n1 n2
 Plantear las hipótesis nula y alternativa.
 Hay o no diferencias significativas entre ambos entrenamientos (tratamientos).
Recuerde que para rechazar la hipótesis nula Z debe encontrarse dentro de la zona de rechazo.

2. El propietario de una pequeña fabrica de artesanías, toma una muestra aleatoria de la producción semanal de 6 de los 35
empleados, obteniendo un promedio de 22,5 figuritas, con una desviación estándar de 3,1. Cuál será el intervalo superior e inferior de
la producción semanal real por empleado con un límite de confianza del 95%? (El valor de t=2,571)

ŝ
μ= ẋ ± t
√ n−1
3. sesión: 29 de agosto. Juan David, Cristian Gutiérrez, Luz Angela y Liceth quien explica los ejercicios.

Regresión lineal:
Técnica que permite cuantificar la relación que puede ser observada cuando se grafica un diagrama de puntos dispersos
correspondientes a dos variables, cuya tendencia general es rectilínea; relación que cabe compendiar mediante una ecuación “del
mejor ajuste” de la forma: y=a+bx .

En esta ecuación, “y” representa los valores de la coordenada a lo largo del eje vertical en el gráfico (ordenada); en tanto que “x”
indica la magnitud de la coordenada sobre el eje horizontal (abscisa). El valor de “a” (que puede ser negativo, positivo o igual a cero)
es llamado el intercepto; en tanto que el valor de “b” (el cual puede ser negativo o positivo) se denomina la pendiente o coeficiente
de regresión.

El procedimiento para obtener valores de “a” y “b” para una serie de pares de datos de “x” y de “y” es como sigue:

Paso 1: Calcule, para cada par de valores de “x” e “y”, las cantidades “x²”, “y²”, y “x·y”.
Paso 2: Obtenga las sumas (∑) de estos valores para todos los pares de datos de “x” e “y”, así como las sumas del total de los
valores de “x” e “y”. Los resultados de los Pasos 1 y 2 aparecerán en forma similar a la siguiente:

Número de pares de datos x x² y y² x.y


1 … … … … …
2 … … … … …
3 … … … … …
·          
·          
·          
n … … … … …
Monto de las sumas ∑x ∑x² ∑y ∑y² ∑x·y

Paso 3: Estime la pendiente (b) por medio de la relación:

Paso 4: Estime el intercepto (a) por medio de la relación:

A partir de esos valores de “a” y de “b” obtenidos, es posible trazar a lo largo de una serie de puntos dispersos de un gráfico la línea
recta mejor ajustada a los mismos, hallando de la ecuación x cuando y es 0 y viceversa, y verificar visualmente si tales puntos están
bien “expresados” por la línea.

Correlación de los datos de una regresión lineal.


La correlación (r) entre dos variables es el grado de asociación entre las mismas. Este es expresado por un único valor llamado
coeficiente de correlación (r), el cual puede tener valores que oscilan entre -1 y +1. Cuando “r” es negativo, ello significa que una
variable (ya sea “x” o “y”) tiende a decrecer cuando la otra aumenta (se trata entonces de una “correlación negativa”,
correspondiente a un valor negativo de “b” en el análisis de regresión). Cuando “r” es positivo, en cambio, esto significa que una
variable se incrementa al hacerse mayor la otra (lo cual corresponde a un valor positivo de “b” en el análisis de regresión).

Los valores de “r” pueden calcularse fácilmente con base en una serie de pares de datos de “x” e “y” a partir de la relación:

La correlación proporciona el valor del “coeficiente de determinación” (r²). Entonces, lo único necesario es calcular:

Es decir, tomar la raíz indicada del coeficiente de determinación a los fines de obtener el valor absoluto de “r”, y luego agregar el
signo (+ o -) de acuerdo a que la correlación sea positiva o negativa (lo cual puede ser establecido visualmente a partir del gráfico, o
bien en base al cálculo del valor de “b” de la correspondiente regresión y utilizando para “r” el mismo signo). Cuando se calculan los
valores de “r” se querrá saber, sin embargo, hasta qué punto la correlación identificada pudiera haber surgido únicamente por
casualidad. Esto puede ser establecido verificando si el valor estimado de “r” es “significativo”, es decir si el valor absoluto de “r” es
mayor o igual que un valor “crítico” de “r” indicado en las tablas estadísticas, según la tabla.

Valores críticos para los coeficientes de correlación

“r” crítico “r” crítico


df P = 0,05 P = 0,01 df P = 0,05 P = 0,01
 1 0,997 1,000  19 0,433 0,549
 2 0,950 0,990  20 0,423 0,537
 3 0,878 0,959  25 0,381 0,487
 4 0,811 0,917  30 0,349 0,449
 5 0,754 0,874  40 0,304 0,393
 6 0,707 0,834  50 0,273 0,354
 7 0,666 0,798  60 0,250 0,325
 8 0,632 0,765  70 0,232 0,302
 9 0,602 0,735  80 0,217 0,283
10 0,576 0,708  90 0,205 0,267
11 0,553 0,684 100 0,195 0,254
12 0,532 0,661 125 0,174 0,228
13 0,514 0,641 150 0,159 0,208
14 0,497 0,623 200 0,138 0,181
15 0,482 0,606 300 0,113 0,148
16 0,468 0,590 400 0,098 0,128
17 0,456 0,575 500 0,088 0,115
18 0,444 0,561 1 000 0,062 0,081

df   (= “grados de libertad”), igual al número de observaciones (pares de datos) menos dos (en consecuencia, df = n-2)

P = 0,05 y P = 0,01 se refiere a la probabilidad de un 5% y de un 1% respectivamente, de que la correlación, aunque “significativa”,


sea sin embargo consecuencia del azar.

Sesgo:
Si medimos algo varias veces y los valores están cerca unos de otros, pueden estar todos equivocados si hay "sesgo". Un sesgo es un
error sistemático (pasa siempre) que hace que todas las medidas estén desviadas en una cierta cantidad.
El sesgo de un estimador puede ser:
Positivo: Si produce, en promedio, estimaciones por exceso.
Cero: Si es un estimador centrado o insesgado.
Negativo: Si produce, en promedio, estimaciones por defecto.

Incertidumbre:
La guía ISO 3534-1 [ISO 1993], define incertidumbre como “una estimación unida al resultado de un ensayo que caracteriza el
intervalo de valores dentro de los cuales se afirma que está el valor verdadero”. El término incertidumbre quiere ser más
globalizador, en el sentido de considerar todas las fuentes posibles de error que intervienen en el resultado final. “Puede
considerarse un parámetro, asociado al resultado de una medida, que caracteriza el intervalo de valores que puede ser
razonablemente atribuidos al mensurando”. En esta definición el mensurando indica: “la propiedad sujeta a medida”. Por tanto, la
incertidumbre nos da una idea de la calidad del resultado ya que nos muestra un intervalo alrededor del valor estimado dentro del
cual se encuentra el valor considerado verdadero.

Reproducibilidad: R
La proximidad de concordancia entre los resultados de mediciones sucesivas del mismo mensurando bajo condiciones de medición
que cambian. Donde: (1) Una declaración válida de reproducibilidad requiere que se especifique la condición que cambia. (2) Las
condiciones que cambian pueden incluir: principio de medición, método de medición, observador, instrumento de medición, patrón
de referencia, lugar, condiciones de uso y tiempo. (3) La reproducibilidad puede ser expresada cuantitativamente en términos de
dispersión característica de los resultados. (4) Se entiende que los resultados usualmente son corregidos.

Repetitividad (repetibilidad): r
La proximidad de concordancia entre los resultados de mediciones sucesivas del mismo mensurando bajo las mismas condiciones de
medición. Donde: (1) Estas condiciones son llamadas condiciones de repetibilidad. (2) Las condiciones de repetibilidad incluyen: el
mismo procedimiento de medición, el mismo observador, el mismo instrumento de medición, utilizado bajo las mismas condiciones,
el mismo lugar, repetición en un periodo corto de tiempo. (3) La repetibilidad puede ser expresada cuantitativamente en términos
de la dispersión característica de los resultados.

Límites o intervalos de confianza:


Es el intervalo de valores alrededor de la media, dentro del cual es probable que se encuentre el valor verdadero. La expresión
general para los límites de confianza (LC) es la siguiente: LC=ẋ ± zs .
Donde: s: desviación estándar y z se obtiene de la tabla.

Sensibilidad:
La sensibilidad de un instrumento o método se define como su capacidad para discriminar entre pequeñas diferencias en la
concentración de un analito, es decir, es la capacidad de un método analítico de registrar pequeñas variaciones de la concentración.
La IUPAC, la define como la pendiente de la curva de calibración a la concentración de interés. Viene limitada por la pendiente de la
curva de calibración y la reproducibilidad o precisión del sistema de medida, para dos métodos que tengan igual precisión, el que
presente mayor pendiente en la curva de calibración será el más sensible.

b
γ= Donde γ es la sensibilidad; b es la pendiente de la curva y Sm es la desviación estándar de la pendiente.
Sm

Selectividad o especificidad:
Capacidad del método analítico para medir en forma exacta un analito particular dentro de una mezcla compleja, sin interferencia
de otras sustancias o analitos. La selectividad de un método analítico indica el grado de ausencia de interferencias, debidas a otras
especies contenidas en la matriz de la muestra. Los coeficientes de selectividad son parámetros de calidad útiles para describir la
selectividad de los métodos analíticos.
Coeficiente de selectividad:
Medida de la sensibilidad de un método para un interferente dado en comparación con su sensibilidad para el analito; el coeficiente
de selectividad de un electrodo específico para iones (K A,B) es una medida de la respuesta relativa del electrodo a los iones A y B.

A analito
ε i ,a= , donde: ε = coeficiente de selectividad; A = pendiente de la recta de calibrado para analito e interferente.
Ainterferente

Límites de detección y cuantificación:


El límite de detección (LD) de un analito se define como: aquella concentración que proporciona una señal instrumental
significativamente diferente de la señal de una muestra en blanco, o la señal de fondo. Es la cantidad de analito que proporciona una
señal igual a la del blanco más tres veces la desviación estándar del blanco:

LD = (yB + 3 SB)/b
En donde: LD = Límite de detección; yB = señal del blanco; SB = Desviación estándar del blanco y b = Pendiente del analito.

Límite de cuantificación (LC) o determinación, es considerado como el límite de concentración más bajo para mediciones
cuantitativamente precisas. Se define como la cantidad de analito que proporciona una señal igual a la del blanco más diez veces la
desviación estándar del blanco:
LC = (yB + 10 SB)/b
En donde: LC = Límite de cuantificación; yB = señal del blanco; SB = Desviación estándar del blanco y b = Pendiente del analito.

Linealidad:
Capacidad del método para producir resultados que son directamente proporcionales a la concentración del analito en la muestra.

Rango lineal:
Se considera que el rango lineal comprende desde la menor concentración que puede medirse (LC) hasta la pérdida de la linealidad.
Intervalo entre las concentraciones máxima y mínima del analito que se ha demostrado que el método tiene niveles aceptables de
precisión, exactitud y linealidad.
Rango dinámico:
El intervalo de concentraciones en que es aplicable un método analítico, se considera que va desde la menor concentración
detectable (LD) hasta la pérdida de relación entre respuesta y concentración.

Recuperación:
La recuperación de un analito se refiere a la eficiencia de la extracción en un proceso analítico, se reporta como porcentaje de
analito obtenido del proceso de extracción.

En donde: R = % de recuperación; Ẋ = analito recuperado y X = analito adicionado.


1. Hacer la regresión lineal de los datos obtenidos experimentalmente al hacer una curva de calibración en la detección cromatográfica
de isooctano en una mezcla de hidrocarburos.

% de moles de Señal yi xi2 yi2 x·y


isooctano, xi
0,352 1,09
0,803 1,78
1,08 2,60
1,38 3,03
1,75 4,01
Σ Σ Σ Σ Σ

a. Con los datos anteriores estimar los valores de la pendiente (b), el intercepto (a) y el coeficiente de determinación (r2).
b. Hacer la gráfica de los datos, en donde, xi (variable independiente) e yi (variable dependiente).

b
c. Hallar la sensibilidad del método cromatográfico para la determinación de isooctano.γ =
Sm
d. Hallar los límites de detección (LD = (yB + 3SB)/b) y cuantificación (LC = (yB + 10SB)/b) del método cromatográfico para la
determinación de isooctano, sabiendo que la señal media del blanco fue 2,11 x10 -3 unidades y su desviación estándar fue 7 x10 -3
unidades.

2. Se diluyeron 3,00 g de una sal en 100 mL de agua destilada, para su recuperación se optó por evaporar el agua y luego del proceso
de recristalización se obtuvieron 2,88 g de la sal. Cuál fue el porcentaje de recuperación en dicho procedimiento?

Se optó luego por preparar otra solución a esta misma concentración de esta sal, pero se decidió recristalizar por adición de un alcohol
a dicha solución acuosa, en este caso luego del proceso de recristalización y recuperación, se obtuvieron 1,99 g de la sal. Cuál fue el
porcentaje de recuperación de dicho procedimiento? Cuál de los dos procedimientos fue más efectivo para la recuperación de dicha
sal?
4. Sesión: 5 septiembre. Carolina, Angie, Andrés quien explica los ejercicios y Pamela quien explica las gráficas.

Test de rechazo:
Dato dudoso: aquel que está muy alejado del promedio del conjunto de datos.
Se debe verificar el aceptar o rechazar un resultado anómalo (outlier) debido a que normalmente se producen errores o fallos en
una metodología aplicada (test Q de Dixon), para esto se ordenan los datos en forma creciente y se calcula Q empleando la siguiente
formula:
x q−x q −1
Q exp=
X n−X 1
Xq: resultado dudoso
Xq-1: resultado más próximo al dudoso
Xn: valor más grande de la serie de resultados
X1: valor más pequeño de la serie de resultados

Cuando Qexp > Qtab, el punto dudoso deberá rechazarse para determinado nivel de significancia, de acuerdo a la tabla:

Error:
Diferencia que puede haber entre el valor esperado y el verdadero o la diferencia entre el valor de un estimador y el del parámetro
correspondiente.
Según la causa son clasificados en errores de muestreo y de no muestreo.
El error de no muestreo puede ocurrir en cualquier encuesta, sea un censo o una muestra. Estos errores comprenden errores
sistemáticos y equivocaciones, los cuales no se pueden cuantificar. Los factores que causan error sistemático son: falta de definición
clara de la población, inadecuada elaboración del marco de muestreo, falta de definición del cuestionario, vaga concepción de la
información deseada, métodos imprecisos de entrevistas. Surgen errores por equivocación cuando las respuestas son anotadas en
lugares equivocados, cuando los entrevistados no responden, dan respuestas incorrectas o inapropiadas y cuando se hacen cálculos
y anotaciones incorrectas al procesar los datos. "Los errores de no muestreo pueden ser controlados mediante una atención
cuidadosa en la construcción de los cuestionarios y en los detalles del trabajo de campo". Estos errores en las encuestas pueden ser
minimizados así: la no respuesta con un plan para hacer reentrevistas a los elementos muestreados, con recompensas e incentivos
para quien responde y entrevistadores adiestrados; la respuesta incorrecta se puede corregir si los cuestionarios después de
diligenciados son revisados por alguien diferente al encuestador.

Los errores de muestreo son resultado de la elección casual de unidades de muestreo. Este tipo de error ocurre porque solo se
observa una parte de la población; así que si se hace un censo, puede esperarse que desaparezca el error de muestreo.

Precisión:
Indica la reproducibilidad de las medidas, es decir, la cercanía entre resultados obtenidos exactamente de la misma manera. La
precisión de una medida se determina con facilidad, simplemente al repetir la medida en muestras duplicadas o replicas, que son
muestras de aproximadamente el mismo tamaño y que son sometidas exactamente de la misma manera en un análisis.
Son tres los términos estadísticos que describen la precisión de un conjunto de datos replicados: desviación estándar, varianza y
coeficiente de variación. Los tres son funciones que informan sobre cuanto difiere de la media un resultado xi, lo que se llama
desviación de la media, di.
d i=¿ x i− ẋ∨¿
Exactitud:
Indica la cercanía de la medida al valor aceptado o verdadero y se expresa mediante el error, por lo que se expresa en términos de
error absoluto y/o relativo.

Diferencia entre exactitud y precisión:


La exactitud mide la concordancia entre un resultado y el valor aceptado, la precisión describe la concordancia entre varios
resultados obtenidos de la misma manera, que se halla midiendo muestras duplicadas. Con frecuencia es más difícil hallar la
exactitud, ya que por lo general se desconoce el valor verdadero, en su lugar se debe usar un valor aceptado.

Error absoluto: Ea=Valor verdadero−valor aproximado


Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es
superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. Es igual a la
imprecisión que acompaña a la medida. Nos da idea de la sensibilidad del aparato o de lo cuidadosas que han sido las medidas por lo
poco dispersas que resultaron.

Valor verdadero−valor aproximado


Error relativo: Er= x 100
Valor verdadero

Equivale al error absoluto dividido entre el valor verdadero, se puede expresar en porcentaje, partes por mil (%Er x 10) o partes por
millón (%Er x 1000) según la magnitud del resultado.

Errores experimentales.
Tenemos dos tipos de errores en el proceso de medida:

 Errores sistemáticos. Tienen que ver con la metodología del proceso de medida (forma de realizar la medida):
Calibrado del aparato. Normalmente errores en la puesta a cero. En algunos casos errores de fabricación del aparato de medida que
desplazan la escala. Una forma de arreglar las medidas es valorando si el error es lineal o no y descontándolo en dicho caso de la
medida.
Error de paralaje: cuando un observador mira oblicuamente un indicador (aguja, superficie de un líquido,...) y la escala del aparato.
Para tratar de evitarlo o, al menos disminuirlo, se debe mirar perpendicularmente la escala de medida del aparato.

 Errores accidentales o aleatorios. Se producen por causas difíciles de controlar:


Momento de iniciar una medida de tiempo, colocación de la cinta métrica, etc. Habitualmente se distribuyen estadísticamente en
torno a una medida que sería la correcta. Para evitarlo se deben tomar varias medidas de la experiencia y realizar un tratamiento
estadístico de los resultados. Se toma como valor o medida más cercana a la realidad la media aritmética de las medidas tomadas.

Los errores aleatorios o indeterminados afectan la precisión de las mediciones, mientras que los sistemáticos afectan la exactitud de
los resultados.

1. El análisis de una muestra de calcita muestra porcentajes de CaO de 55,95; 56,00; 56,04; 56,08; y 56,23. Este último valor parece
anómalo, debe conservarse o rechazarse para el nivel de confianza del 95%?

2. Se pide a tres estudiantes que determinen la masa de una pieza de alambre de cobre. Los resultados de dos pesadas sucesivas
hechas por cada estudiante son:
Estudiante A: 1,964 g y 1,978 g (Valor medio= 1,971 g)
Estudiante B: 1,972 g y 1,968 g (Valor medio= 1,970 g)
Estudiante C: 2,000 g y 2,002 g (valor medio= 2,001 g)

Si la masa real del alambre es de 2,000 g. Calcular la precisión de cada medida respecto al promedio (di), la exactitud de cada
estudiante como error absoluto (Ea) y relativo (Er). Concluir cuál de los tres estudiantes fue más preciso y exacto en sus pesadas y
porque…

Herramientas estadísticas de calidad:

Gráficos de Pareto:
El principio o regla de Pareto nos dice que para diversos casos, el 80% de las consecuencias proviene del 20% de las causas.
Algunos enunciados clásicos de la ley:
El 80% de los ingresos se generan con 20% de los clientes.
El 80% de las ventas se genera por el 20% de los productos.
En una situación problemática: El 80% de “problema” se genera del 20% de “causas”.
El diagrama de Pareto consiste en un gráfico de barras que clasifica de izquierda a derecha en orden descendente las causas o
factores detectados en torno a un fenómeno.
Esto nos permite concentrar nuestros esfuerzos en aquellos problemas que representan ese 80%. En este sentido, utilizamos el
Gráfico de Pareto para: La mejora continua, el estudio de implementaciones o cambios recientes (cómo estaba antes – cómo esta
después) o el análisis y priorización de problemas. Ejemplo:

Histogramas:
Un histograma es una representación gráfica de una variable en forma de barras, donde la superficie de cada barra es proporcional a
la frecuencia de los valores representados. En el eje vertical se representan las frecuencias, y en el eje horizontal los valores de las
variables, normalmente señalando las marcas de clase, es decir, la mitad del intervalo en el que están agrupados los datos.
Se agrupan los datos en clases, y se cuenta cuántas observaciones (frecuencia absoluta) hay en cada una de ellas. En algunas
variables (variables cualitativas) las clases están definidas de modo natural, p.e sexo con dos clases: mujer, varón o grupo sanguíneo
con cuatro: A, B, AB, O. En las variables cuantitativas, las clases hay que definirlas explícitamente (intervalos de clase).

Se representan los intervalos de clase en A veces es más útil representar las Se representan simultáneamente los
el eje de abcisas (eje horizontal) y las frecuencias acumuladas. histogramas de una variable en dos
frecuencias, absolutas o relativas, en el situaciones distintas.
de ordenadas (eje vertical).
Gráficos de Causa-Efecto:
Un diagrama de Causa y Efecto es la representación de varios elementos (causas) de un sistema que pueden contribuir a un
problema (efecto). Fue desarrollado en 1943 por el Profesor Kaoru Ishikawa en Tokio. Algunas veces es denominado Diagrama
Ishikawa o Diagrama Espina de Pescado por su parecido con el esqueleto de un pescado. Es una herramienta efectiva para estudiar
procesos y situaciones, y para desarrollar un plan de recolección de datos.
El Diagrama de Causa y Efecto es utilizado para identificar las posibles causas de un problema específico. La naturaleza gráfica del
Diagrama permite que los grupos organicen grandes cantidades de información sobre el problema y determinar exactamente las
posibles causas. Finalmente, aumenta la probabilidad de identificar las causas principales.
El Diagrama de Causa y Efecto se debe utilizar cuando se pueda contestar “sí” a una o a las dos preguntas siguientes:
1. ¿Es necesario identificar las causas principales de un problema?
2. ¿Existen ideas y/u opiniones sobre las causas de un problema?

Gráficos de control:
Recurso grafico empleado para mostrar resultados obtenidos de muestras repetidas, provenientes de un proceso de producción. Los
gráficos o diagramas de control son un mecanismo para detectar si el proceso está funcionando correctamente, o si se están
produciendo situaciones anómalas. Cuando una gráfica muestra una situación fuera de control, se puede iniciar una investigación
para identificar las causas y tomar una decisión que corrija las desviaciones.

En este tipo de gráficos se muestran datos del desempeño de un proceso. Estos datos pueden ser continuos (ej: las medidas de una
pieza, o el número de piezas conformes respecto de cada lote de X unidades) o bien también se pueden mostrar datos discretos (ej:
pieza conforme o pieza no conforme). En el caso de ser datos continuos, se suele incluir una línea horizontal con el valor medio de
referencia y dos líneas más con los límites de control estadístico, superior e inferior, en la gráfica.

También podría gustarte