Está en la página 1de 36

NOI{MA CO'/ENIN- ISO

3534-1: 1995
VENEZOLANA

ESTADÍSTICA. VOCABULARIO Y
SÍM·BOLOS. PARTE 1: TÉRMINOS
RELATIVOS
,
A PROBABILIDADES Y
ESTADISTICA GENERAL.
/
PRÓLOGO

.
La Comisión Venezolana de Normas [ndusuiales (COVENIN), creada en
1958, es el organismo encargado de programar y coordinar las actividades de
Normalización y Calidad en el país. Para Uevar a cabo el trabajo de elabora-
ción de normas, la COVENIN constituye Comités y Comisiones Técnicas de
Normalización, donde participan organizaciones gubernamentales y no guberna-
mentales relacionadas con un área específica.

La presente norma es una adopción de la norma ISO No 3534-1:1993,


fue considerada bajo los lineamientos del Comité Técnico de Normalización
CT23 CALIDAD por el Subcomité Técnico SC3 PROCEDIMlENTOS Es-
TADÍSTICOS y aprobada por la COVENIN en su reunión No 136 de fecha
/
11-10-95.
ÍNDICE Página

Objeto

Sección t. Térmmos usados en tJ teori<l de prob<1bilidades 2

Sección 2: Términos estadísticos generales .lO

Sección 3 Términos generales rclati,·os a las obserYaciones y resulwdos de ensayos 21

Sección -J: Términos generales relativos a los métodos de muestreo 2-J

ANEXO A Símbolos usados en la Norma COVENIN-ISO 353-J-1 27

Índice alfabético 29

/
NORMA VENEZOLANA COVENIN-JSO
ESTADÍSTICA. VOCABULARIO Y SÍMBOLOS. 3534-l: 1995
PARTE 1: TÉRMINOS RELATIVOS A
PROBABI.LIDADES Y ESTADÍSTICA GENERAL

OBJETO Térmjnos generales rclath·os a las obser\'aciones y re-


sultados de ensayos.
Esta Norma Venezolana define términos de probabilidades
y estadística general que pueden ser usados en el desarro- Términos generales relati\·os a los métodos de
llo de otras normas. Además. define los símbolos para un muestreo.
número limitado de estos términos.

Los términos están clasificados bajo los siguientes títulos: Los términos en esta norma están dispuestos analíticamen-
te y se provee un índice alfabético.
- ¡érminos usados en Ja teoria de probabilidades
El anexo A sumirústra una lista de símbolos y abrcYiaturas
Ténninos estadísticos generales usados en esta norma.
SECCIÓN 1: TÉRMINOS USADOS EN LA TEORÍA lA función de distribución: Función que da. para cada
OE PROBABILIDADES valor de x. la probabilidad de que la ,·ariablc aleatoria .r
sea menor o igual a x:
Muchos términos estan definidos en esta sección y en la
sección 2. Se definen por separado para llamar la atención F (x) = P, [.r ..::.xl
Cll lector al hecho que
1.5 función de densidad de probabilidades (parCl una
a) los términos en su sentido probabilístico se aplican :l variable alcatoriCl continua): L<t deri,·ada (cuando existe)
principios. independientes de cualquier aplicación de la función de distribución:
práctica:
/(x) = df~x)
b) los términos en su sentido estadístico se aplican a las
observaciones con las que se relacionan: estas definicio-
nes tienen un carácter operacional específico. NOTA -f (x) dx es el "elcmcn!O probabilístico":

NOTA - El concepto de probabilidades puede ser introdu- f(x) dt = P, [x < _r < x + dtl
cido en dos formas. según sea usado para designar un gra-
do de creencia o. si se le considera como un valor límite de 1.6 función de masa probabilística: Función que da.
una frecuencia relativa. En ambos casos. la introducción para cada valor x, de una variable alcatoriCl discreta .\". la
del concepto requiere que se tomen algunas precauciones probabilidad p,de que la variable aleatoria sea igual a x,:
que no pueden ser desarrolladas dentro del contexto de una
norma. por lo que el lector debería referirse a literatura p, = P, [.\" = xJ
especializada.
t. 7 función de distribución bivariablc: Función que
1.1 probabilidad: Número real. en la escala de O a l. da, para cada par de valores x. y. la probabilidad de que la
relacionado con un evento aleatorio. variable aleatoria X sea menor o igual a x. y q~e la Yaria-
blc aleatoriCl Y sea menor o igual a y:
NOTA - Puede estar relacionado a una frecuencia relativa
de ocurrencia a largo plazo o a un grado de creencia en que F (.'!:,y) = P, [...\"$x: Y ~y 1 /
un evento dado ocurrirá. Para un Cilio grado de creencia. la
probabilidad es cercana a l. 1.8 función de distribución multivariable: Función
que da, para cada conjunto de valores x. y . ... la probabi-
1.2 ,·ariable aleatoria: Variable que puede tomar cual- lidad de que cada una de las variables aleatorias.\', r....
quier valor dentro de un conjunto de valores determinados. sea menor o igual al valor correspondiente de x. y, ... :
y a la cual se le asocia una distribución de probabilidades
( 1.3 ). F(x.y ... . )=P, [X$x: Y$y: .. . J

NOTAS 1.9 distribución de 1>robabilidadcs marginal: Distri-


bución de probabilidades de un subconjunto de k1 < k \'a-
Una variable aleatoria qu~ sólo puede tomar valores fiables aleatorias, tomado de una distribución de
aislados es denominada "discreta". Una variable aleatoria probabilidades de k variables aleatorias. cuando las otras
que puede tomar cualquier valor dentro de un intervalo fi- k-k1 variables toman cualquier valor dentro de su conjunto
nito o infinito es denominada "continua". de valores.

2 La probabilidad de un evento A se denota P, (A) o EJEMPLO


P(A).
En una distribución de probabilidades con tres vClriables
1.3 distribución de 1•robabilidades (de una variable aleatorias..\~ r y Z, hay
alemoria): Función que da la probabilidad de que una va-
riable aleatoria tome un valor dado o pertenezca a un con- - tres distribuciones de probabilidades marginales bi\'t'l·
junto dado de valores. riablcs: las distribuciones de los pares (.\'. )), (X.Z).
( LZ):
NOTA - La probabilidad para el total de los ,·atores dentro
de un conjunto de variables aleatorias es igual a l. - tres distribuciones de probabilidades marginales biva-
riables: las distribuciones de .r. de r y de z

2
l. W distribución de probabilidades condicional: Distri- t. 13 correlación: Relación entre dos o ,·a rías ,·ariablcs
bución de probabilidades de un subconjunto de k 1<k ,·aria- aleatorias dentro de una distribucíón con dos o más varia-
bies aleatorias. tomado de una distribución de bles aleatorias.
probabilidades de k ,·ariables aleatorias. cuando las otras
k-k 1 variables tienen valores fijos. NOTA - La mayoría de las medidas estadísticas de correla-
ción sólo miden el grado de relación lineaL
EJEMPLO
J.t.t cuantila; fractila (de una variable aleatoria o de una
En una distribución de probabilidades de dos Yariables distribución de probabilidades): La fractila de orden p es
aleatorias .re r. hay el valor de la variable aleatoria para la cual la función de
distribución es igual a p (siendo O~ p ~ 1) o "salta" de un
- distribuciones de probabilidades condicionales de .r: valor menor quepa un valor ma)'or que p.
una distribución específica se expresa como la distribu-
ción de X para el caso que r-= y: NOTAS

- distribuciones de probabilidades condicionales de Y: ·1 Cuando la función de distribución es igual a p para


una distribución específica se expresa como la distribu- todo el intervalo entre dos Yalores consecutivos de una va-
ción de r para el caso que.\"= x. riable aleatoria. entonces cualquier valor en este intervalo
puede ser considerado como la fractila de orden p.
1.11 independencia: Dos variables aleatorias X e r son
independientes sí. y sólo si. sus funciones de distribución 2 x" es la fractila de orden p cuando:
se relacionan por:
P, (.Y< x) ~p ~ P, (.\' ~ x)
F (x, y) == F(x. oo) • F (oo. y) = G (x) • H (1:)
3 En el caso de una variable continua. la fractila de or-
donpc F (x. 00 ) = G (x) y F (oo, y)= H (v) son las funcio- den p es un valor de la variable debajo de la cual se en-
nes de distribución marginal de X e }' respectivamente. cuentra la proporción p de la distribución.
para t~ los pares (x. y).
4 Una percentila se define de la misma manera cuando
NOTAS p se expresa como un porcentaje.

PaJa variables aleatorias independientes continuas. 1.15 mediana: Fractila de orden 0.5.
sus funciones de densidad de probabilidades (si existen) se
relacionan por: 1.16 cuartila: Fracúla de orden 0,25 o fractila de orden
0.75.
f(x. y)= g (x) • h (v)
1.17 moda; Valor(es) de una variable aleatoria en un má-
donde g {x) y h (v) son las funciones de densidad marginal ximo local de la función de masa probabilística de una va-
de X e Y respectivamente. para todos los pares (x, y). riable aleatoria discreta o en un máximo local de la función
de densidad de probabilidades de una ·Yariable aleatoria
Para variables aleatorias independientes discretas. sus pro- continua.
babilidades se relacionan por:
NOTA - Cuando hay una sola moda, se dice que la distri-
P, (X= x, : Y= X) = P, (X= x,) • P, ( r = y1) bución de probabilidades es "unimodal": cuando hay má'>
de una moda se dice que es "mullimodal" (o "bimodal"
para cada par (x, . .Y¡). cuando hay dos modas).

2 Dos eventos son independientes cuando la probabili- 1.18 esperanza matemática (de una variable a leatoria o
dad de que ambos ocurran es igual al producto de la proba- de una distribución de probabilidades): Yalor esperado
bilidad de cada uno de los dos eventos. media:

t. 12 parámetro; Valor utilizado para describir la distri- (1) Para una variable aleatoria discreta .\' que tom;• lo~
bución de probabilidades de una variable aleatoria. \'alorcs x, con las probabilidades p,, la esperanza matemá-
tica. si existe, es

J.J = E(.\) = r.pr'(1


.1
extendiéndose la sumatoria a todos los Yalores de x, que NOTAS
pueden ser tomados por .r.
Si la ,·ariablc alcatona uenc una esperanza matemá-
(2) Para una variable aleatoria co'nt.inua .r con una fun- tica igual a 1J y una dcs\'iactón estándar igual a o . la ,·a-
ción de densidad de probabilidades./{x). la espera nza mate- n<tble aleatoria normah;:~da correspondiente es la \(lriablc
mática. si existe. es aleatoria

.IJx "'E(.\) = Jx.f(x) d-r (.\'- IJ) 1 (]

con la integral extendtda sobre el(los) intcrvalo(s) de varia- La distribución de la ,·ariable aleatoria nonnalizada se lla-
ción de.r. ma "distribución nonnalizada".

1.19 es11e ra nu m ate mática ma rgin:~J : Esperanza mate- 2 El concepto de una variable aleatoria normalizada
mática de una distribución de probabilidades marginal puede ser generalizado a una "ntriable aleatoria reducida"
( 1.9) de una variable a leatoria. que se define usando otra ubicaci-ón y/u otra escala para-
métrica en lugar de una esperant.a matemática y una des-
1.20 c.~pe ranza mate mát ica condicional: Esperanza ma- \'iación estándar.
temática de una distrlhuc:ión de probabilidades condicio-
nal (l. 10) de una \(lriable aleatoria. 1. 26 momento11 de orden q alrededor del origen: Espe-
ranza matemática de la potencia q de una variable aleato-
1.21 ,·a ria ble a leatoria centrad a: Variable alea1oria ria, en una distribución uni,·ariablc:
cuya esperanza matemática es igual a cero.
E [ .\''1
NOTA - Si una variable aleatoria .r tiene una esperanza
matemática igual a J,J . su correspondiente variable aleatoria NOTA • El momento de orden 1 es la esperanza malemti-
centrada es X- ¡.¡. fica ( 1. 18) de la variable aleatoria .r.

1.22 ,·a rianza (de una van able aleatoria o de una distribu- 1. 27 momento0 de orden q a lrededor d e un origen a:"
ción de probabilidades): Esperanza matemática del cuadra- Esperanza matemaliea de la potencia q de la variable al~~­
do de la variable aleatoria centrada ( 1.21 ): toria (.\' - a). en una distribución uni,·ariablc:

E [( X -a)"J

1.23 des,•iación est ánda r (de una variable aleatoria o de 1.28 momento1 l centrado de orden q : Esperanza mate-
una distribución de probabilidades): Raiz cuadrada posití- mática de la potencia q de la variable aleatoria centrada
va de la \'aria!lZ<I: P,: - IJ..-1 (en una distribución univariablc):

NOTA - El momento centrado de o rden 2 es la varianza


1.24 coeficiente d e "·ariaciÓn (de una variable aleatoria o
( 1. 22) de la variable aleatoria X
de una distribución de probabilidades): Razón entre la des-
viación estándar y la esperanza matemática de una variable
1.29 mome nlo11 conjunto de orden q y s al rededor del
aleatoria no negativa:
origen: Esperanza matemática (en una distribución biva-
riablc) del producto de la variable aleatoria .relevada a la
Jf1 {).)} 1E(.\) = al¡.¡ potencia q por la variable aleatona r clc\'ada a la potencia
s:
1.25 varia ble aleato ria normalizada: Variable a leatoria
cuya esperanza matemática es igua l a cero y cuya desvia- E(.\'~ }"1
ción estándar es igual a l .

11
Si en la definición de los momentos se reemplazan las cantidades.\'..r - a. r, Y-b. cte. por sus valores absolutos, es de-
cir. ~\1. ~\'-a j . ; Y~. Y-b· cte., quedarían definidos otros momcn\os llamados "momentos absolutos".
NOTA - El momento COJtimllo de orden 1 y O es la t:.~pc­ málica condicional de r para .r = x. Esta cur.a se llama
ranzn matemática marginal (l. IIJ) de.\". El momento con- "cur.a de regresión de r en.\".
junto de orden O y 1 es lt~ espernn;:a matemática marginal
( 119J der. NOTA -Cuando la cur.·a de regresión de }"en X es una lí-
nea recta. 1;~ regresión se denomina "lineal simple".
1.30 momento11 conjunto de orden q ~- s alrededor del
origen a, b.· Esperan7.a matctmitica (en una distribución En dicho caso. el coeficiente de regresión lineal de r en .r
bi,·ariable) del producto de la ,·ariable aleatoria(.\"- a) clc- es el coeficiente de x (la pendiente) en la ecuación de la lí-
'ada a la potencia q. por la ,·aríable aleatoria (Y- b) eleva- nea de regresión.
d<~ la potencia s:
1.3:"1 superficie de regreston: Superficie que da para
~:_· [(.\". a)11 o·. b)'J cada par (x. y) la esperanza matemática condicional de Z
para .\" = X e }" =y para e) caso de tres variables aleatorias
1.31 momento•' centrado conjunto de orden q y s: Espe· .r. }" y l. donde Z está afectada por X e r. Esta superficie
ranza matemática (en una distribución bivariable) del pro- es llamada "superficie de regresión del en.\" e 1".
ducto de la variable aleatoria {.\"- J.lx) elevada a la potencia
q. por la variable aleatoria (} ·- Jly) elevada a la potencias: NOTAS

Cuando la superficie de regresión es un plano. la re-


gresión es llamada "lineal''. En dicho caso. el coeficiente
NOTA - El momento centrado conjunto de orden 2 y O es de regresión lineal de l en .r es el coeficiente de x en la
la ,·arianza de la distribución de probabilidades marginal ecuación de regresión de la superficie plana.
(l. 9) de .r. El momento centrado conjunto de orden O y 2
es la varianza de la distrihución de prohabilidades margi- 2 La definición anterior puede ser extendida a más de
nal (l. 9) de r. tres \'ariables aleatorias.

1.3{ co\·arianza: Momento centrado conjunto de orden 1 1.36 distribución uniforme; distribución rectangular:
y 1: ""
( 1) Distribución de probabilidades de una variable alea-
E ((.\" • Px) (Y - V..v )J toria continua. cuya función de densidad de probabilidad es
constante dentro de un inter.'alo finito (n,bl y cero fuera de
1.33 coeficiente de correlación: Razón entre la cova- este inter.'alo.
rianza de dos variables aleatorias y el producto de sus des·
viaciones estándar: (2) Distribución de probabilidades de una variable alea-
toria discreta donde

p=
E r<x- J.l.tHr- v..v>J
p r (\"=x)=j_
" 11
1

NOTAS para i = l. 2.... , n

Su valor siempre estará entre -1 y + 1 inclusive. NOTA - Una distribución uniforme discreta tiene una pro·
babílídad de ocurrencia igual para cada uno de sus n ,·ato-
2 Sí dos ,-ariablcs aleatorias son independientes. su res. por ejemplo
coeficiente de correlación es cero. Sin embargo. si el coe-
ficiente de correlación es cero, sólo se puede inferir que las P,1 = lln
dos variables aleatorias son independientes en el caso de
tener una distribución norma"/ bí\"aríada (l. 53). Paraj ~, l. 2 ..... n

1.34 cun'a de regresión: Curva (para el caso de dos va- 1.37 distribución normal; distribución de Laplacc-
riables aleatorias) que da para cada x la esperanza mate-
Gauss: Distribución pe probabilidades de una \'ariablc

11 Sí en la defínición de los momentos se reemplazan las cantidades.\". X- a. r. r · b. etc. por sus \aJores absolutos. es de-

cir. ~\l ~f-a·. Y .. , Y·bl etc.. quedarían definidos otros momentos llamt~dos "momentos absolutos".

5
aleatoria continua .r. cuya función de densidad de probabi- donde
lidades es
-oo <t <+oocon el parámetro v= l. 2.... :
·
/(x) 1
= cr .['2rr e:xp [ - lJ (X - jJ )
-cr- ;]
res la función gamma definida en J..t.l.

para- oo < x < +oo · NOTA - El cocicmc de dos \·ariables aleatorias indepen- .
dientes. cuyo numerador es una Yariable normal normali-
NOTA - J.l es la esperanza matemática y a es la deS\'iación zada y cuyo denominador es la raíz cuadrada positiva del
estándar de la distribución normal. cociente de una \'ariable aleatori::t x~ con v grados de liber-
tad, es una distribución de Student con v grados de
1.38 distribución normal normalizada; distribución de libertad.
Laplacc-Gauss normalizada: Distribución de probabili-
dades de la variable aleatoria normal normalizada C. cuva 1.41 distribución F: Distribución de probabilidades de
función de densidad de probabilidades es - una variable aleatoria continua. que puede tomar cualquier
,·alor entre O y + oo. cuya función de densidad de probabi-
{(u)= Jk exp(- ~~)
lidades es

{(F; v~_ v~) ==


para - oo < u < + oo

(Véase 1.25, nota 1).

1.39 distribución chi-cuadrado; distribución X~: Distri- donde


bución de probabilidades de una variable aleatoria continua
que puede tomar cualquier valor entre O y + 00, cuya fun- F ;::: O con los parámetros v 1 v 2 = L 2, . · .:

ción de densidad de probabilidades es res la función gamma. definida en 1.44.


/
NOTA - Esla es la distribución del cociente de dos varia-
bles aleatorias independientes, distribuidas según x2 y
donde cada una dividida por su correspondiente número de gra-
dos de libertad. El número de grados de libertad de la va-
x2 ~o con parámetros v= l. 2.... : riable aleatoria x1 del numerador v 1 y del denominador v 2
son. en este mismo orden, el número de grados de libertad
de la variable aleatoria distribuida según F.
r es la función gamma definida en ( 1:44).
1.42 distribución log-nonnal: Distribución de probabili-
NOTAS
dades de una variable aleatoria continua X que puede to-
mar cualquier valor entre a y + oo, cuya función de
La suma de los cuadrados de v variables normales
densidad de probabilidades es
normalizadas independientes es una variable aleatoria x2
con el parámetro v; ves llamado grados de libertad (2.85).

2 La disl.ribución de probabilidades de la variable alea-


r.() ..
,,X
(X-
1
a)o{iñ
¡1 [log~(x-a)-J.JJ2l
exp --
2 cr
toria X~ /2 es una distribución gamma ( 1.44) con parámetro
m= v/2. donde

1.40 distribución t; distribución de Studeot: Distribu- x>a:


ción de probabilidades de una variable aleatoria continua.
cuya función de densidad de probabilidades es ~y cr son la medía y la dcsúación estándar respecti-
vamente del log. (X- a).
{(t:v)=-l-(r[(v+l)/21)[ 1 )
,¡r:¡ry
11 V
f(v/2) ( l + ¡-fv)
, (v+l)i2

6
NOTAS 2 El parámetro m detennina la forma de la distribu-
ción. Para 111 = l. la distribución gamma se convierte en
La distribuCIÓn de probabilidades de un<l ,·ariablc una distribución exponencial
aleatoria log,. (.r - a) es una distribución normal: ¡; ~· o
son. rcspccti\'amemc. la esperanza matemática y la desvia- 3 La suma de m ,·ariablcs aleatorias independientes con
ción estándar de esta \'ariable aleatoria. una distribución exponencial con el parámetro t.. = ~. es
una distribución gamma con los parámetros m y a .
2 Los parámetros J.l y o no son los logaritmos de la me-
dia y de la desviación estándar de X.
1.45 distribución beta: Distribución de probabilidades de
una variable aleatoria continua X que puede tomar cual-
3 Frecuentemente se usa ellog10 en lugar dcllog,..
quier ,·ator entre O y l inclusi\'e. cuya función de densidad
de probabilidades es
En este caso

con O :S x :S 1 y los parámetros 1111• m)> O.


donde
r es la función gamma. definida en 1.44
p y o son, respectivamente. la media y !a dcs\'iación
estándar dellog1u (X- a):
NOTA -Para m1 =m~ = l. la distribución beta se convierte
en una distribución uniforme con a = O y b "" l.

1.46 distribución de Gumbel; distribución de valores


1.43 distribución exponencial: Distribución de probabi-
extremos tipo 1: Distribución de probabilidades de una
lidajies de una variable aleatoria continua X que puede to-
variable aleatoria continua .r. cuya función de distribución
mar cualquier valor entre O y + oo, cuya función de
es
densid<Ml de probabilidades es
F(x) = exp (-e'Y)

con
con x ~O y el parámetro A. >O.
- oo ( x( +oo:
NOTA - Esta distribución de probabilidades puede ser ge-
neralizada sustituyendo (x-a) por x (con x ~a).
y= (x- a)/b: y
f..U distribución gamma: Distribución de probabilida-
los parámetros -oo <a < +oo, b >O.
des de una variable aleatoria continua. X que puede tomar
cualquier valor entre O y + oo, cuya función de densidad de
probabilidades es: 1A7 distribución de Fréchet; distribución de valores
extremos tipo JI: Distribución de probabilidades de una
variable aleatoria continua X que puede tomar cualquier
valor entre a y+ oo, cuya función de densidad de probabili-
dades es
con x ~O y los parámetros m > O. a> O.

La función gamma f(m) es


co n
~

r {m) fe ·xxm·ldY'
o x >a;

NOTAS y= (x- a)lb: y

Cuando m es un número entero. entonces los parámetros- oo< a<+""· k> O, b >O.

f(m) =(m- 'i)!

7
NOTA - El parámetro k determina la forma de 1:1 tienen por el desarrollo del binomial del e.,poncncial nega-
distribución. tivo -e

1..18 distribución de Wcibull; distr:ibución de nlorcs p' 11 - n- P>r


extremos tipo 111: Distribución de probabilidades de una
variable aleatoria continua .r que puede tomar cualquier según sean las potencias de ( 1-p) enteras y posui,·as.
valor entre a y + oo .. cuya función de distribución es
2 Cuando el parámetro e = .1. la distribución se llama
F(x) "" 1 - exp(·:Y k) "distribución geomctríca".

con 1.51 distribución de Poisson: Distribución de probabili-


dades de una variable aleatoria discreta .\"de modo que
x >a~
X
= !!!...e-"'
y== (x- a)/b; y x!

los parámetros- 00 < a < + oo. k> O. h >O. con x =O. L 2..... y parámetro m >O.

NOTA - El parámetro f.: fija la forma de la distribución. NOTAS

La esperanza matemática y la ,·arianza de una distri-


1.49 distribución binomial: Distribución de probabilida-
des de una variable aleatoria discreta .r que puede tomar bución de Poisson son ambas iguales a 111.
cualquier valor entero de O a n, de modo que
2 La distribución de Poisson puede ser usada para
aproximar la distribución binomial cuando n es grande, p
es pequeilo, y np"' m.
con
1.52 distribución bipergcométrica: Distribución de ' pro-
x"" O, 1, 2, ... , n; y babilidades discreta con la función de probabilidad /

parámetros n"" 1, 2, ... ;y O< p < 1 (AI)(N- M)


X 11- X
P,(X=x)= (~)
donde
donde
( ")- 11!
X x'(n·x)'
x = mh:. (0, M- N+ n). máx. (0, M- N+ n) +l .....
1.50 distribución binomial oegati\'a: Distribución de pro- min. (M, n)
babilidades de una variable aleatoria discreta X. de tal
modo que los parámetros N"" l. 2....

M::: O. L 2.... , V

n = 1, 2..... :\'

con x =O, l. 2, ... , y parámetros e>{) y O< p < 1 V

(M)_
donde M!
x x!(M-x)!
e + x - 1 ) = (e+ x- 1)!
( x x!(e- 1)! etc

NOTAS NOTA - Esta distribución surge como la distribución de


probabilidades para un número de sucesos en una muestra
El nombre "distribución binomial negativa" se debe a de lamatio n tomado sin reposición de una población de ta-
que las probabilidades sucesivas para x =O, l. 2.... se ob- maño .V que contiene ;\1 sucesos.

8
J.SJ dbtribución normal hívariada; dis.l ribuciún clr La- con
placc-Causs hivariada; Distribución de probabiliuaJc.s de
dos variables aleatorias continuas .\'e r. de moJo qu~ la -T.<II··· IX
función de densidad de probabilidades es
\'

--:r.: < \' < +X:

El parámetro p~s el coeficiente de correlación de X e Y, y


también de t: y de r.

NOTA - Estn distribución puede ser ge11eralízada a una di~­


con
tribución de más de dos variables aleatorias de modo que la
distribución marginal de cualquier par de estas distribucio-
-")O< X< +'Y.:
nes tome la torma arriba descrita.

y 1.55 distribución multinomial: Distribución de probabi·


lidadcs de k variables aleatorias díscre1as, X,. X~ . ... , X1 • Jc
-oc <y< +oc modo qu~

donde ll< y J.l.,. son las esperanzas matemáticas y


<J,y cr, las desviaciones estándar de las distribuciones
marginales de X e Y (siendo ambas distribuciones norma-
les): p es el coeficiente de correlación de X e Y. !Véase
nota 2 de 1.33 ).
donde x 1• -":· . . . . xk son números enteros tomados de
NOliA - Esta distribución puede ser generalizada para una O. l. 2, .... de modo que x, + x~ + ... + x. = n
distribución de más de dos variables aleatorias, de modo
que la ct:Stribución marginal de cualquier par de estas dis- con parámetros
tribuciones tome la forma arriba descrita.
p, ~o (i ~ l. 2, ... k)
1.54 distribución normal bivariada normalizada; distri-
bución de La¡}face-Gauss bivariada normalizada: Dis- y
tribución de probabilidades de un par de variables
aleatorias normales normalizadas. Para un par de variables k
I: p, = 1
aleatorias normales (X. Y) con parámetros (¡.t r. ~~ ... ). 1=1
(cr.•. cr,) y p. las variables aleatorias. normalizadas corres-
pondientes son

donde k "' 2. 3, ...


U= X -p., y
<J,

La función de densidad de probabilidades de U y de V es ~OTA - La distribución multinomial es una generalización


,. de la disrribucíón bínomwl ( 1.4<>) de una distribución con Ir.

f(u. v} = 1
~
2n ~ 1 - p-
l r
exp --(--,.
!
( u--
>
•-"·l
2puv + v-)
,\
> 2 variables aleatorias.

1)
SECCIÓN 2: TÉRMINOS ESTADiSTICOS 2.5 subpoblación: Parte definida de una población.
GENERALES
2.6 ulor obscn·ado: Valor de una característica obteni-
Los términos definidos en la sección·) ,(términos usados en da como resultado de una obscr,ación simple. (Véase sec-
la teoría de probabilidades). son definidos en términos de ción 1)
las propiedades de la población. En la sección 2. las defi-
niciones están relacionadas a un conjunto de obser\'acio- 2. 7 clase:
nes. Muchas de estas definiciones implican obscr\'acioncs
sobre una muestra de alguna población. pero las definicio- ( 1)Para una característica cualitativa, grupos de ele-
nes de muestra y muestreo serán precisadas en la sección 3. mentos apropiadamcnlc definidos en el que cada grupo tie-
ne algún atributo común, siendo los grupos mutuamente
Si fuese necesario distinguir cmrc los parámetros de la po- excluyentes y exhaustivos.
blación y los resultados de los cálculos sobre la muestra o
Jos datos empíricos. las palabras "muestra" o "empírico" (2) Para una característica cuamitativa. cada uno de los
pueden ser agregadas como calificativo a los términos defi- intervalos consecutivos y mutuamente excluyentes dentro
nidos en esta sección. del cual el inteC\·alo total de variación está definido.

2.1 elemento; unidad: Aquello que puede ser descrito y 2.8 límites de clase, fronteras de clase: Valores que
considerado individualmente. definen los extremos superior e inferior de una clase.

NOTAS NOTAS

1 Una unidad puede ser. por ejemplo: Se debería especificar cual de las dos fronteras se
considera perteneciente a la clase.
una entidad física;
2 Si es posible, ningún límite de clase dcber,ja coincidir
una cantidad de material definido~ con un valor posible. ....,

un servicio, una actividad o un proceso: 2.9 (lUnto medio de la clase: Media aritmética de lo$
límites superior e inferior de una clase para una caracterís-
una orgarúzación o una persona: o tica cuantitativa.

alguna combinación de ellos. 2.10 am¡llitud de clase: Diferencia entre el límite supe-
rior y el límite inferior de una clase para una característica
2 En inglés, elténnino "unit" o "individual'' no debería cuantitaliva.
ser usado en lugar de "entity" o "item".
2.11 frecuencia: Número de ocurrencias de un tipo de
3 En francés, el ténnino "individu" puede ser usado en evento dado o número de observaciones que caen (o están)
lugar de "entité", en estadística. dentro de una clase especifica.

2.2 característica: Propiedad que ayuda a identificar o 2.12 frecuencia acumulada: Número de miembros de un
diferenciar entre elementos de una población dada. conjunto de observaciones que tienen valores menores o
iguales a un valor dado.
NOTA -La característica puede ser cuantitativa (por varia-
bles) o cualitativa (por atributos}. NOTA - Con los datos agrupados dentro de clases. la fre-
cuencia acumulada puede ser definida sólo en fronteras de
2.3 JlOblacióo: Totalidad de los elementos bajo clase.
consideración.
2.13 frecuencia relativa: Frecuencia dividida entre el
NOTA - En el caso de una variable aleatoria. la distribu- número total de ocurrencias u obserYaciones.
ción de probabilidades ( 1.3) se considera para definir la
población a la que pertenece esa ,·ariable. 2.14 frecuencia relath·a acumulada: Frecuencia acumu-
lada dividida entre el número total de observaciones.
2A base del muestreo: Lista, seleccionada para propósi-
tos del muestreo, que designa los elementos de una pobla-
ción a ser considerados en un estudio.
10
2.1!' distribución de fn.>cuencia: Relación empírica en- NOTA - El concepto puede ser generalizado en los casos
tre los valores de una característica y sus frecuencias o sus de más de dos características.
frecuencias relativas.
2.23 distribución de frecuencia multh·ariable: Para va-
NOTA - La distribución puede ser gráficamente presenta- rias características consideradas simultáneamente. relación
da como un histograma (217). gráfico de harras (2.18). empírica entre conjuntos de valores unidos o clases de ca-
polígono de frecuencia acumulada (2 19). o como una ta- racterísticas. por un lado. y sus frecuencias por el otro.
hla de dohle entrada (2.22).
2.2-' distribución de frecuencia marginal: Distribución
2.16 distribución de frecuencia de una \'ariable: Distri- de frecuencia de un subconjunto de k, < k características
bución de frecuencia para una sola característica. para una distribución de frecuencia multivariable de k ca-
racterísticas, tomando las otras variables (k - k1) algún va-
2.17 histograma: Representación gráfica de la distribu- lor dentro de su conjunto de valores.
ción de frecuencia de una característica cuantitativa que
consiste en un conjunto de rectángulos contiguos, cada uno NOTA - Para k = 2 características. las distribuciones de
con una base igual a la amplitud de clase y un área propor- frecuencia marginal pueden ser obtenidas por la suma de
cional a la frecuencia de clase. cada valor o clase de característica en consideración a las
frecuencias correspondientes (o frecuencias relativas) de la
2.18 gráfico de barras, dia~rama de barras: Represen- otra característica.
tación gráfica de una distribución de frecuencia para una
característica cualitativa que consiste en un conjunto de EJEMPLO
barras de amplitud unifonne y longitud proporcional a la
frecuencia. En una distribución de frecuencias con tres características
X. Y y Z, hay
2.19 Jlolí~ouo de frecuencia acumulada: Línea poligo-
nal¡>btenida por la unión de puntos cuyas abcisas son el tres distribuciones de frecuencia marginal de dos va-
límite superior de las clases y cuyas ordenadas son las fre- riables, es decir. las distribuciones de los pares (X,}').
cuenciai absolutas acumuladas o las frecuencias relativas (X.Z), (Y,Zj.
acumuladas. ·
tres distribuciones de frecuencia marginal de una va-
2.20 distribución de frecuencia bivariable: Para dos ca- riable, es decir. las distribuciones de X, de Y y de Z.
racterísticas consideradas simultáneamente, relación empí-
rica entre los pares de ,·alores o características de clases, 2.25 distribución de frecuencia condicional: Distribu-
por un lado, y sus frecuencias por el otro. ción de frecuencia de k, < k características de una distribu-
ción de frecuencia multivariable cuando las características
2.21 diagrama de dispersión: Representación gráfica remanentes (k- k,) son fijas.
que consiste en un conjunto de puntos cuyos ejes coordena-
dos x e y (ejes rectangulares ordinarios) son los valores de NOTA - Para k = 2 características, las distribuciones de
las características .re Y. frecuencia condicionales son leídas directamente en filas y
columnas de la tabla de frecuencia de doble en1rada. Las
NOTAS distribuciones condicionales de frecuencias relativas son
obtenidas por la división de los números en cada fila (o co-
Un conjunto de n elementos suministra así n puntos lumna) por el número total en las filas (o columnas)
cuya dispersión demuestra la relación en1re X e r. relevantes.

2 1 El concepto de un diagrama de dispersión puede ser EJEMPLO


extendido a más de dos caraCterísticas.
En una distribución de frecuencia con dos características X
2.22 tabla de frecuencias de doble entrada, tabla de e Y. hay
contingencia: Tabla usada para representar una distribu-
ción de dos características en la cual las filas y las colum- la distribución de .frecuencia condicional de X; una
nas corresponden a los valores o clases de la primera y distribución específica es expresada como la distribución
segunda c.aracteristica respectivamente. En la intersección de X parar= y: y
de una fila y una columna aparece la frecuencia correspon-
diente a la combinación de los valores o clases.

11
la distribución de frecuencia condicional de r: una EJEMPLO
distribución específica es expresada como la distribución
de r para .r ~ x. Para n obsen·acíoncs X1 • .r, ... Y., con promedio

2.26 media aritmética; promedio: Suma de ,·atores díú- - = ij ~


1 L.
X X1
dido por el número de \'atores. 1

NOTAS La \·arianza es

El término "media" se usa generalmente cuando es s 2 = lt•·


_!_t E (x , -x) 2
1

referido a un parámetro de población y el término "prome-


dio" cuando es referido a resultados de un cálculo sobre los NOTAS
datos obtenidos en una muestra.
La varianza de la muestra es un estimador inscsgado
2 El promedio de una muestra aleatoria simple de una de la ,·arianza de la población.
población es un estimado insesgado de la media de esta po-
blación. Sin embargo. algunas veces son usados otros esti- 2 La \·aríanza es n/(n·l) veces el momento centrado de
madores tales como la media geométrica o annónica. la orden 2 (véase nota de 2.39).
mediana o la moda.
2.3-' desviación estándar: Raíz cuadrada positiva de la
2.27 media aritmética ponderada; media ponderada: varianza.
Suma de los productos de cada .valor y su peso. dividido
por la suma de los pesos. donde los pesos son coeficientes NOTA - La desviación estándar de la muestra es un esti-
no negativos asignados a cada uno de los valores. mado sesgado de la desviación estándar de la población.

2.28 mediana: Si n valores son arreglados en orden no 2.35 coeficiente de variación: Para una característica no
decreciente en magnitud y numerados desde 1 hasta n, la negativa, razón entre la desviación estándar y el prom~io.
mediana de estos 11 valores es el valor [(n + 1)/2]<'11110 si 11 es
impar. NOTAS

Sí n es par, la mediana se encuentra entre los (n/2)"""" y los La razón puede ser expresada como un porcentaje.
[(n/2)+ 11.,""• valores y no está definida únicamente. A me-
nos que se especifique lo contrario. esto puede ser tomado 2 El término "desviación estándar relativa" es usado
como la medía aritmética (2.26) de esos dos valores. algunas veces como una altemativa de "coeficiente de va-
riación", pero este uso no es recomendado.
2.29 centro del rango: Media aritméúca del mayor y del
menor valor observado de una característica cuantitativa. 2.36 momento de orden q alrededor del origen: En una
distribución de una característica simple, media ari!mética
2.30 rango: Diferencia entre el mayor y el menor valor de las q pOtencias de los valores observados.
observado de una característica cuantitativa.
l
..
[ /'1
2.31 rango promedio; rango medio: Media aritmética de 1

los rangos de un conjunto de muestras del mismo tamaño.


donde n es el número total de obscn·aciones.
2.32 desviación media: Medía aritméúca de las desvia-
NOTA - El momento de orden 1 es la media aritmética de
ciones respecto a un origen cuando todas las desviaciones
los valores observados.
son dadas con signo positivo.
2.37 momento centrado de orden q: En una distribución
NOTA - Generalmente, el origen seleccionado es la medía
arírmética (2.26), aunque la desviación media sea minimi-
de una característica simple. medía aritmética de las q po-
zada al tomar la mediana como el origen. tencias de la diferencia entre los valores observados y sus
promedios i
2.33 varianza: Medida de la dispersión. que es la suma
del cuadrado de las desviaciones de las observaciones y sus
promedios. dividida po~_el número de observaciones menos
uno. donde n es el número de obsen'aciones.
12
NOTA - El momento centrado de orden 1 es i~ual a cero. 2.-J J coeficiente de corrcfaciún: l~azón entre la covarian·
za de dos características y d producto de sus desv iaciones
2.38 momento conjunto de orden q y .\" alrededor del c~t<indares.
origen: En una distribución conjunta de dos c¡¡racterísti-
cas. media aritmética de los productos de las q potencias de
x, y de las s potencins de y, para todos los pares observados
(X;, Y):

! ,~
x,lf y,·'
11 <:- donde
'
donde n es el número de pares observados. s.,.es la covaríanza de X e Y

NOTAS s,. y s, son las desviaciones estándnres de X e r


respectí vamente.
El momento conjunto de orden q y s es uno de los
momentos de orden (q + s). NOTAS

2 El momento de orden l y Oes la media de la distribu- bte coeticieme es usado freeuenccmcnte como una
ción de frecuencia marginal de X, y el momento de orden O expresión numérica para la independencia lineal entre X e r
y 1 es la media de la distribución de frecuencia marginal de en la serie de observaciones apareadas. 0 1ando sea posi-
Y. ble. el diagrama de dispersión (2.2 1) también debería ser
examinado para verificar la linealidad.
2.39 momento centrado conjunto de orden t¡ )' s: En
una distribución conjunta de dos características, media arit- 2 El valor de r,, siempre permanecerá entre · 11 y -1 l.
mética de los productos de la q potencia de la diferencia Cuando el coeficiente de correlación es igual a ~mo de estos
entrif'x; y su promedio i, y las potencia de la diferencía en- límites, significa que allí existe una relación lineal exacta
tre y, y~ promedio ji, para todos los pares observados (x;. entre X e Y en la serie de observaciones apareadas.
}';}:
3 Este coeficiente de correlación es para las característi-
cas medidas. Otros coeficientes de correlación tales como
ñ1 "'
L (X; -x
'')''(v,-y-)·'
los coeficientes de Spcarman o de Kendall son usados para
1

datos ordenados o clasificados.


donde n es el número de pares observados.
2.42 curva de regresión: Para una muestra den pares de
observaciones de dos características X e Y. la curva de re-
NOTA - El momento centrado de orden .2 y O es la varian- gresión de Y en X es una representación de Y como una fun-
7.a de la distribución de frecuencia m·arginal de X multipli- ción de.\'.
cada por (n-1)/n. El momento centrado de orden Oy 2 es la
varian7.a de la distribución . de frecuencia marginal de Y, 2.43 superficie de regresión: Para una muestra de n ob-
multiplicada por (n-I )In. · servaciones de cada una de las tres características X. Y y Z.
la superficie de regresión de Z sobre X e Y, es una represen-
tación de Z como una función de X e Y.
2.40 covarianza: Suma de los productos de las desviacio-
nes de :re y de sus respectivos promedios divididos por el NOTA - El concepto anterior puede ser extendido a más de
número de pares observados menos uno. 3 características.

, s.n, - -
1 L (x~ - ,t) (F; - _ii)
2.44 coeficiente de regresión: Coeficiente de una variable
n- 1 , en la ecuación de una curva de regresión ti de una superli·
cie de regresión.
donde n es el nllmero de pares observados.
2.45 estadístico: fun~ión de variables aleatorias de la
NOTA - La covarianza de la muestra es un estimador in- muestra.
sesgado de la covarianza poblacional.
NOTA - Un estadístico. como una función de variables
aleatorias. es también una vnriable aleatoria y por lo l<tnlo
asume valores diferentes de muestra a muestra. U valor dd
1.~
del estadístico obtenido por el uso de los valores observa- NOTA - El error de estimación puede implicar uno o más
dos en esta función puede ser usado en una prueba estadís- de los siguientes errores:
tica o como un estimado de un parámetro poblacional, tal
como una media o una desviación estándar. -error de muestreo (2.51);

2.46 estadístico de orden: Cuando las observaciones en -error de medida (3.8);


una muestra son ordenadas en forma no decreciente en
magnitud, cada una de estas observaciones ordenadas es un - error de redondeo de valores o de su subdivisión en
valor de una variable aleatoria conocida como un estadísti- clases:
co de orden. Más aún, cualquier cstadísl..ico basado en es-
tadísticos de orden es conocido además como wt estadístico -otros errores.
de orden.
2.53 error de muestreo: Parte del error de estimación
EJEMPLO debido al hecho de que sólo wta pequeña porción de la po-
!>lación es 0bservada.
El valor k ésimo en una secuencia no decreciente de obser-
vaciones x1k1es el valor de la variable aleatoria X1.t:1 llamado 2.54 sesgo del estimador: Diferencia entre el valor espe-
"estadístico de orden k". En una muestra de tamaño 11, la rado del estimador y el parámetro que va a ser estimado
menor observación x 1, 1 y la mayor observación de x1.,1 son (véase 3.13 ).
los valores de las variables aleatorias x¡, 1 y X1.,J. el cstadísti·
co de primer y n orden respecl..ivamente. El rango x 1,r xt11, 2.55 estimador insesgado: Estimador con cero sesgo.
es el valor del estadístico de orden X1.,¡-x¡, 1
2.56 error estándar: Desviación estándar de un
2.47 tendencia: Inclinación hacia arriba o hacia abajo, estimador.
después de la exclusión del error al azar y de los efectos cí-
clicos cuando los valores observados son graficados en el 2.57 intervalo de confianza bilateral: Si 6qs un pará-
orden de las observaciones. metro de la población a ser estimado y r, y Tl dos f'u(tcío-
nes de los valores observados, tales que la probabilidad
2.48 corrida: En una serie de observaciones de una ca- P,[T1 :::: e~ T2 ] sea al menos igual a (1 -a) (siendo (l -a)
racteristica cualitativa, la ocurrencia de una serie ininte- un número fijo, positivo e inferior a 1), el intervalo entre
mimpida del mismo atributo es llamada "conida". r, yrl es un intervalo de confianza bilateral a ( 1 - (X) para
O.
En una serie de observaciones de una característica cuanti-
taúva, a un conjunto consecutivo de valores que son monó-
tonamente crecientes o decrecientes se le dice que provee NOTAS
una conida "hacia arriba" o "hacia abajo" respectivamente.
1 Los límites T1 y T~ del intervalo de con1ianza son esla-
2.49 estimación: Operación de asignar, a partir de las ob- díslicos (2.45) y para estos generalmente se aswnirán va-
servaciones en una muestra, valores numéricos a los pará- lores diferentes de muestra a muestra,
metros de una distribución elegida como el modelo
estadístico de la población. de la cual se extrae esta 2 En una serie amplia de muestras, la frecuencia relativa
muestra. de casos donde el valor real del parámetro de la población
O está incluido en el inlervalo de confianza es mayor o
NOTA - Un resultado de esta operación puede ser e>..-presa- igual a (1-o:}.
do como Wl valor simple (estimado punlual; véase 2.51) o
como Wl estimado del intervalo (véase 2.57 y 2.58).
2.58 intervalo de confianza unilateral: Si Oes un pará-
2.50 estimador: Estadístico utilizado para estimar el pa- metro de la población a ser estimado y Tes una función de
rámetro de una población. los valores observados. lal que la probabilidad P,(T ~O) o
la probabilidad P,(T ~e) se<l al menos igual a ( 1-a) (sien-
2.51 estimado: Valores de un estimador obtenidos como
do ( 1 -a) un número fijo. positivo e ilúerior a 1). el inter-
resultado de una estimación.
valo que se extiende desde el menor valor posible de 8
hasta T, o el intervalo entre Ty el mayor valor posible de
2.52 error de estimación: Error en la estimación de un
parámetro (T- 0), donde Tdenota el estimador y O el pará- o, es un inlervalo de confian7~1 unilateral a ( 1-a) para e.
metro a ser estimado.
14
NOTAS 2.65 prueba estadística: Procedimiento estadístico para
decidir si una Jupátesis nula debería ser rcchaz.ada en fa,or
El límite T del intcrYalo de confianza es un estadísti- de la hip<)lesis alternativa o no (véase 2.66).
co (2.45) y como tal asumirá generalmente ,·alares dife-
rentes de muestra a muestra. NOTAS

2 Véase nota 2 de 2.57. La decisión sobre la hipótesis nula (2.66) es tomada


basada en el(los) ,·alor(es) de un estadístico o estadísticos
2.59 coeficiente de confianza. nivel de confianza: Valor de pmeba apropiado(s). Dado que el estadísúco de prueba
( 1 -a) de la probabilidad asociada con un intervalo de es una variable aleatoria. existe algún riesgo de error cuan·
confianza o un intervalo estadístico de dispersión (véase do se toma la decisión (véase 2. 75 y 2. 77).
2.57, 2.58 y 2.61).
2 Generalmente. una prueba asume a priori que se
NOTA - ( 1 -a) es frecuentemente expresado como un cumplen ciertas presunciones (por ejemplo. presunción de
porcentaje. independencia de obserYaciones. presunción de normali-
dad. etc.).
2.60 límite de confianza: Cada uno de los límites 7"1 _,.
T; del intervalo de confianza bilateral o el límite T del in· 2.66 hi¡lótesis nula e hipótesis altcrnath'a: Afirmación
tervalo de confianza unilateral. acerca de uno o más parámetros o acerca de una dístribu·
ción que va a ser ensayada por medio de una prueba es/a·
2.61 intcnalo estadístico de dispersión: Intervalo para
distica (2.65).
el que se puede decir. con un nivel de confianza dado. que
contiene al menos una proporción especificada de la NOTA • La hipótesis nula CHv) se relaciona con la afirma·
población. ción que está siendo probada mientras que la lúpótesis al-
ternativa (H1} se relaciona con la afirmación que sena
aceptada cuando la hipótesis nula es rechazada.

Orando ambos límites están definidos por estadísti- EJEMPLOS


cos. el interválo es bilateral. Cuando uno de los dos lími-
tes no es finito o consútuye la frontera de la variable. el a) Prueba de hipótesis que la esperanza JJ de una ''a·
intervalo es unilateral. riable aleatoria X en una población no es menor que
un valor J..lodado.
2 También es llamado "intervalo de tolerancia estadís-
tica". Este término no debe tia ser usado porque puede Ho(J..l ~ J..lo)y H I(J..l <J..lo)
causar confusión con "intervalo de tolerancia". el cual es
definido en la norma COVENlN-1$0 3534-2.
b) Prueba de la hipótesis que la proporción de ele·
2.62 límites estadísticos de dispersión: Para un interva· mentos no conformes en dos lotes. p1 y Pz tienen el
lo estadístico de dispersiótl bilateral, son los límites supe· mismo valor (no especificados).
rior e inferior de este • intervalo. Para un intervalo
estadístico de dispersión unilateral, es el valor tomado por
el estadístico que limita ese intervalo.
e) Prueba de la hipótesis que una variable aleatoria
NOTA - Éste no debería ser confund.ído con "límites de to· .res distribuida normalmente (con parámetros no es-
lcrancia" el cual es definido en la norma COVENIN-ISO pecificados). Hipótesis alternativa: la distribución no
3534·2. es normal.

2.63 adecuación de una distribución; validez del ajuste 1.67 hipótesis simple: Hipótesis que especifica completa-
de una distribución: Medida de la concordancia entre mente la distribución de la población.
una distribución observada )" una distribución teórica espe·
citicada a priori o una ajustada a las obserYacíones. '
2.68 hi¡>ótesis compuesta: Hipótesis que no especifica
completamente la distribución de la población.
2.6-' valores atíJ)icos: Observaciones en una muestra. tan
separadas de los valores restantes. que sugieren que pue· NOTA • En la práctica, esto es comúnmente una hipótesis
den ser de una población diferente o el resultado de un que comprende una colección infinita de hipótesis simples.
error en la medición.
15
EJEMPLOS Si el ,·ator calculado de Xes meuor que. 1_ fiv es rccha1.ada.
Si ocurre el caso opuesto. Hv no es rechazada (es
a) Asumiendo una distribución normal. la hipótesis aceptada).
1J = !Jo es simple si la desviacióQ estándar de la po-
blación es conocida. pero compuesta si ésta no es 2. 72 ,·alor crítico: Valores que limitan a la región
conocida. critica.

b) Todas las hipótesis en los ejemplos dados en 2.66 2. 73 11rueba unilateral: Prueba en la cual el estadístico
son compuestos. usado es de una sola dimensión y la región crítica es el .
conjunto de ,·atores menores que un valor crítico (o el con-
2.69 prueba no paramétrica: Prueba en la cual la fun- jumo de \·aJores mayor que el ,·alor critico).
ción de distribución del estadístico de prueba no depende
de la función de distribución de las observaciones. 2. 7.a prueba bilateral: Prueba en la cual el estadístico
usado es unidimensional y la región crítica es el conjunto
EJEtv1PLO de ,·atores menores que un primer. valor crítico y el con-
jumo de \·a lores mayores que un segundo valor crítico.
Prueba de la hipótesis nula en que la observación de dos
series dadas son distribuidas con la misma función de dis- :-.JOTA - La selección entre una prueba bilateral está deter-
tribución no especificada. minada por la hipótesis alternativa. En el ejemplo dado en
2. 71. la prueba es unilateral y el ,·alor critico es A.
2. 70 nh,cl de significación (de una prueba): Valor dado
correspondiente al límite superior de una probabilidad de 2. 75 error de primer tipo: Error cometido al rechazar la
error del lipo 1 (2. 76). hipótesis nula (debido a que el estadístico toma un valor
dentro de la región crítica). cuando la hipótesis nula es
NOTA - El nivel de significación es usualmente designado verdadera.
como a.
NOTA - A menudo es llamado error del tipo l. """
2. 71 región crítica: Conjunto de los valores del estadísti-
co de prueba para el cual la hipótesis nula es rechazada. 2. 76 probabilidad del error del tipo 1: Probabilidad dé
cometer el error de primer tipo.
NOTA - Las regiones críticas son determinadas de manera
tal que si la hipótesis nula es verdadera, la probabilidad de NOTAS
que esta hipótesis nula sea rechazada no debería ser mayor
que un \:aJor a dado. el cual es generalmente bajo {por Este siempre es menor o igual al nivel de signifiw-
ejemplo 5% ó 1%). ción (2. 70) de la prueba.

EJEMPLO 2 Algunas \'CCCS es llamado "riesgo del tipo [ ".

Una forma clásica de probar la Jlipótesis nula relativa a la EJEMPLO


media de una distribución normal con desviación estándar
En el ejemplo dado en 2. 71. el error de primer tipo consis-
a, conocida, Ho (JJ ¿ J.! o), contra la hipótesis alternativa
te en rechazar Hu (J.l ~ !Jo). porque xes menor que A_
<
H1 (JJ !Jo) usa el estadístico x, que es el promedio de las
mientras que, de hecho. ¡.¡ es igual o mayor que J.lo. La
muestras.
probabilidad de tal error es a si 1J = !Jo y disminuye
La región crítica es el conjunto de valores menores que cuando 1J se incrementa.

2. 77 error de segundo tipo: Error de no rechazar {acep-


A= IJo·IJ¡-aO'/ Jii
tar) la hipótesis nula {porque el valor del estadístico cae
fuera de la región crítica). cuando la hipótesis nula no es
donde
verdadera.
n es el tamaño de la muestra:
:-.JOTA - A menudo es referido como error del tipo 1l.

J,lt -a es la fractila de orden ( 1-a) de la variable alea-


2. 78 1•robabilidad del error del Cipo 11: Probabilidad de
toria nom1al normalizada. cometer un error del segundo tipo.

16
NOTAS 2.82 función característica de o¡leraci6n de una pru<~­
ba: Función que da la probabilidad usualmente designada
Su \·alor. usualmente designado como (3. depende de como P•. de no rechazar (aceptar) la hipótesis nula en tér-
la situación real y sólo puede ser calculada si la hipótesis minos del ,·alor del parámetro cuando la hipótesis concier-
alterna! iva es especificada adecuadamente. ne al valor de un parámetro escalar.

2 Algunas veces es llamado "riesgo del tipo W. NOTA · La característica de operación es siempre igual a
uno menos la potencia. (Véase 2.80).
2. 79 potencia de una prueba: Probabilidad de no come-
ter un error del segundo tipo. 2.83 cun·a característica de operación: Representación
gráfica de la función característica de operación (2.82).
NOTA - Por lo tanto, ésta es la probabilidad. usualmente
designada como ( 1 ·13 ). de rechazar la hipótesis nula EJEMPLOS
cuando esta hipótesis es falsa. (Véase 2.&1).
a) La figura 3 ilustra la cun·a CO para la prueba de la
EJEMPLOS hipótesis H., (J.J 2::. J.Jo) contra H1 (J.l < J.lu) (véase 2.66) como
una función de J.l • la medía de la población ra es el nivel
a) En el ejemplo dado en 2. 71. el error de segundo tipo de significación (2.70) de la prueba!. (Véase 2.76).
consiste en aceptar H., (J.l ~ p11). porque xcs mayor que A.
mientras que. en efecto, J.l es menor que Pu· La probabili- b) La figura .J ilustra la cun·a CO para la prueba de la
hipótesis H,¡ (p ~ p11) contra H, (p >p..,) como una función
dad 13 de tal error depende del valor real de ¡J: mientras
de p. la proporción de elementos no co1úormes en un lote
más bajo esté p de p 0 , más cercana estará la potencia a l.
sujeto a control.
b) En el ejemplo e) de 2.66, la prueba de la hipótesis H.,
2.8~ resultado significatiYo (al nivel de significación se-
(la población es distribuida normalmente) contra la alter-
leccionado a): Resultado de una prueba estadística (2.65)
natiy!¡ H, (la población no es distribuida normalmente). es
que conlleva al rechazo de la hipótesis nulo (2.66). Sí la
imposible expresar (3 como una función de la hipótesis
hipótesis no es rechazada. el resultado no es significativo.
altemat~a cuando esta alternativa es demasiado
imprecisa. NOTA - Decir que el resultado de la prueba es significativo
estadísticamente, significa que el resultado está fuera del
2.80 función de potencia de una prueba: Función que rango de los valores esperados por los efectos aleatorios
da la potencia usualmente designada corno ( 1 -13 ) o cuando la hipótesis nula es verdadera. Esto no significa
( 1-P,), en términos del valor del parámetro cuando la hi· necesariamente que tenga importancia fisica o económica.
pótesis concierne a los valores de w1 parámetro escalar.
EJEMPLO
NOTA - La función es sólo definida para valores del pará-
metro que realiza la lúpótesis alternativa y representa la Para el ejemplo dado en 2. 71, si xes menor que
probabilidad, en ténninos del valor del parámetro. de re-
cha:r.ar la hipótesis nula <;uando ésta es falsa.
A = !Ju- ~l·a o/ fii'
2.81 curva de JJOtencia: Representación gráfica de la
función de potencia.
se dice que x es significativamente menor que ¡.¡ 0
en el ni·
vel 1 -a.
EJEMPLOS
2.85 grados de libertad: En generaL número de términos
a) La figura 1 ilustra la curva de potencia para la prue- en una suma menos el número de restricciones sobre los
ba de la hipótesis H., (J.J ~ IJu) contra H1 (J.l < J-1 0 ) como una términos de la suma.
función de ¡.¡, la media de la población (a es el nivel de
2.86 prueba de chi-cuadrado; prueba x~: Prueba esta-
significación (2. 70) de la prueba! (véase 2.76).
dística en la cuaL bajo la hipótesis nula. se presume que el
estadístico usado tiene una distribución x~ ( 1.39).
b) La figura 2 ilustra la curva de potencia para la prue-
ba de la hipótesis HQ (p ;: p.) contra H, (p > Pu) como una
NOTA - Ésta es aplicable. por ejemplo. en los siguiente~
función de p, la proporción de elementos no coruorrnes en
problemas:
un lote sujeto a control.

17
o
I
(¡;
N
ro
-n
Q)
'-
Q)

"'ro
"' ór;
"'
j5 .....
C1)
.D
o
,_
(L

Media de la población, ~t
/
Figura 1 - Curva de JlOtencia

o
I

·~
1
.....

a.

o Pn
~~--------~~---------J
H,.

Proporción de elementos no
conformes en el lote, p

Figura 2 -Curva de potencia

18
o
I
-- L ..
<U
a..
1- a
Q)
u

- <U
L-
<U
N
ro
~
u
Q)
L..

o
r:::
Q)
-o <l)

-o Q.
<U
-o
:0
ro
.o
o
o...
L.. o

Media de la población J.l


/ Figura 3- Curva CO
""'
o
I
-.. 1- a
-
L..
<U
a..
Q)
u
-<U
L-
ro
N
<U
~
u
Q)
L..

o
r:::
Q)
-o
-o
ro
-o
-
..0
ro
..0
o
L.. .O p(,
o...
~------------~~-----------J

Ho

Proporción de elementos no
conformes en el lot~. p

Figura 4- Curva CO

19
- prueba de la igualdad entre la ,·aríanz.a de tma población 2.89 repetición: Término que denota la ~jecución repeti-
normal y un ,·alor especificado: basándose la pmeba esttt- da de una investigación est.adistica usando el mismo méto-
dística en la varianza de la muestra: do sobre la misma población ba_jo las mismas condiciones.
(Véase 3.16).
- comparación entre frecuencias obsen:adas y teóricas.

2.87 t)rucba t, prueba de Student: Prueba estadística en 2.90 réplica: Detenninación de un valor más de una ,-e,
la cual. bajo la hipótesis nula, se supone que el estadístico durante el curso de un experimento o medición.
usado tiene una distribución t (de Srmlent) (l. .JO).
NOTA - La réplica debería ser diferenciada de la repeti-
NOTA - Ésta es aplicable. por ejemplo. en Jos siguientes ción puesto que la réplica denota determinaciones desarro-
problemas: lladas en diferentes lugares y/o tiempos definidos en el
plan o diseño. Las detenninaciones sucesivas. incluyendo
- prueba de la igualdad entre la media de una población la primera, son llamadas réplicas. (Véase también ISO
nom1al y un valor especificado: basándose la prueba esta- 353~-.l. 1.10).
dística en la muestra promedio y la varianza de la muestra:

- prueba de la igualdad entre la medía de dos poblaciones 2.91 aleatorización : Proceso mediante el cual un conjun-
normales que tenga la misma varianza: basándose la prue- to de elementos son seleccionados en fonna aleatoria.
ba estadística en los promedios y las varianzas de dos
muestras independientes:
NOTA - Se dice que los números son tomados al azar si se
- prueba para aplicar a los valores de una regresión lineal o toman estos números sucesivamente uno a uno sin reem-
coeficiente de correlación. plazo y al azar (en fonna que todos los números tengan la
misma oportunidad de ser seleccionados). de una pobla-
2.88 prueba F: Prueba estadística en la cual. bajo la hi- ción compuest.a por números naturales desde t a n. hasta
pótesis nula, se presume que el estadístico usado tiene una que la población se agota. ,
dislribución F ( 1.41 ).
/
NOTA - Ésta es aplicable. por ejemplo. en los siguientes Si estos n números han sido asociados previamente con n
problemas: distintos objetos o n distintos tratamientos (véase ISO
3534-3, 1.4) que son entonces organizados en el orden en
- prueba de la igualdad entre las varianzas de dos poblacio- el cual los números son tomados, se dice que el orden de
nes normales; basándose la prueba estadística en las va- los objetos o trat.amientos es aleatorio. (Véase también ISO
rianzas de las dos muestras independientes; 3534-3, 1.12).

- prueba (que ocurre en el análisis de varianza) de la igual-


dad entre las medias de varias k poblaciones normales que 2.92 causas aleatorias: Factores no identificados, gene-
tienen la misma varianza; basándose la prueba estadística ralmente numerosos pero relativamente con poca impor-
en los promedios y las . varianzas de k muestras tancia. que contribuyen a la variación.
independientes.

20
SECCIÓN J: TÉRMINOS GENERALES RELA TI- NOTA- El ,·alor verdadero de unil cantidad es un concepto
VOS A LAS OBSERVACIONES Y RESULTADOS teórico. ~- en general. no puede ser conocido e.-.:actamcnte.
DE ENSAYOS
3.3 Yalor ,·erdadero com·encional (de una cantidad);':
Los térnúnos 3.6 a 3.2-l son considerados en más detalle Valor de una cantidad que. para un propósito dado. puede
en la norma lSO 5725 11. ser sustituido en lugar del valor verdadero.

3.1 cantidad (medible)~': Atributo de un fenómeno. NOTA - Un valor \'Crdadero convencional es. en general.
cuerpo o sustancia. que puede ser distinguido cualitali\ a- tomado como suficientemente cercano al \·alor \·crdadero
mente y dctenninado cuantitati\·amente. para que la diferencia entre ellos sea insignificante para el
propósito dado.
NOTAS
EJEMPLO
El término "cantidad• puede referirse a una cantidad
en sentido general [véase ejemplo a)] o a una cantidad es- Dentro de una organíl'.ación. el valor asignado a una refc-
pecífica [véase ejemplo b)J. rencía estándar puede ser tomado como un valor \·crdadcro
convencional de la cantidad definida por el estándar.
2 Cantidades que son mútuamente comparables pue-
den ser agrupadas dentro de categorías de cantidades. por 3.4 valor de refe•·cncia aCC(ltado: Valor que sin·e como
ejemplo: una referencia acordada para comparar y que es derh·ada
como:
- trabajo, calor, energía:
a) un valor teórico o establecido. basado en principios
-espesor, círcunsferencia, longitud de onda. cíemíficos {véase 3.2);

3 /En la norma ISO 3l~ 1 se suministran símbolos para b) un valor asignado o certificado. basado en un trabajo
can!ldades. experimental de alguna organización nacional o
.... internacional;
4 La cantidad medible puede ser definida como una ca-
racterística cuantitativa. e) valor certificado o aceptado por consenso o basado en
un trabajo experimental de colaboración bajo los auspi-
EJE~fPLOS cios de un grupo científico o de ingeniería (\·éase 3.3 ):

a) Cantidades en un sentido general: longitud. tiempo. d) la esperanza de la cantidad medible cuando a). b) y e)
masa, temperatura. resistencia elécUica; no están disponibles. esto es la media de una población
especificada de medidas.
b) Cantidades específicas: longin1d ·de una varilla en
particular, resistencia eléctrica de un alambre en 3.5 objeto medido: Cantidad sujeta a medición.
particular.
NOTA - Según sea apropiado. ésta puede ser la cantidad
3.2 valor verdadero (de una cantidad):}: Valor que ca- medida o la cantidad a ser medida.
racteriza una cantidad perfectamente definida en las con-
diciones existentes cuando esa cantidad es considerada. 3.6 valor observado: Valor de una característica obteni-
da como el resultado de una observación individual

11
ISO 5725:1986. Precisión of test mcthods- Dctermination of rcpcatability and reproducibility for a standard best method
by interlaboratory tests.

;, Esta definición es tomada de lnternational Vocabulary of Basic and General Tcrms in Metrology. ISO/IEC/01-
:YIL/BIPM. Génova, 1984.

J) ISO 31 (Partes O al 13), Quantities and units.

21
J. 7 resultado de ensayo: Valor de una característica ob- NOTA - El sesgo es el error sistemático total a diferencia
tenida por un método de ensayo específico. · del error aleatorio. Puede haber uno o más componemes
de errores sistemáticos contribuyendo al sesgo. Una dife-
NOTA - El método de ensayo debería especificar que una o rencia sistemática mayor del valor de referencia aceptado
más de una observación individual.sean hechas, y su pro- es reflejado por un valor mayor en el sesgo.
medio u otra función apropiada (tales como la mediana o la
desviación estándar) sea reportada como el resultado del 3.14 precisión: Proximidad de la concordancia entre los
ensayo. También puede requerir la aplicación de correc- resultados de ensayos independientes obtenidos bajo condi-,
ciones estándares, tales como la corrección de volúmenes ciones estipuladas.
de gas a temperatura y presión estándar. De este modo, un
resllltado de ensayo puede ser un resultado calculado a par- NOTAS
tir de varios valores observados. En el caso más sencillo,
el resultado de ensayo es el valor observado en sí. La precisión depende únicamente de la distribución
de errores aleatorios y no guarda ninguna relación con el
3.8 error de resultado: Resultado del ensayo menos el valor verdadero o el valor especificado.
valor de referencia aceptado (de la característica).
2 La medida de la precisión ustl3lmcnte es expresada
NOTA - El error es la suma de los errores aleatorios y los en ténninos de ímprccisión y calculada como una desvia-
errores sistemáticos. ción estándar de !os resultados de ensayos. Una precisión
menor es reflejada por una desviación estándar mayor.
3.9 error aleatorio de resultado: Componente del error
que, en el curso de un número de resultados de ensayo para 3 "Resultados de cnsa)·os independientes" significa re-
la misma característica, varia de fonna impredecible. sultados obtenidos en fonna no influenciada por un resul-
tado previo en el mismo objeto de ensayo u objetos de
NOTA - No es posible corregir un error aleatorio. ensayo similares. Las medidas cuantitativas de precisión
dependen de manera critica de las C()ndicioncs estipuladas.
3.1 O error sistemático de rcsuleado: Componente del Las condiciones de repetibilidad y reproducibilidad son
em>r que, en el curso de un número de resultados de ensa- conjuntos parúculares de condiciones cxtr&nas
yo para la misma característica, pcnnanece constante o va- estipuladas.
ria de fonna predeciole. /
3.15 rcpetibilidad: Precisión bajo condiciones de
NQTA - Los errores sistemáticos y sus causas pueden ser rcpetibilidad.
conocidos o desconocidos.
3.16 condiciones de repctibilidad: Condiciones donde
3.ll exactitud: Proximidad de la concordancia entre un los resultados de ensayos independientes son obtenidos por
resultado de ensayo y el valor de referencia aceptado. el mismo método sobre elementos de ensayo idénticos, en
el mismo laboratorio, por el mismo operador, usando el
NOTA - El término exactitud. aplicado a un grupo de re- núsmo equipo y durante cortos intervalos de tiempo.
sultados de ensayos, involucra una combinación de compo-
nentes aleatorios y de un error sistemático común o de un NOTA- Véase 3.14, nota J.
componente sesgado.
3.17 desviación estándar de rcpetibilidad: Desviación
3.12 veracidad: Proximidad de la concordancia entre el estándar de los resultados de ensayos obtenidos bajo condi-
valor promedio obtetúdo a partir de una serie larga de re- ciones de repctibilidad.
sultados de ensayos y el valor de referencia aceptado.
NOTAS
NOTAS
Es una medida de la dispers1ón de la distribución de
La medida de veracidad es e,,:presada usualmente en los resultados de ensayos bajo condiciones de rcpetibíldiad.
ténn.inos de sesgo.
2 Similarmente. la "varian1a de repctibilidad" ~- el
2 La \'eracidad ha sido referida como "exactitud de la "coeficiente de variación de repetibilidad" podrian ser defi-
media". Este uso no es recomendado. nidos y usados como medidas de la dispersión de los resul-
tados de ensayos. bajo condiciones de rcpctibilidad.
3.13 sesgo: Diferencia entre la espcrant.a matemática de
los resultados de ensayos v el valor de referencia aceptado.
22
3.18 límite de re¡1etibilídad: Valor maxuno. con una 3.23 límite de reproducibilidad Valor máximo. con una
probabilidad de 95%. de la diferencia absoluw entre dos probabilidad de 9S%. de la diferencia absoluta entre dos
resultados de ensayo, obtenidos bajo condiciones de resultados de ensayo_ obtenidos bajo condiciones de
repctibilidad. reproducibílidad.

NOTA - El símbolo usado es r. NOTA - El símbolo usado es R.

3.19 diferencia crítica de repetibilidad: Valor máxirno. 3.24 diferencia crítica de reproducibilidad: .Valor má-
con una probabilidad especificada. de la diferencia absolu- ximo. con una probabilidad especificada. de la difercnc1a
ta entre dos valores finales donde cada uno de estos repre- absoluta entre dos ,·aJores finales donde cada uno de estos
senta una serie de resultados de ensayo, obtenidos bajo represenla una serie de resultados de ensayo. obtenidos
condiciones de repctibilidad. bajo condiciones de reproducibílidad.

NOTAS NOTAS

Ejemplos de resultados finales son la media y la me- Ejemplos de resultados finales son la media y la me-
diana de una serie de resultados de ensayo. las series en sí diana de una serie de resultados de ensayos: la serie en s1
pueden consistir solamente de un ensayo. puede consistir solamente de un resultado de ensayo.

2 El límite de repelibilidad res la dife rencia critica de 2 El límite de reproducíbilídad R es la diferencia crítica
repetíbilidad para dos resultados de ensayo individuales y de reproducibilidad para dos resullados de ensayo y una
una probabilidad de 95%. probabilidad de 95%.

3.20 reproducibilidad: Precisión bajo condiciones de 3.25 incertidumbre: Estimado aplicado a un resultado de
reproducibilidad. un ensayo que caracteriza el rango de valores dentro de los
cuales se dice que se encuentra el valor verdadero.
J.z{ condiciones de reproducibiJidad: Condiciones
donde lQ.s resullados de ensayo son obtenidos con el mismo NOTAS
método sobre .. elementos de ensayo idénticos en diferentes
laboratorios con diferentes operadores usando equipos La incertidumbre de una medición comprende, en ge-
diferentes. neral, numerosos componentes. AJgunos de estos compo-
nentes pueden ser estimados sobre la base de una
3.22 desviación estándar de reproducibiJidad : Desvia- distribución estadística de los resultados de una serie de
ción estándar de los resullados de ensayos obtenidos bajo mediciones y pueden estar caracterizados por las desviacio-
condiciones de reproducibilidad. nes estándares. Los esúmados de otros componentes sólo
pueden estar basados en la experiencia u otra<;
NOTAS informaciones.

Es una medida de la dispersión de la distribución de 2 La incertidumbre debería ser diferenciada de un esti-


los resullados de ensayos bajo condiciones de mado aplicado a un resultado de ensayo que caracteri7..-1 el
reproducíbilídad. rango de valores dentro del cual se dice que se espera la es-
peranza matemática. Esta última estimación es una medi-
2 Similarmente, la "varianza de reproducibilidad" y el da de la precisión más que de la exactitud y debería ser
"coeficiente de Yariacíón de reproducibilidad" podrían ser usada solamente cuando no esté definido el valor verdade-
definidos y usados como medidas de la dispersión de los ro. Cuando la esperanza matemática sea usada en lugar
resultados de ensayos bajo condiciones de del valor verdadero. se debería usar la expresión "compo-
reproducibilidad. nente aleatorio de incertidumbre".
SECCIÓN -': TÉRMINOS GENERALES RELATI- 4. 7 muestreo sin reemplazo: Muestreo en el cual las
VOS A LOS MÉTODOS DE MUESTREO unidades de muestreo son tomadas de la población sola-
mente una vez o sucesivamente sin ser regresadas a la
-t 1 unidad de muestreo: población.

(1) Unidades individuales en las cuales es dh·idida una 4.8 muestra aleatoria: Muestra den unidades de mues-
población. treo tomadas de una población de tal manera que cada una
de las posibles combinaciones de JI unidades de muestreo
(2) Cantidad de producto. material o servicio que forma tiene una probabilidad particular de ser tomada.
una entidad coherente y es tomado de un lugar en un mo-
mento para formar parte de una muestra. -'.9 muestra aleatoria simple: Muestra de JI unidades
de muestreo tomadas de una población de tal manera que
NOTAS todas las combinaciones posibles de JI unidades de mues-
treo tienen la misma posibilidad de ser tomadas.
Una unidad de muestra puede contener más de un
elemento a ser ensayado. por ejemplo un paquete de ciga- -'.10 submucstra: Muestra tomada de una muestra de
rrillos. pero se obtendrá un solo resultado del ensayo. una población.

2 La unidad de un producto puede ser un solo elemen- NOTAS


to, un par o un grupo de elementos. o puede ser una canti-
dad especificada de un material tal como el largo de una Puede ser seleccionada por el mismo método que fue
varilla de bronce. un volumen de. pintura o un peso de car- usado en la selección de la muestra original. pero no nece-
bón. No necesita ser la misma unidad de compra. suminis- sariamente debe ser así.
tro, producción o despacho.
2 En el muestreo de materiales a granel, las submues-
4.2 muestra: Una o más unidades de muestreo tomadas tras son a menudo preparadas por división de .la muestra.
de una población y destinadas a proveer información de la La submuestra así obtenida es también llamad"- una
población. ''muestra dividida". (Véase 4.11 ).
,1
NOTA - Una muestra puede servir como base para una de- 4.11 división de una muestra: Proceso de selección de
cisión concerniente a la población o al proceso que la una o más submuestras de una muestra de un material a
produjo. granel por medíos tales como división mecánica o
fraccionamiento.
4.3 tamaño de muestra: Número de unidades de mues-
treo que constituyen la muestra. 4.12 muestra duplicada: Una de dos o más muestras o
submuestras obtenidas separadamente al mismo tiempo
NOTA - En una muestra polietápica, .el ·tamaño de la por el mismo procedimiento de muestreo (4.5) o procedi-
mues!Ia es el número total de unidades de muestreo al con- miento de división de una muestra (4.11).
cluir la etapa final del muestreo.
4.13 estratificación: División de una población en sub-
4.4 muestreo: Proceso de extracción o constitución de poblaciones mutuamente exclusivas y exhaustivas (llama-
una muestra. das estratos), que se piensa que son más homogéneas con
respecto a las características investigadas que la población
4.5 procedimiento de muestreo: Requisitos operaciona- total.
les y/o instmcciones relativas al uso de un plan de mues-
treo particular; es decir, el método planificado de -'.14 muestreo estratificado: En una población que pue-
selección. extracción y preparación de las muestras de un de ser dividida en diferentes subpoblaciones mutuamente
lote para dar información de las características del lote. exclusivas y exhaustivas (llamadas estratos). es el mues-
treo efectuado de tal manera que porciones especificas de
4.6 muestreo con reemplazo: Muestreo en el cual cada la muestra son tomadas de diferentes estratos y cada estra-
unidad de muestreo tomada y observada es devuelta a la to es muestreado al menos con una unidad de muestreo.
población antes de tomar la siguiente unidad de muestreo.
4.15 muestreo sistemático: Muestreo por algún método
NOTA - En este caso la misma unidad de muestreo puede sistematizado.
aparecer varias veces en la muestra.

24
4. J6 muestreo sistemático 11eriódico: Si las unidades de cuales han sido divididos los conglomerados obtenidos por
muestreo en une~ población han sido ordenadas sistemáti- muestreo prcYÍO.
camente (por ejemplo. siguiendo el orden de producción).
y numerados del 1 a la .v. una muestra sistemática de n .t21 muestra l>rimaria: Muestra tomada de una pobla-
unidades de muestreo se obtiene tomando las unidades de ción en la primera etapa de un mue.wreo polietápico (4.19).
muestreo enumeradas.
4.22 muestra secundaria: Muestra tomada de w1a mues-
h. h + k. h .;.. lk. ...... , h + (n - 1) k. tra primaria durante la segunda etapa de un muestreo po-
lietápico (-U 9).
donde h y k da números enteros que satisfacen las
relaciones. NOTA -Esta puede ser extendida a la k ésima etapa cuan-
do k> 2.
nk ~N < n (k+ 1) y
4.23 muestra final: Muestra obtenida en la última etapa
h ~k de un muestreo polietápico (..J.l9).

y h es tomada generalmente al azar de los primeros k nú- 4.24 fracción de muestreo:


meros enteros.
( 1) Relación entre el tamaño de muestra y el numero to-
NOTA - Una muestra sistemática periódica es usada nor- tal de unidades de muestreo en la población. o subpobla-
malmente para obtener una muestra que es aleatoria con cíón. de la cual la muestra ha sido tomada.
respecto a ciertas características que son conocidas por ser
independientes de la base sistemática. (2) Cuando se muestrea material a granel o material de
producción continua, relación entre la cantidad de muestra
-'.17 intervalos de muestreo: Intervalo al final del cual (peso, volumen, área, etc) y la población o subpoblacíón.
una ynidad de muestreo es tOmada en un muestreo períó-

-
dicd sistemático. 4.25 incremento: Unidad de muestreo en el caso de
mues/reo a granel (4.27): es decir. cantidad de material to-
NOTA - Los intervalos de muestreo pueden estar fonnados mada de una sola vez por una acción de un cuerpo de ma-
por tamaños iguales o por tamaños que dependen de la terial mayor.
producción o tiempo de corrida del proceso (por ejemplo
dependiendo de la cantidad de material producido en un 4.26 probeta: Pane de la unidad de muestreo requerida
proceso de producción o del material cargado en un proce- para propósito de ensayo.
so de carga).
NOTAS
4.18 muestreo por conglomerados: Método de mues-
treo en el cual la población es dhidida en agregados (o A veces es llamado ''espécimen de ensayo".
conglomerados) de unidades de muestreo mutuamente ex~
clusi,·as y exhaustivas relacionadas de alguna manera. 2 Un grupo de especímenes de ensayo es a veces llama-
Una muestra de estos co)lglomerados es tomada al azar y do "unidad de ensayo".
todas las unidades de muestreo que lo constituyen son in-
cluidas en la muestra. ..l.27 muestreo a granel: Muestreo de materiales a granel
en lotes en los cuales las unidades de muestreo no son fá-
4.19 muestreo pofietápico; muestreo inclusivo: Mues- cilmente distinguibles al inicio.
treo en el cual la muestra es seleccionada por etapas y las
unidades de muestreo en cada etapa son muestreadas a NOTA - Por ejemplo. el muestreo de un lote de carbón a
partir de unidades de muestreo mayores escogidas en la granel para determinar su contenido de ceniza o valor calo-
etapa anterior. rí.fico. o de un lote de tabaco para determinar su humedad
(véase también mueslra (4.2)).
NOTA - El muestreo polietápico es diferente del muestreo
múltiple. (Véase COVENIN-fSO 3534-2. l.-U). 4.28 muestra agregad".a:. Agregado de porciones elemen-
tales cuando se muestrea materiales a granel.
4.20 muestreo por conglomerados polietápico: Mues-
treo por conglomerados con dos o más etapas donde cada -t29 muestra global: Muestra de una población obtenida
muestreo se hace sobre agregados conglomerados en los por la combinación de todas las unidades de muestreo for-
madas de la población.
25
-'.30 prcJ>araciún de muestra Para materiales a granel. -'.31 muestn1 de hlboratorio Muestra destinada para
conjunto de operaciones de materiales (tales como reduc- inspección o ensayo de laboratono.
ción de tamaiio. mezclado. di,·isión. etc.) necesarios para
transformar una muestra agregada o ·a .pranel en una mues-
tra de laboratorio o de ensayo. -'.32 muestra de ensayo, muestra de análisis: Muestra.
preparada para análisis o ensayo. donde la cantidad total
NOTA - La preparación de la muestra no debería modifi- es usada al mismo tiempo.
car. dentro de lo posible. la aptitud de la muestra para re-
presentar la población de la cual fue tomada.

26
Anexo A
(Normath·o)

Símbolos usados en la Norma COVENIN-ISO 3~34-1


-¡-- . ---

~-S-im~b-o-lo~~~~~~~~~~~~~~~T-é-rm~in_._'~~~~~~~~~~~~·l- ~&Na
t: (X) esperanza matemática de una Yariablc aleatoria X (en algunos casos. n es usado
para designar la esperanza matemática) 1.18
F distribución F: designa tanto a la variable aleatoria como al ,·alor particular u ob-
servado de est.'l variable. 1.41
NOTA - Si es necesario. se debería usar los siguientes símbolos:
Fp fractila de orden p de la variable F
F ( v 1 , v 2) variable F con v 1 y v 2 grados de libertad
f~ (v1• v 2) fractila de orden p de la variable F con v 1 y v2 grados de libertad
f{x) G(x) función de distribución (valor en :-\) 1.4
f(x). g (x) función de densidad de probabilidades para una variable aleatoria continua 1.5
k número de clases 2.10
N tamaño de lote o población COVENlN-ISO 3534-2
1.3.6
n tamru1o de mncstra .u
P~~ ). Pr(A) probabilidad de un evento A
R... límite de reproducibilidad 3.23
r ' límite de repctibilidad 3.18
r coeficiente de correlación (en una muestra) 2.41
S desviación estándar de una muestra (véase nota) 2.34
varianza de una muestra 2.33

NOTA - E l símbolo; es usado generalmente para designar la suma de los cuadra-


dos de las desviaciones ~stándar de la media aritmética, dividida por n-1 (y el sím-
bolo s para la raíz cuadrada de esta cantidad) como estimador de la varianza de la
población de la cual la muestra es tomada.
distribución 1 (o de Student): designa tanto a la variable aleatoria como a un valor 1.40
u
particular observado de esta variable.

NOTA - Si es necesario. se debería usar los siguientes símbolos:


lp fractila de orden p de la variable 1
t (v) variable t con v grados de libertad
lp(v) fractila de orden p de la variable 1 con v grados de libertad
e ¡.. variable normal normalizada 1.38
n. 1' valor parúcular de la variable aleatoria normali7.ada 1.38
II',R rango de la muestra 2.30
.r. Y variable aleatoria. ,·alor observable de un¡¡ característica. en una población 1.2. 2.2
x.y valor particular u observado 1.2. 2.6, 3.6
1
i .\p fra~tila de orden p de la variable aleatoria .\' 1.14

27
..
··¡
Rcf. No. J
Símbolo Ténnino
1

...

x media aritmétic<~ de tina población 2.26

.r media aritmética (promedio) de una muestra 2.26

a nivel de significación de una prueba. 2.70


riesgo del tipo f 2.76

13 riesgo del tipo 11 2.78

8 parámetro a ser estimado 2.52


1
¡.¡ esperanza matemática 1.1&

V número de grados de libertad 2.85

p coeficiente de correlación (entre dos variables aleatorias o en una población) 1.33


(J desviación estándar de una variable aleatoria o de una población 1.23
(Jl. ¡. (.\) varianza de una ,·aríable o de una población 1.22
x2 distribución chi-cuadrado: designa tanto a la variable aleatoria como a un valor
panicular observado de esta variable 1.39

NOTA - Si es necesario. se debería usar los siguientes símbolos:

x; practilade ordenp de la variable x~


..
xlv) variable x2con v grados de libertad

Xj;{v) practila de orden pde la variable X~con v grados de libertad


'

28
ÍNDICE ALFABÉTICO

desviación estándar (de una \·ariable alea-


A toria o de una distribución de
probabilidades) 1.23
adecuación de una distribución 2.63 desviación estándar de repctibilidad 3.17
aleatorización 2.91 desviación estándar de reproducibilidad 3.22
amplitud de clase 2.10 desviación medía 2.32
diagrama de barras 2. 18
B
diagrama de dispersión 2.21
diferencia crítica de repctibilidad 3.19
base del muestreo 2.-l
diferencia crítica de reproducibilidad 3.2-l

e distribución beta I...J5


distribución binomial 1A9
cantidad (medible) 3.1 distribución binomial negativa 1.50
característica 2.2 distribución chí-cuadrado ()() 1.39
causas aleatorias 2.92 distribución de Weibull IA8
centro del rango 2.29 distribución de Frechet I...J7
clase 2.7 distribución de frecuencia 2.15
coeficiente de confianza 2.59 distribución de frecuencia condicional 1.10. 2.25
c/eficíente de correlación 1.33. 2.41 distribución de frecuencia bivaríablc 2.20
coefid'Mte de regresión 2.44 distribución de frecuencia de una variable 2.16
·..
coeficiente de variación 2.35 distribución de frecuencia marginal 1.9. 2.24
coeficiente de variación (de una distribu- distribución de frecuencia multivariable 2.23
ción de probabilidades 1.24
distribución de Laplace - Gauss bivariada 1.53
coeficiente de variación (de una variable
distribución de Laplace • Gauss bívariada
aleatoria o de una distribución de
normalizada 1.54
probabilidades) 1.24
distribución de Laplace - Gauss
condiciones de repetibilidad 3.16
normalizada 1.38
condiciones de reproducibilidad .1.21
distribución de Laplace - Gauss 1.37
correlación 1.13
distribución de Poisson 1.51
corrida 2.4X
distribución de probabilidades (de una va-
covarianza 1.32, 2.40 riable aleatoria) u
cuantila (de una distribución de distribución de probabilidades condicional 1.10
probabilidades) 1.14
distribución de probabilidades marginal 1.9
cu:utila 1.16
distribución de Student l. ..JO
curva característica de operación vn distribución de Gumbel JA6
curva de potencia 2.81
distribución de valores extremos tipo 1 JA6
curva de regresión 1.3-l. 2.42
distribución de valores .~xtremos tipo !! l...J7
distribución de valores extremos tipo 111 lAS
D
distribución exponencial IA3

desviación estándar 1.23. 2.34 distribución F l...JI


distribución gamma U4
29
distribución hipergeométrica 1.52 frecuencia 2.1 1
distribución log - normal IA2 frecuencia acumulada 2. 12
distribución multinomial 1.55 frecuencia relativa 2.1 ~

distribución normal 1.37 frecuencia relativa acumulada 2.1-t


distribución normal bivariada 1.53 función de densidad de probabilidades
distribución normal bivariada normalizada 1.5.t (para una variable aleatoria continua) 1.5

distribución normal normalizada 1.38 función de distribución u


distribución rectangular 1.36 fronteras de clase 2.8

distribución t 1.40 función Gamma U.t


distribución uniforme 1.36 función caracteristica de operación de una
prueba (función CO de una prueba) 2.82
división de una muestra 4.11
función de densidad de probabilidades
(para una variable aleatoria continua) 1.5
E
función de distribución bivaríablc 1.7
función de distribución multi,·ariable u~
elemento 2.1
error aleatorio de resultado 3.9
función de masa probabilística 1.6

error de estimación 2.52


función de potencia de una prueba 2.80

error de muestreo 2.53


G
error de primer tipo 2.75
error de resultado 3.8 grados de libertad 2.85
error de segundo tipo 2.77 gráfico de barras "'
2.18
error estándar 2.56 /
error sistemático 3.10 H
error sistemático de resultado 3.10
esperanza matemática (de una variable hipótesis alternativa 2.66
1.18
aleatoria) hipótesis compuesta 2.68
esperanza matemática condicional 1.20 hipótesis nula 2.66
esperanza matemática marginal 1.19 hipótesis simple 2.67
estadístico 2.45 histograma 2.17
estadístico de orden 2.46
estimación 2.49
estimado 2.51
incertidumbre 3.25
estimador 2.50
incremento 4.25
estimador insesgado 2.55
independencia 1.11
estratificación 4.13
intervalo de confianza bilateral 2.57
estratos 4.l3
inte!"\·ato de confianza unilateral 2.58
exactitud 3.11
intervalo estadístico de dispersión 2.61
intervalos de muestreo 4.17
F

L
fracción de muestreo 4.24
fractila (de una distribución de
límite de confianza 2.60
probabilidades) 1.14

10
límites de clase 2.8 muestreo por conglomerados -U8
límites de repetibilidad 3.18 muestreo por conglomerados polictápico .uo
limites de reproducibilidad 3.23 muestreo sin reempluo .u
límites estadísticos de dispersión 2.62 muestreo sistemático -U5
muestreo sistemático periódico -U6
M
N
media l.l8
media aritmética 2.26 nh·cl de confianza 2.59
media aritmética ponderada 2.27 nivel de significación (de una prueba) 2.70
media ponderada 2.27
mediana 1.15. 2.28 o
moda 1.17
objeto medido 3.5
momento centrado conjunto de orden q y s 1.3 L 2.39
momento centrado de orden q U&. 2.37 p
momento conjunto de orden q y s alrede- 1.29. 2.38
dor del origen parámetro 1.12
momento conjunto de orden q y s alrede· pcrcentila 1.14
dor del origen (a. b) 1.30
población 2.3
momento de orden q alrededor de un ori-
gep (a) 1.27 poligono de frecuencia acumulada 2.19

momento de orden q alrededor del origen 1.26. 2.36 pote ncia de una prueba 2.79

""
momentos absolutos 1.26 A Ul precisión 3.14
(v pie de preparación de muesua 4.30
página) probabilidad 1.1
muestra .u probabilidad del error del tipo 1 2.76
muestra agregada 4.28 probabilidad del error del tipo II 2.78
muestra aleatoria -U~
probeta 4.26
muestra aleatoria simple 4.9 procedimiento de muestreo 4.5
muestra de análisis 4.32 promedio 2.26
muestra de ensayo -U2 pmeba bilateral 2.74
muesua de laboratorio· -Ul prueba de chi-cuadrado (X 2
) 2.86
muestra duplicada 4.12
prueba de Student 2.&7
,. muestra final -U3
prueba estadística 2.65
muestra global 4.29
prueba F 2.88
muestra primaria -Ul prueba no paramétrica 2.69
muestra secundaria 4.22
pmeba t 2.&7
muestreo .u prueba unilateral 2. 73
muestreo a granel -U7 2.9
punto medio de la clase,
muestreo con reemplazo 4.6
rnueslreo estratificado 4.14 R
muestreo inclusivo 4.19
muestreo polietápíco 4.19 rango 2.30

:H
rango medio 2.31 valor esperado 1.18
rango promedio 2.31 ,-alor obser\"ado 2.6. 3.ú
región crítica 2. 71 ,·aJor verdadero (de una cantidad) .12
repclibilidad 3.15 valor verdadero com·encional (de una 3 .3
repetibilidad. condiciones de 3.16 canlidad)

rcpetibilidad. desviación estándar de 3.17 valores atípicos 2.6-l

repctíbilidad. diferencia crítica de 3.19 variable aleatoria 1.2

repetibilidad, límiles de 3.18 variable aleatoria centrada 1.21

repetición 2.89 ,·ariable alcatori<~ normalizada 1.25


varianza 2.33
réplica 2.90
,·aríanza (de una \"aríable aleatoria o de 1.22
reproducibilidad 3.20
una distribución de probabilidades)
reproducibilidad. condiciones de 3.21
Yeracidad 3.12
reproducibilidad. deS\·iación estándar de 3.22
reproducibilidad. diferencia crítica de 3.2-l
reproducibilidad. límites de 3.23
resultado de ensayo 3. 7
resultado significativo (al nivel de signifi-
cación seleccionado a) 2.84
riesgo del tipo 1 2. 76
riesgo del tipo rr 2. 78

S /

sesgo 3.13
sesgo del estimador 2.54
submuestra 4.10
subpoblacíón 2.5
superficie de regresión 1.35.2.43
tabla de contingencia 2.22
tabla de frecuencia de dob,le entrada 2.22
tamaño de muestra 4.3
tendencia 2.47

u
unidad . 2.1
unídad de muestreo 4.1

\"alidel. del ajuste de una distribuc ión 2.63


,·alor crítico 2. 72
,·alor de referencia aceptado 3.4

32
COVENIN- ISO CATEGORJA
3534-1: 1995 E

COMISION VENEZOLANA DE NORMAS INDUSTRIALES


MINISTERIO DE FOMENTO
Av. Andrés Bello Edif. Torre Fondo Co1nún Pisos 11 y 12
Telf. 575. 41. 11 Fax: 574. 13. 12
CARACAS

publicación de: FONDONORMA

CDU: 519.2:001.4
RESERVADOS TODOS LOS DERECHOS
Prohibida la reproducción total o parcial. por cualquier medie.
ISBN: 980-06-1596-2

Descriptores: Estadística, análisis estadístico, control estadístico de la calidad, pruebas estadísricas,


vocabulario, símbolos.

También podría gustarte