Está en la página 1de 31

M MA AS ST TE ER R E EN N T TE EC CN NO OL LO OG G A A N NU UC CL LE EA AR R: : F FI IS SI I N N, ,

F FU US SI I N N Y Y M ME ED DI IC CI IN NA A N NU UC CL LE EA AR R



Marzo - Diciembre 2005











Asignatura: Tratamiento de datos experimentales

Profesor: J.M. Los Arcos






FORMACIN EN ENERGA Y MEDIO AMBIENTE
(TECNOLOGA Y SEGURIDAD INDUSTRIAL)
2

















CARACTERSTICAS DE LA MEDIDA. ESTADSTICA
3
NDICE

CARACTERSTICAS DE LA MEDIDA. ESTADSTICA

1. VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD

1.1. Variables aleatorias: conceptos bsicos
1.2. Distribuciones de probabilidad: densidad y funcin acumulativa
1.3. Distribuciones de probabilidad conjunta. Variables aleatorias independientes
1.4. Caracterizacin de distribuciones. Media y varianza. Teorema de Chebyshev
1.5. Distribuciones usuales


2. DISTRIBUCIONES DE PROBABILIDAD EN RADIACTIVIDAD

2.1. Carcter probabilstico
2.2. Distribucin de Bernouilli (binomial)
2.3. Aproximacin de Poisson
2.4. Aproximacin de Gauss
2.5. Aplicacin a recuentos en medidas de radiactividad


3. EXPRESIN DE RESULTADOS DE MEDIDAS

3.1. Distribucin muestral de la media. Teorema del lmite central
3.2. Distribucin muestral de la varianza. Propagacin de errores
3.3. Intervalos y niveles de confianza
3.4. Comprobacin de hiptesis: pruebas
2
, t, F
3.5. Expresin de la incertidumbre de medidas
3.6. REFERENCIAS


1
1. VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD

Tanto la emisin de radiaciones como su interaccin con la materia en los sistemas
que se emplean para su deteccin y recuento, son procesos estocsticos cuya observacin, en
condiciones idnticas, no conduce siempre a los mismos resultados, que fluctan
aleatoriamente segn ciertas leyes probabilsticas. Por tanto, la metrologa de radiaciones
debe apoyarse en nociones estadsticas para poder interpretar las fluctuaciones de las medidas
y expresar con fiabilidad el resultado de los experimentos y observaciones, y su
incertidumbre asociada. En este captulo se van a revisar algunos conceptos esenciales a este
respecto.


1.1 Variables aleatorias: conceptos bsicos

En general, se denomina experimento estadstico a un conjunto de condiciones
reproducibles, bajo las que se realizan observaciones cuyos resultados, que se pueden
registrar en forma descriptiva o, ms comnmente, en forma numrica, no son
necesariamente nicos. En un experimento estadstico, se llama poblacin al conjunto de
todas las observaciones realizables (o realizadas), mientras que se denomina espacio
muestral, S, al conjunto de los diferentes resultados posibles para cada observacin, y
variable aleatoria, X, a la funcin que asocia un nmero real, x 0 R, a cada elemento del
espacio muestral. Habitualmente, se acostumbra a designar las variables aleatorias por letras
maysculas, X, mientras que sus valores se representan por letras minsculas, x. En la
mayora de los experimentos fsicos, no se tiene acceso a la poblacin completa sino a un
subconjunto de n observaciones, que se denomina muestra de tamao n. Formalmente, una
muestra de tamao n est definida por los valores x
i
, i = 1, 2, ... n, de n variables aleatorias,
X
i
, i = 1, 2, ..., n, que representan las sucesivas observaciones, siempre bajo las mismas
condiciones, por lo que pueden suponerse independientes unas de las otras.

Si el espacio muestral de un experimento slo tiene un nmero finito, o una serie
infinita pero numerable, de resultados posibles, se habla de espacio muestral discreto y de
variables aleatorias discretas. En caso contrario, si el nmero de elementos se puede poner
en correspondencia biunvoca con los puntos de la recta real, se habla de espacio muestral y
de variables aleatorias contnuas. En la prctica, las variables aleatorias contnuas
representan datos de mediciones como pesos, volmenes, temperaturas, mientras que las
variables aleatorias discretas representan datos de recuento como el nmero de piezas
defectuosas en una muestra o el nmero de partculas beta emitidas por una fuente radiactiva.


Ejercicio 1.1.1: Considere un experimento consistente en lanzar una moneda (siempre en las mismas
condiciones) observando la cara superior tras cada lanzamiento. Analice las caractersticas del
experimento cuando se realizan, por ejemplo, tres lanzamientos consecutivos.

Ejercicio 1.1.2: Considere el experimento consistente en lanzar un dado observando las caras
superiores en cada grupo de tres lanzamientos consecutivos. Analice las caractersticas de este
experimento y construya la variable aleatoria que describe el nmero de caras en una terna.



2
1.2 Distribuciones de probabilidad: densidad y funcin acumulativa

En un espacio muestral S, se denomina suceso, E, a un subconjunto E d S, de modo
que los resultados posibles del experimento, cada uno con una probabilidad caracterstica
asociada, no son sino sucesos unitarios, elementales, a partir de los que se puede definir
sucesos ms complejos mediante las operaciones booleanas de complementacin, unin e
interseccin. Como consecuencia, cada suceso tiene asociada tambin una probabilidad P(E),
que satisface las relaciones:
y que se puede deducir a partir de las probabilidades de los sucesos unitarios por las leyes de
clculo de probabilidades. Por ello, con cualquier variable aleatoria X, resulta prctico
utilizar una relacin funcional entre sus valores, x, y sus probabilidades asociadas. Se
denomina distribucin (o funcin) de probabilidad de una variable aleatoria discreta X,
a una funcin f(x), si, para cada valor x de X, satisface:
y para una variable aleatoria discreta, se representa en forma de tabla o mediante una
expresin analtica que toma valores slo para los posibles resultados de medida.

Por otra parte, se denomina distribucin acumulativa de una variable aleatoria
discreta X con distribucin de probabilidad f(x), a una funcin F(t) que satisface:

Esta funcin acumulativa est definida no slamente para los valores x de la variable
aleatoria X, sino para todo nmero real y representa la probabilidad asociada al suceso
caracterizado por la unin de todos los sucesos elementales cuyo valor numrico es menor
que un nmero real, t, dado.

La Figura 1.1 muestra las tpicas representaciones grficas de la distribucin de
probabilidad y de la funcin acumulativa correspondientes a una variable aleatoria discreta.

La extensin de estos conceptos a distribuciones contnuas es inmediato. Se denomina
densidad de probabilidad de una variable aleatoria contnua, X, a una funcin f(x) si

0 = ) ( P
1 = ) S ( P
1 ) E ( P 0



) x ( f = ) x = X ( P 3.
1 = ) x ( f 2.
0 ) x ( f 1.
x


) x ( f = ) t X ( P = ) t ( F
t x





3

Figura 1.1. Distribucin de probabilidad y funcin acumulativa correspondientes a una variable aleatoria
discreta

y la distribucin acumulativa, F(t), de una variable aleatoria contnua X con densidad f(x), es:

Como consecuencia de la definicin,

y en particular,

dx (x) f = b) < X < (a P 3.
1 = dx (x) f 2.
R x 0 (x) f 1.
b
a
+
-




x d ) x ( f = ) t X ( P = ) t ( F
t
-


dt ) t ( f = ) dt + t < x < t ( P
) existe si (
dx
) x ( dF
= ) x ( f
) a ( F - ) b ( F = ) b < x < a ( P



4
A veces, no se conoce la funcin f(x) ni la distribucin acumulativa que corresponde a
una determinada variable aleatoria experimental, por lo que se recurre a su estimacin
emprica a travs del clculo de los respectivos histogramas de frecuencias relativas o de
frecuencias relativas acumuladas, que se ajustan mediante funciones polinmicas o modelos
ms complejos.

En la Figura 1.2 se presentan las grficas de la densidad de probabilidad y de la
funcin acumulativa correspondientes a una variable aleatoria contnua.

Figura 1.2. Densidad de probabilidad y de la funcin acumulativa correspondientes a una variable aleatoria
contnua


Ejercicio 1.2.1: La variable aleatoria discreta X tiene una distribucin de probabilidad:



X

0

1

2

3

4

5

P(X)

0,1

0,1

0,2

0,3

0,2

0,1


Construir el histograma de probabilidad y la distribucin acumulativa.


Ejercicio 1.2.2: La variable aleatoria X, contnua, tiene una densidad de probabilidad f(x) = [x
2
/3]
para -1 < x < 2 y f(x) = 0 en el resto. Calcule P(0 < x # 1).


1.3 Distribuciones de probabilidad conjunta. Variables aleatorias independientes




5
Existen numerosos experimentos en los que intervienen ms de una variable aleatoria
y se hace necesario extender los conceptos anteriores para incluir la aparicin simultnea de
los valores de cada variable. Sin prdida de generalidad, la distribucin de probabilidad
conjunta para dos variables aleatorias, X, Y, discretas, es una funcin f(x, y) que cumple:

Y en el caso de dos variables aleatorias contnuas, la densidad de probabilidad
conjunta es una funcin f(x,y) que cumple:
Dada una distribucin o densidad de probabilidad conjunta, f(x,y), de dos variables
aleatorias X, Y, las distribuciones individuales (marginales) de X y de Y son:

y
Dos variables aleatorias, X, Y, con distribucin de probabilidad conjunta f(x,y) y
distribuciones marginales respectivas g(x), h(y), son estadsticamente independientes si y
slo si f(x,y) = g(x) . h(y).


1.4 Caracterizacin de distribuciones. Media y varianza. Teorema de Chebyshev

La distribucin de probabilidad de una variable aleatoria X, discreta o contnua, se
caracteriza, en primer lugar, por su media, F = E(X), que indica la localizacin alrededor de
la que se distribuyen los valores de la variable aleatoria y se define por:

XY plano del A n regi cualquier para ) y , x ( f = ] ) Y , X ( [ P 3.
1 = ) y , x ( f 2.
) y , x ( 0 ) y , x ( f 1.
A
y x



. xy plano del A n regi cualquier para , dy dx ) y , x ( f = ] ) Y X, ( [ P 3.
1 = dy dx ) y , x ( f 2.
y) , x ( 0 ) y , x ( f 1.
A
+
-
+
-


contnuas les son variab si , dx ) y , x ( f = ) y ( h
dy ) y , x ( f = ) x ( g
+
-
+
-


discretas aleatorias les son variab si , ) y , x ( f = ) y ( h
) y , x ( f = ) x ( g
x
Y




6
En general, E(X) no coincide necesariamente con un valor posible de .

Es importante, a efectos de clculo, resear la siguiente propiedad, en la que se utiliza,
por sencillez, la notacin de variables aleatorias contnuas sin prdida de generalidad:
y para dos variables aleatorias con distribucin de probabilidad conjunta f(x,y),

contnua es X si , dx ) x ( f =
discreta es X si , ) x ( f x = ) X ( =
+
-
x



) x ( g n funci , dx ) x ( f ) x ( g = ] ) X ( g [ E
+
-


[ ] ) y , x ( g n funci , dy dx ) y , x ( f ) y , x ( g = ) Y , X ( g E
+
-
+
-




7
Como consecuencia, se cumple:

1) E (aX + b) = a (EX) + b, a, b, constantes

Y E (b) = b, b constantes

Y E (aX) = a E(X)

2) E [g (X) + h (X)]
= E [g (X)] + E [h
(X)]

3) E [g (X, Y) + h (X, Y)] = E [g (X, Y)] + E [h (X, Y)]

Y E (aX + bY) = a E(X) + b E(Y)

4) Si adems X, Y, son independientes, E (X.Y) = E (X). E (Y).

Otro ndice de caracterizacin de una distribucin, que da idea de la magnitud de la
variacin de los posibles valores de la variable aleatoria es la varianza V(X), que se define
por:
y se cumple que:
Para dos variables aleatorias, X, Y, con medias F
x
, F
y
, se define la covarianza por:

y se cumple que:

La covarianza toma valores negativos cuando a valores altos de una variable
corresponden preferentemente valores bajos de la otra, y toma valores positivos en caso
contrario. Adems, cuando X e Y son estadsticamente independientes, su covarianza es nula,
pero el recproco no es, en general, cierto.

Se acostumbra a denominar desviacin tpica,
x
, a la raz cuadrada de la varianza,
por lo que V(X) =
x
2
. Anlogamente, la covarianza se suele representar en la forma
xy
=
cov(X,Y).



[ ] ) - X ( E = ) X ( V
2

2
2
- )
X
( E = ) X ( V

y x
_ - ) Y . X ( E = ) Y , X ( cov
[ ] ) - Y ( ) - X ( E = ) Y , X ( cov
y x



8



A efectos de clculo, es interesante recordar las siguientes propiedades de la
varianza/covarianza:

1.
2
g(x)
= V [g(x)] = E[{g(X) - F
g(x)
} ]
2
, y por tanto,


2
b
= 0 para b = constante


2
aX
= a
2

2
x
, con a = constante


2.
2
aX + bY
= a
2

2
X
+ b
2

2
Y
+ 2ab
XY



3. Si X e Y son variables aleatorias independientes, entonces

2
aX + bY
= a
2

2
X
+ b
2

2
Y


Para finalizar, simplemente enunciaremos un importante teorema, debido a
Chebyshev, que relaciona cuantitativamente los conceptos de la media y la varianza como
ndices de centralizacin y dispersin de una variable aleatoria:

Para cualquier variable aleatoria X, la probabilidad de que un valor x est dentro de
k desviaciones tpicas alrededor del valor medio es al menos (1 - 1/k
2
),

Por tanto, este teorema garantiza, para cualquier variable aleatoria, que dentro de
" 2 est siempre el 75 % y dentro de " 3 el 88,8 % de sus valores observados.

Ejercicio 1.4.1:Una variable aleatoria tiene una media
x
y una desviacin tpica
x
. 1) Calcule la
media y la desviacin tpica de Y = 2x. 2) Calcule la media y la desviacin tpica de Z = X + X (dos
observaciones independientes, de la misma variable X). 3) Analice los resultados obtenidos en 1) y 2).
Ejercicio 1.4.2:Considere las variables aleatorias independientes, X, con media
x
y desviacin tpica

x
, e Y, con media
y
y desviacin tpica
y
. 1) Calcule la media y la desviacin tpica de S = X " Y. 2)
Calcule la media y la desviacin tpica de P = X/Y.

Ejercicio IV1.4.3:Una variable aleatoria X tiene una media = 8, varianza 9 y su distribucin de
probabilidad es desconocida. Estime la probabilidad P ( X - 8 $ 6).


1.5 Distribuciones usuales

k
1
- 1 ) k + < X < k - ( P
2



9
Despus de haber visto las propiedades generales de las distribuciones, vamos a
presentar ahora algunas distribuciones especficas de inters prctico.


1.5.1 Distribucin uniforme: discreta y continua

La distribucin de probabilidad ms simple es la uniforme, en la que la variable
aleatoria X toma cada uno de sus valores con igual probabilidad. En el caso discreto,
la funcin de probabilidad es:

y su media y su varianza son:
En el caso contnuo, debe estar limitada a un intervalo y su densidad es:

cuya media y varianza son:

1.5.2 Distribucin de Bernouilli (binomial)

Consideremos un experimento binomial consistente en n observaciones sucesivas
cada una con dos nicos resultados posibles, que denominaremos "acierto" y "fallo",
con probabilidades individuales p y q=1-p, respectivamente. Entonces, la distribucin
de probabilidad de la variable aleatoria discreta, X, nmero de aciertos en las n
observaciones, se denomina distribucin de Bernouilli o binomial y es:

) -
x
(
k
1
= ) X ( V
x
k
1
= ) X ( E
2
i i
i i

,
_


,
_


x
, ... ,
x
,
x
= x ,
k
1
= ) k ; x ( u
k 2 1

) a - b (
1
= ) b , a ; x ( u
12
) a - b (
= ) X ( V
2
) b + a (
= ) X ( E



10
cuya media y varianza son:


1.5.3 Distribucin de Poisson

Consideremos un experimento de Poisson que consiste en observar el nmero de
"aciertos" en una regin o intervalo de tiempo, siempre que:

1) La probabilidad de acierto en una regin o intervalo muy pequeo sea
proporcional a su tamao o duracin,

2) La probabilidad de que ocurran dos o ms aciertos en esa regin o intervalo
pequeo sea despreciable,

3) El nmero de aciertos en cada intervalo sea independiente de los de otro
intervalo.

Entonces, la distribucin de probabilidad de la variable aleatoria discreta X, nmero
de aciertos en una regin o tiempo especificado es:
donde es el valor promedio del nmero de aciertos que aparecen en la regin o
tiempos dados.

En este caso, la media y la varianza son E(X) = V(X) = .

La distribucin de Poisson se puede obtener como el lmite de la distribucin
binomial cuando n 6 4 y p 6 0 mientras np se mantiene constante. Por tanto, se puede
utilizar la distribucin de Poisson en lugar de la binomial, con = np, siempre que n
sea grande y p 0.


1.5.4 Distribucin de Gauss (normal)

Una variable aleatoria contnua X tiene una distribucin de probabilidad de Gauss, o
normal, si la funcin densidad es de la forma:
n ..., , 1 , 0 = x , q x p
x
n
= ) p , n ; x ( b
nx

,
_


q p n = ) X ( V
p n = ) X ( E

,... 0,1 = x ,
x!

e
= ) ; x ( p
x
-



1
]
1

+ < x < - ,
e
2
1
= ) , ; x ( n

) - x (

2
1
-
2





11
cuya media y varianza son:

Esta es, sin duda, la distribucin contnua de probabilidad ms importante en clculos
estadsticos y conviene recordar algunos parmetros caractersticos de su grfica
acampanada tambin llamada normal. Por ejemplo, su anchura a media altura vale
2%(2 ln2), aproximadamente 2,355 , su anchura a 1/10 de altura vale
aproximadamente 4,292 y la probabilidad de que una observacin est dentro del
intervalo " alrededor de la media es:

Mediante la transformacin z = (X-)/, se obtiene una distribucin normal de media
0 y varianza 1, denominada distribucin normal estndar, n(0,1), que evita tener que
calcular o manejar tablas de cada distribucin normal individual.

La distribucin de Gauss se puede obtener como el lmite cuando n 6 4 de una
distribucin binomial con media = n p y varianza
2
= n p q.



Figura 1.3.

2
= ) X ( V
= ) X ( E

-2 -1 0 1 2
0,4
0,3
0,2
0,1
FWHM
Px= e
1
2

x
2
2

x/
FWHM=4,2919
P =

2 e
= 0,242/
P =
=Pxmax/2
FWHM
Px max
1
2

=0,3989/
=
P =
=Pxmax/10
FWTM
=2
=2,3548
2 ln 2

0,997 3
0,954 2
0,683



t
t
t



12
1.5.5 Distribucin
2
de Pearson

Una variable aleatoria contnua, X, tiene una distribucion de
2
con grados de
libertad si su funcin densidad es:

donde (x)=I
4
o
x
-1
e
-x
dx, ,0, y se cumple que F
2
= ,
2
2
= 2.


1.5.6 Distribucin t de Student

Una variable aleatoria contnua, X, tiene una distribucin t, con grados de libertad si
su densidad es:

y es una distribucin simtrica, con F
t
=0,
t
2
=/(-2), >2.


1.5.7 Distribucin F de Fisher

Una variable aleatoria contnua, X, tiene una distribucin F, con
1
y
2
grados de
libertad si su densidad es:
y satisface x
1-
(
1
,
2
) = 1 / x

(
1
,
2
), donde x

es el valor por encima del cual la


probabilidad acumulada vale .


0 > x ,
e x
2
2
1
= ) x ( g 2
x
- 1 -
2
2

,
_



,
_

,
_

+ < x < - ,
x
+ 1
2
2
1) + (
= ) x ( t
2
2
1) + (
-



( )

,
_


,
_

,
_

,
_

1
]
1

,
_

< x < 0 ,
x
+ 1
x

2 2

2
) + (
= ) x ( f
2
1
2
+
1 - 2
2 1
2
1
2
2 1
2 1
1
1




13
1.5.8 Relaciones de inters

1. Dadas k variables aleatorias independientes, X
i
, i = 1, 2, ..., k, con distribucin
normal n(
i
,
i
2
), la variable aleatoria

tiene una distribucin normal con
S
=
k
i
a
i

i
,
S
2
=
k
i
a
i
2

i
2


2. Dadas k variables aleatorias independientes, X
i
, i = 1, 2, ..., k, con distribucin

2
i
con
i
grados de libertad, la variable aleatoria:


X a
= S
i i
k
i


X
= Y
i
k
i




14
tiene una distribucin
2

con =
k
i

i
grados de libertad.

3. Dadas k variables aleatorias independientes, todas con distribucin normal
n(,
2
), entonces la variable aleatoria:

tiene una distribucin
2

con =k grados de libertad.



4. Dadas dos variables aleatorias independientes, una normal n(0,1) y una
variable aleatoria
2

con grados de libertad, entonces la variable aleatoria:



tiene una distribucin t con grados de libertad.

5. Dadas dos variables aleatorias independientes,
1
,
2
, con distribucin
2
y
1

y
2
grados de libertad, respectivamente, entonces la variable aleatoria:
tiene una distribucin F con
1
y
2
grados de libertad.

6. Existen interrelaciones asintticas entre las distribuciones mencionadas, que se
resumen en la Figura 1.4.
1
]
1


) -
X
(
= Y
i
2
k
i

,
_

2
2 / 1

) 0,1 ( n
= T

,
_

,
_


X

X

= F
2
2
1
1




15



Figura 1.4. Interrelaciones asintticas entre las distintas distribuciones


1.5.9 Tabla de la distribucin F

Como resumen se presenta una tabla de la distribucin F que incluye tambin los
valores de la distribucin t (N
1
= 1) y de la distribucin
2
(N
2
= 4), como casos
particulares.



16
2. DISTRIBUCIONES DE PROBABILIDAD EN RADIACTIVIDAD

2.1 Carcter probabilstico

La radiactividad es un proceso temporal estocstico, aleatorio, y ya en 1906, von
Schweidler seal que la ley emprica de Rutherford y Soddy poda deducirse a partir de la
hiptesis de que la probabilidad de desintegracin de un tomo por unidad de tiempo es
una constante, , sobre la que no influye la historia previa de ese tomo ni las
desintegraciones de tomos de su entorno.

Con esa hiptesis, la probabilidad de que el tomo se desintegre en un pequeo
intervalo de tiempo, t, es t, y la probabilidad de que sobreviva tras ese intervalo es p = 1
- t.

En el siguiente intervalo temporal t, la probabilidad de supervivencia vuelve a ser p,
y la probabilidad de que el tomo sobreviva tras los dos intervalos es p
2
. Considerando k
intervalos consecutivos, desde t = 0 hasta t = kt, la probabilidad de que un tomo sobreviva
es:

y en el lmite, cuando k 6 4, y t 6 0, la probabilidad de supervivencia de un tomo al cabo
de un tiempo t es:

y si el nmero inicial de tomos es N
0
, al cabo de t, quedan:

que es la ley emprica de Rutherford y Soddy de la desintegracin radiactiva.

Ahora supongamos que se realiza sobre ese sistema de tomos radiactivos una serie
de experimentos consistentes en observar el nmero, n, de tomos que se desintegran en un
intervalo, t, dado. Las observaciones se realizan consecutivamente, con tomos de un
radionucleido de vida larga como el
14
C, cuyo perodo (5.730 aos) es mucho mayor que el
tiempo de observacin de modo que la observacin de n desintegraciones no modifica
sustancialmente el valor N
0
.

Como consecuencia del carcter estocstico de la desintegracin radiactiva, los
valores n observados en sucesivos intervalos son diferentes, y nos encontramos frente a una
variable aleatoria discreta, cuya distribucin de probabilidad es de tipo binomial (Bernouilli).
Bajo ciertas consideraciones, que conviene precisar en cada caso, se pueden utilizar en su
[ ] ( ) t/k - 1 = ) t - 1 ( = p
k k k

e
=
k
t
- 1
lim
= P
t -
k
k

,
_

1
]
1



e N
=
N
t -
0 t





17
lugar otras distribuciones de probabilidad como la de Poisson o la de Gauss, como veremos a
continuacin.
2.2 Distribucin de Bernouilli (binomial)

Como consecuencia de su carcter probabilstico, la probabilidad P
n
de observar
exactamente n desintegraciones de N
0
tomos en un tiempo t es:

donde w = 1 - e
- t
.

Se trata por tanto de una distribucin discreta de probabilidad, que satisface
3
n
N
0
P
n
= 1 y su valor medio es E(n) = wN
0
= N
0
(1- e
- t
) y su varianza es
2
= V(n)= w N
0

(1- w). En la Figura 2.1 se muestra una representacin grfica de la distribucin binomial
para N
0
= 50 y dos valores diferentes de w, a saber, 0,1 y 0,5.


Figura 2.1. Distribucin binomial para N
0
= 50

En la prctica, el nmero de tomos radiactivos, N
0
, es siempre muy grande, 10
16
o
ms, n ? N
0
y w es muy pequeo, por lo que t ? 1. Por ejemplo, con N
0
= 10
16
tomos de
14
C, la actividad es aproximadamente 3,7 x 10
4
Bq y el valor esperado del nmero de
desintegraciones en t = 10 minutos es del orden de 10
7
, y la probabilidad de supervivencia es
1 - w = e
- t
que difiere de 1 en slo 2 x 10
-9
.

) w - (1
w
n)! -
N
( n!
!
N
=
P
n - N n
0
0
n
0
(2.1)



18
2.3 Aproximacin de Poisson

Cuando N
0
? 1, n ? N
0
y t ? 1, que es el caso del ejemplo con
14
C, entonces la
distribucin de Bernouilli puede simplificarse y se transforma en la distribucin de Poisson:

que es de la forma P
n
=
n
e
-
/ n!, cuyo valor medio F = E(n) = wN
0
, al igual que en la
binomial. Adems, la varianza es tambin V(n) = wNo Y F =
2
. La distribucin de Poisson
es asimtrica y satisface:

La distribucin de Poisson para wNo = 25, es la misma que se muestra en la
Figura 2.1 correspondiente a la binomial y la Figura 2.2 muestra las distribuciones de
Poisson correspondientes a valores wNo = 50 y 100.

Figura 2.2. Distribuciones de poisson para valores w N
o
= 50 y 100

Otro motivo de inters de esta distribucin es que a partir de ella se puede estudiar
fcilmente la distribucin de tamaos de los intervalos de tiempos entre dos desintegraciones
sucesivas, combinando la probabilidad de que no ocurra ningn suceso en un intervalo (0 , t),
con la probabilidad de que ocurra un suceso en (t, t + dt), cuando en promedio se producen
<n> por unidad de tiempo:

que se denomina distribucin de intervalos de tiempos de Poisson y es especialmente
ventajosa en fenmenos temporales, como tiempos muertos de sistemas de deteccin, por
ejemplo.

2.4 Aproximacin de Gauss
n!
e
)
N
(w
=
P
N w -
n
0
n
0
(2.2)
P
=
P
wN wN 01 0
(2.3)
dt
e
> n < = dt > n < >) n < t, < (0
P
=
dP
t > n <
0 t
(2.4)



19

Para valores de mayores que 100, la distribucin de Poisson se puede aproximar, en
un intervalo de valores x = - n-E(n)- ? E(n), por la expresin:

que corresponde a una distribucin de Gauss, o normal, de media y varianza E(n), de la
forma

Debe sealarse que P(x) es una funcin contnua de x, a diferencia de las
distribuciones de Bernouilli y de Poisson, que eran discretas. Una distribucin normal con
2

= F = 100, puede verse en la Figura 2.2, ya que se adapta muy bien a la distribucin de
Poisson del mismo valor esperado wN
0
= 100.

En general, la distribucin de Poisson es ms adecuada para describir las
observaciones de experimentos en radiactividad, pero para valores de F que, sin ser
despreciables, son an pequeos frente a N
0
y para x = n-F ? F, la distribucin de Poisson se
aproxima muy bien mediante la distribucin normal, que por ser contnua facilita su
manipulacin en clculos analticos. La diferencia entre valores calculados por ambos
mtodos es menor que 1 % para una media de 10 y alrededor de 0,1 % para una media de
100.


2.5 Aplicacin a recuentos en medidas de radiactividad.

Ejercicio 2.5.1: Recuento total. Un contador registra N cuentas en un tiempo t segundos. 1) Expresar
el resultado y su desviacin tpica. 2) Formar la tabla de desviaciones tpicas relativas (en %) para
recuentos 10, 10
2
, ..., 10
6
.

Ejercicio 2.5.2: Tasa de recuento. Un contador registra N cuentas en un tiempo t segundos. Expresar
la tasa de recuento y su desviacin tpica.

Ejercicio 2.5.3: Recuento neto. Un contador registra N
b
cuentas de fondo y N
s+b
con una fuente
problema en idntico tiempo, t. 1) Expresar la desviacin tpica del recuento neto. 2) Analizar la
influencia de la eficiencia del contador.

Ejercicio 2.5.4: Tasa de recuento neto. Un contador registra N
b
cuentas de fondo en un tiempo t
b
y
N
s+b
con una fuente problema en un tiempo t
s+b
. Expresar la tasa de recuento neto y su desviacin
tpica.

Ejercicio 2.5.5: Reparto ptimo del tiempo total de medida. Se dispone de un tiempo total T para
medir el fondo y una fuente problema con un contador. 1) Calcular el reparto ptimo de T de modo
e
E(n) 2
1
= ) x ( P E(n) 2
] E(n) [n-
-
2

(2.5)
e
2
1
= ) , ; x ( n
2
2
2
) (x-
-
2

(2.6)



20
que se minimice la desviacin tpica de la tasa de recuento neto. 2) Aplquese al caso T = 1 h, R
s+b
=
1000 cpm, R
b
= 20 cpm. 3) Aplquese al caso T = 1 h, R
s+b
= 60 cpm, R
b
= 20 cpm.

Como ya se ha mencionado, en la mayora de los experimentos fsicos no se tiene
acceso a la poblacin completa sino a un subconjunto de observaciones, que se denomina
muestra de tamao n. La estadstica inferencial trata de obtener conclusiones caracterizando
y estimando los parmetros de una poblacin, a partir de las observaciones de la muestra
finita.

Formalmente, una muestra de tamao n est definida por los valores x
i
, i = 1, 2, ... n,
de n variables aleatorias, X
i
, i = 1, 2, ..., n, que representan las sucesivas observaciones,
hechas siempre bajo las mismas condiciones, por lo que pueden suponerse independientes
unas de las otras y todas con la misma densidad f(x).

Todo parmetro numrico determinado a partir de los valores x
i
de una muestra se
denomina estadstico y su valor vara de una muestra a otra, por lo que es, a su vez, una
variable aleatoria que depende slo de la muestra aleatoria observada. La distribucin de
probabilidad de un estadstico se denomina distribucin muestral de ese estadstico.

En correspondencia con la media y la varianza que definen la localizacin y
variabilidad de la distribucin de probabilidad de una poblacin, se utilizan tambin
estadsticos apropiados para estimar esos parmetros a partir de muestras, y que se definen
caracterizando el centro y la anchura de las muestras.

3.1 Distribucin muestral de la media. Teorema del lmite central

Para medir el centro de una muestra se utilizan ndices como la mediana, la moda,
pero, sobre todo, el promedio (o media muestral) que para una muestra de tamao n,
constituda por las medidas sucesivas X
i
, i = 1, 2, ..., n, se define mediante el estadstico
que toma el valor m cuando X
1
toma el valor x
1
, X
2
el valor x
2
, ... y X
n
el valor x
n
.

La distribucin de muestreo de la media <X> de una muestra de tamao n extrada de
una poblacin normal con media y varianza
2
es tambin una distribucin normal, con
media
<X>
= E[ (X
1
+...+X
n
) / n ] y varianza
2
<X>
= V[ (X
1
+...+X
n
) / n ] = (
2
+...+
2
n
) / n
2
.

Aunque la distribucin de partida no sea normal, el teorema del lmite central
establece que la distribucin muestral de <X> sigue siendo aproximadamente normal con
media y varianza
2
/n, tanto mejor cuanto ms grande es el tamao de la muestra, n. Si
n>30, esa aproximacin es siempre satisfactoria y si n<30 la bondad de la aproximacin
depende de la semejanza de la distribucin de partida con una distribucin normal. Esta es la
razn por la que la distribucin normal se utiliza ampliamente siempre que se manejan
promedios, sin preocuparse demasiado de si la distribucin original es realmente una
distribucin normal.
n
X
= > X < = X
i
n
1 = i

(3.1)



21




22
3.2 Distribucin muestral de la varianza. Propagacin de errores

Para medir la anchura de una muestra se puede utilizar el rango y fundamentalmente
la varianza muestral, que para una muestra de tamao n, se define por el estadstico:

que es un estimador no sesgado de la varianza de la poblacin pues cumple que E(S
2
) =
2
.
Su valor en una muestra dada se representa por s
2
y s se denomina desviacin tpica de la
muestra.

Cuando se considera la varianza muestral, S
2
, de una muestra de tamao n, extrada de
una poblacin normal con varianza
2
, se cumple que la variable aleatoria (n - 1) S
2
/
2
sigue
una distribucin
2

con = n - 1 grados de libertad.



Ya que no depende de la media muestral, <X>, se concluye que los dos estadsticos,
media y varianza muestral, son variables aleatorias independientes, al menos cuando las
muestras proceden de poblaciones normales.

Muy frecuentemente no se puede medir directamente la magnitud de inters sino que
hay que obtener su valor en funcin de otras magnitudes medibles y surge el problema de
estimar su variabilidad (error) en funcin de la de esas magnitudes intermedias. Si la relacin
es lineal, se utiliza la propagacin de varianza ya vista en una seccin anterior. Pero si, por
ejemplo, la magnitud y depende de otras, z
1
, z
2
..., z
p
, a travs de la relacin funcional y = y
(z
1
, z
2
, ... z
p
), y se conocen las medias, z
i
, y las varianzas,
2
zi
, muestrales, se puede linealizar
haciendo un desarrollo en serie de Taylor alrededor de z
1
, z
2
, ..., z
p
:

con lo que

donde V
ij
= E[ (Z
i
-<Z
i
>) (Z
j
-<Z
j
>) ] es la matriz de varianzas/covarianzas.

Esta forma de clculo de varianzas se conoce como ley de propagacin de errores y
puede simplificarse cuando las variables aleatorias Z
i
tienen covarianza nula, V
ij
=
zi
2
para i
= j y V
ij
=0 para ij :
1) (n-
) > X < -
X
(
=
S
2
i
n
1 = i 2

(3.2)

,
_

z
y
>)
z
< -
z
( + ) >
z
< ,..., >
z
< ( y = )
z
,...,
z
( y
i
> z <
i i
p
1 = i
p 1 p 1
(3.3)
)
z
y
(
V
)
z
y
( = ] )
z
,...,
z
( y [ V
> z <
j
ij
> z <
i
p
1 j=
p
1 = i
p 1


(3.4)



23
3.3 Intervalos y niveles de confianza

Un estimador de intervalo del parmetro de una poblacin es un intervalo de
anchura finita (2 k), centrado en el estimador puntual, z, que se supone acota (contiene) al
verdadero valor de modo que:

Cada muestra produce estimadores puntuales, z, diferentes, y por consiguiente
intervalos (z-k, z+k) diferentes que, dependiendo del valor de k, pueden no contener
realmente al parmetro de la poblacin.

Pero si se conoce la distribucin muestral de Z, es posible determinar k de modo que
la probabilidad P (Z- k + + Z + k) coincida con un valor prefijado. El intervalo (z-k, z+k)
calculado en una muestra tiene entonces una probabilidad P de contener al parmetro y se
denomina intervalo de confianza, y la probabilidad P, nivel de confianza.

En el caso general, interesa estimar, a partir de una muestra de tamao n, el intervalo
de confianza de la media de una poblacin normal de la que se desconoce tambin la
varianza. En este supuesto, el intervalo de confianza para con nivel de confianza P = 1-:

donde +x, = la media muestral, s = la varianza muestral, t
/2
es el valor de la distribucin t
con = n-1 grados de libertad que deja una probabilidad /2 por encima de ese valor. La
prctica habitual de asociar una probabilidad 99 % a un intervalo " 3s es slo aceptable si el
tamao de muestra n , 30 con lo que la distribucin t se aproxima a la normal.

El otro caso de inters es el de estimacin del intervalo de confianza de la varianza
2

de una poblacin normal, en una muestra de tamao n, con nivel de confianza P = 1- y vale:

z
2
i
2
> z <
p
1 = i
i
z
y
= ] y [ V
,
_

(3.5)
k + z < < k z t
n
S

t
+ > x < < <
n
S

t
- > x <
2 / 2 /


2
2
- 1
2
2
2
2 /
2
S
) 1 - n ( < <
S
) 1 - n ( (3.6)



24
3.4 Comprobacin de hiptesis: pruebas
2
, t, F

En medidas de radiactividad se plantea frecuentemente la necesidad de comprobar,
mediante mtodos estadsticos, la compatibilidad de los resultados de muestras
experimentales con las predicciones tericas a un nivel de confianza dado. El procedimiento
de prueba estadstica consiste siempre en evaluar un parmetro de la muestra y compararlo
con la distribucin terica; si se supera el valor terico correspondiente a un cierto nivel de
confianza, se rechazan los datos. Las pruebas ms usuales conciernen al comportamiento
aleatorio de las medidas y la comparacin de dos valores medios diferentes, o de dos
varianzas diferentes, con los de la poblacin.

3.4.1 Prueba
2


La prueba
2
se puede utilizar para comprobar si una determinada varianza muestral
es razonable o anmala, supuesta conocida la varianza de la poblacin. Se basa en que
en un conjunto de n observaciones en una poblacin de varianza
2
, si la varianza
muestral es S
2
, la variable [(n-1)] S
2
/
2
sigue una distribucin
2
n-1
con n-1 grados
de libertad.

Tambin se puede utilizar para comprobar si un grupo de n observaciones es
consistente con una distribucin dada (normal, de Poisson, ...). Para aplicarlo, se
clasifican las n observaciones en k clases de modo que o
i
es el nmero de
observaciones en la clase i. Si la densidad terica de esa clase es p
i
, el nmero
esperado de observaciones sera e
i
= nAp
i
. Ello requiere conocer previamente los
parmetros, en esencia la media y la varianza, de la poblacin, que suelen ser
desconocidos y deben determinarse en la prctica a partir de la muestra. Si se necesita
estimar p parmetros, se puede demostrar que el estadstico
2
= '
i=1
k
(o
i
-e
i
)
2
/e
i
, con
el requisito e
i
>5, se comporta como
2
k-p-1
.

Ejercicio 3.4.1.1. Test
2
. En un experimento con una fuente radiactiva, el nmero de partculas beta
detectadas en sucesivos intervalos de medida de igual duracin ha sido:


Nmero de
partculas

Nmero de
intervalos



Nmero de
partculas

Nmero de
intervalos

0

88



9

308

1

370



10

160

2

913



11

90

3

1457



12

27

4

1768



13

15

5

1721



14

2

6

1454



15

2

7

1020



16

0



25

8

600



17

--
3.4.2 Prueba t

La prueba t se utiliza para comparar dos medias. Consideremos dos grupos de datos,
uno con n
1
observaciones, media m
1
y varianza s
1
2
y otro con n
2
observaciones, media
m
2
y varianza s
2
2
. Suponiendo que los dos grupos proceden de la misma poblacin,
entonces,
sigue una distribucin t con n
1
+n
2
-2 grados de libertad.

Sin embargo, cuando se comparan datos procedentes de mtodos o laboratorios
diferentes, es poco probable que los dos grupos de medidas provengan de la misma
poblacin pero el test sigue aplicndose con el estadstico

que tiene una distribucin

2
con:

donde
1
,
2
, son los grados de libertad de cada grupo de medidas.

Ejercicio 3.4.2.1: Test T. Analizar la compatibilidad de dos grupos de medidas realizadas por dos
observadores diferentes, A y B, con dos equipos de recuento diferentes y la misma muestra radiactiva,
cuyos resultados han sido:

]
s
1) -
n
( +
s
1) -
n
)[(
n
+
n
(
n n
2) -
n
+
n
(
|
m
-
m
| =
t
2
2 2
2
1 1 2 1
2 1 2 1
2 1 obs

n
s
+
n
s
|
m
-
m
|
=
t
2
2
2
1
2
1
2 1
m
(3.7)

2
2
2
2
2
1
1
2
1
2
2
2
2
1
2
1
2
n
s
+
n
s
n
s
+
n
s
=

,
_

,
_

,
_

(3.8)



26


A

B

1912

1914

1911

1913

1910

1910

1909

1910

1909

1912

1911

1914

1911

1910

1913

1912

1906

1918

1916

1914


3.4.3 La prueba F

La prueba F sirve para comprobar si dos varianzas muestrales difieren
significativamente y se basa en que si s
1
2
, con
1
grados de libertad, y s
2
2
, con
2

grados de libertad, son dos estimaciones independientes de la varianza
2
de la
poblacin, entonces, el estadstico F= s
1
2
/s
2
2
sigue una distribucin F de Fisher.

Como extensin, el test F puede utilizarse para comprobar la homogeneidad de grupos
de datos estimando la varianza interna de los grupos y la varianza entre las medias de
cada grupo, teniendo en cuenta los respectivos grados de libertad.

3.5 Expresin de la incertidumbre de medidas

El simple resultado de una medida tiene poco valor si no va acompaado de una
indicacin de su incertidumbre. Tras larga controversia durante dcadas, en 1981 y bajo los
auspicios de la Oficina Internacional de Pesos y Medidas (BIPM), un grupo de trabajo de
expertos de 11 laboratorios nacionales elabor unas simples recomendaciones que se han
mostrado tiles y satisfactorias y que resumimos a continuacin:

1. La incertidumbre de una medida consta de componentes de dos tipos:

Tipo A: los que han sido evaluados aplicando mtodos estadsticos a
una serie de medidas repetidas,

Tipo B: los que han sido evaluados por otros medios.

No existe una correspondencia clara entre los tipos A,B y las primitivas
denominaciones de errores "aleatorios" y "sistemticos", cuyo uso debe
evitarse. Debe especificarse siempre una lista de todos los factores de
incertidumbre considerados, con indicacin de su tipo.





27
2. Los componentes de tipo A se caracterizan por sus varianzas, s
i
2
, y el nmero
de grados de libertad. Cuando proceda, se expresarn tambin las covarianzas.

3. Los componentes de tipo B se caracterizan por los valores u
j
2
, que se
consideran estimaciones equivalentes a las correspondientes varianzas.

4. La incertidumbre combinada se calcula mediante las leyes usuales de
propagacin de varianzas y se expresa en forma de desviacin tpica.

5. Cuando necesidades especficas lo requieran, se deber especificar el factor
multiplicativo utilizado para obtener una incertidumbre global determinada.





28
3.6. REFERENCIAS


1. Handbook of Radioactivity Measurements Procedures, NCRP Report 58 (2
nd

edition), National Council on Radiation Protection and Measurements
(Bethesda, MD 1985).

2. Campion P.J., Burns J.E. and Williams A., A Code of practice for the detailed
statement of accuracy, National Physical Laboratory/Her Majesty's Stationery
Office (London, 1973).

3. Martin B.R., Statistics for Physicists, Academic Press (London, 1971).

4. Mann W.B., Ayres R.L. and Garfinkel S.B., Radioactivity and its measurement
(2
nd
edition), Pergamon Press (Oxford, 1980).







FORMACIN EN ENERGA Y MEDIO AMBIENTE
(TECNOLOGA Y SEGURIDAD INDUSTRIAL)

También podría gustarte