Está en la página 1de 394

Mtodos estadsticos para Economa y

Empresa

Rigoberto Prez y Ana Jess Lpez


rigo@uniovi.es , anaj@uniovi.es

Octubre 2011
2
A nuestras familias y amigos

ISBN13 978-84-694-9009-9
Depsito Legal: AS-04398-2011
Edicin 2011
Revisin V.1.0

This work is licensed under a Creative Commons Attribution-NonCommercial


NoDerivs 3.0 Unported License.

3
Breve resea de autores

Los autores de este libro son profesores del Departamento de Economa Aplicada de
la Universidad de Oviedo (Unidad de Estadstica y Econometra).

https://sites.google.com/a/uniovi.es/libros/meee

Rigoberto Prez Surez es Catedrtico de Universidad y su


amplia experiencia docente incluye asignaturas de Estadstica
Econometra y Series temporales tanto en primer y segundo ci
clo como en doctorados y msteres. Es autor de varios libros de
texto (Nociones Bsicas de Estadstica, Anlisis de datos econ
micos I: Mtodos descriptivos, Anlisis de datos econmicos II:
Mtodos inferenciales) y del software docente ADE+, as como
de numerosas publicaciones relativas a la innovacin educativa y
el e-learning.
Tambin ha sido Director de Area de Innovacin de la Universi
dad de Oviedo (2000-2006) y Director del Campus Virtual Com
partido del grupo G9 (2004-2006).
En el mbito investigador es autor de diversas publicaciones en
revistas de impacto y ha dirigido numerosas tesis doctorales y
proyectos de investigacin, generalmente referidos a la predic
cin econmica y al anlisis de la desigualdad.

Ana Jess Lpez Menndez es Profesora Titular de Univer


sidad y su docencia abarca asignaturas de Estadstica, Econo
metra y Series temporales, tanto en la Universidad de Oviedo
como el el Campus Virtual Compartido G9. Tambin ha sido
profesora visitante en universidades de Reino Unido, Hungra y
Cuba. Es autora de los manuales Anlisis de datos econmicos I:
Mtodos descriptivos y Anlisis de datos econmicos II: Mtodos
inferenciales, as como de numerosas publicaciones relativas a la
innovacin educativa y el e-learning.
En el mbito investigador es autora de diversos artculos publi
cados en revistas de impacto, ha dirigido seis tesis doctorales y
ha participado en numerosos proyectos de investigacin.

4
ndice general

I. Probabilidad 12

1. Incertidumbre y probabilidad 13
1.1. Definiciones de probabilidad . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.1. Probabilidad clsica . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.2. Probabilidad frecuencial . . . . . . . . . . . . . . . . . . . . . . 15
1.1.3. Probabilidad subjetiva . . . . . . . . . . . . . . . . . . . . . . . 16
1.2. La probabilidad y su cuantificacin . . . . . . . . . . . . . . . . . . . . 18
1.3. Definicin axiomtica de la probabilidad . . . . . . . . . . . . . . . . . 22
1.3.1. Propiedades elementales de la probabilidad . . . . . . . . . . . 25
1.4. Probabilidad condicionada e independencia . . . . . . . . . . . . . . . 27
1.4.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . 27
1.4.2. Independencia en probabilidad . . . . . . . . . . . . . . . . . . 29
1.5. Probabilidad total y teorema de Bayes . . . . . . . . . . . . . . . . . . 31
1.5.1. Sistema completo de sucesos . . . . . . . . . . . . . . . . . . . 32
1.5.2. Teorema de la probabilidad total . . . . . . . . . . . . . . . . . 32
1.5.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . 33

2. Magnitudes aleatorias 35
2.1. Variable aleatoria. Variables discretas y continuas . . . . . . . . . . . . 35
2.2. Distribucin de probabilidad de una variable aleatoria . . . . . . . . . 40
2.2.1. Funcin de distribucin . . . . . . . . . . . . . . . . . . . . . . 41
2.2.2. Probabilidades de intervalos . . . . . . . . . . . . . . . . . . . 44
2.2.3. Funcin de probabilidad . . . . . . . . . . . . . . . . . . . . . . 45
2.2.4. Funcin de densidad . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.5. Variables aleatorias relacionadas: Cambio de variable . . . . . . 51
2.3. Caractersticas asociadas a variables aleatorias. Valor esperado y va
rianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4. Desigualdad de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . 65

3. Modelos de probabilidad 68
3.1. Modelo Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.2. Distribuciones Geomtrica y Binomial negativa . . . . . . . . . . . . . 80
3.3. Modelo hipergeomtrico . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.4. Modelo Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.4.1. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

5
ndice general

3.4.2. Caso continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93


3.5. Modelo Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.5.1. Modelo Normal estndar . . . . . . . . . . . . . . . . . . . . . 94
3.5.2. Modelo Normal general . . . . . . . . . . . . . . . . . . . . . . 100
3.6. Algunos modelos especiales de probabilidad . . . . . . . . . . . . . . . 103
3.6.2.
3.6.3. Sucesos raros:
3.6.1. 3.6.3.3.
3.6.3.1.
3.6.3.2.
Tiempos
Modelos de
Distribucin
de distribucin
espera:
modelo
modelo
Gamma
logaritmo
de de
Pareto
Poisson
la
exponencial
renta
.normal
. . . . . . . . . . . . . . . . . 103
. . . . . . . . . 105
. . . . . . . . . 108
. . . . . . . . . 109
. . . . . . . . . 110
. . . . . . . . . 112

4. Vectores aleatorios y distribuciones de agregados 114


4.1. 4.1.1.
Vectores4.1.1.1.
Variable
aleatorios.
aleatoria
Funcin
Distribuciones
de
bidimensional
distribucin . . . . . . . . .
k-dimensionales
. bidimensional . . . . . . . . 115
. . . . . . . . . 115
. . . . . . . . . 116
4.1.1.2. Funcin de probabilidad bidimensional . . . . . . . . . 116
4.2. Distribuciones
4.1.1.4.
4.1.1.3. marginales
Vectores
Funcin dealeatorios
y condicionadas . . . . . . . .
densidadk-dimensionales
bidimensional . . . . . . . . 117
. . . . . . . . . 118
. . . . . . . . . 119
4.2.1. Distribuciones marginales . . . . . . . . . . . . . . . . . . . . . 119
4.2.2. Distribuciones condicionadas . . . . . . . . . . . . . . . . . . . 125
4.3. Modelos probabilsticos k-dimensionales . . . . . . . . . . . . . . . . . 128
4.3.1. Distribucin Multinomial . . . . . . . . . . . . . . . . . . . . . 128
4.3.2. Distribucin Multihipergeomtrica . . . . . . . . . . . . . . . . 129
4.3.3. Distribucin Normal Multivariante . . . . . . . . . . . . . . . . 130
4.4. Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . 132
4.4.1. Reproductividad . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5. Agregacin de variables aleatorias . . . . . . . . . . . . . . . . . . . . . 140
4.6. Teoremas lmites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4.6.1. Leyes de los grandes nmeros . . . . . . . . . . . . . . . . . . . 147
4.6.2. Teorema central del lmite . . . . . . . . . . . . . . . . . . . . 149

II. Inferencia estadstica 154

5. Muestras y estimadores 155


5.1. Estudios muestrales. Conceptos bsicos . . . . . . . . . . . . . . . . . . 155
5.1.1. Poblacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
5.1.2. Muestras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.1.3. Subpoblaciones o estratos . . . . . . . . . . . . . . . . . . . . . 158
5.1.4. Muestreo probabilstico . . . . . . . . . . . . . . . . . . . . . . 159
5.2. Errores y diseo de encuestas . . . . . . . . . . . . . . . . . . . . . . . 162
5.2.1. Errores de encuesta . . . . . . . . . . . . . . . . . . . . . . . . 163

6
ndice general

5.2.2. Diseo
Acuracidad
de encuestas
y precisin
y seleccin
. . . . muestral
. . . . . . . . . . . . . . . . . . 164
5.2.3. . . . 164
5.3. Estadsticos y estimadores . . . . . . . . . . . . . . . . . . . . . . . . 167
5.3.1. Funcin de verosimilitud . . . . . . . . . . . . . . . . . . . . . 170
5.4. Propiedades de los estimadores . . . . . . . . . . . . . . . . . . . . . . 172
5.4.1. Ausencia de sesgo . . . . . . . . . . . . . . . . . . . . . . . . . 172
5.4.2. Eficiencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.4.3. Mnima varianza . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.4.4. Suficiencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
5.4.5. Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
5.5. Mtodos de obtencin de estimadores . . . . . . . . . . . . . . . . . . . 185
5.5.1. Mtodo de los
la mxima
mnimos
momentosverosimilitud
cuadrados
. . . . . . . . . . . . . . . . . . . . . . 185
5.5.2. . . . 189
5.5.3. . . . 190
5.6. Algunos estimadores habituales . . . . . . . . . . . . . . . . . . . . . . 191
5.6.1. Parmetro proporcin
varianza
media poblacional
poblacional 2
poblacional . .p . . . . . . . . . . . . . . . . 191
5.6.2. . . . 193
5.6.3. . . . 195

6. Herramientas inferenciales 197


6.1. Modelos probabilsticos asociados al muestreo . . . . . . . . . . . . . . 197
6.1.1. Distribucin F de Snedecor
tchi-cuadrado
Normal
deStudent
. . . . . . . . . . . . . . . . . . . . . . . . 198
6.1.2. .. . 199
6.1.3. .. . 207
6.1.4. .. . 209
6.2. Procesos inferenciales y distribuciones asociadas . . . . . . . . . . . . . 215
6.2.1. Inferencias relativas a parmetros . . . . . . . . . . . . . . . . . 216
6.2.2. Inferencias sobre la media . . . . . . . . . . . . . . . . . . . . . 218
6.2.3. Inferencias sobre la varianza . . . . . . . . . . . . . . . . . . . 221
6.2.4. Inferencias sobre proporciones . . . . . . . . . . . . . . . . . . . 222
6.2.5. 6.2.5.2.
6.2.5.1.
Inferencias
Diferencia
sobre la diferencia
de medias deconmedias
muestras
datos pareados
. . independientes
. . . . . . . . .. . 223
.. . 224
. . 225
6.2.6. Inferencias genricas
sobre otras
la razn
sobre
caractersticas
de
poblaciones
varianzas. . . . . . . . . . . . . . . 229
6.2.7. . . . 230
6.2.8. . . . 231

7. Estimacin 234
7.2.
7.1. Intervalos
Estimacindepuntual
confianza.
y porConstruccin
intervalos y. caractersticas
. . . . . . . . . . . . . . . . . . 235
. . . 239
7.2.1. 7.2.2.2.
7.2.2.1.
Precisin
Construccin
Informacin
de los
de intervalos
intervalos
muestral
sobrede
.la. confianza
poblacin
. . . . . . . . . . . . . . . . . . . 239
7.2.2. . . . 242
. . . 243
. . . 244

7
ndice general

7.2.3. Nivel de confianza: Interpretacin . . . . . . . . . . . . . . . . . 245


7.3. Algunos intervalos de confianza particulares . . . . . . . . . . . . . . . 246
7.3.1. Intervalos de confianza para la esperanza . . . . . . . . . . . . . 246
7.3.2. Intervalos de confianza para la varianza . . . . . . . . . . . . . 249
7.3.3. Intervalos de confianza para la proporcin . . . . . . . . . . . . 250
7.3.4. Intervalos de confianza para combinaciones lineales de medias . 251
7.3.5. Intervalos de confianza para la razn de varianzas . . . . . . . . 252
7.3.6. Intervalos de confianza para la mediana . . . . . . . . . . . . . 253
7.4. Determinacin del tamao muestral . . . . . . . . . . . . . . . . . . . . 253
7.4.1. Tamao de muestra en intervalos para la esperanza . . . . . . . 254
7.4.2. Tamao de muestra en intervalos para la proporcin . . . . . . 255

8. Contraste de hiptesis 256


8.1. Conceptos bsicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
8.1.1. Contraste de hiptesis e intervalos de confianza . . . . . . . . . 257
8.1.2. Contrastes de significacin . . . . . . . . . . . . . . . . . . . . 259
8.2. Metodologa del contraste de hiptesis . . . . . . . . . . . . . . . . . . 264
8.2.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
8.2.2. Desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
8.2.3. Conclusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
8.3. Contrastes de hiptesis bsicas . . . . . . . . . . . . . . . . . . . . . . 272
8.3.1. Hiptesis de m.a.s. . . . . . . . . . . . . . . . . . . . . . . . . . 272
8.3.1.1. Test de rachas . . . . . . . . . . . . . . . . . . . . . . 273
8.3.1.2. Test de rangos . . . . . . . . . . . . . . . . . . . . . . 275
8.3.1.3. Consecuencias del incumplimiento del supuesto de m.a.s.276
8.3.2. Contrastes de bondad de ajuste. Test de normalidad . . . . . . 276
8.3.2.1. Test de Bondad de Ajuste . . . . . . . . . . . . . . . . 277
8.3.2.2. Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . 280
8.3.2.3. Test de normalidad de Jarque-Bera . . . . . . . . . . 282
8.4. Algunos contrastes paramtricos . . . . . . . . . . . . . . . . . . . . . 283
8.4.1. Contrastes sobre la media . . . . . . . . . . . . . . . . . . . . . 285
8.4.1.1. Extensin a poblaciones desconocidas . . . . . . . . . 288
8.4.2. Contrastes sobre la varianza . . . . . . . . . . . . . . . . . . . 289
8.4.3. Contrastes sobre la proporcin . . . . . . . . . . . . . . . . . . 291
8.4.4. Contrastes sobre medias de dos poblaciones . . . . . . . . . . . 292
8.4.5. Contrastes sobre varianzas de dos poblaciones . . . . . . . . . . 294
8.5. Algunos contrastes no paramtricos . . . . . . . . . . . . . . . . . . . . 295
8.5.1. Contrastes del modelo poblacional . . . . . . . . . . . . . . . . 295
8.5.2. Contrastes de independencia de dos poblaciones . . . . . . . . . 296
8.5.3. Contrastes de homogeneidad de poblaciones clasificadas segn
varias categoras . . . . . . . . . . . . . . . . . . . . . . . . . . 298
8.5.3.1. Prueba exacta de Fisher . . . . . . . . . . . . . . . . . 298
8.5.3.2. Contraste 2 de homogeneidad entre poblaciones . . . 300

8
ndice general

8.5.4. Contrastes de identidad de la poblacin a partir de muestras


independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
8.5.4.1. Test de Mann-Whitney (M-W) . . . . . . . . . . . . 302
8.5.4.2. Test de Wald-Wolfowitz . . . . . . . . . . . . . . . . 304
8.5.4.3. Test de Kolmogorov-Smirnov para dos muestras . . . 304
8.5.4.4. Prueba de Kruskal-Wallis para r muestras . . . . . . . 304
8.5.5. Contrastes de cambios sucesivos sobre una poblacin . . . . . . 305
8.5.5.1. Test de McNemar . . . . . . . . . . . . . . . . . . . . 305
8.5.5.2. Prueba Q de Cochran . . . . . . . . . . . . . . . . . . 306
8.6. Anexo: Diseo de contrastes ptimos . . . . . . . . . . . . . . . . . . . 307

III. Introduccin a la Econometra 317

9. Modelos economtricos. El modelo lineal simple 318


9.1. Los modelos economtricos . . . . . . . . . . . . . . . . . . . . . . . . 318
9.2. El modelo de regresin lineal simple . . . . . . . . . . . . . . . . . . . 321
9.3. Estimacin de los parmetros de regresin . . . . . . . . . . . . . . . . 322
9.3.1. Estimacin mnimo cuadrtica . . . . . . . . . . . . . . . . . . 323
9.3.2. Estimacin mximo verosmil . . . . . . . . . . . . . . . . . . . 325
9.3.3. Caractersticas y propiedades de los estimadores . . . . . . . . 326
9.3.4. Construccin de las discrepancias tipificadas . . . . . . . . . . 328
9.3.5. Obtencin de intervalos de confianza . . . . . . . . . . . . . . . 329
9.4. Contrastes asociados a un modelo. Evaluacin de la bondad . . . . . . 330
9.5. Prediccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334

10.El modelo lineal mltiple 337


10.1.Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
10.1.1. Estimadores mnimo cuadrticos y mximo verosmiles . . . . . 340
10.1.2. Propiedades y caractersticas de los estimadores . . . . . . . . . 341
10.2. Contrastes y anlisis de la bondad del modelo . . . . . . . . . . . . . . 344
10.2.1. Contrastes individuales . . . . . . . . . . . . . . . . . . . . . . 344
10.2.2. Contrastes globales de significacin . . . . . . . . . . . . . . . . 345
10.2.3. Bondad del modelo. Coeficientes de determinacin . . . . . . . 346
10.2.4. Contrastes relativos a subconjuntos de parmetros . . . . . . . 349
10.2.5. Prediccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
10.3. Modelos con variables cualitativas . . . . . . . . . . . . . . . . . . . . . 354
10.3.1. Variables explicativas cualitativas. . . . . . . . . . . . . . . . . 354
10.3.2. Variables cualitativas dependientes. Introduccin a los modelos
logit y probit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
10.4. Alteracin de supuestos del modelo lineal . . . . . . . . . . . . . . . . 363
10.4.1. Errores de especificacin . . . . . . . . . . . . . . . . . . . . . . 364
10.4.1.1. Forma funcional del modelo . . . . . . . . . . . . . . . 364

9
ndice general

10.4.1.2. Omisin de variables explicativas relevantes e inclusin


10.4.1.3. Test
de variables
de especificacin
irrelevantesRESET . . .de. Ramsey
. . . . . . . . . . . . 365
. 367
10.4.2. Alteracin de las hiptesis sobre la perturbacin . . . . . . . . 368
10.4.2.4.
10.4.2.5.
10.4.2.3.
10.4.2.2.
10.4.2.1. No
Autocorrelacin.
Heteroscedasticidad.
Matriz
Perturbaciones
normalidad
de varianzas-covarianzas
deContraste
.media
. Detecciny
. . .no. de
nula
. .Durbin-Watson
.no
soluciones
. escalar
. . . . . . . . . . . 368
. 368
. 372
. 375
. 379
10.4.3. Alteracin de las hiptesis estructurales . . . . . . . . . . . . . 380
10.4.3.4.
10.4.3.3.
10.4.3.2.
10.4.3.1. Cambio
Multicolinealidad
Matrices
Regresores
estructural
X estocsticos
de rango. .no. pleno
. . . . . . . . . . . . . . . . . 380
. 381
. 382
. 384

Bibliografa 386

Index 390

10
ndice general

PRESENTACIN
La informacin econmica forma parte de nuestra realidad cotidiana y afecta a nues
tras vidas. Estadsticas como el Indice de Precios de Consumo (IPC), la tasa de paro
o los ndices burstiles son referencias habituales en los medios de comunicacin, por
lo que resulta imprescindible conocer su significado y dominar las tcnicas estadsticas
necesarias para su correcta utilizacin.
Hace aproximadamente un ao, con motivo de la celebracin del primer Da Mun
dial de la Estadstica (20-10-2010), la declaracin institucional de Naciones Unidas
destacaba la importancia de las estadsticas como herramienta para el desarrollo eco
nmico y social, y su trascendente papel en la adopcin de decisiones gubernamentales,
empresariales y personales en una sociedad moderna.
Convencidos de la importancia de la Estadstica, presentamos ahora este texto, cu
yo antecedente es el manual Anlisis de datos econmicos II- Mtodos inferenciales
publicado en 1997 por Ediciones Pirmide y actualmente descatalogado. Nuestro ob
jetivo al elaborar Mtodos estadsticos para Economa y Empresa es contribuir a la
difusin de las tcnicas estadsticas, animados por nuestras experiencias previas, los
comentarios de nuestros colegas universitarios y las posibilidades que ofrecen las nue
vas tecnologas para la elaboracin de un manual digital y su difusin a travs de la
Red.
Este libro se estructura en un total 10 captulos agrupados en tres partes, dedicadas
respectivamente a Probabilidad (captulos 1 a 4), Inferencia Estadstica (captulos 5 a
9) e Introduccin a la Econometra (captulos 9 y 10) y consideramos que sus conteni
dos pueden ser de utilidad tanto para estudiantes universitarios de diversos grados del
mbito de las Ciencias Sociales (Administracin y Direccin de Empresas, Economa,
Contabilidad y Finanzas, Relaciones Laborales y Recursos Humanos, Comercio, . . . )
como para profesionales interesados en las tcnicas inferenciales de aplicacin habitual
en el contexto socioeconmico.
Con este nimo, el manual Mtodos estadsticos para Economa y Empresa estar
a partir de ahora disponible en la Red en formato pdf, de forma libre y gratuita,
accesible bajo licencia Creative Commons en el sitio web:

https://sites.google.com/a/uniovi.es/libros/MEEE

Gracias a todos los que, de un modo u otro, nos han acompaado en el camino
que ha conducido a este libro. Confiamos en que sus contenidos resulten de utilidad y
agradecemos de antemano cualquier comentario o sugerencia.

11
Parte I.

Probabilidad

12
1. Incertidumbre y probabilidad
La probabilidad forma parte de nuestros esquemas habituales de razonamiento, pro
porcionando un instrumento en el que a veces incluso inconscientemente nos apoyamos
para emitir opiniones o tomar decisiones.
En efecto, vivimos en un mundo incierto en el que debemos conformarnos con cuan
tificar esa incertidumbre, habitualmente en trminos de probabilidad, conociendo as
el grado de creencia en nuestros resultados y conclusiones.
La probabilidad es el pilar bsico en el que descansa todo el proceso inductivo. De
ah la importancia de abordar su estudio desde varias pticas distintas: el concepto y
significado de la probabilidad, su cuantificacin numrica y la axiomtica de la proba
bilidad, marco formal que posibilita una modelizacin matemtica de los fenmenos
aleatorios.
Cualquiera de los aspectos sealados puede resultar de gran trascendencia, y de
hecho existe una bibliografa muy extensa sobre cada uno de ellos. Sin embargo, en
nuestros estudios la probabilidad tiene un carcter instrumental y no constituye un
fin en s misma. Por ello, aun reconociendo la conveniencia de reflexionar sobre el
significado de la probabilidad, prestaremos aqu una atencin preferente a las reglas
de funcionamiento, las posibilidades y los riesgos de esta poderosa herramienta, que
acompaar como medida de credibilidad a nuestras conclusiones.

El origen de la probabilidad no es claro aunque los juegos de azar se practicaban desde muy antiguo
y las leyes de la combinatoria elemental, imprescindibles para la cuantificacin de probabilidades, eran
conocidas por los rabes y los matemticos del Renacimiento pero ms como una rama del lgebra
que en su contexto actual. En las obras de N.F. Tartaglia (1499-1557) y Galileo Galilei (1564-1642)
se recogen problemas de probabilidad y combinatoria relacionados con juegos de azar y existe una
abundante correspondencia entre B. Pascal (1623-1662) y P. Fermat (1601-1665) en la que, mediante
el estudio de juegos de azar, ambos matemticos sientan la base de los fundamentos de la probabilidad.
El primer tratado sobre probabilidades publicado corresponde a Christian Huygens (1654-1705) con
On reasoning in Games of Chance, obra que sirvi de estmulo a James Bernoulli, autor del texto
Ars Conjectandi, publicado en 1705 y de clara influencia en todos los trabajos posteriores.

1.1. Definiciones de probabilidad


Los usuarios de la probabilidad no necesitan conocer con exactitud el concepto
al que responde este trmino, del mismo modo que para ser un buen jugador de
ajedrez o un excelente conductor no es necesario conocer la filosofa implcita en
estas actividades, sino nicamente sus reglas de funcionamiento.
De hecho, a lo largo de su desarrollo histrico se ha generado una gran controversia
no solucionada sobre el significado de la probabilidad.

13
1. Incertidumbre y probabilidad

1.1.1. Probabilidad clsica


La teora clsica de la probabilidad, originada directamente en los juegos de azar,
establece una definicin conectada a su cuantificacin. Este concepto, debido a Laplace
establece:

Definicin 1.1. La probabilidad de un suceso es el cociente del nmero de casos


favorables al suceso entre el total de casos posibles, supuestos igualmente verosmiles.

Este concepto de probabilidad, que suele denominarse de Laplace, se remonta sin embargo al
trabajo The Doctrine of Chances de De Moivre (1711) concebido como un manual para los interesados
en juegos de azar. Por el contrario, Pierre Simon, marqus de Laplace (1749 1827) elabor un total de
10 principios del clculo de probabilidades, entre los que figura por primera vez la definicin anterior,
que no se han visto alterados desde su obra Thorie Analitique des Probabilits (1812).

El concepto clsico, que ha dominado hasta principios del presente siglo, ha sido
objeto de diversas crticas debidas a su falta de rigor lgico (lo definido entra en la
definicin) y al supuesto de resultados igualmente verosmiles en el que se basa la
teora.

La justificacin de esta hiptesis viene dada por el principio de indiferencia, que defiende la sime
tra u homogeneidad de resultados en la situacin considerada, o bien por el principio de la razn
insuficiente segn el cual, si no existe razn que favorezca alguno de los resultados con respecto a los
dems, admitiremos que todos tienen igual probabilidad. Sin embargo ninguno de estos principios
soluciona las dificultades planteadas por la definicin clsica, cuya aplicacin prctica se limita a un
mbito muy reducido (experimentos con nmero finito de resultados equiprobables).

Pese a sus limitaciones el esquema clsico de probabilidad est muy arraigado,


debido en gran medida a su conexin con los juegos de azar. As, nadie duda de
asignar probabilidad de 16 a cada una de las caras de un dado, 140 a cada carta de la
baraja espaola o 12 a los resultados cara y cruz al lanzar una moneda.
No obstante, es necesario ser prudente en la utilizacin de esta probabilidad ya que
en caso contrario pueden cometerse abusos y llegar a resultados incorrectos. As, a
modo de ejemplo, la cuantificacin de la probabilidad de seguir contratado se llevara
a cabo empleando este concepto clsico como cociente entre casos favorables (slo
uno) y posibles (slo dos: seguir contratado o no).
El uso indiscriminado del concepto clsico para cuantificar probabilidades puede
llevarnos, en el caso de que los resultados posibles no sean equiprobables, a conclu
siones sorprendentes e incluso absurdas. De hecho, segn este mtodo, asignaramos
probabilidades del 50 % a sucesos del tipo llegar a ser premio Nobel, presenciar un
terremoto y en general a todos aquellos sucesos asociados a un experimento con dos
resultados.

No siempre resulta sencillo definir resultados simtricos o equiprobables garantizando as la apli


cabilidad de la definicin clsica. Un ejemplo famoso es la discusin protagonizada por DAlembert,
Fermat y Pascal en torno a un juego sencillo: el lanzamiento de dos monedas, sobre el que se formula
la apuesta sacar al menos una cara. Segn el razonamiento seguido por DAlembert, la probabili
dad de victoria sera 23, ya que de los tres resultados posibles (ninguna cara, una cara, dos caras)
dos son favorables. Sin embargo, es necesario tener presente el principio de simetra inherente a la

14
1. Incertidumbre y probabilidad

probabilidad clsica. Este principio exigira describir los resultados del experimento mediante sucesos
equiprobables: cara cruz, cara cara, cruz cara, cruz cruz y, dado que de estas cuatro posibilidades
tres son favorables a la apuesta planteada, la probabilidad de xito sera 34.
En otras ocasiones las inexactitudes son ms difciles de detectar. Supongamos una situacin ms
compleja que las anteriores, en la que una empresa concede a sus trabajadores ciertos permisos situa
dos en das que la empresa denomina comodn. Con el objeto de garantizar a todos sus trabajadores
sea cual sea su horario y jornada laboral la posibilidad de disfrutar de este da, se acuerda que los
"comodines" sern situados en meses seleccionados al azar pero siempre el da 13.
Si un trabajador se preguntan cul es la probabilidad de que el comodn coincida en un viernes,
permitindoles as disfrutar de un largo fin de semana, parece legtimo en un principio el supuesto
de equiprobabilidad y simetra que justifica un resultado P(Viernes) = 17, coincidente con el de
cualquier otro da de la semana.
La aplicacin de la probabilidad clsica no plantea en principio inconvenientes. Sin embargo, tras
un razonamiento ms sofisticado se aprecia que, debido a los ajustes horarios y la configuracin de los
calendarios, los distintos das de la semana como justificaremos ms adelante no son equiprobables.

1.1.2. Probabilidad frecuencial


El enfoque frecuencial -tambin denominado frecuentista- de la probabilidad se sita
en una perspectiva experimental.

Definicin 1.2. Llamamos probabilidad frecuencial de un suceso al valor en torno al


cual tiende a estabilizarse su frecuencia relativa.

Esta idea de probabilidad slo es vlida bajo el supuesto de fenmenos aleatorios


experimentales (reproducibles bajo idnticas condiciones un nmero suficientemente
elevado de veces) y que verifiquen el principio de regularidad estadstica, segn el cual
las frecuencias relativas tienden a estabilizarse en torno a un cierto valor.

Esta nocin de probabilidad, introducida por Venn en 1866 y desarrollada matemticamente en


los aos 1920 por Von Mises y Reichenbach, es de uso generalizado, debido en gran parte al sencillo
mtodo de clculo de probabilidades que lleva asociado. De hecho, la axiomtica propuesta por Kol
mogorov -que constituye una herramienta fundamental en el desarrollo del Clculo de probabilidades
est inspirada en el comportamiento asinttico de las frecuencias.
Una de las crticas a la concepcin frecuencial va referida al supuesto de que es posible repetir
indefinidamente el experimento bajo condiciones idnticas, que excluye de su mbito de aplicacin
gran parte de los fenmenos sociales y econmicos. En estos casos, la nica posibilidad de aplicar el
concepto frecuencial de probabilidad sera admitir la clusula "ceteris paribus".

Pese a las limitaciones tericas que plantea, a menudo la probabilidad se aproxima


directamente a travs de la frecuencia relativa. De este modo, el resumen de la in
formacin pasada es utilizado como mtodo de estimacin de potencialidades futuras.
As, un graduado universitario puede usar los resmenes de informacin referidos a las
ltimas promociones para calcular su probabilidad de encontrar trabajo, de obtener
una beca, etc.

El concepto frecuentista permite resolver adecuadamente el problema relativo a los das comodn,
justificando que la probabilidad de que el comodn sea viernes es superior a la de cualquier otro da
de la semana. En efecto, la determinacin de las probabilidades de cada da de la semana exigira
conocer el nmero de repeticiones de cada resultado sobre el tiempo total de vigencia de nuestro

15
1. Incertidumbre y probabilidad

calendario (aos 1600-2000). Si consideramos que de estos 400 aos 97 son aos bisiestos, el total de
semanas resulta ser 20.871 y de ellas 4.800 fechas son da 13 de un mes. Aunque la enumeracin es
larga, puede observarse el da de la semana en que cada uno de ellos est situado, que resultan ser
una cifra superior en el caso del viernes (688 das respecto a 684 para jueves y sbado, 685 para lunes
y martes y 687 para domingo y mircoles). Una vez determinado este nuevo modelo, la probabilidad
de viernes se situara en 6684800 = 0,143.

1.1.3. Probabilidad subjetiva


Las limitaciones de los enfoques anteriores han sugerido mtodos alternativos de
determinacin de la probabilidad, en los que sta aparezca desvinculada de la experi
mentacin. As, frente a las definiciones objetivas de probabilidad, que incluyen las dos
anteriores, las teoras subjetivas consideran la probabilidad como "grado de creencia",
resultando as aplicables a un conjunto ms amplio de situaciones.
La utilizacin de esta acepcin de probabilidad es muy frecuente, ya que a menudo
se nos plantea la necesidad de cuantificar numricamente el nivel de "verosimilitud"
asignado a un hecho. Esta variante subjetiva introduce como rasgo diferencial respecto
a las objetivas la participacin directa del individuo que -en funcin de su situacin
particular- acta como "asignador" de probabilidades.

El punto de vista subjetivista fue compartido por algunos de los precursores de la teora del clculo
de probabilidades como J. Bernoulli, Bayes o Laplace. No obstante, es desde principios de este siglo
cuando se le ha prestado mayor atencin, siendo pionera la obra de Borel (1924) a la que siguieron,
entre otras, las de Ramsey (1926), De Finetti (1931, 1937) y Savage (1954). Todos ellos consideran
fundamental el comportamiento del individuo frente a la incertidumbre, que le conduce a asignar
implcita o explcitamente un orden o una medida a la posibilidad de que los sucesos tengan lugar.

La corriente subjetivista no conduce a un concepto unvoco de la probabilidad, sien


do posible distinguir varias acepciones. Algunos autores consideran que puede probarse
la existencia de una funcin de probabilidad personal para cada individuo. Dicha pro
babilidad, denominada cualitativa o comparativa, se basa para cada individuo dado
en comparaciones del tipo "un suceso no es ms probable que otro".

Esta concepcin logicista es debida, entre otros autores, a Keynes, Jeffreys, Koopman y Carnap,
siendo su idea bsica la extensin de los principios de la lgica matemtica para establecer la proba
bilidad como medida en que una proposicin (hiptesis) confirma a otra (experiencia).

Frente a las ventajas de este concepto de probabilidad, derivadas de su carcter


formal, aparecen inconvenientes debidos a la dificultad de determinar probabilidades
numricas. As, en el trabajo original de Keynes (1921) las probabilidades estn tan s
lo parcialmente ordenadas y no siempre son medibles numricamente, no garantizando
por tanto una medida numrica de la credibilidad racional.

Existen otros conceptos de la probabilidad entre los que, por su originalidad, queremos destacar el
de sorpresa potencial de Shackle. En su obra Decisin, orden y tiempo (1966), este autor plantea de
forma muy ingeniosa el problema de la decisin frente al tiempo, teniendo slo en cuenta el momento
presente. En este contexto, el concepto de probabilidad es sustituido por las ideas de "sorpresa
potencial" y "grado de creencia" que resultan cuantificables si el individuo puede evaluar la distancia
entre distintas sorpresas potenciales. Para Shackle todo decisor racional puede establecer su espacio de
posibles resultados y asignar sus probabilidades, sin embargo el agente nunca es capaz de contemplar

16
1. Incertidumbre y probabilidad

Figura 1.1.: Probabilidad subjetiva

p B?
A ABpB?
pA=0.5 B pA=0.6
pB? pB?
...
Asignacin de
A B
probabilidades subjetivas
pA=0.5 pB?

ABpB? pB?
A BpB?
pA=0.4 pB?
pA=0.5
...

todas las posibilidades y puede producirse una sorpresa; de esta forma no existe el lmite unitario a la
probabilidad (podemos distribuir inicialmente una masa de probabilidad unitaria entre las distintas
posibilidades y ms tarde admitir una sorpresa no contemplada, con lo que al sumar esta probabilidad
supera la unidad).

El resultado numrico de la probabilidad subjetiva aparece directamente ligado al


individuo que lleva a cabo su cuantificacin, resultando imprescindible que exista
coherencia en el sistema de asignacin (por ejemplo, transitividad).
La traduccin numrica de los esquemas mentales individuales ("es muy probable
que..." o "cierto hecho me parece ms probable que algn otro") conlleva dificultades
derivadas de la propia subjetividad. En realidad no existe un mtodo de cuantificacin
de probabilidades subjetivas sino algunos mecanismos vlidos para su aproximacin.
Uno de estos mecanismos, defendido entre otros por De Finetti, es el estudio de las
condiciones en las que un individuo se encontrara dispuesto a apostar por determinado
suceso.
De este modo, si queremos calcular la probabilidad subjetiva de cierto suceso (que
nos seleccionen para un puesto que hemos solicitado, que nuestro equipo favorito gane
la liga, ...) podemos utilizar un sistema de apuestas, que resulta muy adecuado para
aproximar probabilidades ya que refleja nuestra "creencia" en el suceso, asumiendo
que existen racionalidad y sinceridad (es decir, obviamos el fanatismo, las apuestas
irreflexivas o las de "farol").
Otro sistema de asignacin de probabilidades subjetivas se tiene en los juegos: pode
mos idear un esquema de aproximacin de la probabilidad del suceso que nos interesa
mediante la comparacin con ciertas "loteras".

17
1. Incertidumbre y probabilidad

Consideremos el ejemplo cuya ilustracin aparece en la figura 1.1: a un individuo se


le plantea un juego (B) mediante el cual se le otorgara un premio en caso de que se
produzca el suceso considerado (que sea seleccionado para un puesto, que su equipo
gane la liga, etc). Preferira este juego u otro (A) en el que ganase el premio por
el mtodo clsico cara-cruz? Es evidente que esta sencilla decisin -que ilustramos
mediante una balanza- no proporciona por s misma una cifra de probabilidad, pero
aporta nueva informacin: si el individuo responde que prefiere el juego B (condi
cionar el premio al suceso), ello refleja que considera este hecho "ms probable" del
50%. Como consecuencia la balanza se inclinara en esta situacin hacia la derecha,
y viceversa en el caso contrario.
De este modo, tras la primera respuesta, segn el lugar hacia el que se incline la
balanza, deberemos alterar el contrapeso para la probabilidad desconocida. As, si la
primera respuesta es a favor del juego B, podramos considerar una nueva alternativa
A de probabilidad conocida y superior al 50% (por ejemplo, una urna en la que el
60% de bolas son xitos). En el caso de que el individuo todava prefiera jugar con
la opcin B frente a la urna, podemos concluir que la probabilidad subjetiva que le
asigna al suceso tambin supera el 60 % y as sucesivamente.
Las compensaciones podran ser efectuadas tambin en el otro sentido -tal y como
recoge la figura 1.1- si las respuestas fuesen a favor del juego aleatorio. Siguiendo este
esquema de razonamiento, el objetivo es aproximarse cada vez ms a la cuantificacin
de la probabilidad subjetiva.

1.2. La probabilidad y su cuantificacin


El anlisis histrico de los estudios probabilsticos revela que los primeros esfuerzos
fueron dirigidos a la solucin de problemas concretos, esto es, a la cuantificacin de la
probabilidad, ignorndose su concepto. En efecto, el noble francs Antoine Gambaud,
caballero de Mr, plante al famoso matemtico Blaise Pascal (1623-1662) uno de
los problemas probabilsticos ms antiguos y conocidos, relacionado con las apuestas
a las que de Mr era aficionado. La discusin de estos problemas dio lugar a una
extensa correspondencia entre los matemticos Pascal y Pierre de Fermat, quienes
nunca publicaron sus trabajos sobre probabilidad.

El problema planteado por de Mr, que habitualmente se designa "falacia de la Probabilidad"


surga al comparar dos apuestas, enunciadas como "Sacar al menos un 6 en 4 tiradas con un dado"
y "Sacar al menos una suma 12 en 24 tiradas con dos dados". Segn los clculos llevados a cabo por
de Mr, la probabilidad de xito era idntica en ambas apuestas, siendo las expresiones empleadas
en su clculo P(E)=4 16 = 0,66667 para la primera y P(E) = 24136 = 0, 66667 para la segunda.
Fueron las diferencias de rentabilidad obtenidas con ambas apuestas las que llevaron a de Mr a
consultar a Pascal.
[Por qu son incorrectos los clculos propuestos? qu concepto de probabilidad se aplica en estos
casos?]

La cuantificacin de probabilidades, que no es un tema completamente resuelto,


aparece asociado a la teora combinatoria. En efecto, para cuantificar el nmero de
casos favorables y posibles asociados a determinada experiencia debemos identificar

18
1. Incertidumbre y probabilidad

Figura 1.2.: Variaciones con repeticin. Selecciones sucesivas

Seleccin1" Alternativas tercera seleccin


para cada posibilidad de la
segunda

Alternativas segunda seleccin


para cada posibilidad de la primera

las condiciones en las que sta se realiza, evitando as confusiones como la que se
esconde tras la falacia protagonizada por de Mr.
Una vez especificadas estas condiciones, la cuantificacin de los casos (tanto favora
bles como posibles) se llevar a cabo mediante los conceptos de variaciones, permuta
ciones o combinaciones. Aunque no es nuestro objetivo efectuar un estudio detallado
de teora combinatoria, s resulta conveniente sealar -mediante ilustraciones- las di
ferencias entre los conceptos y las frmulas de clculo asociadas a los mismos.
Imaginemos a modo de ejemplo que el dominical de un peridico decide incluir en
cada ejemplar un cupn de sorteo con un nmero de 4 dgitos. Cuntos cupones dis
tintos existirn? Mediante un sencillo razonamiento -ilustrado en el grfico 1.2- puede
verse que las posibilidades son 10.000. En efecto, hay 10 opciones para el primer dgito
(en el grfico se han representado solamente 7 para no cargar excesivamente la figura)
y, para cada uno de stos, pueden a su vez seleccionarse 10 para el segundo. A su vez,
para cada una de esas 100 posibilidades tendramos otras 10 para el tercero y lo mismo
para el cuarto dgito. El clculo efectuado se corresponde con el caso de Variaciones
con repeticin de 4 elementos seleccionados entre 10 (tambin denominadas de 10
elementos de orden 4), y sus rasgos son la posibilidad de repeticin (la seleccin de
un dgito no le excluye para una nueva utilizacin) y la importancia del orden (es
relevante en qu lugar est situado cada nmero).

Definicin. Las Variaciones con repeticin de m elementos de orden n se obtienen


como: VRm,n = m.m . . .m = mn

Una variante se obtiene cuando se excluye la posibilidad de repeticin, apareciendo


as las Variaciones.
Como es lgico, en esta situacin disminuye el nmero de casos, ya que se eliminan
posibilidades respecto al supuesto con repeticin. De hecho, el nmero de cupones en
los que no se repiten cifras son 10.9.8.7, variaciones de 4 elementos distintos seleccio
nados (sin repeticin) entre 10.

19
1. Incertidumbre y probabilidad

Definicin. Las Variaciones de m elementos de orden n se obtienen mediante la


expresin:Vm,n = m(m 1)(m 2)(m n + 1), que se denomina "factorial gene
ralizado de m de orden n".

Las Variaciones aparecen con gran frecuencia en la prctica, donde es bastante


habitual excluir un elemento ya seleccionado. Supongamos, por ejemplo, que en el
dominical del peridico se desea 5 reportajes para otras tantas pginas, y deben decidir
entre un total de 12 trabajos ya elaborados. Como parece evidente que cada reportaje
slo puede ser utilizado una vez, nos encontraramos con Variaciones de 5 elementos
seleccionados sin repeticin entre 12, esto es, V12,5 = 12,11,10,9,8.
Qu sucedera si el nmero de reportajes disponibles fuese tan slo 5? En esta
situacin las variaciones anteriores presentan un rasgo particular: estamos seguros
de que todos los artculos aparecern recogidos en el suplemento y el nico rasgo
diferenciador ser por tanto el orden de los mismos. Nos encontramos as con un
caso particular de variaciones: las Permutaciones, en este caso de 5 elementos, cuyo
resultado sera 5.4.3.2.1=5!

Definicin. Las Permutaciones de m elementos son las ordenaciones posibles de los


mismos, y coinciden con las variaciones sin repeticin de m elementos de orden m:
Pm= Vm,m = m(m 1)(m 2)1 = m!

En las permutaciones slo aparece como elemento diferenciador el orden, supuesto


que todos los elementos ordenados son distintos entre s.
Imaginemos ahora que el suplemento dominical dedica su contraportada a publici
dad, para lo cual dispone de un total de 6 casillas. En principio podramos plantear
que, una vez seleccionados los seis anunciantes, hay 6! formas de configurar la contra
portada, segn el modo en que se ordene la publicidad.
Sin embargo qu sucedera si un mismo anuncio aparece dos veces, para enfatizar
as el efecto publicitario? En este caso el lector ver dos veces la misma imagen sin
distinguir posibles intercambios entre las casillas en las que se halla y en consecuencia
las ordenaciones percibidas no sern ahora 6! sino slo la mitad (dividimos entre 2!
formas en las que pueden ordenarse los elementos repetidos).
De modo similar, podra haber ms "anuncios repetidos", con la consiguiente re
duccin en las permutaciones [Qu sucedera por ejemplo si de los 6 anuncios hay 2
de un macroconcierto y otros 3 son la portada de un libro?]

Definicin. Las Permutaciones con repeticin recogen las ordenaciones de m elemen


tos, donde a, b, c ... son repetidos entre s. Su mtodo de clculo es:

P a,b,c PaPbPc
Pm = m!
m = a!b!c!
Supongamos por ltimo que el peridico decide aumentar el equipo de colaboradores
del dominical, al cual se incorporarn 3 trabajadores ms, seleccionados de entre
los 7 nuevos contratados. De cuntos modos pueden ser seleccionados estos nuevos
miembros del equipo?

20
1. Incertidumbre y probabilidad

En situaciones como la descrita, denominadas Combinaciones, se trata de extraer


subgrupos a partir de un total. Como consecuencia, el orden es un factor irrelevante
ya que simplemente nos interesa qu nuevos trabajadores integran el equipo pero no
qu lugar ocupan.
Cmo se cuantificaran las posibilidades de seleccionar esos 3 individuos entre
los 7 candidatos? Un posible razonamiento sera distinguir dos grupos: uno de ellos
integrado por los 3 que pasan al equipo y otro por los 4 trabajadores que se ocuparn
de otras tareas.
En la situacin planteada, lo nico que nos interesa distinguir es si un individuo
est o no en ese grupo. Por tanto, una aproximacin vlida consiste en partir del total
de posibles ordenaciones de los 7 individuos (7!) y eliminar de ellas las ordenaciones
dentro de cada grupo (no nos interesa cmo se ordenan los 3 que pasan al equipo ni
tampoco las ordenaciones de los 4 que no entran en el mismo). As se llegara a la
frmula de clculo de las combinaciones 7 sobre 3, esto es,
(
3 )
7 7!
=
3!4!

Definicin. Las Combinaciones de m de orden n son subconjuntos de n elementos


m!
seleccionados de un total de m: Cm,n =
n!(m n)!
Esta expresin se corresponde con el nmero combinatorio, cuya representacin en
forma tabular es el tringulo de Pascal, en el que cada trmino es suma de los dos
trminos situados inmediatamente por encima de l.

La expresin de las combinaciones puede ser obtenida como caso particular de permutaciones con
repeticin. Para ello, basta tener presente que nos interesa nicamente la agrupacin efectuada, por
lo cual del total de ordenaciones de los m elementos (m!) ignoramos las ordenaciones de los elementos
seleccionados para integrar los subconjuntos (n!) y tambin las de los no seleccionados(m n)!. Se
obtiene as: Cm,n = Pn,(mn)m.
Desde luego la teora combinatoria abarca otras expresiones de clculo que no hemos recogido aqu.
As, si por ejemplo distribuimos tres ejemplares del dominical entre 2 kioscos sin ninguna restriccin
(podran ir todos al mismo, por ejemplo), la expresin de clculo de las posibilidades vendra dada
por Combinaciones con repeticin, de aparicin menos frecuente que las anteriores y cuya frmula
guarda relacin con las combinaciones.
Las Combinaciones con repeticin permiten cuantificar las posibilidades de repartir en m grupos
un total de n elementos idnticos, a travs de la expresin: CRm,n = (m+n1)!
n!(m1)!)
. En concreto, para
el ejemplo propuesto se tendran combinaciones en dos grupos con tres elementos repetidos, cuya
frmula viene dada por
(2+31)!
CR2,3 =
3!1!

Las expresiones anteriores resultan tiles para solucionar el problema planteado por De Mr: El
clculo correcto para su primera apuesta viene dado por:

c.f. Resultados con al menos un 6 C4,1VR5,3 + C4,2VR5,2 + C4,3VR5,1 +1 =0,52


P(G) = c.p.
= Resultados en 4 tiradas = VR6,4

21
1. Incertidumbre y probabilidad

donde la presencia de Combinaciones corresponde a los "huecos" o tiradas en las que aparece el
resultado 6, mientras las Variaciones con Repeticin del numerador recogeran los posibles nmeros
para completar las restantes tiradas.
Por su parte, la segunda apuesta sera resuelta en los siguientes trminos:

c.f.
c.p. = Resultados con suma 12 en las 24 tiradas
P(G) =
Resultados en 24 tiradas
cuya cuantificacin resulta de mayor complejidad.
Como veremos en un apartado posterior, las probabilidades asociadas a estas dos apuestas pueden
ser cuantificadas de forma ms sencilla aplicando ciertas propiedades de la probabilidad.

1.3. Definicin axiomtica de la probabilidad


La caracterizacin axiomtica de la probabilidad es una idealizacin matemtica en
la cual encajan las diferentes interpretaciones. De este modo, con independencia de
cul sea el concepto de probabilidad que utilicemos, la probabilidad ser concebida
como una cantidad numrica asociada con un suceso que posee ciertas propiedades
bsicas expresadas por medio de axiomas.
En las primeras dcadas de este siglo se cuestionaba el significado de la probabilidad
y haban surgido diferentes concepciones de la misma; pareca imperiosa la necesidad
de formular un modelo terico sobre el que fundamentar el desarrollo sistemtico
del Clculo de Probabilidades y donde encajasen las diversas interpretaciones de la
probabilidad fuera cual fuera su concepcin.
Este modelo lo proporciona la teora axiomtica de la probabilidad, que sobre la
base de un reducido nmero de axiomas permite desarrollar todo el Clculo de Pro
babilidades, independientemente de cul sea el significado de la probabilidad; si una
concepcin satisface la axiomtica exigida, puede ser considerada una probabilidad
y por lo tanto puede aplicrsele todo el desarrollo posterior alcanzado por esa teo
ra. Adems, otra caracterstica de esta formalizacin es la de ser autnoma, es decir,
que se adhiere al principio de que el clculo de probabilidades es un mtodo para
transformar unas probabilidades en otras.
Las axiomticas establecidas en el primer cuarto de este siglo no tenan un carc
ter de formalizacin, sino que trataban de caracterizar concepciones concretas de la
probabilidad. Tras varios intentos, fue Kolmogorov quien en 1933 dio una axiomtica
para la probabilidad, hoy reconocida casi universalmente, sobre la que se fundament
el Clculo de Probabilidades. Esta axiomtica se basa en dos conceptos fundamentales:
lgebra o -lgebra de sucesos y la medida de probabilidad.
Para exponer la axiomtica de Kolmogorov, consideremos un fenmeno aleatorio,
y sea E el conjunto de resultados posibles, que tambin se denominan casos o sucesos
elementales; a E se le llama espacio muestral o suceso seguro.

Consideremos a modo de ejemplo el lanzamiento de un dado. Teniendo en cuenta que su resultado


no es predecible de una forma determinista, se tratar de un fenmeno aleatorio cuyos casos o sucesos
elementales sern: {1}, {2}, ..., {6}, que describen los posibles resultados en el lanzamiento del dado.

22
1. Incertidumbre y probabilidad

El espacio muestral E o suceso seguro estar formado por todos los posibles resultados: E={1, 2, ...,
6}.

No siempre nos interesar conocer la probabilidad de sucesos elementales, sino que


a veces estaremos interesados en la probabilidad de que ocurran determinadas combi
naciones de estos sucesos.

En el ejemplo anterior puede interesarnos no slo conocer la probabilidad de los resultados ele
mentales, sino tambin cuantificar la probabilidad de que el resultado sea par, mayor que 4 o menor
que 3, por ejemplo.

Por lo tanto tendremos que establecer una estructura que recoja estas combina
ciones. As, despus de definir ciertos sucesos (suceso imposible (vaco), unin, inter
seccin, complementario, diferencia y diferencia simtrica), acompaamos al espacio
muestral E de una familia de sucesos (o subconjuntos de l), A, que tiene cierta
estructura algebraica (-lgebra).

Definicin 1.3. Toda -lgebra se caracteriza por verificar las tres condiciones si
guientes:

1. El suceso imposible est en A


2. Si un suceso est en A, su complementario Ac = A tambin lo est

3. La unin numerable de conjuntos de A, pertenece a A, A1,A2,... A,i=1Ai


A
Cuando se sustituye la condicin 3) por la unin finita, el resultado es un lgebra. En
espacios muestrales finitos ambos conceptos coinciden.

En el ejemplo del lanzamiento del dado, el lgebra de sucesos estara formado por los sucesos
elementales: {1}, {2}, ..., {6}, sus complementarios: {2,3,...,6}, {1,3,...,6}, ..., {1,2,...,5}, la unin
de cada dos sucesos elementales: {1,1},{1,2}, ....,{1,6},{2,1}, ...,{2,6}, ...,{6,1},{6,2},....,{6,6}, los
complementarios de estos sucesos, la unin de cada 3 sucesos elementales, sus complementarios, ....,
las intersecciones, etc. [Cuntos elementos integrarn este lgebra?]

Definicin 1.4. A cada elemento de A se le llama suceso, y al par (E,A) se le


denomina espacio probabilizable (o espacio medible).

Sobre cada espacio probabilizable pueden definirse distintas medidas de probabili


dad. Siguiendo la formulacin dada por Kolmogorov, podemos establecer la siguiente
definicin:

Definicin 1.5. Dado un espacio probabilizable (E,A), una medida de probabilidad


es una aplicacin de A en :

P:AAP(A)

que verifica las siguientes propiedades:

23
1. Incertidumbre y probabilidad

1. P(A)0,AA
2.P(E)=1

3. Si A1,A2,...,An ,... pertenecen a A y son incompatibles dos a dos, entonces la


probabilidad de la unin es la suma de probabilidades:


Ai Aj = , i = j P (i=1Ai) = P(Ai)
i=1

Cuando el espacio muestral es finito, la familia A queda reducida a un lgebra (que


puede ser partes de E), y el tercer axioma de la probabilidad puede ser sustituido
por la aditividad finita. Sin embargo, cuando el espacio muestral es infinito, tenemos
que definir la probabilidad sobre una -lgebra, ya que no podemos definir una me
dida sobre la familia de todos los subconjuntos de E, de forma que siga verificando
la propiedad de aditividad numerable. La terna (E,A,P) se denomina espacio de
probabilidad.
Sobre el espacio muestral anterior, el lgebra de sucesos estar formada, entre otros, por los siguien-
tes: A={{1},...,{6},....{2,4,6},...,{1,2},...,{5,6},...}. Sobre el espacio probabilizable (E,A) podemos
definir distintas medidas de probabilidad, por ejemplo:

P:AAP(A)
16
P({1})= 16 ,P({2})= ,...,P({6})=16
P({2,4,6}) = P({2}) + P({4}) + P({6}) = 36 por tratarse de la probabilidad de una unin de
sucesos incompatibles.
P({5,6})=P({5}{6})=P({5})+P({6})=26

P({1,2})=26
Con lo cual, bajo la estructura de lgebra podemos responder a las preguntas que nos habamos
planteado como probabilidad de obtener un nmero par, mayor que 4 o inferior a 3. De igual forma
podemos calcular la probabilidad de cualquier otro suceso que nos planteemos sobre los resultados
del lanzamiento de un dado.
Esta funcin de probabilidad cumple los axiomas anteriores [Comprubese]
La cuantificacin de probabilidades para sucesos compuestos se llev a cabo a partir de la asignacin
hecha a los sucesos elementales. Si, por ejemplo, hacemos una nueva asignacin de probabilidad a los
sucesos elementales:

P({1})=212,P({2})=112,P({3})=212,P({4})=112,P({5})=212,P({6})=412
es fcil comprobar que nos conducira a otra funcin de probabilidad diferente. [Obtener la proba
bilidad de los sucesos anteriores]. Observamos por tanto que sobre un espacio probabilizable pueden
definirse diversos espacios de probabilidad.

Los axiomas anteriores estn inspirados en las propiedades de las frecuencias y resultan aplicables
en una amplia variedad de situaciones. As, si un trabajador, ante la incertidumbre laboral, desea
obtener la probabilidad de que su actual contrato sea prorrogado, el experimento tendra dos resul
tados posibles, que podemos denotar por T: continuar contratado y S: ser despedido. El espacio

24
1. Incertidumbre y probabilidad

muestral E estar entonces formado por esos dos sucesos elementales: E = {T,S} y para cuantificar
la probabilidad de cada suceso podramos basarnos en informacin frecuencial sobre renovacin de
contratos. A modo de ejemplo, si sabemos que el 75 % de los contratos han sido renovados se tendra:
f(T) = 34; f(S) = 14 .
Resulta evidente que las frecuencias obtenidas en ningn caso sern negativas. Por su parte la
frecuencia del suceso seguro viene dada por:

nn
dede
realizaciones
vecesque ocurre
del experimento
(T o S) = 4
f(E) = f(T S) = =1
4

Sobre esta expresin podemos comprobar que, dado que T y S no tienen interseccin comn, se
verifica:

f(T S) = n de ocurrencias de T+n de ocurrencias de S 3+1 f(T) +f(S)


4 =
4 =
por tanto, observamos que las frecuencias relativas verifican los tres axiomas exigidos a la probabili
dad. [Comprobar que la probabilidad clsica tambin verifica los axiomas anteriores]

La axiomtica de Kolmogorov fue posible gracias al gran desarrollo alcanzado por la teora de
la medida y la integral de Lebesgue; por otra parte, su desarrollo se debi en gran medida a la
identificacin entre sucesos y conjuntos, puesta de manifiesto por Stone en 1936, mediante el teorema
que lleva su nombre. Esta circunstancia le permiti tambin aprovechar los conocimientos relativos a
la teora de conjuntos y gracias a este isomorfismo podemos utilizar indistintamente la terminologa
de sucesos (imposible, incompatibles, ...) o la relativa a conjuntos (vaco, disjuntos, ...).
En la axiomtica original dada por Kolmogorov el axioma 3) se encontraba desdoblado en dos
axiomas: aditividad finita y continuidad montona en el vaco; sin embargo, algn tiempo despus se
demostr que estos supuestos eran equivalentes a la aditividad numerable.

1.3.1. Propiedades elementales de la probabilidad


Como consecuencia de los axiomas de Kolmogorov, dados los sucesos A y B se
cumplen una serie de propiedades bsicas:
1. P(Ac)=1P(A)

2. P()=0

3. Si A B entonces P(A) P(B)

4. P(A B) = P(A) + P(B) P(A B)

La comprobacin de estas propiedades es bastante inmediata:


1. E = A Acentonces P(E) = P(AAc); teniendo en cuenta el segundo axioma la probabilidad
del suceso seguro es la unidad y si adems consideramos que un suceso y su complementario
son disjuntos, el axioma 3 nos dice que esa probabilidad es la suma de las probabilidades de
los dos sucesos, luego: P(E)=1= P(A) + P(Ac); de donde se tiene: P(Ac)=1 P(A)

2. Este resultado se deduce del anterior teniendo en cuenta que Ec = .

25
1. Incertidumbre y probabilidad

3. Como A B, podemos expresar B como: B = A (B Ac), siendo los dos sucesos que
forman la unin (A y B Ac) disjuntos [por qu?], de donde el axioma 3 asegura: P(B) =
P(A) + P(B Ac), y como la probabilidad es una funcin no negativa (P(B Ac) 0), por
tanto se tiene la proposicin enunciada [por qu?].
4. Los sucesos A y B pueden ser expresados de la siguiente forma: A = (A B) (A Bc), B =
(A B) (Ac B) siendo los sucesos interseccin considerados en los dos casos disjuntos
[por qu?], por lo cual se tiene: P(A) = P(A B) + P(A Bc), P(B) = P(A B) +
P(Ac B). Por otra parte A B puede descomponerse como unin de sucesos disjuntos:
A B = (A Bc) (A B) (Ac B), con lo que su probabilidad puede obtenerse como:
P(AB) = P(ABc)+P(AB)+P(Ac B) Teniendo en cuenta las expresiones anteriores
y sustituyendo se llega al resultado enunciado. [Completar la justificacin]

Esta ltima propiedad puede extenderse a un mayor nmero de sucesos; por ejemplo si C es otro
suceso se tiene:

P(ABC)=P(A)+P(B)+P(C)P(AB)P(AC)P(BC)+P(ABC)

[Justificar este enunciado]

Los valores extremos de probabilidad sugieren algunos comentarios. Como hemos comprobado el
suceso imposible tiene probabilidad nula; sin embargo, algunas veces incluimos dentro del suceso
imposible ciertos resultados que, aunque no tienen asignada probabilidad inicial, podran llegar a
ocurrir, hecho que contradice o bien la asignacin de probabilidad nula o bien la especificacin del
experimento.
Un ejemplo muy intuitivo para ilustrar esta discusin es el experimento consistente en lanzar una
moneda. Los resultados que consideramos posibles son cara (C) y cruz (F), por lo cual el suceso
seguro ser E={C,F} y su complementario ser considerado como suceso imposible; sin embargo, al
lanzar una moneda, sta puede caer de canto, resultado que es complementario al suceso seguro y en
cambio no es imposible.
Este mismo ejemplo nos sirve para reflexionar sobre la probabilidad unitaria: el hecho de que sea
posible obtener resultados fuera de E nos exigira asignar a ste una probabilidad inferior a la unidad.
La solucin de estos problemas puede basarse en una revisin del espacio muestral, incluyendo su
cesos de probabilidad nula (sera la probabilidad asignada a caer de canto una moneda); sin embargo,
esta solucin podra ser compleja cuando trabajamos con espacios muestrales infinitos. Otra solucin
posible ira en la lnea de la sorpresa potencial de Shackle, donde la probabilidad puede alcanzar
valores superiores a la unidad.
En el trabajo habitual no suele adoptarse ninguna de las soluciones propuestas, pero conviene ser
conscientes de la posibilidad -aunque remota- de que aparezca este problema.
[Si al lanzar 1.000.000 veces una moneda la frecuencia relativa de que sta quede de canto es
prcticamente despreciable convertira este hecho en "imposible" al resultado?]

La axiomtica dada por Kolmogorov es la habitualmente utilizada, pero no es la nica. Otras


axiomticas importantes han sido desarrolladas por Renyi y Popper.
A. Renyi (1954) elabor una axiomtica de la probabilidad basada en el concepto de probabilidad
condicionada que generaliza la introducida por Kolmogorov.
Por su parte, la teora formal introducida por Popper en su gran obra La lgica de la investigacin
cientfica (1934) puede ser considerada "abstracta" y supera algunas limitaciones de las axiomticas
anteriores.

26
1. Incertidumbre y probabilidad

1.4. Probabilidad condicionada e independencia


Como ya hemos comentado, la asignacin de probabilidades slo en ciertas ocasio
nes puede ser efectuada de forma exacta, resultando habitual que existan distintas
estimaciones de la verosimilitud de cierto suceso.
Una de las razones -pero no la nica- que justifica estas diferencias en la asignacin
de la probabilidad es la subjetividad a la que ya hemos aludido: el hecho de que
un individuo sea ms o menos optimista, su propia opinin respecto a un tema, le
pueden llevar a asignar probabilidades mayores a los hechos que considera deseables
y viceversa para los que querra evitar.
En ciertos casos, las diferencias entre las probabilidades, pueden venir tambin jus
tificadas por la informacin disponible, que conducir a la asignacin de probabilidad
condicionada a dicha informacin.
A modo de ejemplo, al calcular la probabilidad de renovacin de un contrato se-
r interesante disponer de informacin lo ms amplia y actualizada posible sobre las
distintas posibilidades futuras, de modo que al incorporar esta informacin la proba
bilidad asignada ser "condicionada".
A menudo tiene inters estudiar cmo un suceso puede condicionar a otro, de modo
que la disponibilidad de informacin llega a alterar las probabilidades asignadas a los
posibles resultados.
Consideremos un nuevo ejemplo, representado en la tabla que sigue: se trata de la
distribucin porcentual de los contratos, clasificados segn un doble criterio: el tipo
de contrato (clasificado en tcnicos y de gestin) y el sector de actividad (industria o
servicios).

Sexo
Tcnicos
\ Sector 40
Industria 25
Servicios

Gestin 10 25

Si a partir de la informacin anterior comparamos la proporcin de contratos de


los dos sectores de actividad -que sera equivalente a la probabilidad de cada uno de
ellos- observamos que stas son coincidentes ( c.f. c.p. =
0,5 en los dos casos). Sin embargo
qu ocurrira si nos interesasen especficamente los contratos tcnicos? En este caso
eliminaramos de nuestro anlisis los contratos de gestin (que representan un 35%
del total) y pasaramos a considerar nicamente el 65% restante (primera fila de la
tabla).
En consecuencia, ahora la industria tendra una mayor proporcin de contratos
(c.f.c.p. = 40
65 frente a los servicios, donde se obtiene c.f. 25
c.p. = 65).

1.4.1. Probabilidad condicionada


La informacin desempea un papel relevante en la asignacin de probabilidades.
Definicin 1.6. La probabilidad condicionada por un suceso B (P(B)>0), se define
para cada suceso A A como:

27
1. Incertidumbre y probabilidad

P(A/B) = P(AB)P(B)

Esta expresin puede ser aplicada en el ejemplo anterior, en el que denominaremos


T, G, I y S a los sucesos "Tcnicos", "Gestin", "Industria" y "Servicios", respectiva
mente. Las probabilidades iniciales seran entonces P(I) = P(S) = 50100, mientras las
probabilidades condicionadas al perfil tcnico se obtendran, aplicando la definicin
anterior:

P(I/T)=P(IT)P(T)=4010065
100 =4065;P(S/T)=P(ST)P(T)=2510065
100 =2565

De una manera ms formal podemos establecer la siguiente definicin:

Definicin 1.7. Dado un espacio de probabilidad (E,A,P) y un suceso B (B A) con probabi


lidad no nula (P(B) > 0), denominamos probabilidad condicionada por el suceso B a una aplicacin
PB definida como:
P(A B)
PB () : A A PB (A) = P(A/B) = [0,1]
P(B)

[La funcin toma valores no negativos por ser el cociente de dos probabilidades, donde cada una
de ellas es no negativa].

La funcin PB cumple la axiomtica de Kolmogorov.


En efecto, tendramos que comprobar que:

1. PB(A)0
2. PB(E)=1
3. Dada una coleccin de sucesos A1,A2,...,An (Ai A) disjuntos dos a dos, se tiene:
Ai
ni=1 ) n /B n
PB ( = P (( Ai) )= P(Ai/B)
i=1 i=1
P(AB)
El primer axioma se comprueba de modo inmediato ya que se tiene P(A/B) = P(B) 0,
por serlo el numerador.
P(EB) = P(B) = 1
Por lo que se refiere al segundo axioma, se tiene: P(E/B) = P(B) P(B)
Consideremos ahora la coleccin de sucesos especificada en el tercer axioma; se verifica:
ni=1Ai ) ni=1
) /B P ((ni=1Ai ) B (ni=1(AiB))
) P
PB ( =P (( Ai )= P(B) P(B)
=

teniendo en cuenta que los sucesos Ai B son disjuntos dos a dos [por qu?], el axioma iii) de la
caracterizacin de Kolmogorov, garantiza:

28
1. Incertidumbre y probabilidad

n
P(B) B)
P(Ai
n Ai =ni=1 P(AiB)P(B) = n n
i=1
PB ( )= P(Ai/B) = PB(Ai)
i=1 i=1 i=1

Puede extenderse sin ningn problema la justificacin anterior al caso de una sucesin infinita de
sucesos.
Queda pues comprobado que la probabilidad condicionada PB es una verdadera funcin de pro
babilidad.
En la definicin anterior el suceso que condiciona (B) debe tener una probabilidad positiva para
que el cociente de probabilidades est definido. Pero podemos preguntarnos qu ocurrira si B tuviese
asignada probabilidad nula? En este caso caben dos tipos de argumentacin: por un lado podramos
decir que no tiene sentido condicionar a un suceso imposible puesto que esta condicin en la prctica
no se va a dar; sin embargo, utilizando el concepto frecuencial de la probabilidad existen sucesos
que nunca se han verificado, que por tanto tienen probabilidad nula, y que podran servirnos para
hacer simulaciones del tipo "qu habra ocurrido si ....?"; esto es, existen hechos sobre los que no
disponemos de experiencia y que sin embargo de verificarse habran alterado los resultados posteriores.

En tales supuestos resulta claro que la definicin anterior de probabilidad condicionada no es


adecuada. Una alternativa puede ser replantearse el espacio de probabilidad que sirvi para establecer
la definicin e introducir un nuevo lgebra AB de la forma siguiente:

AB = {AB/A A}

[AB cumple las condiciones de lgebra o -lgebra si lo es A].


Ahora sobre el nuevo espacio probabilizable (E,AB) podemos definir la probabilidad condicionada
como una funcin de probabilidad general.

Una idea de gran inters y trascendencia en los anlisis estadsticos es el concepto


de independencia en probabilidad.

1.4.2. Independencia en probabilidad


Este concepto admite una interpretacin muy intuitiva:

Definicin 1.8. Dados dos sucesos A, B A, se dice que A es independiente de B


cuando la probabilidad de ocurrencia de A no se ve afectada por la de B, es decir:
P(A/B) = P(A).

[Establecer la definicin "B independiente en probabilidad de A"]


Proposicin 1.1. La definicin de independencia en probabilidad es equivalente a la
relacin:

P(A B) = P(A)P(B)

conocida como condicin de independencia.

Demostracin. En efecto, si A es independiente en probabilidad de B, se tiene: P(A/B) =


P(A)

29
1. Incertidumbre y probabilidad

Por otra parte, teniendo en cuenta la definicin de probabilidad condicionada se


verifica: P(A/B) = P(A B)/P(B)
Igualando las dos expresiones y despejando se obtiene: P(A B) = P(A)P(B).
Recprocamente, si se verifica la condicin de independencia, entonces A es inde
pendiente de B. En efecto, partimos ahora de la relacin P(A B) = P(A)P(B), y
por otra parte, segn la probabilidad condicionada se tiene:
P(A/B) = P(A B)/P(B), de donde: P(A B) = P(A/B)P(B)
Los primeros miembros son iguales con lo cual igualando los segundos se obtiene:
P(A) = P(A/B) lo que concluye la demostracin

Gracias a la condicin de independencia y a las propiedades anteriormente vistas, estaramos en


condiciones de resolver de modo ms rpido el problema planteado por de Mr.
En efecto, aplicando la propiedad relativa a la probabilidad del complementario, el clculo correcto
de la apuesta 1 vendra dado por:

P(G)= 1 P(Ningn 6 en las 4 tiradas) =


= 1 P(No 6 en la 1)P(No 6 en la 2)P(No 6 en la 3)P(No 6 en la 4) =
= 1 ( 56 )4 = 0,52

Por su parte, para la apuesta II se tiene el clculo:


( )24
P(G)=1 P(Ninguna suma 12 en las 24 tiradas)=1 36
= 0,491
36

La condicin de independencia es una relacin simtrica de los sucesos A y B; por tanto si A es


independiente de B, B tambin ser independiente de A. Por este motivo, en el futuro slo hablaremos
de sucesos independientes sin especificar ningn sentido para esa independencia.

Aunque no se haya hecho una mencin explcita a ello, la definicin de independencia se apoya en
la probabilidad condicionada que exige que el suceso que condiciona tenga una probabilidad no nula;
esto es, P(B) > 0; y como la independencia entre A y B implica la misma entre B y A, tambin debe
cumplirse P(A) > 0.
La equivalencia probada entre la definicin y la condicin de independencia es vlida para todo
par de sucesos de probabilidades no nulas.
Si por ejemplo P(B) = 0 y A es otro suceso cualquiera, la definicin de "A independiente de
B" no puede aplicarse con lo cual no podremos afirmar nada al respecto. Sin embargo, aplicando la
condicin de independencia se tiene: P(A B) P(B)=0, por tanto: P(A B)=0.
Por otra parte: P(A)P(B) = P(A),0=0, de donde se obtiene: P(A B) = P(A)P(B).
De la comprobacin anterior se extraen dos consecuencias: la primera es que la condicin de
independencia es ms general que la definicin establecida y es aplicable a cualquier par de sucesos A
y B; y la segunda es que un suceso de probabilidad nula siempre es independiente de cualquier otro.

Hemos expresado el concepto de independencia ligado al de probabilidad; sin embargo pueden es-
tablecerse diversos conceptos de independencia segn cul sea la referencia respecto a la que medimos
esa independencia. De hecho, esta idea guarda relacin con la independencia estadstica, que viene
expresada en trminos de frecuencias relativas.

30
1. Incertidumbre y probabilidad

Otro concepto que guarda gran similitud con los anteriores es el de independencia en informacin;
un suceso A es informativamente independiente de otro B, si la informacin que proporciona el pri
mero no disminuye al conocerse la que puede suministrar el segundo. Si introducimos una medida I
indicativa de la informacin que contiene un suceso, representamos por I(A) la informacin suminis
trada por A y por I(A/B) la informacin que permanece en A cuando se conoce B. Pues bien, A
ser independiente en informacin de B si I(A) = I(A/B), es decir, la informacin que proporciona
A cuando se conoce B es la mxima que puede suministrar y por tanto B no contiene informacin
sobre A.

1.5. Probabilidad total y teorema de Bayes


En algunos casos, un mismo resultado puede tener lugar bajo distintas situaciones
alternativas, por lo que su probabilidad debe ser cuantificada mediante una "frmula
compuesta".
Consideremos por ejemplo las perspectivas de renovacin de contrato de un traba
jador, que lgicamente estarn relacionadas con el contexto econmico. Como conse
cuencia, la cuantificacin de la probabilidad total de renovacin del contrato exigir
tomar en cuenta los distintos escenarios o posibilidades que podran presentarse.
Admitamos para simplificar que las perspectivas futuras se limitan a tres posibi
lidades recogidas en la tabla: la existencia de un crecimiento econmico significativo
que parece la situacin ms verosmil (digamos con probabilidad del 60 %) permitira
a la empresa renovar todos los contratos; una segunda posibilidad sera el estanca
miento, al que se asigna una probabilidad del 10% y en cuyo caso se renovaran el
80% de los contratos y por ltimo se contempla la posibilidad de crisis econmica
(con una verosimilitud del 30%), escenario en el que slo un 50% de los contratos
seran renovados.
La informacin disponible se resume en la tabla
Alternativa Probabilidad Renov. Contratos
Expansin (X) 0,6 100%
Estancamiento (E) 0,1 80%
Crisis (C) 0,3 50 %
Como es lgico, las tres alternativas de futuro X, E y C son incompatibles y cada
una de ellas puede tener interseccin con el resultado que nos interesa (renovacin de
contrato, R).
Se tiene entonces P(R) = P((R X) (R E) (R C)) = P(R X) + P(R
E)+P(RC) que, aplicando la frmula de la probabilidad condicionada, pueden ser
expresadas a su vez como:

P(R) = P(R/X)P(X) + P(R/E)P(E) + P(R/C)P(C)=0,6+0,08 + 0,15 = 0,83

En ocasiones nos interesa conocer cul es la probabilidad de que el suceso se haya


producido bajo una situacin concreta. Por ejemplo, si a un trabajador se le informa

31
1. Incertidumbre y probabilidad

de que su contrato ser renovado qu probabilidad asignaramos a la existencia de


expansin econmica? y a la crisis? Este tipo de razonamiento plantea un "ajuste" en
el sistema de probabilidades iniciales a medida que incorporamos nueva informacin.
En concreto, con el supuesto planteado tendramos para la situacin concreta R
la expresin condicionada: P(X/R) = P(X R)/P(R) cuyo denominador ha sido
calculado mediante probabilidad total.
As pues, el resultado de esta probabilidad sera P(X/R) = 0,60,83 = 0,72, esto es, una
vez confirmada la renovacin del contrato, estimaramos en un 72% la probabilidad
de expansin econmica.
De modo anlogo se revisaran las probabilidades de estancamiento y crisis. Este
ejemplo ilustra los teoremas de la probabilidad total y de Bayes, de gran importancia
en la evolucin de la estadstica.

1.5.1. Sistema completo de sucesos


Antes de formalizar esos teoremas debemos introducir el concepto de particin.

Definicin 1.9. Dado un sistema de sucesos A1,...,An A, se dice que forman


una particin o un sistema completo de sucesos, si todos ellos son "factibles", esto
es, tienen una probabilidad positiva de verificarse, son incompatibles dos a dos y su
unin cubre todo el espacio muestral.

1. P(Ai)>0,i=1,...,n

2. AiAj=, i=j
3. ni=1 Ai = E, que aplicando la funcin de probabilidad a ambos miembros y
teniendo en cuenta 2) equivale a: P(E)=1= ni=1 P(Ai)

[Las alternativas de futuro del ejemplo anterior forman una particin. Por qu?]

1.5.2. Teorema de la probabilidad total


Teorema 1.1. Dado un espacio de probabilidad (E,A,P) sobre el cual se puede esta
blecer una particin (A1 ,...,An), la probabilidad de un suceso cualquiera B, (B A),
puede calcularse mediante la siguiente expresin:
n
P(B) = P(B/Ai)P(Ai)
i=1

Esta relacin se conoce como frmula de la probabilidad total, porque permite cal
cular la probabilidad total de un suceso a partir de las probabilidades de sus partes
(intersecciones con los elementos de la particin).

Demostracin. En efecto, podemos expresar: B = B E


deComo
(A1 ,...,An) forman
los mismos implica que B =unBE
sistema completo
= B( de sucesos, la tercera caracterstica
ni=1 Ai) = ni=1(BAi). Los elementos

32
1. Incertidumbre y probabilidad

Figura 1.3.: Sistema completo de sucesos

de la particin son incompatibles dos a dos, (BAi) Ai, por tanto esas intersecciones
son tambin incompatibles dos a dos y en consecuencia si aplicamos la funcin de
probabilidad, se tiene:
P(B) = P ( ni=1(B Ai)) = ni=1 P(B Ai) [por qu?]
Por otra parte, de la frmula de la probabilidad condicionada se sigue:
P(B/Ai) = P(BA
P(Ai )
i)
, y despejando: P(B Ai) = P(B/Ai)P(Ai)
Por tanto sustituyendo en la expresin anterior, resulta:
P(B)=ni=1P(B/Ai)P(Ai)

La interpretacin del teorema de la probabilidad total aparece ilustrada en el esque


ma adjunto 1.3, donde los sucesos de la particin son representados como piezas de
un puzzle (incompatibles y cuya unin es el espacio muestral). Segn el enunciado de
este teorema, la probabilidad de que se presente un determinado efecto final (suceso
B) puede ser evaluada considerando las verosimilitudes del suceso B bajo las distintas
alternativas (sucesos de la particin, Ai), debidamente ponderadas por la probabilidad
asociada a cada alternativa.
Sin duda la propiedad de la probabilidad que ha alcanzado una mayor trascendencia
es el siguiente resultado.

1.5.3. Teorema de Bayes


Teorema 1.2. Dada una particin A1,...,An de E y otro suceso B tal que P(B) > 0,
el teorema de Bayes nos dice que entonces:

33
1. Incertidumbre y probabilidad

P(B/Ai)P(Ai )
P(Ai/B) = n
i=1 P(B/Ai )P(Ai )

Este teorema fue enunciado por primera vez por Bayes en 1763, aunque ste slo lo demostr para
el caso de equiprobabilidad de las causas (Ai ). La demostracin completa del teorema corresponde a
Laplace (1812).

Demostracin. Vamos a demostrar este resultado. Aplicando la definicin de proba


bilidad condicionada se tiene:
P(B/Ai) = P(BA
P(Ai )
i)
, de donde P(B Ai)= P(B/Ai)P(Ai).
por la expre
Por otra parte, P(Ai/B) = P(AiB)P(B) y sustituyendo el numerador
sin anterior y el denominador por la frmula de la probabilidad total, obtenemos el
resultado enunciado.
Las probabilidades P(Ai) se denominan probabilidades iniciales o a priori o probabi
lidades de las causas; las P(Ai/B) se denominan probabilidades finales o a posteriori,
probabilidades que se asignan a las causas despus del conocimiento del suceso B; y
las P(B/Ai) se conocen como verosimilitudes. La frmula de Bayes nos indica cmo la
informacin proporcionada por el suceso B modifica las probabilidades iniciales que,
mediante el empleo de la verosimilitud, transforma en probabilidades finales. Tam
bin puede interpretarse este teorema en los siguientes trminos: si consideramos el
suceso B como un efecto (resultado de alguna observacin o experimento), entonces
la frmula anterior nos indica la probabilidad de que Ai sea la causa de B.
Para el ejemplo propuesto, la introduccin de informacin adicional (renovacin o
no del contrato) permitira pasar de las probabilidades iniciales a probabilidades a
posteriori segn indica la tabla siguiente [Justificar cmo se ha obtenido cada uno de
estos resultados]:
Probabilidades
Alternativa A priori P(Ai) Condicionadas a Condicionadas a
Renovacin P(Ai /R) no RenovacinP(Ai/R)
Expansin (X) 0,6 0,72 0
Estancamiento (E) 0,1 0,10 0,12
Crisis (C) 0,3 0,18 0,88

Es fcil comprobar cmo las "correcciones" incorporadas a las probabilidades a


priori van en la direccin esperada segn la informacin recibida: si sabemos que
producir la renovacin de un contrato, tenderamos a pensar que es ms verosmil la
expansin econmica (cuya probabilidad pasa a ser del 72%). Si por el contrario la
informacin es que no se producir la renovacin, la probabilidad ms afectada al alza
es la de crisis econmica que pasa a situarse en un 88 %.
La principal dificultad del teorema de Bayes estriba en calcular o definir las probabilidades iniciales.
Este fue un tema de gran controversia que dio lugar a dos concepciones distintas de la estadstica: la
clsica y la bayesiana.

34
2. Magnitudes aleatorias
A menudo resulta interesante el estudio de magnitudes cuyo valor es imposible
predecir de forma exacta. En estas situaciones, las tcnicas estadsticas descriptivas
-aunque tiles- son insuficientes, revelndose como imprescindible la utilizacin de
probabilidades para cuantificar la potencialidad.
A modo de ejemplo, si consideramos la actualidad econmica de una jornada, es
posible que aparezcan noticias referidas a los beneficios de las entidades bancarias,
el nivel de precios, los nuevos empleos que se generarn asociados a una inversin, el
crecimiento del PIB, . . .
Aunque todas estas caractersticas tienen elementos comunes, tambin se aprecian
entre ellas algunos rasgos diferenciales. As, para tratar la informacin relativa a los
beneficios de entidades bancarias podramos aplicar herramientas de estadstica des
criptiva, ya que estamos describiendo informacin pasada. Por el contrario, el plan
teamiento cambiara si la informacin se refiere al nmero de empleos que de forma
directa o indirecta sern generados por cierta inversin, ya que en este caso hablamos
de un hecho futuro y por tanto existir un componente de incertidumbre. De mo
do anlogo, esta presencia de incertidumbre se manifiesta en hechos que, aun sin ser
futuros, no pueden ser analizados desde un punto de vista determinista, al resultar
imposible un anlisis exhaustivo de los mismos. De ah que las informaciones relativas
al crecimiento del PIB o la inflacin sean estimaciones, basadas en informacin parcial
y que aparecern acompaadas de alguna medida de su credibilidad, en trminos de
probabilidad.

2.1. Variable aleatoria. Variables discretas y continuas


Cuando la realidad se estudia de forma descriptiva, las variables estadsticas resul
tan adecuadas, al describir o representar esa realidad mediante sus correspondientes
valores y frecuencias.
Este mismo esquema puede ser trasladable a la descripcin de magnitudes alea
torias, categora en la que se incluyen gran parte de los fenmenos econmicos, que
raramente son predecibles de forma determinista ya que suelen contener una compo
nente estocstica.
Aparece as el concepto de variable aleatoria (v.a.), de gran trascendencia en los
anlisis inferenciales, entendido como una funcin numrica de los resultados asociados
a fenmenos aleatorios.
En ciertas ocasiones, esta realidad econmica aparece directamente como una varia
ble, esto es, descrita mediante valores. Por el contrario, otros fenmenos se presentan

35
2. Magnitudes aleatorias

Figura 2.1.: Variables aleatorias

en principio como categoras ("sector econmico en el que se incluye una actividad",


"situacin laboral de un individuo", "contexto econmico", ...) por lo cual resulta
conveniente una transformacin de las mismas, que lleve aparejada su descripcin
numrica.
Consideremos un experimento aleatorio que describe la situacin laboral de un indi
viduo w. El conjunto de posibles resultados ser: E = {A = activo,NA = noactivo}.1
Consideremos definida sobre este espacio muestral una variable X que asigna el valor
1 a A y 0 a NA. Est claro que esta funcin es una variable aleatoria, puesto que si
elegimos al azar un individuo w no podemos conocer de forma exacta si el valor que
le asignar X es 0 o 1, aunque s podremos llegar a calcular la probabilidad con la
que puede tomar esos valores.

Una variable aleatoria debe transformar los resultados de un fenmeno aleatorio,


elementos del espacio muestral E, en nmeros reales, luego ser una aplicacin X de
E en . Como el resultado del fenmeno es incierto, el valor de la aplicacin tambin
lo ser, pero la identificacin de resultados con valores (reales), lleva implcita la
identificacin de sus probabilidades.
Sin embargo, el conocimiento de la probabilidad representa ms un hecho cualitativo
que cuantitativo, pues en el ejemplo anterior slo nos informa sobre las posibilidades
de encontrarse en cada una de esas categoras, sin detenerse en las valoraciones que
stas llevan implcitas.
1Segn la Encuesta de Poblacin Activa del INE, se definen como activas aquellas personas que
realizan una actividad econmica (caso de los empleados u ocupados) o que, no realizando tal
actividad, estn en condiciones y desean hacerlo (caso de los desempleados o parados).
En el suceso complementario NA consideramos por tanto la poblacin inactiva, en la que se
incluyen los estudiantes, los jubilados, las personas dedicadas exclusivamente al cuidado del propio
hogar y las personas incapacitadas para trabajar.

36
2. Magnitudes aleatorias

Figura 2.2.: Probabilidad inducida

Supongamos una funcin aleatoria que asigna valor unitario a la situacin de acti
vidad. Tal y como muestra la figura 2.1todos los activos conducen al valor 1; por lo
tanto tendremos tantas posibilidades de obtener 1 como de seleccionar un activo. As
pues, el sistema inicial de probabilidades sobre E induce un nuevo sistema P sobre
, de manera que P(1) = P(A) y P(0) = P(NA). Esta probabilidad inducida viene
inferida por la definicin de la v.a. que especifica a qu valores se les asigna una pro
babilidad no nula y por el sistema inicial de probabilidades que permite la asignacin
de su cuanta.

De una forma ms general, necesitamos establecer un espacio probabilizable sobre el cuerpo de los
nmeros reales, y a partir de l definir la probabilidad (inducida) que permita esa identificabilidad
El espacio nos lo proporciona y la -lgebra de Borel, , definida sobre ; esta -lgebra estar
formada por todos los intervalos abiertos, semiabiertos, cerrados y sus intersecciones, uniones, ... .
Denotaremos por ( ,) este espacio probabilizable.

Definicin 2.1. Definimos una variable aleatoria, X, como una funcin de E en que sea
medible; esto es, que la imagen inversa de todo boreliano (elemento de ) sea un suceso (elemento
de A).

En un sentido estricto tendramos que distinguir entre el concepto de magnitud aleatoria (in
troducido en prrafos anteriores como v.a.) y la definicin que acabamos de establecer de variable
aleatoria. Podemos observar que esta definicin es ms restrictiva que la enunciada anteriormen
te, pues se pueden buscar contraejemplos de magnitudes aleatorias (asociadas a los resultados de
fenmenos aleatorios) que no satisfacen la definicin de variable aleatoria.
La definicin dada responde satisfactoriamente a nuestros objetivos, pues nos permite definir de
forma natural una probabilidad inducida sobre por P y X que garantice la identificacin anterior
como se recoge en la figura 2.2.

En efecto, dado un boreliano B en , la contraimagen de B por X ser un suceso A en A, y adems


es el nico suceso que la variable aleatoria transforma en B. Por tanto, como la probabilidad inducida,

37
2. Magnitudes aleatorias

P, de B tiene que coincidir con la probabilidad de A, la definicin natural de la probabilidad inducida


ser: P(B) = P(X1(B)) = P(A).
Por otra parte, los intervalos semiabiertos de la forma (,x], x , generan la -lgebra de
Borel, y por lo tanto, podemos reducir las definiciones anteriores a intervalos de este tipo, puesto que
cualquier boreliano podr ser expresado mediante una combinacin de los intervalos anteriores. As
tenemos:

Definicin 2.2. Una variable aleatoria X es una aplicacin de E en , que verifica: X1(,x]
es un elemento de A para todo x .

Definicin 2.3. Definimos la probabilidad inducida, P, sobre como aquella funcin de conjunto,
que para todo x de verifica: P ((,x]) = P (X1(,x]) .

Proposicin 2.1. La probabilidad inducida as definida es una funcin de probabilidad.

Demostracin. En efecto, tendremos que comprobar que cumple los tres axiomas de la probabili
dad; esto es:

P(B)0,B

P(E)=1

Si B1,...,Bn,...
( es una
) sucesin

de borelianos disjuntos dos a dos Bi Bj = , i = j,
entonces: P Bi = P (B i ).
i=1 i=1

Los dos primeros supuestos son elementales [Por qu?]


Por otra parte, al ser X una v.a., se cumple que la imagen inversa de cualquier boreliano es
un elemento de A; por tanto, X1(Bi) = Ai A, i = 1,...,n,... . Puesto que la coleccin de
borelianos son incompatibles dos a dos, existe en A una sucesin A1,...,An ,... , tambin disjuntos
qu?], tales que:
[Por ( = P ( X1 ( )) = P ( ( = P (
P i Bi ) i Bi i
X1(Bi)))
i
Ai ) y por ser P una funcin de
probabilidad
(i ) i y los Ai disjuntos
i (se tiene:
P Ai = P(Ai) = P X1(Bi)) = i P (Bi ) lo cual concluye la justificacin.

En lo que sigue no haremos distincin terminolgica entre la probabilidad inicial y la inducida.

Volviendo al ejemplo anterior de individuos activos e inactivos, es fcil comprobar que la magnitud
definida cumple la definicin de variable aleatoria. En efecto, la -lgebra A en este caso viene deter
minada por: A = {{},{A},{NA},{E}} (incluye todas las uniones, intersecciones y complementarios
de sus elementos); luego el espacio (E,A) es un espacio probabilizable.
Sobre este espacio pueden establecerse infinitas medidas de probabilidad, por ejemplo: P(A)=0,75
y P(NA)=0, 25. (P es una funcin definida sobre todos los elementos de A, evidentemente P()=0
y P(E)=1). De esta forma la terna (E,A,P) constituye un espacio de probabilidad.
Para comprobar que X es una v.a. tendremos que ver que la imagen inversa de todo intervalo de
la forma (,x] pertenece a A; en efecto,

x<0, X1(,x]=A

x [0,1), X1(,x] = {NA} A

x 1, X1(,x] = E A [por qu?]

38
2. Magnitudes aleatorias

Luego queda justificado que X es una variable aleatoria.


Especifiquemos ahora su funcin de probabilidad inducida. Los intervalos de la forma (,x] que
debemos estudiar se reducen a los tres casos anteriores, y la probabilidad inducida se cuantificar
como sigue:

< [0,1),
x 0, P(,x] = P=(X1(,x]
P(,x] P( ) = P()=0
X1(,x]) = P(NA)=0,25
(
x 1, P(,x] = P (X1(,x]) = P X1(,0]) +P (X1(0,1]) +P (X1(1,x]) =
0+P(NA)+ P(A)=0+0,25+0,75 = 1

La probabilidad inducida est inferida por la probabilidad inicial (podra ser otra, por ejemplo P(A) =
0,5 y P(NA)=0,5) y por la variable aleatoria (as la v.a. que asignase X(A) = 10 y X(NA) = 10,
inducira una nueva probabilidad).

Es interesante tener presente que la funcin de probabilidad es una funcin de


conjunto; esto es, est definida sobre conjuntos, hecho que dificulta su manipulacin
matemtica (sin ir ms lejos, las funciones de conjunto no son representables). La
introduccin de la variable aleatoria y la probabilidad inducida permiten transformar
esta funcin en otra que reduce esos conjuntos abstractos a intervalos de la recta real.
Sin embargo, y a pesar de la considerable simplificacin que representa, la maneja
bilidad de la funcin de probabilidad inducida sigue siendo escasa; como veremos en
epgrafes posteriores resulta deseable pasar de este tipo de funciones a otra que sea
una funcin de punto definida sobre nmeros reales.
Las magnitudes aleatorias admiten una clasificacin segn los valores que pueden
adoptar y as siguiendo criterios anlogos a las variables estadsticas distinguimos las
variables discretas de las continuas.
El caso de variables discretas se corresponde con aquellas magnitudes cuyo recorrido
de valores posibles es finito o infinito numerable: trabajadores afectados por cierto
convenio laboral, nmero de clientes que acuden a una entidad bancaria, poblacin
ocupada de cierto sector econmico, ...
Cuando en cambio las magnitudes que analizamos pueden tomar un conjunto de
valores infinito no numerable, estamos en el caso de variables continuas. En esta
categora se incluyen la Renta Nacional de cierto pas, el nivel de inflacin acumulada
en un mes, el consumo de combustible en cierto proceso productivo, ...
Las dos categoras anteriores, aunque son las ms frecuentes, no agotan todas las
posibilidades. As, consideremos por ejemplo la variable T="tiempo de espera de un
conductor ante un semforo, cuyo recorrido de valores viene dado por {{0},{[T1 ,T2]}}
Esta magnitud aleatoria pertenece a la categora de variables que podemos denomi
nar mixtas, ya que adoptara un primer tramo de recorrido discreto (valor T = 0 para
aquellos casos en los que el semforo est en verde y por tanto el conductor no debe
esperar) y en los restantes casos se situara en el tramo continuo representado por
el intervalo [T1,T2], cuyos extremos recogeran respectivamente los tiempos de espera
mnimo (T1, que indicara el tiempo de reaccin del conductor cuando el semforo
cambia inmediatamente a verde) y mximo (T2, tiempo total de espera si el semforo
acaba de cambiar a rojo).

39
2. Magnitudes aleatorias

Aunque este ltimo tipo de variable mixta es poco frecuente, merece ser tenido en
consideracin y podran encontrarse algunas ilustraciones del mismo en la vida diaria
(el tiempo que un individuo se ve obligado a esperar en la consulta de un mdico, las
tarifas de algunos servicios telefnicos o elctricos, las ganancias obtenidas con ciertos
juegos de azar...).
Los sucesos aleatorios se caracterizan por "poder ser" y no por "ser"; esta "poten-
cialidad" es la diferencia bsica entre una variable estadstica y una aleatoria y entre
sus correspondientes valores.

Podramos plantearnos entonces si, una vez observada una variable aleatoria, sta se transforma en
estadstica por el simple hecho de pasar de futuro a pasado. Evidentemente, la respuesta es negativa
ya que la diferencia entre ambas categoras entraa algo ms, referido al hecho de que la variable
estadstica se supone exenta de incertidumbre a diferencia de la variable aleatoria cuyos valores
pudieron haber sido otros (sustituimos la certeza por la posibilidad o grados de posibilidad).
Ahora bien, una vez observada cierta variable aleatoria, si nos abstraemos de la incertidumbre que
rodea a sus valores y los tomamos como ciertos, entonces podramos efectuar sobre los mismos un
estudio de tipo descriptivo.
Cuando desarrollamos un anlisis sobre variables estadsticas, el mbito se denomina estadstica
descriptiva. Teniendo en cuenta la identificacin anterior, la estadstica descriptiva tambin se puede
desarrollar sobre los valores de variables aleatorias, reservando en este caso la probabilidad para el
proceso de induccin posterior de resultados.

2.2. Distribucin de probabilidad de una variable


aleatoria
La descripcin de una variable estadstica se lleva a cabo mediante sus valores y las
frecuencias con las que toma los mismos.
Para las v.a. tenemos que sustituir los valores y las frecuencias por el rango hipot
tico de valores que puede tomar y las probabilidades asociadas.
El rango de la variable se determina en funcin de lo que conceptualmente mida
esa magnitud. Por lo que se refiere a la funcin de probabilidad, sta podra definirse
como:

p:xp(x)=P(X=x)=P({wE/X(w)=x})[0,1]
La cuantificacin de esta probabilidad puntual no siempre tiene sentido, dependien
do la descripcin probabilstica de una variable de su carcter discreto o continuo.
Consideremos dos caractersticas asociadas a cierta entidad bancaria durante el
prximo ao: nmero de empleados por sucursal y volumen de beneficios de la misma.
Dado que ambas magnitudes van referidas al futuro sern variables aleatorias. La
primera de ellas, discreta, quedara descrita si consiguiramos aproximar mediante
algn mtodo la probabilidad de que el nmero de empleados de una sucursal sea 1, 2,
..., procedimiento que sin embargo no es generalizable al caso de los beneficios, como
consecuencia de su carcter continuo.
En efecto, existen infinitas posibilidades de beneficio que son no numerables. Cada
una de ellas tiene cierta posibilidad de ocurrencia -en principio todas ellas positivas

40
2. Magnitudes aleatorias

y, por pequeas que sean estas cantidades, su suma sera infinito, no verificando el
segundo axioma de la probabilidad.

Supongamos que los beneficios pueden oscilar entre a y b, a X b, y cualquier valor de ese
recorrido es posible, P(x) > 0, x [a, b]. Si denotamos por p el nfimo de estos valores:

p = inf {P(x) : x [a,b]}


entonces: x P(x)
xp =
La justificacin intuitiva de este comportamiento radica en que en el primer caso, cuando las
variables son discretas, la suma est indexada en un subconjunto de los nmeros naturales, mientras
que en el segundo caso la suma se realiza sobre un campo continuo de valores.

2.2.1. Funcin de distribucin


La probabilidad inducida asigna a cada intervalo de la forma (,x] un valor de
probabilidad que depende de x, y representa la probabilidad acumulada hasta ese
valor. As pues, podemos definir una funcin real de variable real, que a cada x le
asigne su probabilidad acumulada. Esta funcin, que se denota por F, se denomina
funcin de distribucin.

Definicin 2.4. La funcin de distribucin de una v.a. X es una funcin definida


como:

F :x F(x) = P (X1(,x]) = P((,x]) = P(X x) [0,1]

Proposicin 2.2. Una funcin de distribucin cumple las siguientes propiedades:

1. F es montona no decreciente: x1 < x2 F(x1) F(x2)


2. lim F(x)=0y x+
lim F(x)=1
x

3. F es continua a la derecha. (Algunos autores, consideran como sistema de generadores de la


lgebra intervalos de la forma [x,+), en cuyo caso la continuidad ser por la izquierda).

Estas tres propiedades caracterizan a las funciones de distribucin, de forma que toda funcin que
satisfaga dichas propiedades ser la funcin de distribucin de una cierta variable aleatoria.

Demostracin. Vamos a justificar estas propiedades:


Comencemos por comprobar que F es montona no decreciente: Sean x1 y x2 dos nmeros reales
cualesquiera con x1 < x2 , y denotemos por [X x] el suceso {w E/X(w) x}. Podemos
descomponer el suceso [X x2] de la siguiente forma:

[Xx2]=[Xx1][x1<Xx2]
es decir, mediante la unin de dos sucesos incompatibles; aplicando la funcin de probabilidad a los
dos miembros, tendremos:

41
2. Magnitudes aleatorias

P(lX S Wl) I PX I1l)+P(lI1 < X 12])


y en el segundo miembro los dos sumandos son no negativos, por lo cual se tiene: P ([X mgj) Z
Comprobemos
P ([X ahora la propiedad
m1j) o equivalentemente: segunda:
F(ac1) lT I 1 y lim I0

magmas) I Feos) I Pux s son I Paw e E/Xbv) s +0010: P(E) I 1

gamma I Feos) I Pux s -<><vl) I P({w e E/nw) s o I Pw) I o


estas justicaciones son intuitivas aunque no totalmente rigurosas (obsrvese que hemos tratado el
campo
Parainnito
la demostracin
como un punto,
completa
cuando
de esta
tendramos
propiedadque
tendremos
tomar lmites
que considerar
y calcularuna
lmzsroo
sucesin
P ([X
arbitraria

de valores m, con m" < mn+1 y lmnsoo m I 0o; sin prdida de generalidad podemos suponer que
esta sucesin es la de los nmeros naturales {0, 1, . . . ,n, . . que cumplen las condiciones anteriores.
El suceso [X n] puede ser expresado como una unin de sucesos incompatibles de la forma
siguiente:

[Xn]:[X0]U[0<X1]U--LJ[n1<Xn]
y como la probabilidad de la unin es la suma de probabilidades, tenemos:

FWIPGXSn1):P([Xs0l)+P([0<X51l)++P([n-1<X5n1)
Por otra parte, el suceso seguro puede ser expresado como unin innita de los sucesos disjuntos
anteriores: E I [X 0] 1 < X i], por lo tanto:

P(E) I P([X SOlHZPUi- 1 <Xs ir)


de donde se determina que la serie que ah aparece es convergente y por tanto, V5 > 0, podemos
encontrar un n sucientemente grande tal que:

P([XSnl):P([Xs0l)+P([0<Xs1])+"-+P([n-1<Xsn])>1-6
Por tanto queda demostrado que lmnsoo F(n) I 1 y de forma general lmzsroo I 1.
De forma anloga se demuestra lmzasoo F I 0.
Finalmente, pasemos a demostrar la propiedad tercera: F es continua a la derecha, esto es:
1mh>O+ F(m + h) I
En efecto, podemos considerar la siguiente descomposicin: [X m+hj I [X mjLJlx < X m+hj

Calculando la probabilidad en ambos miembros y sustituyendo la funcin de distribucin, se tiene:


F(m+h) I F(x)+P([x < X m+h]) con lo cual: lmhoJr F(m+h) I F(x)+lmho+ P < X x + hj)
Y el ltimo sumando del segundo trmino es nulo porque ese suceso se reduce al suceso imposible
[por qu], lo cual concluye la demostracin.

Si consideramos la variable aleatoria discreta que recoge la situacin laboral de un


individuo

42
2. Magnitudes aleatorias

{
1 si w es activo
X=
0 si w es inactivo
las probabilidades acumuladas sern nulas para todo valor de X inferior a 0. Para todo
x positivo e inferior a 1 el nico valor factible menor que 1 es el 0 (P(X =0)=0,25),
por lo cual la probabilidad acumulada ser 0,25, y finalmente para todo x 1, los
valores factibles menores o iguales a x son el 0 y el 1, por lo que la probabilidad
acumulada ser 0,25 + 0,75 = 1.
Las caractersticas de la funcin de distribucin (f.d.) son anlogas para toda varia
ble discreta: es una funcin escalonada que est definida en toda la recta real, antes
del primer valor posible de la variable F(x) es nula, la funcin experimenta un salto
en cada uno de los valores factibles de la variable, la altura de dicho salto es igual a
la probabilidad puntual de ese valor (que, por ser no negativa, da lugar a una funcin
montona no decreciente) y, por ltimo, para x no inferiores al ltimo valor de la
variable, F(x) permanece constante e igual a la unidad.

Como podemos observar en el comentario anterior quedan reflejadas las propiedades sealadas de
la funcin de distribucin. En este ejemplo se trata de una funcin de distribucin no continua, con
tantos puntos de discontinuidad como valores puede tomar la variable (para v.a. discretas sern un
nmero finito o infinito numerable). Adems cuando avanzamos hacia un valor de la variable por la
izquierda la f.d. toma un valor constante que no coincide con el del punto:

lm
0+ F(xi ) = F(xi )

y la diferencia entre las dos cantidades ser precisamente la probabilidad asociada a ese valor. Por
tanto la funcin no es continua por la izquierda. [Lo es por la derecha?, raznese la respuesta] [en
qu condiciones la funcin sera continua?]

La introduccin en el modelo matemtico asociado a un experimento aleatorio del concepto de


variable aleatoria tiene como objetivo primordial facilitar el manejo de la probabilidad asociada al
experimento. Este objetivo se logra al poder pasar de la probabilidad definida inicialmente sobre la
-lgebra de los sucesos (que es una funcin real de conjuntos de naturaleza variada) a la probabilidad
inducida (que es una funcin real de conjuntos reales, debido a la consideracin de la -lgebra de
Borel sobre ). Adems, esta probabilidad inducida puede ser caracterizada mediante la funcin de
distribucin, que es una funcin de punto (funcin real de variable real) y por tanto ms sencilla de
interpretar y manejar desde un punto de vista matemtico.

En general, las representaciones grficas de las funciones de distribucin correspon


dientes a v.a. discretas y continuas son las que se recogen en los grficos siguientes:
[Figura 2.3]
Estas representaciones grficas nos sugieren establecer nuevas definiciones de variables aleatorias
discretas y continuas. Podemos definir una v.a. discreta como aqulla cuya funcin de distribucin es
escalonada y una v.a. continua como aqulla cuya f.d. tambin lo es.
Estas ltimas definiciones nos permiten comprobar grficamente la existencia de variables mixtas,
que se correspondern con aquellas funciones de distribucin que sin ser continuas tampoco sean
escalonadas. [Figura 2.4]

43
2. Magnitudes aleatorias

Figura 2.3.: Funcin de Distribucin


1 1

F(x) F(x)

0 X Discreta X Continua

Figura 2.4.: Funcin de distribucin de una v.a. mixta

El concepto de probabilidad acumulada resulta de gran inters ya que a menudo es


muy til conocer la probabilidad de que una magnitud alcance valores hasta uno dado
o, de forma complementaria, valores superiores a l (1F(x)). Parece claro por tanto
que la funcin de distribucin proporciona una respuesta a preguntas del tipo cul
es la probabilidad de que una sucursal elegida al azar tenga a lo sumo 8 empleados?
o, de modo complementario, con qu probabilidad encontraremos un volumen de
beneficios superior a cierta cifra?

2.2.2. Probabilidades de intervalos


En algunas ocasiones resulta interesante conocer la probabilidad asociada a cierto
recorrido (valores entre 4 y 6 empleados) o incluso una probabilidad puntual (cul
es la probabilidad de que una sucursal tenga exactamente 10 empleados?).
El primero de estos interrogantes aparece directamente conectado a la funcin de
distribucin, ya que para cualquier intervalo real (a, b] se tiene:

P(a<Xb)=P(Xb)P(Xa)=F(b)F(a)
De este modo, a partir de los grficos anteriores podemos identificar las probabilida
des de intervalos, que vendran representadas en el eje de ordenadas por la diferencia
entre los correspondientes valores de la f.d.

44
2. Magnitudes aleatorias

Figura 2.5.: Funcin de distribucin discreta


F(x)

1
0,9
0,7
0,5

0 1 2 3

Cabe preguntarse si este esquema de razonamiento es extrapolable hasta llegar a


identificar probabilidades de puntos concretos:

P(X = x) = lim0P(x<X x+) = lim0 [F(x + ) F(x )] = F(x+)F(x) = F(x)F(x)

debindose la ltima igualdad al hecho de que F es continua a la derecha.

2.2.3. Funcin de probabilidad


Cuando la v.a. es discreta, la funcin de distribucin es escalonada y para dos valores
consecutivos, xi1,xi, se verifica: F(x) = F(xi 1), x [xi1,xi).
Entonces, a partir de la relacin anterior, se tiene:
F(xi1
P(X = x) = F(x) F(x) = ) F(xi1)=0 sixi1 <x<xi
P(X = xi ) = F(xi ) F(x )= F(xi) F(xi1)= P(xi ) six = xi
i

Por tanto hemos comprobado que a partir de la funcin de distribucin podemos


obtener la probabilidad de los valores de una v.a. discreta.
Consideremos a modo de ilustracin la funcin de distribucin asociada a la variable
aleatoria discreta X="Nmero de medallas que obtendr un deportista de lite en
ciertos campeonatos" cuya representacin grfica aparece recogida en la figura 2.5.
Esta funcin permite calcular probabilidades acumuladas hasta cierto nmero de
medallas. As, a travs de la grfica de F(x) podemos responder fcilmente a preguntas
del tipo cul es la probabilidad de que un deportista no obtenga ms de 2 medallas?,
cuya respuesta P(X 2) = 0,9 se obtiene con slo consultar la ordenada asociada al
punto x = 2 en el diagrama.
De modo anlogo podramos obtener probabilidades de intervalos. Por ejemplo, la
probabilidad de que un deportista logre en la competicin entre 1 y 3 medallas viene
dadapor P(1X 3) =P(0 <X 3) = F(3)F(0) =0,5.

45
2. Magnitudes aleatorias

Figura 2.6.: Funcin de probabilidad


P(x)
0,1
0,2

0,5

0 1 2 3

Dado que X es claramente discreta cmo podramos obtener la probabilidad de un


valor concreto, digamos 3 medallas? Acudiendo a la expresin anteriormente obtenida
para P(X = xi ) se tiene:

P(X = 3) = F(3) F(3) = F(3) F(2)= 0,1

Es posible considerar otras magnitudes aleatorias discretas con recorrido mucho ms


amplio. Este sera el caso de la variable "Nmero de votos obtenidos por un partido
poltico en las prximas elecciones municipales", cuya funcin de distribucin sera
-con la nica salvedad del mayor recorrido- anloga a la anteriormente estudiada y
dara as respuesta a preguntas del tipo cul es la probabilidad de que un partido no
exceda los 2.500 votos?, con qu probabilidad se situar entre 3.000 y 5.000 votos? o
bien cul es la probabilidad de lograr exactamente 4.850 votos?
El procedimiento recogido para v.a. discretas, cuyo carcter numerable garantiza la
identificacin de los valores con probabilidad no nula, permite definir una funcin de
probabilidad que asocia a cada valor de X una probabilidad no negativa, resultando
evidente que la suma de todas ellas es -con independencia del concepto de probabilidad
utilizado- la unidad.
Definicin 2.5. La funcin de probabilidad de una variable aleatoria discreta, deno
minada a menudo funcin de cuanta o funcin de masa de probabilidad, viene dada
por una aplicacin p : x [0,1] que cumple las condiciones:

p(x) 0 y p(xi )=1
i

La representacin grfica de la funcin de probabilidad asociada a la variable X="Nmero


de medallas que obtendr un deportista de lite en ciertos campeonatos aparece reco
gida en la figura 2.6, y es anloga a los diagramas de barras utilizados para variables
estadsticas discretas.

Proposicin 2.3. La f.d. F(x) de una v.a. X puede expresarse como la suma de
valores de probabilidad hasta ese valor.

46
2. Magnitudes aleatorias

Demostracin. En efecto, partiendo de la relacin: P(X = xi ) = F(xi ) F(x


i ) =
F(xi ) F(xi1) = p(xi), podemos expresar:

F(xi) = F(xi1)+p(xi)
y procediendo de forma recursiva:

F(xi) = F(xi2) +p(xi) +p(xi1) = = F(x1)+p(xi)+p(xi1)+ +p(x2)

teniendo en cuenta por otra parte que para x1 se cumple F(x1) = p(x1), se obtiene:
i
F(xi) = p(xj)
j=1

2.2.4. Funcin de densidad


Cuando la variable X considerada es continua y por tanto lo es tambin su funcin
de distribucin, se tiene:

P(X = x) = F(x) F(x )=0

por lo cual obtenemos que la probabilidad de cualquier punto es nula.


As pues, en este caso no resulta posible aislar valores ni sus correspondientes pro
babilidades (la imposibilidad de enumerar los puntos hace que no tenga sentido hablar
de la probabilidad de un punto aislado). En cambio, s podramos trabajar sobre un
intervalo del que cuantificamos su probabilidad (de hecho, este es el modo de actuar
en variables estadsticas con datos agrupados).
De esta forma, aunque carezca de sentido aislar la probabilidad de que los beneficios
de una sucursal bancaria sean exactamente de 25 millones, s podramos considerar
la probabilidad del intervalo (20,30], u otros cualesquiera (a, b] ; conocida la forma
explcita de la funcin de distribucin obtendramos P(a<X b) = P(X b)
P(X a) = F(b) F(a).
Si dividimos el recorrido de la v.a. en k intervalos y asignamos a cada uno su proba
bilidad segn el mtodo anterior, siguiendo una analoga con la estadstica descriptiva,
podemos representar grficamente [figura 2.7] esta distribucin de probabilidad me
diante un histograma, donde las reas de los rectngulos son proporcionales a las
probabilidades de los correspondientes intervalos que tienen como base.
Si consideramos subdivisiones cada vez ms finas de ese recinto la silueta del histo
grama se va transformando y en el lmite cuando la amplitud de los intervalos tiende a
0 podemos suponer que la representacin [figura 2.8] corresponde a una cierta funcin,

47
2. Magnitudes aleatorias

Figura 2.7.: Histogramas de probabilidad

Figura 2.8.: Funcin de densidad

48
2. Magnitudes aleatorias

f, denominada funcin de densidad, y que a cada valor x real le asigna su densidad de


probabilidad.
Para un intervalo cualquiera de amplitud 2h, la probabilidad del intervalo viene
dada por:

P(xh<Xx+h)=F(x+h)F(xh)

Por otra parte, si la funcin f(x) es integrable, entonces el teorema del valor medio
del clculo integral, nos dice que existe un punto intermedio y, de manera que el rea
de ese intervalo se puede expresar como: P(xh<X x+h) = f(y)2h, de donde:
P(xh<Xx+h)
f(y) =
2h
y tomando lmites cuando h tiende a cero, podemos escribir:

f(x) = h0 P(xh<Xx+h)2h
lim

expresin que justifica el nombre que se le asigna a esta funcin: cuantifica la masa
de probabilidad de un intervalo en relacin a su amplitud, cociente que responde a la
idea de densidad, ya que para cada x puede ser interpretada como la densidad de
probabilidad en un entorno infinitesimal de ese punto.
Proposicin. Dada la f.d. F(x) de una cierta v.a. X, la funcin de densidad se
obtiene como la derivada de F(x).

Demostracin. Partiendo de la expresin de la funcin de densidad, si ahora expresa


mos la probabilidad del intervalo considerado en trminos de la f.d., se tiene:

f(x) = limh0 P(xh<Xx+h)


2h = limh0 F(x+h)F(xh)
2h = F (x) = dF(x)
dx
con lo cual queda justificado que la funcin de densidad se obtiene por derivacin
de la funcin de distribucin (obsrvese que esta relacin f(x) = F (x) sera una
extensin al caso continuo de la anteriormente vista para variables discretas P(X =
xi ) = F(xi ) F(xi1)).

La funcin f(x) que recoge la densidad de probabilidad ser no negativa pues, segn
comprobamos en las propiedades de la f.d., F(x) es una funcin montona no decre
ciente y por tanto su derivada (si existe) no puede ser negativa. Desde un punto de
vista an ms intuitivo, si fuese negativa podramos encontrar algn intervalo -aunque
tuviese amplitud infinitesimal- con probabilidad negativa.
Consideremos por ejemplo una magnitud aleatoria continua X que cuantifica la
distancia (expresada en miles de km.) recorrida semanalmente por un viajante, cuya
funcin de distribucin viene dada por la expresin:

49
2. Magnitudes aleatorias

0 siai<2
Fan: hg a2gx<w
1 si10ac

a partir de la misma, derivando, se obtiene fcilmente la funcin de densidad:

m{ lop; wlb
a2gs<w
en otro caso

[Efectuar los clculos necesarios]


De igual forma que para v.a. discretas es posible obtener F mediante agregacin
de la funcin de probabilidad, en el caso de las variables continuas podemos obtener
la f.d. a partir de la funcin de densidad. En este caso la suma ser sustituida
por una integral, obtenindose:
1

F(x) I f f(t)dt
Demostracin. Bastara tener en cuenta que podemos expresar como una integral
de Stieltjes-Lebesgue I ffoo dF(t) y que cuando la variable es continua se
cumple: dF(ac) I f(x)da:; por tanto se vericar:
Z

Fgw/ dF(t)/l) aya


_oo _
Obsrvese que para variables discretas, las diferencias dF son nulas en casi to
dos los puntos salvo en los posibles valores de la variable, donde I
F(.I'_1)I

Las propiedades de la f.d., Z 0 y lmmnoo I 1 trasladan a la funcin de densidad las


caractersticas de no negatividad y rea unitaria fin f (ac)dm:1.
Por otra parte, hemos visto cmo se expresa la probabilidad de un intervalo en trminos de la f.d.;
sustituyendo ahora sta por la funcin de densidad, se tendr:

b a b
P(a < x 5 b) I F(b) _ Fa) I feo f(m)dm _ fu) aya I f(il)dm

Denicin 2.6. Llamamos funcin de densidad, si existe, a una aplicacin f : x G


3? > 381, que cumple las condiciones:

f(w) Z 0
I f; f(x)dx :1

I Va,bG3E, oo <a<b<+oo se tiene: P(a<Xb):fabf(ai)dx

50
2. Magnitudes aleatorias

En la definicin anterior hemos introducido la puntualizacin si existe. Es necesario sealar que,


buscando una mayor claridad intuitiva, en los prrafos anteriores hemos cometido algunos abusos de
lenguaje.
En efecto, el hecho de que la f.d. de una v.a. continua tambin sea continua no implica que sea
diferenciable ni que se pueda expresar como la integral de la funcin de densidad. La existencia de esta
integral queda garantizada si le imponemos a F(x) alguna otra restriccin, como la de continuidad
absoluta, en cuyo caso tendramos que distinguir entre v.a. continuas y absolutamente continuas,
siendo estas ltimas las que permiten enlazar la f.d. con la de densidad. x f(t)dt,
Por otra parte, el teorema fundamental del clculo integral establece que si F(x) =
entonces F(x) es una funcin continua y F (x) = f(x) en todo punto x de continuidad de f.
As pues, para obtener la f.d. F(x) a partir de la funcin de densidad ser necesario que la primera
sea absolutamente continua, y la funcin de densidad puede obtenerse como derivada de F(x) slo
en los puntos de continuidad de la primera.
Una vez efectuadas estas puntualizaciones debemos, sin embargo, sealar que todos los modelos
continuos considerados a lo largo de este texto son tambin absolutamente continuos. Por tanto no
haremos tal distincin, utilizando en un abuso de lenguaje la denominacin de v.a. continuas aunque
en realidad nos estaremos refiriendo a las absolutamente continuas, que por tanto tienen siempre
garantizada la existencia de la funcin de densidad.

Volviendo al ejemplo anterior, dada la funcin de densidad:


f(x)= si2x<10
2,5x2
{
0 en otro caso
es posible obtener mediante integracin de esta funcin de densidad la probabilidad
acumulada o funcin de distribucin que, para cada recorrido kilomtrico x (2 x <
10), viene dada por expresin FX (x) = 1,25x2,5x [comprobar cmo se ha obtenido esta
funcin] [cul es su valor para x = 10?]
La relacin entre f(x) y F(x) permite calcular la probabilidad de un intervalo
cualquiera (a, b] mediante la expresin:
P(a<X b) = F(b) F(a) =
b
a f(x)dx

As, por ejemplo, la probabilidad de que el recorrido del viajante oscile entre 2.000
y 4.000 km. semanales vendra dada por el valor P(2 < X 4) = 0,625. Puede
observarse que dicha probabilidad supera a la del recorrido entre 6.000 y 8.000 km.,
intervalo de igual amplitud que el anterior, pero que sin embargo resulta menos pro
bable como consecuencia de la propia densidad de probabilidad f(x) [comprobar que
P(6 < X 8) 0,10417].
Una vez estudiadas las distintas vas a travs de las cuales puede venir descrita una
variable aleatoria, presentamos una sntesis de las mismas:

2.2.5. Variables aleatorias relacionadas: Cambio de variable


A menudo las magnitudes econmicas se hallan relacionadas entre s. Por ejemplo,
supongamos que el nmero de empleados de una oficina bancaria es una v.a.; si cada

51
2. Magnitudes aleatorias

Figura 2.9.:
Funcin de distribucin

Funcin de
probabilidad densidad
Funcin de

DISCRETA CONTINUA

Variable Aleatoria

empleado trabaja h horas semanales, la variable que recoge el nmero total de horas
es tambin aleatoria y vendra dada por X = hX.
De modo anlogo, si la plantilla de cada sucursal aumentase en dos empleados, la
v.a. que indica el nuevo nmero de empleados sera ahora X = X + 2.
En cualquiera de estas dos situaciones nos enfrentamos a un cambio de variable.
La magnitud aleatoria definida aparece conectada con la inicial, por lo cual resulta
posible conocer su distribucin de probabilidad a partir de la informacin sobre X.
En concreto, para los ejemplos anteriores, por tratarse de variables discretas, bas
tara con identificar el recorrido de valores de las nuevas variables X y X y sus
correspondientes probabilidades, que se obtienen a partir de las asociadas a X.
En los ejemplos propuestos, las transformaciones de X, X y X vendran descritas en los trminos
siguientes,
FX(x) = P(X x) = P(hX x) = P(X xh) = FX(xh)
FX(x)=P(X x)=P(X+2x)=P(Xx2)=FX(x2)
Es evidente que a menudo aparecen cambios de variable ms sofisticados que los anteriormente
descritos. As, podramos encontrarnos con cambios por tramos (por ejemplo, aumentos de 1, 2 o 3
empleados por sucursal segn sus niveles iniciales) en cuyo caso la deduccin de la distribucin de la
nueva variable sera ms complicada.

Si consideramos ahora una magnitud continua (por ejemplo, los beneficios empresa
riales Y) y asumimos que la entidad debe pagar en concepto de impuestos un 15 % de
sus beneficios tendramos la variable Y = 0,15Y, cuya distribucin de probabilidad
podra ser obtenida a partir de la idea de probabilidad acumulada (recogida para los
impuestos mediante la funcin de distribucin de Y), conectando esta expresin con
la probabilidad acumulada de los beneficios:

F(y) = P(Y y) = P(0,15Y y) = P


( y0,15 ) ( y )
Y = F 0,15

En definitiva, se tratara en este caso de buscar qu recorrido de la variable beneficios


se corresponde con uno dado de los impuestos, tarea sencilla siempre que la expresin
de cambio de variable sea una funcin montona y continua.

52
2. Magnitudes aleatorias

En el procedimiento genrico del cambio de variable distinguiremos segn se trate de v.a. discretas
o continuas.
1) Supongamos que X es una v.a. discreta que puede tomar un conjunto de valores x1,...,xn ,...
con probabilidades respectivas p,...,pn ,... . Sea g una funcin definida en el conjunto imagen de X
tal que g(X) es una nueva v.a.:

E X(E) g(X(E))

Entonces la variable Y = g(X) es tambin discreta, y quedar especificada cuando conozcamos


los valores que puede tomar y sus probabilidades respectivas. Por lo que se refiere a los valores, stos
sern y1 = g(x1 ),...,yn = g(xn ),... y sus probabilidades se cuantifican de la forma siguiente:

= P({xi/xi Ci})=
P(Y = yi) = P({xi /g(xi) = yi}) = P ({xi/xi {g1(yi)}}) p(xi)
xiCi

para obtener la ltima relacin tngase en cuenta que Ci es un conjunto formado por un nmero
finito o numerable de puntos (estos puntos son disjuntos y por tanto la probabilidad de Ci es la suma
de las probabilidades de los puntos que lo integran).
A modo de ejemplo, reconsideremos la variable anterior X="Plantilla de una sucursal bancaria" y
su transformacin X="Nmero de horas trabajadas". Segn el razonamiento expuesto se obtendra
la probabilidad puntual de un nmero concreto de horas trabajadas como:
({ xih })
P(X = xi) = P({xi /hxi = xi}) = P xi /xi =

Dado que la relacin entre X y X es biyectiva, la distribucin de probabilidad de ambas variables


ser coincidente (esto es, la correspondencia biyectiva entre las magnitudes aleatorias se traslada a
sus distribuciones de probabilidad).
Consideremos ahora nuevamente la v.a. X="Nmero de votos obtenidos por los partidos polticos
en las prximas elecciones municipales", a partir de la cual podemos definir Y="Nmero de concejales
obtenidos por un partido poltico" segn criterios del tipo:


0 si0 x < 1,000



1 si1,000 x < 2,000


Y = 2 si2,000 x < 3,000



3 si3,000 x < 4,000



.. ..
. .

En este caso, la correspondencia es sobreyectiva por lo cual la expresin genrica anterior nos
proporcionara la probabilidad de la variable Y como suma de probabilidades puntuales de varios
valores de X.

2) Si la variable X es continua, la transformacin Y = g(X) puede ser discreta o continua. En el


primer caso, resulta sencillo obtener la funcin de probabilidad de la nueva variable Y a partir de la
funcin de densidad de X:
P(Y = yj)=
C f(x)dx, siendo Cj = {x/g(x)= yj}
j

Si por el contrario g es una funcin continua, ser posible -siempre que g tenga inversa- obtener
su f.d. a partir de la de X como:

53
2. Magnitudes aleatorias

FY(y) = P(Y y) = P(g(X) y) = P(X g1(y)) = FX (g1(y)) si g(x) es montona


creciente

FY (y) = P(Y y) = P(g(X) y) = P(X g1(y))= 1 FX (g1(y)) si g(x) es montona


decreciente

Adems en determinadas condiciones podemos encontrar una relacin entre las funciones de densidad
de X y de Y, como pone de manifiesto la siguiente propiedad:

Proposicin 2.4. Sea X una v.a. continua con funcin de densidad f(x), la cual es estrictamente
positiva en un intervalo [a, b]. Sea Y = g(X) una transformacin montona y continua en el intervalo
[a,b], entonces Y es una v.a. continua cuya funcin de densidad viene dada por la expresin:
1

fX (g1(y)) dg dy(y) siyg([a,b])
fY(y)= {
0 en otro caso

La justificacin consiste en aplicar la regla de la cadena y distinguir los casos de monotona creciente
y decreciente.
A modo de ilustracin de este ltimo caso, retomando la variable X="Distancia kilomtrica recorri
da semanalmente por un viajante" podemos definir ahora Y="Dietas cobradas por desplazamientos"
que viene dada por Y = 24X. Dado que se trata de una funcin montona creciente de x es posible
aplicar la expresin anterior para el cambio de variable, con lo cual se obtiene:
{ ) ( )
fX ( y24 124 siy[24,240]
fY (y) =
0 enelresto

2.3. Caractersticas asociadas a variables aleatorias.


Valor esperado y varianza
El estudio de magnitudes econmicas se simplifica considerablemente cuando se
utilizan algunas caractersticas que ayudan a describir su distribucin.
As, en nuestro anlisis de las entidades bancarias puede ser interesante resumir la
informacin en datos sintticos: "el valor esperado de beneficios es de 42 millones" o
bien "el 75 % de las oficinas tienen menos de 12 empleados", ...
En definitiva, al igual que en estadstica descriptiva estudibamos un conjunto de
medidas tiles para describir, desde distintas pticas, una variable y que en consecuen
cia nos informaban sobre su valor central, dispersin, simetra, ... el razonamiento es
vlido para las magnitudes aleatorias, resultando conveniente definir una serie de ca
ractersticas asociadas a su distribucin.
En la prctica, estas caractersticas llegan a ser los rasgos identificadores de una
variable aleatoria, siendo frecuente describir la variable mediante un "perfil" de la
misma, que incluye el modelo probabilstico al que se adapta y ciertos parmetros
relacionados con sus caractersticas de posicin y dispersin.
Siguiendo un esquema similar al de las variables estadsticas definiremos dos tipos
de caractersticas identificadoras de una variable aleatoria: una medida de posicin
(esperanza) y otras de dispersin (varianza y desviacin tpica).

54
2. Magnitudes aleatorias

El valor esperado o esperanza de una variable aleatoria se establece como un valor


resumen de la misma, obtenido mediante una expresin sinttica en la que intervienen
tanto los valores de la variable como sus probabilidades.
Definicin 2.7. Se define el valor esperado o esperanza matemtica de una v.a. X,
que denotamos por E(X) o , como el valor, si existe, de la siguiente expresin:


E(X) = = xdF(x)

Se trata de una integral de Stieltjes-Lebesgue, que no siempre ser convergente.


Cuando la variable es continua, dF(x) = f(x)dx y en consecuencia su valor esperado
se expresar como:
E(X) = =
xf(x)dx

[Aplicando esta expresin, comprubese que, para el ejemplo del viajante, se obtiene
un recorrido semanal esperado de 4.024 km. ( = 4,024)].
Para variables discretas, los nicos valores no nulos de las diferencias dF(x) se
corresponden con los valores de la variable, para los cuales se obtiene:

dF(xi ) = F(xi ) F(xi1) = p(xi ) = pi


y en consecuencia el valor esperado para este tipo de variables se transforma en una
suma numerable:

E(X) = = xipi
i

expresin similar a la media aritmtica de variables estadsticas donde la probabilidad


sustituye a la frecuencia relativa.
[Obtngase, a partir de la expresin anterior, la esperanza para la variable "Nmero
de medallas obtenidas por un deportista", = 0,9].

En la concepcin frecuentista o frecuencialista de la probabilidad, sta se define como lmite de


las frecuencias relativas, luego en el lmite media aritmtica y esperanza coincidirn. En efecto,
cuando se llevan a cabo un nmero elevado de observaciones de la variable, la media aritmtica
de estas observaciones se aproxima considerablemente al valor esperado de la misma; en concreto
demostraremos en el captulo 4 que, > 0 se tiene:
limnP (X >
) =0

lo que asegura una convergencia en probabilidad entre ambas caractersticas.

A pesar de su denominacin de "valor esperado" la esperanza no debe ser interpretada como el


valor que esperamos que adopte la variable aleatoria. De hecho, en algunas ocasiones el clculo de la
esperanza da como resultado valores que la variable X no puede adoptar (esto sucede en el ejemplo de
las medallas ganadas por el deportista, con esperanza de 0,9) e incluso puede ocurrir que la esperanza
no exista, esto es, que se obtenga una suma infinita o una integral no convergente.

55
2. Magnitudes aleatorias

La esperanza matemtica no siempre permite resolver de forma adecuada algunos problemas re-
lativos a la ganancia esperada de un juego. La "paradoja de San Petersburgo" -denominada as por
haber aparecido publicada en la Revista de la Academia de San Petersburgo- pone de manifiesto la
diferencia entre esperanza matemtica y esperanza moral.
Esta paradoja, que dio origen a numerosas discusiones en el siglo XVIII, puede ser planteada como
sigue: "Dos jugadores A y B participan en un juego consistente en lanzar una moneda y apostar sobre
el resultado considerado favorable (cara, por ejemplo). Las condiciones del juego son: el nmero de
lanzamientos es ilimitado, el juego concluye cuando aparece una cara por primera vez y la apuesta
se va duplicando con el nmero de lanzamientos. As, por ejemplo, A pagar a B una cantidad x si
sale cara en la primera tirada, 2x si no sale en la primera pero s en la segunda, 4x si no sale hasta
la tercera, etc.
Como consecuencia, la probabilidad que tiene B de ganar una cantidad x es 12, de ganar 2x es
( n+1. Su ganancia esperada en n
14, la de 4x es 18 y en general la probabilidad de ganar 2nx es 12 )

pruebas vendr dada por la expresin:

E(X)= 1 =nx 1
2x+ 222x+
1 1 22x ++ 2n+1
23 1 2nx
2
que puede llegar a ser infinito si no limitamos el nmero de lanzamientos n y sin embargo ningn
jugador estara dispuesto a exponer en un juego como el descrito una suma importante de dinero,
ponindose as de relieve la limitacin de la esperanza matemtica.

Daniel Bernoulli introdujo en 1738 el concepto de "esperanza moral", germen de la moderna teora
de la utilidad marginal y donde adems ya expresaba el principio de la utilidad marginal decreciente.
Este concepto fue tambin analizado por Laplace (1814) quien comenta algunas aplicaciones del
criterio de la expectativa moral o utilidad esperada.

La inexistencia del valor esperado en una v.a. continua se pone de manifiesto con la distribucin
de Cauchy, cuya funcin de densidad viene dada por la expresin:
f(x)= 1
(1+x2),<x<

Cuando nos interesa resumir una variable obtenida mediante una transformacin de la variable
original, podemos establecer la siguiente definicin:

Definicin. Dadas una v.a. X y una funcin g tal que g(X) es de nuevo una v.a., se define la
esperanza de esta nueva variable como:

E[g(X)] = g(x)dF(x)

Segn que la nueva variable sea discreta o continua, este valor esperado podr ser expresado con
las formulaciones vistas anteriormente.

Como consecuencia de su carcter de operador lineal, la esperanza matemtica


cumple una serie de propiedades deseables.
Proposicin 2.5. La esperanza de cualquier v.a. X, presenta las siguientes propie
dades para cualesquiera a, c :

56
2. Magnitudes aleatorias

1. E(c) = c

2. E(aX) = aE(X)

3. E(X + c) = E(X) + c
4. E(aX + c) = aE(X) + c

Demostracin.
En efecto,
E(c) = cdF(x) = c dF(x) =c
E(aX) = axdF(x) = a xdF(x) = aE(X)
E(X + = c) (X + c)dF(x) = xdF(x) + c dF(x) = E(X) + c
y a partir de los dos ltimos resultados c) aE(X) + c
se obtiene: E(aX + =
[Hemos aplicado
dF(x)que para
continuas = dF(x) = ipi = 1 variables discretas y para variables
f(x)dx = 1 ]
Proposicin 2.6. Para cualesquiera variables aleatorias X e Y, la esperanza de la
suma puede ser obtenida como suma de sus esperanzas: E(X + Y) = E(X) + E(Y)

Esta propiedad resulta de gran inters ya que, como veremos en captulos posteriores, a menudo
nos interesa trabajar con magnitudes aleatorias que se obtienen como agregados de otras.

La esperanza puede ser interpretada como "centro de gravedad" de una distribucin


de probabilidad ya que, si asumisemos dicho valor como nico representante de la
poblacin el error esperado sera nulo.
Es decir, si evalusemos el error cometido al adoptar la esperanza como repre
sentante obtendramos una nueva variable aleatoria (X E(X)) resultando sencillo
comprobar que su valor esperado es cero.
Tambin podramos considerar el error o desviacin en forma complementaria; la es-
peranza puede ser un valor desconocido y podemos utilizar la variable o un conjunto
de valores de sta para aproximar ese valor desconocido. En este caso nos encontra
ramos con que cada valor de X conducira a un error o desviacin, pero en sntesis
estos errores se compensaran, obtenindose una esperanza nula.
[Demustrese que E(XE(X)) = 0 aplicando las propiedades anteriores y teniendo
en cuenta que E(X) = = cte.]
Las desviaciones o errores podran ser definidos en trminos ms generales respecto a una caracte
rstica M de la variable, con lo cual ya no queda garantizado un error esperado nulo. Este concepto
de error o desviacin (X M) va a jugar un papel muy importante en captulos posteriores de este
libro.

Adems del "centro" de una distribucin interesa tambin conocer la separacin en


tre sus valores, ya que es necesario diferenciar las distribuciones en las que ciertos erro
res puntuales elevados resulten muy probables de aquellas otras donde estos mismos
errores extremos tengan una pequea probabilidad. Para diferenciar estas situaciones
introduciremos la varianza como medida de dispersin que resume las desviaciones
cuadrticas de una variable aleatoria respecto a su valor esperado.

57
2. Magnitudes aleatorias

As, a partir de la distancia o desviacin de un valor x al "centro" de la distribucin


(X ), definimos la varianza como la "desviacin cuadrtica esperada".

Definicin 2.8. Dada una v.a. X definimos la varianza, que denotamos por 2 o
Var(X), como el valor, si existe, de la expresin:
(x
2 = Var(X) =E [X E(X)]2 = )2dF(x)

que en el caso continuo puede calcularse como:



2 = (x )2f(x)dx

y en el caso discreto como:



2 = (xi )2pi
i

Como consecuencia del carcter aleatorio de la variable X, la varianza puede ser


interpretada como una medida de riesgo en el sentido de que sintetiza los errores o
desviaciones cuadrticas respecto a la esperanza, ponderando cada error o desviacin
por su correspondiente potencialidad (probabilidad). Es evidente que el mnimo riesgo
posible se presentara en el caso de varianza nula, esto es, para una variable cuyos
valores coinciden con el esperado y que por tanto se denomina habitualmente "variable
degenerada".
Si en vez de considerar los errores respecto a la media los considersemos respecto a
otra magnitud cualquiera M, e = (XM), entonces la desviacin cuadrtica esperada
E(e2) = E(X M)2, se denomina error cuadrtico medio respecto a M.
Proposicin 2.7. A partir de la definicin de varianza es posible obtener una expre
sin alternativa de esta medida: 2 = E(X2) 2, que suele resultar ms operativa
para su clculo.
Demostracin. Para comprobar la equivalencia entre las expresiones E(X )2 y
E(X2) 2 basta desarrollar el cuadrado en la definicin de varianza:

2 = E(X )2 = E (X2 2X + 2 ) = E(X2) + E(2X) + E(2)


Teniendo en cuenta las propiedades de la esperanza y que y -2 son constantes, se
tiene:

2 = E(X2) 2E(X) +2 = E(X2) 2+2 = E(X2) 2

Proposicin 2.8. La varianza de cualquier v.a. X, presenta las siguientes propiedades


para cualesquiera b, c,M :
1. 20

58
2. Magnitudes aleatorias

2. Var(X + c) = Var(X)

3. Var(bX) = b2Var(X)
4. Var(X) E(X M)2

Esta ltima propiedad permite calificar a la varianza de medida cuadrtica ptima


en el sentido de que esta expresin miminiza el valor de las desviaciones cuadrticas.

Demostracin. La primera propiedad garantiza que la varianza es no negativa y se de


muestra de forma inmediata a partir de la definicin, en la que intervienen desviaciones
al cuadrado que por tanto sern no negativas.
3.

Var(bX) = E [bX E(bX)]2 = E[bX bE(X)]2 = E[b(X E(X))]2 =


= b2E[X E(X)]2 = b2Var(X)

En la demostracin de esta expresin se ha hecho uso de la propiedad de la esperanza


relativa al producto de una variable aleatoria por una constante. [Comprubese la
propiedad 2, segn la cual la varianza permanece inalterada ante cambios de origen
en la variable aleatoria]
4. Sea M un valor real cualquiera; entonces se cumple que la desviacin cuadrtica
respecto a M se hace mnima cuando dicho valor coincide con el esperado.
Para comprobar esta propiedad basta desarrollar la expresin genrica:

E(XM)2= E(X+M)2=E[(X)+(M)]2=
[ ]
= E (X)2+2(X)(M)+(M)2
Teniendo en cuenta que el operador esperanza es lineal y que y M son constantes,
se tiene:

E(X M)2 = E(X)2+2(M)E(X)+(M)2

y, como E(X )=0, resulta:

E(XM)2=E(X)2+(M)2
0

Al ser ( M)2 un cuadrado y por tanto no negativo, se tiene que a 2 hay que
sumarle una cantidad mayor o igual a cero para alcanzar a E(X M)2 de donde:
E(X M)2 2

La descomposicin anterior separa el error cuadrtico medio respecto a M en dos


sumandos: la varianza de X y el cuadrado de la diferencia entre M y . La aleato
riedad de la variable afecta al primer sumando y no al segundo que es el cuadrado
de una constante. As pues, el primer sumando es un error aleatorio intrnseco a la

59
2. Magnitudes aleatorias

variable y el segundo un error determinista debido a la distancia entre y M.

Como consecuencia de su definicin, la varianza es una medida de dispersin que


analiza la proximidad de los valores de la variable a su valor esperado. En muchas
ocasiones es til construir un intervalo en torno a la esperanza donde probablemente
se site un alto porcentaje de valores de la variable; los lmites de este intervalo
se construyen sumndole y restndole a el nivel de dispersin. Sin embargo, nos
encontramos con el inconveniente de que las unidades de son las mismas que las de
la variable y en cambio, las de la varianza son unidades cuadrticas. Por este motivo
es conveniente introducir nuevas medidas de dispersin.

Definicin 2.9. Definimos la desviacin tpica o estndar, que denotamos por o


STD(X), como la raz cuadrada (con signo positivo) de la varianza.

De este modo, se dispone de una medida de dispersin cuya informacin aparece como complemen
taria a la proporcionada por la esperanza. Esta medida permite acotar probabilidades de intervalos
con independencia del modelo de probabilidad que siga la variable X ya que, como demostraremos
en un epgrafe posterior, se cumple para cualquier k > 0:

P(k<X<+k)11k2
expresin conocida como desigualdad de Chebyshev y cuya interpretacin es muy clara: la probabilidad
de que un valor de la variable se site en cierto entorno de su esperanza, determinado ese entorno
por su desviacin tpica, es mayor que una cierta cantidad.
As pues, gracias a la acotacin anterior, podemos entender la desviacin tpica -y en su caso la
varianza- como una medida de riesgo asociada a la v.a.
Adems, en el caso de que la variable X siga una distribucin conocida, las acotaciones an
teriores pueden ser perfeccionadas. Ms concretamente, si X se adapta a un modelo normal, se
puede comprobar que el 66% de los valores se sitan dentro del intervalo ( , + ); esto es:
P( <X< + ) 0,66. Ampliando el intervalo observamos que la proporcin de valores que
se sitan en l aumenta y as se tiene:

P(2<X<+2)0,95yP(3<X<+3)0,99

Las caractersticas anteriormente vistas -esperanza, varianza y desviacin tpica- son equivalentes
a las correspondientes medidas descriptivas media, varianza y desviacin tpica, con la nica salvedad
de que ahora su rasgo caracterstico es la potencialidad como consecuencia del carcter aleatorio de X.

Las caractersticas anteriores, aun siendo las ms habituales, no agotan las posi
bilidades de describir una magnitud aleatoria. De hecho, las distintas medidas de
tendencia definidas para variables estadsticas son generalizables al caso de variables
aleatorias.

Una vez visto el paralelismo entre media y esperanza, la Moda podra ser identificada como valor
que maximiza la probabilidad o densidad y, a travs de la funcin de distribucin podemos contemplar
de modo inmediato cualquier cuantil (a modo de ejemplo, la Mediana sera aquel valor de la variable
para el que se acumula una probabilidad del 50 %, esto es, se cumple p (X Me)=0,5).

60
2. Magnitudes aleatorias

Cuando se quieren comparar las dispersiones de varias v.a., la varianza y la desviacin tpica no
son tiles porque muestran la variacin respecto a su valor esperado y dependen de las unidades y de
la magnitud de ste. En este tipo de problemas es conveniente introducir las medidas de dispersin
relativas, de las cuales la de uso ms generalizado es el coeficiente de variacin de Pearson, definido
como el valor de la expresin: CV = .

Las caractersticas de esperanza y varianza vistas anteriormente son casos particu


lares de otras de carcter ms general que denominamos momentos. Un momento es
una medida de desviacin que viene caracterizada por dos parmetros M y r; el pa
rmetro M indica el centro de referencia respecto al cual se calculan las desviaciones
y r expresa la forma de medir esa desviacin y sus unidades.

Definicin 2.10. Se denomina momento de orden r centrado respecto a M al valor


esperado, si existe, de la variable (X M)r:

r,M=E(XM)r

Para valores especficos de M y r esta expresin proporciona momentos concretos


y as, en el caso r = 2 se obtiene el error cuadrtico medio respecto a M. Por otra
parte, las particularizaciones habituales de M son 0 y E(X); as podemos establecer
las siguientes definiciones:

Definicin 2.11. Se denomina momento de orden r centrado respecto a E(X) o


simplemente momento centrado de orden r, que se denota por r , al valor, si existe,
de la expresin:

r = E[X E(X)]2
Se llama momento de orden r centrado respecto al origen (0) o simplemente mo
mento no centrado de orden r, r, al valor, si existe, de la expresin:

r = E(X 0)r = E(X)r

[Comprubese que se cumple: 0 = 1, 1 = E(X) = , 2 = E(X)2, y tambin:


0 = 1,1 = 0,2 = 2].
A veces la notacin de los valores esperados puede llevarnos a confusin; conviene
tener presente que E(X2) = E(X)2, (E(X))2 = E2(X), E[(X )2] = E(X )2.
Dada una v.a. X, si existe el momento (centrado o no) de orden s, existen todos los de orden
inferior a s y, de modo complementario, si no existe el de orden s tampoco existe el de cualquier otro
orden superior a s.
La relacin entre momentos centrados y no centrados viene dada por la siguiente expresin:
r = r Cr,11r1 + Cr,22r2 + + (1)rr
[La justificacin es sencilla sin ms que considerar la expresin de un binomio elevado a r]
Un caso particular de esta relacin es la frmula de clculo deducida para la varianza: 2 = 2 =
2 21.

61
2. Magnitudes aleatorias

Otras caractersticas importantes asociadas a las v.a. estn referidas a la forma que presenta su
funcin de probabilidad o de densidad; nos referimos a las caractersticas de asimetra y apuntamiento
de la curva. Existen varios indicadores para medir estos parmetros, siendo los ms usuales los
denominados coeficientes 1 y 2 de Fisher.
El estudio de la forma de una distribucin se efecta habitualmente adoptando como referencia
el modelo normal -que analizaremos con detalle en el captulo siguiente- cuya representacin es una
curva simtrica campaniforme conocida como "campana de Gauss".
33 y su valor se
Definicin 2.12. El coeficiente de asimetra 1 se define como el cociente: 1 =
compara respecto al 0, resultando una distribucin asimtrica positiva o a la derecha si su coeficiente
1 es positivo y asimtrica negativa o a la izquierda si ste es negativo. Cuando el resultado es nulo,
decimos que la curva es simtrica.
44 3, y su resultado se compara tambin
El coeficiente de apuntamiento 2 se define como: 2 =
con el 0, valor de referencia que corresponde a una distribucin normal estndar y que de presentarse
permite calificar a una distribucin de mesocrtica. Los valores positivos de este ndice se correspon
den con un apuntamiento superior al normal (distribuciones calificadas de leptocrticas) mientras
que para valores negativos el apuntamiento es inferior al normal y las distribuciones se denominan
platicrticas.

En ocasiones nos interesar conocer la distribucin del valor agregado total de v.a. X entre los
elementos que componen la poblacin. En este caso se utilizan las medidas de concentracin y de
sigualdad.
Las medidas ms utilizadas son la curva de Lorenz y el ndice de Gini -Lorenz que lleva asociado,
que en este caso formalizaremos en trminos probabilsticos

Definicin 2.13. Dada una variable aleatoria X con funcin de distribucin F(x) el ndice de
concentracin de Gini-Lorenz viene dado por el resultado de la expresin:

L(X)=1 2
10 F1(x)dF(x)

donde la f.d. F(x) representa la proporcin de rentistas por debajo de una cantidad x y F1(x) se
define como:
x0tdF(t)
F1(x)=

y representa la proporcin de renta que reciben los rentistas anteriores.


La interpretacin, propiedades e inconvenientes de este ndice son idnticas a las recogidas en el
caso de variables estadsticas y remitimos al lector al libro Introduccin a la Estadstica Econmica
(Rigoberto Prez, Covadonga Caso, Mara Jess Ro y Ana J. Lpez) donde se trata el tema con
detalle.

Aunque la curva de Lorenz y el ndice de Gini-Lorenz son las medidas ms tradicionales, con
carcter ms reciente han sido introducidas medidas que solucionan sus limitaciones. En concreto, en
trabajos anteriores hemos propuesto medidas de la desigualdad desde las pticas individual (indicador
asociado a la persona que sufre o repercute desigualdad) y colectiva (medida obtenida como sntesis
de los indicadores individuales)2.

2Un estudio detallado de estas medidas de desigualdad, que incluye tambin sus conexiones con los
indicadores de pobreza y su anlisis normativo, aparece recogido en el trabajo de Lpez, A.J. y
R. Prez (1991): Indicadores de desigualdad y pobreza. Nuevas alternativas publicado como Docu
mento de trabajo 037/1991 de la Facultad de CC. Econmicas y Empresariales de la Universidad
de Oviedo

62
2. Magnitudes aleatorias

Definicin 2.14. Denominamos ndice de desigualdad individual asociado a una renta x al valor
de la expresin:
x-1
d(x) =

Para x distinto de 0, este coeficiente es una nueva v.a. que recoge la desigualdad generada por
cada renta individual. Como consecuencia, su valor esperado, si existe, ser indicativo del nivel de
desigualdad colectiva:
D=E(d)=E ( x1) 0 ( x1)
dF(x)
=

Adems de las funciones de probabilidad, de densidad y de distribucin estudia


das existen otras funciones que podemos asociar a toda v.a. y que son importantes
instrumentos de trabajo; a partir de ellas pueden obtenerse, por ejemplo, la funcin
de densidad o los momentos de una distribucin. Nos estamos refiriendo a la funcin
generatriz de momentos y a la funcin caracterstica.
Definicin 2.15. Se denominada funcin generatriz de momentos (f.g.m.), de una
v.a. X, si existe, al valor de la expresin:

MX(t) = E(etX)

donde t es una variable real.


Se trata de una funcin real de variable real, que identifica por completo una variable
aleatoria. Se cumple as una condicin de identidad, de modo que si la funcin gene
ratriz de momentos existe puede demostrarse que es nica y determina por completo
a la distribucin de probabilidad de X (a toda funcin de distribucin corresponde
una funcin generatriz de momentos y recprocamente).
La funcin generatriz puede plantear problemas de existencia, pues puede ocurrir
que para determinados valores de t el valor esperado E(etX) no exista. No obstante,
para las distribuciones usuales la f.g.m. toma un valor finito por lo que la dificultad
anterior puede ser obviada.
La justificacin de la denominacin funcin generatriz de momentos viene dada por
la siguiente propiedad:
Proposicin 2.9. Si existe el momento de orden r, se tiene:
drMX(t)
dtr

=r ;r=1,2,...

t=0
es decir, dada una variable aleatoria X es posible obtener sus momentos sucesivos a
partir de MX(t) siempre que esta funcin y sus derivadas existan.
Demostracin. La demostracin de esta propiedad se lleva a cabo teniendo en cuenta que pueden
intercambiarse los operadores diferencial y esperanza:
etX)
etX ] etX )]

dMX (t) ddtE (
) ddt (
= = E [ = E [X ( = E(X) = = 1
dt t=0
t=0 t=0 t=0

63
2. Magnitudes aleatorias

De modo anlogo, para la segunda derivada se obtiene en el punto t I 0

dt t
- e") I - E es] - E i; ea] , - Ele en X2
t o
y en general, para la derivada de orden r:

dTM t d d
Ti) I E (JX) I E (JX) I E lx (@)j I E(X) I a.
dt dtT t 0 dtT IO 1:0


Consideremos de nuevo la v.a. "Nmero de medallas obtenidas por un deportista" y su distribucin
de probabilidad:

X:1 P(X_1)_02
X:2 P(X_2)_02
P(X 3) 0 15
Segn la expresin vista para la funcin generatriz de momentos se tiene en este caso

MX (t) I E (JX) I [0, 5 + 0,2 ( + e) + 0,13]


cuya derivada respecto a t es:

dMX (t)
d, I 0, 2 ( + 2) + 0, se
tIO

expresin que para t I 0 da lugar a:

dMX (t)
1021 2 03:09
dt 7(+)+7 7
tIO

valor coincidente con la E (X ) anteriormente calculada.

PFOPOSCII 2.1. Otras propiedades importantes de la f.g.m. son las relativas a los cambios de
origen y escala:

MC+X (t) I (CMX (t)


1.

Q. MbX (t) : MX (tb)

Demostracin. En efecto:
MCJFXG) I E. [eawxq I E. (etcetX) I etcE (etX) I QCMX (t)

A/IbX (t) I E [Jlbxlj I E [wxj I MX(tb)

64
2. Magnitudes aleatorias

Figura 2.10.: Acotacin de la probabilidad

La funcin caracterstica presenta como ventaja con respecto a la f.g.m. que siempre tiene garan
tizada su existencia.

Definicin. Se define la funcin caracterstica asociada a una v.a. X como una aplicacin X :
t x (t) C, dada por la expresin:

eitx
X (t) = E ( ) = E [costx + i sintx]

Este valor esperado existe siempre para todo t real verificndose una identidad entre las funciones de
densidad y caracterstica: a toda funcin de densidad corresponde una nica funcin caracterstica y
recprocamente.
Como observamos, la funcin caracterstica toma valores en el campo de los nmeros complejos
y los conocimientos de integracin compleja exceden el nivel de formalizacin que seguimos en esta
obra.

2.4. Desigualdad de Chebyshev


En epgrafes anteriores hemos estudiado el clculo de probabilidades basado en la
distribucin probabilstica de las variables aleatorias. Dado que esta distribucin no
siempre resulta conocida en la prctica, presentamos en este apartado una ampliacin
del clculo de probabilidades a las situaciones con informacin ms escasa.
A modo de introduccin, consideremos una magnitud aleatoria X cuya distribu
cin probabilstica desconocemos. Ante esta ausencia de informacin debemos confor
marnos con un clculo aproximado de probabilidades, bien sea la correspondiente al
interior de un intervalo o bien la complementaria (probabilidad de las colas).
Tal y como indica la figura 2.10, podramos plantearnos evaluar la probabilidad de
que la variable aleatoria X se encuentre fuera de la zona sombreada, esto es, discrepe
de su valor esperado en cuanta superior a cierto margen . Dada la ausencia de in
formacin, deberemos limitarnos a garantizar que dicha probabilidad guarde relacin
directa con la dispersin de la variable (Var(X)) e inversa con el margen fijado ().

65
2. Magnitudes aleatorias

P.L. Chebyshev (1821-1894) y J. Bienaym (1796-1878) desarrollaron de modo independiente la


desigualdad generalmente conocida con el nombre del primero, en la que se establece una acotacin
superior para la probabilidad de las colas de un intervalo centrado en el valor esperado de una variable.

Proposicin. Consideremos una variable aleatoria X con esperanza y varianza fini


tas; entonces la desigualdad de Chebyshev permite afirmar que para cualquier nmero
real positivo se verifica:

P(|XE(X)|)Var(X)2

La desigualdad de Chebyshev se obtiene como caso particular de la desigualdad bsica:


Proposicin. Sea b una constante positiva y h(X) una funcin no negativa, donde X es una v.a.
Entonces siempre que E(X) exista se cumple:

P[h(X) b] 1bE[h(X)]

Ms concretamente, h(X) =
la desigualdad de Chebyshev se correspondera con el caso en que
[X E(X)]2 , = b. [Comprubese].

Demostracin. Para demostrar la desigualdad bsica definimos un conjunto A = {x/h(x) b}


con 0 < P(A) < 1. Podemos entonces expresar:
E [h(X)] = E [h(X)/A]P(A) + E [h(X)/Ac] P(Ac) E [h(X)/A]P(A) bP(A)

donde hemos aplicado para la primera desigualdad h(x) 0 y para la segunda h(x) b para todo x
de A.

En el caso de que nos interese acotar la probabilidad interior al intervalo (rea


sombreada en la figura anterior) se obtiene una garanta o cota inferior dada por la
siguiente expresin, aplicable a cualquier variable aleatoria X con esperanza y varianza
finitas, > 0:
Var(X)
P(|XE(X)|<)1
2
Esta desigualdad se obtiene de forma inmediata ya que con slo aplicar la propiedad de la pro
babilidad del complementario se tiene: P (|X E(X)| < )=1 P (|X E(X)| ) expresin a la
que aplicamos el primer enunciado de Chebyshev:

V ar(X)
P(|X E(X)| )
2

La desigualdad de Chebyshev en cualquiera de sus dos expresiones proporciona


cotas para probabilidades de la variable aleatoria X, en funcin de su dispersin y del
margen de error considerado .

66
2. Magnitudes aleatorias

En sntesis, estas desigualdades garantizan ciertas probabilidades mnimas para


cualquier entorno de la esperanza, que aumentan con el margen considerado y dis
minuyen con la dispersin poblacional. Si por el contrario queremos aproximar la
probabilidad fuera de ese entorno, la desigualdad de Chebyshev proporciona una cota
superior, que guarda relacin directa con la dispersin e inversa con el margen fijado.
Adems, cuando el margen de error considerado se expresa como proporcin de la
desviacin estndar ( = k) es posible llegar a formulaciones alternativas para las
dos acotaciones de Chebyshev. As, dada una variable aleatoria X con esperanza y
varianza finitas se cumple para cualquier k > 0:
1
P(|X E(X)| k)
k2
1
P(|XE(X)| < k) 1 k2

Estos nuevos enunciados de la desigualdad de Chebyshev confirman la interpretacin


de la desviacin estndar como medida de la dispersin. En efecto, resulta sencillo
comprobar cmo cambia la acotacin inferior del intervalo y superior de las colas a
medida que aumenta el nmero de desviaciones tpicas consideradas en nuestro margen
de error:

Valor k Cota inferior para Cota superior para


P(|XE(X)| <k) P(|XE(X)| k)
1 0 1
2 0,75 0,25
3 0,89 0,11
4 0,9375 0,0625
5 0,96 0,04
10 0,99 0,01

Como puede apreciarse en la tabla anterior, la consideracin de un margen no


superior a una sola desviacin estndar no resultara en absoluto informativa, ya que
para k = 1 la cota inferior es 0 y la superior 1, valores entre los cuales -como recoge la
axiomtica de Kolmogorov- se halla comprendida toda probabilidad. [Qu acotaciones
se obtendran si el margen considerado es de 2 ?].

67
3. Modelos de probabilidad
En nuestra realidad cotidiana nos encontramos diversas variables de carcter aleato
rio que, tal y como hemos expuesto en el captulo anterior, slo pueden ser analizadas
convenientemente si disponemos de informacin sobre su distribucin de probabilidad.
Supongamos a modo de ejemplo que una publicacin est elaborando un reportaje so-
bre experiencias empresariales, en el que existen varios aspectos inciertos.
I Se ha contactado con 20 empresarios de distintos perfiles a los que se desea en-
trevistar para el reportaje pero se desconoce cuntos de ellos accedern a ser
entrevistados. Desde el equipo de redaccin se asume que las respuestas de los
distintos empresarios convocados son independientes y se confa en que, dado el
prestigio de la publicacin, un 80% de ellos accedern finalmente a colaborar.

II El reportaje incluir, adems de las entrevistas, imgenes alusivas a la actividad de


los empresarios. De las 15 fotografas seleccionadas se elegirn aleatoriamente
3 para la portada y se confa en que est representado el empresariado tanto de
sexo masculino como femenino.

III La entrevista, que se ajustar a un modelo ya diseado, tendr una duracin alea
toria en funcin de las respuestas y talante del empresario. No obstante, se prev
una duracin cercana a dos horas, resultando poco probable que la entrevista se
desve considerablemente de este tiempo por exceso o por defecto.

IV El equipo responsable del reportaje confa en la calidad de su trabajo, por lo que se


espera que apenas aparezcan errores tipogrficos a lo largo de sus pginas.

En las cuatro etapas descritas aparecen magnitudes de carcter aleatorio, con distintas
distribuciones de probabilidad. No obstante, en la prctica muchas de estas variables
aleatorias presentan comportamientos comunes que pueden ser descritos mediante
pautas. As, el esquema del nmero de empresarios que acceden a la entrevista del
peridico es similar al de los potenciales clientes que finalmente compran un producto
o al de los estudiantes que aprueban un examen.
De igual modo, los tiempos de duracin de las entrevistas, aunque aleatorios, segui
rn previsiblemente un modelo en forma de campana (mayores probabilidades para
los valores centrales y menores para observaciones extremas). Este tipo de distribu
cin -como justifica su denominacin, normal- servir para describir otras muchas
caractersticas (la altura de los empresarios, su peso, ...).
En efecto, existen modelos probabilsticos cuyo inters reside en la capacidad de
describir comportamientos genricos de distintas magnitudes aleatorias que resultan

68
3. Modelos de probabilidad

semejantes segn ciertas pautas. Nos encontramos as con grandes familias probabils
ticas designadas con nombres propios que incluyen como casos particulares numerosos
fenmenos, incorporando sus rasgos diferenciales mediante parmetros.

Los modelos de probabilidad son idealizaciones probabilsticas de fenmenos aleatorios. Repre


sentamos los fenmenos o experimentos aleatorios mediante variables aleatorias, y estas variables
proporcionan una particin de la clase de todos los fenmenos posibles, de modo que a cada fen
meno le corresponde una variable aleatoria, pero cada una de stas representa a diversos fenmenos.
Por otra parte, cada magnitud aleatoria lleva asociada, como ya hemos visto, una funcin de
distribucin (que a veces tambin se denomina ley de probabilidad), y muchas de stas mantienen
estructuras comunes, salvo algn parmetro que las especifique. Entonces dividimos el conjunto de to
das las distribuciones posibles en grupos (tambin llamados modelos), de forma que las distribuciones
que integran cada grupo tengan la misma estructura.
En este nivel de abstraccin, hemos pasado del conjunto de fenmenos a un conjunto de modelos
matemticos o probabilsticos ms fciles de analizar, de modo que un reducido nmero de estos
modelos recogen una mayora de los experimentos posibles, bien porque las caractersticas del expe
rimento encajen plenamente en las condiciones del modelo o bien porque las observaciones se ajusten
ms o menos a los resultados tericos que predice el modelo.

Naturalmente existen muchos modelos de probabilidad. Nos ocuparemos en este


captulo de los ms importantes, que han sido estudiados con detalle y llevan nombre
propio.
Cada modelo probabilstico representa una familia de funciones de distribucin,
que dependen de uno o ms parmetros y cuyas especificaciones determinan las dis
tribuciones particulares que integran la familia. El estudio de estos modelos se centra
en analizar la ecuacin general que representa a la familia, sus caractersticas y sus
propiedades.
Por otra parte, nos interesa conocer la probabilidad con la que un fenmeno se pre
sentar a travs de determinados sucesos; conocida la variable aleatoria y el modelo
que representa a ese fenmeno, tal probabilidad se puede calcular a partir de la ecua-
cin general y los parmetros (conocidos o supuestos) de forma exacta o bien de forma
aproximada, mediante el empleo de mtodos numricos. No obstante algunos de estos
modelos se encuentran tabulados, lo que simplifica el clculo de esas probabilidades.
En los apartados que siguen analizaremos aquellos modelos probabilsticos de uso
ms habitual -distribuciones binomial, geomtrica, hipergeomtrica, uniforme y normal
y tambin algunos otros que, aunque no son de utilizacin tan generalizada, resultan
de inters por describir adecuadamente ciertos fenmenos relevantes en el mbito eco
nmico: ocurrencia de sucesos raros, tiempos de espera, distribuciones de renta, ...
En algunos casos se considera tambin como modelo probabilstico la denominada
distribucin singular que, por su gran sencillez, puede servir de introduccin a las
restantes distribuciones. Se trata de un modelo que concentra toda la masa de pro
babilidad -la unidad- en un nico valor, por lo cual su aplicabilidad prctica es muy
escasa.
De hecho, el modelo singular se correspondera con el caso de una variable degene
rada, carente de inters para nuestros estudios al no manifestar variacin alguna.

69
3. Modelos de probabilidad

Una variable X presenta distribucin singular cuando su probabilidad se concentra en un punto,


x0. Como consecuencia su funcin de probabilidad viene dada por:
{
parax = x0
P(X = x) =
0 parax =x0
1

Dado que la variable X presenta un nico valor, resulta evidente que ste coincidir con su espe
ranza ( = x0). [Cul ser su varianza?]

Una variable X con distribucin singular es probabilsticamente equivalente a


una constante, pues toma con probabilidad 1 determinado valor x0. Conviene sin
embargo tener presentes las consideraciones sobre los sucesos de probabilidad nula y
de probabilidad unitaria realizadas en el primer tema.

3.1. Modelo Binomial


Un modelo probabilstico de aplicacin generalizada es el binomial, que aparece
cuando al efectuar observaciones reiteradas analizamos en cuntos casos se han pre
sentado determinados resultados, habitualmente denominados xitos.
Consideremos el ejemplo anterior, asumiendo que 20 empresarios han sido convoca
dos para entrevistarles. Dado que no podemos anticipar la respuesta de cada uno de
ellos, sta puede ser identificada con una variable aleatoria con dos nicos resultados
asociados a los sucesos aceptar (xito) y su complementario no aceptar (fracaso).
Aunque la variable aleatoria respuesta de un empresario podra venir definida
de mltiples formas, resulta habitual asignar el valor 1 al xito y 0 al fracaso. De
este modo, tendramos una v.a. discreta cuya distribucin de probabilidad quedara
perfectamente determinada una vez conocida la probabilidad de aceptacin p.

Definicin 3.1. Dada una prueba dicotmica (tambin llamada de Bernoulli), carac
terizada por dos resultados mutuamente excluyentes (xito y fracaso), indicando por
p la probabilidad de xito, la variable aleatoria definida como:
{
1 si ocurre xito
X=
0 si ocurre fracaso
se denomina modelo o distribucin de Bernoulli (o dicotmica) B(p) .

Conocida la probabilidad de xito p se tiene tambin la probabilidad de fracaso


(complementario) 1 p = q y la funcin de probabilidad de X vendra dada por:

P(X=0)=q;P(X=1)=p
Este sencillo modelo discreto puede ser representado mediante un diagrama de ba
rras como como recoge la figura 3.1, a partir del cual se obtiene de modo inmediato
la probabilidad acumulada asociada a la funcin de distribucin:

70
3. Modelos de probabilidad

Figura 3.1.: Funcin de probabilidad del modelo de Bernoulli

F(x)=P(Xx)=
0 six < 0

q si0x<1


1 si1 x
Las caractersticas de este modelo probabilstico pueden ser tambin obtenidas con
facilidad, ya que a partir de su definicin se tiene:

=E(X)=1p+0q=p

2 = Var(X) = (1 p)2p + (0 q)2q = pq(q +p) = pq


expresin a la que puede llegarse tambin a partir de la frmula alternativa E(X2)2.
[Comprubese que en este caso se obtiene E(X2) = E(X)2 = p y E2(X) = p2]
La interpretacin de ambos parmetros es ilustrativa: la esperanza o centro de gravedad de la
distribucin (cuyos nicos valores son 0 y 1) correspondera a la probabilidad de xito (p).
Por su parte, la varianza, al aproximar el riesgo, debe tambin tomar en consideracin la proba
bilidad de fracaso q. De hecho, puede verse fcilmente, derivando la varianza respecto a p (condicin
necesaria de extremo), que el riesgo mximo se obtendra para el caso en que xito y fracaso tuvieran
probabilidades idnticas (p = q = 0,5). [Cul sera el caso de riesgo mnimo? por qu?].
Al exigirle a la variable que tome los valores 0 y 1, de alguna forma estamos normalizando dicha
variable. Esta normalizacin resulta muy cmoda, ya que podemos observar que los valores no slo
intervienen en las funciones de probabilidad y de distribucin, sino que tambin condicionan las ca
ractersticas esperanza y varianza, por lo que variables dicotmicas con valores distintos de 0 y 1 no
tendran caractersticas comparables. [Cunto valdran la esperanza y la varianza de una variable
que asignase los valores -10 y 10 a los sucesos fracaso y xito respectivamente?].

La distribucin de Bernoulli toma su nombre de Jakob Bernoulli (1654-1705) quien introdujo el


modelo en su obra Ars Conjectandi. A este autor, perteneciente a una de las familias ms relevantes

71
3. Modelos de probabilidad

en la historia de la probabilidad, se deben numerosas aportaciones. Fue el primero que se preocup


por la extensin de la probabilidad a otros campos distintos de los juegos de azar; tambin introdujo el
teorema de Bernoulli en el cual demostraba la convergencia de la frecuencia relativa a la probabilidad.

Ya nos hemos referido a otro de los miembros de la familia, Daniel Bernoulli, quien propuso una
solucin para la famosa paradoja de San Petersburgo.

Si bien el modelo anterior permite describir gran cantidad de fenmenos, en general


las investigaciones no se limitarn a una prueba nica, siendo frecuentes en el mbito
econmico los estudios donde se observa cierto resultado en una serie de pruebas
repetidas.
Este es el caso del ejemplo propuesto, donde un total de 20 empresarios han sido
convocados para la entrevista, pudiendo decidir cada uno de ellos si acudir o no.
Como consecuencia de la repeticin de la experiencia, definiremos ahora una variable
aleatoria que designe el nmero de xitos obtenidos a lo largo de la investigacin (en
nuestro ejemplo nmero de empresarios que acceden a la entrevista).
El rasgo distintivo de esta variable con respecto al modelo de Bernoulli es la impor
tancia de un nuevo parmetro n, que representa el nmero de observaciones llevadas
a cabo. Suponemos que estas n observaciones son independientes entre s y asumi
mos como constante a lo largo de n pruebas la probabilidad de xito recogida por
el parmetro p. Ambos sern los rasgos caractersticos del modelo binomial, que sue
le designarse por B(n,p). La siguiente tabla ilustra varias situaciones en las que un
modelo binomial describe adecuadamente los resultados que nos interesan:

Experiencia xito Probabilidad de xito N de pruebas


Lanzar un dado Sacar un 2 p = 16 3
Situacin laboral Activo Tasa actividad 12
Sondeo Votar SI p = 0,4 24
Entrevista Acudir p = 0,8 20

v.a. N de xitos en n pruebas B(n,p)

Si examinamos los rasgos que tienen en comn los ejemplos propuestos podemos
llegar a la conclusin de que existen ciertos requisitos para que una experiencia sea
incluida dentro de la familia binomial. As, ser relevante conocer si la probabilidad
de xito es constante en todas las pruebas (en los lanzamientos de un dado este su
puesto parece evidente, pero sin embargo podran existir diferentes tasas de actividad
segn los sectores econmicos, distintas probabilidades de votar s segn la ideologa
poltica, o diferentes probabilidades de acudir a la entrevista segn la fama o el nivel
de ocupacin del empresario).
Del mismo modo, nos interesar saber si las observaciones son independientes (en
los ejemplos del sondeo y de las entrevistas a empresarios podra existir relacin entre
las respuestas, ya que sabemos que unas personas ejercen influencia sobre otras).
Recopilando las consideraciones anteriores:

72
3. Modelos de probabilidad

Definicin 3.2. Un modelo binomial se basa en los siguientes supuestos:


Se llevan a cabo n pruebas u observaciones.
Las n observaciones son independientes entre s.
La probabilidad de xito p permanece constante en todas las pruebas.
En estas condiciones, la variable aleatoria que recoge el nmero de xitos en las n
pruebas se dice que sigue un modelo binomial B(n,p).

Toda sucesin de pruebas que verifican las condiciones anteriores se denominan pruebas de Bernou
lli y dan lugar al proceso de Bernoulli. El proceso de Bernoulli surge de una manera natural cuando
realizamos observaciones en una poblacin infinita o cuando, tratndose de una poblacin finita, las
observaciones se seleccionan al azar con reposicin. En estas situaciones los supuestos enunciados
son fcilmente admisibles, ya que las observaciones no alteran la estructura poblacional (gracias al
reemplazamiento o bien al tamao poblacional infinito) quedando as garantizada la independencia
entre observaciones y la constancia de la probabilidad de xito p.

Una vez descritos sus rasgos bsicos, la distribucin de probabilidad de un modelo


binomial se obtiene con facilidad.
Consideremos una variable X B(n, p). En primer lugar, debemos definir su reco
rrido de valores que, por describir el nmero de xitos, en ningn caso podrn superar
el nmero de pruebas realizadas ni ser inferiores a cero.
Tendremos por tanto que los valores que la variable X puede adoptar son: 0,1,2,...,n
y podemos deducir gracias a los supuestos subyacentes en el modelo binomial la pro
babilidad asociada a cada uno de esos valores.
Para cada valor posible k, P(X = k) recoge la probabilidad de que se presenten
k xitos a lo largo de n pruebas (esto es, que k empresarios acudan a la entrevista,
que obtengamos k veces el resultado 2 al lanzar un dado, que k de los individuos
seleccionados sean activos, ...).
Para cuantificar la probabilidad anterior debemos responder a dos interrogantes:
de cuntas formas distintas podramos obtener esos k xitos? y cul es la probabi
lidad de cada una de ellas?

El primero de los interrogantes hace referencia a los casos favorables (cuya secuencia aparece en
el esquema) mientras el segundo evala la verosimilitud de cada uno de ellos. Como cada una de
las secuencias posibles excluye todas las dems, se trata de resultados incompatibles y por tanto la
probabilidad de la unin viene dada por la suma de probabilidades. [Figura 3.2]

Para responder a la cuestin formas de seleccionar k xitos en n pruebas, podemos acudir -como ya
hemos visto en un tema anterior- al anlisis combinatorio. Concretamente se trata de combinaciones
de n elementos de orden k, supuesto que tambin responde al caso de permutaciones de n elementos
con repeticiones k (no distinguimos un xito de los dems) y (n k) (no distinguimos los fracasos
entre s). ( )
A partir de cualquiera de los razonamientos anteriores la expresin de clculo sera Cn,k = nk =
k!(nk)!
n! , que cuantifica el nmero de secuencias de n observaciones con k xitos.

73
3. Modelos de probabilidad

Figura 3.2.: Esquema Binomial

Ahora bien, necesitaramos adems conocer la probabilidad de que se presente cada una de esas
situaciones favorables, que se corresponde con el suceso k xitos y n k fracasos . Se trata pues de
la probabilidad de la interseccin que -gracias al supuesto de independencia entre pruebas- se obtiene
como producto de probabilidades, dando como resultado la expresin pkqnk.

Una duda que podra plantearse es si todos los casos favorables, esto es, los que presentan k xitos,
son equiprobables. La respuesta es afirmativa ya que los supuestos del modelo nos permiten afirmar
que las pruebas son independientes y la probabilidad de xito p permanece constante. Como conse
cuencia la probabilidad de cualquier secuencia de resultados que incluya k xitos y n k fracasos
ser la probabilidad de n sucesos independientes, dada por un producto en el que k trminos son p
y los restantes (n k) trminos son 1 p = q.

Una vez examinados los factores que intervienen en la probabilidad, estamos en con
diciones de construir la funcin de probabilidad correspondiente a un modelo binomial
B (n,p) que viene dada por:
(nk
)pk(1p)nk ; conk = 0,1, ,n (3.1)
P(X = k) =

Para comprobar que la expresin anterior es una verdadera funcin de probabilidad basta verificar
las condiciones de no negatividad y suma unitaria.
La primera de ellas es inmediata por ser no negativos todos los trminos que aparecen en la
expresin P(X = k). Por lo que respecta a la segunda condicin, se tiene

nk=0P(X=k)=nk=0 (nk
pk(1p)nk
expresin que se corresponde con el desarrollo del Binomio
) de Newton (p+q)n cuyo valor es la unidad

porserq=1p.
La denominacin del modelo binomial se debe a su conexin con el binomio de Newton. De hecho,

74
3. Modelos de probabilidad

Figura 3.3.: Funcin de Distribucin Binomial

)pk(1p)nk representa el k-simo trmino del desarrollo


la expresin de la probabilidad binomial (nk
del binomio (p + q)n.

Con independencia de cul haya sido su proceso de generacin, podemos afirmar que toda variable
aleatoria discreta, cuya funcin de probabilidad venga dada por la expresin 3.1 sigue un modelo
Binomial (X B(n,p)).

La expresin de la funcin de distribucin para un modelo binomial B(n,p) es




0 six < 0
[x]k=0 ( )pk(1 p)nk si0 x<n
F(x) = P(X x) = nk


1 sin x
fcilmente deducible a partir de la correspondiente funcin de probabilidad y cuya
representacin grfica se recoge en la figura 3.3.
Tanto la funcin de probabilidad como la de distribucin -aunque sencillas- pueden
resultar poco operativas para valores elevados de la variable. Para subsanar este in
conveniente, las probabilidades del modelo binomial aparecen tabuladas para ciertos
valores de los parmetros n y p.
El manejo de las tablas del modelo binomial, que aparecen recogidas a continuacin,
consiste en seleccionar la fila correspondiente al tamao (n), a partir de la cual se elige
el nmero de xitos (k), y finalmente determinaremos la columna en la que se sita la
probabilidad de xito (p). En la interseccin se obtienen las probabilidades puntuales
de los valores correspondientes al modelo binomial B(n,p), esto es, k = 0,1,...,n.
A modo de ejemplo, calculemos la probabilidad de que, al lanzar 3 veces un dado, se obtengan
dos resultados pares. Dado que los resultados de los lanzamientos son independientes y que las

75
3. Modelos de probabilidad

Tabla 3.1.: Distribucin Binomial B(n, p). Funcin de probabilidad

n k/p 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
1 0 0,9500 0,9000 0,8500 0,8000 0,7500 0,7000 0,6500 0,6000 0,5500 0,5000
1 0,0500 0,1000 0,1500 0,2000 0,2500 0,3000 0,3500 0,4000 0,4500 0,5000
2 0 0,9025 0,8100 0,7225 0,6400 0,5625 0,4900 0,4225 0,3600 0,3025 0,2500
1 0,0950 0,1800 0,2550 0,3200 0,3750 0,4200 0,4550 0,4800 0,4950 0,5000
2 0,0025 0,0100 0,0225 0,0400 0,0625 0,0900 0,1225 0,1600 0,2025 0,2500
3 0 0,8574 0,7290 0,6141 0,5120 0,4219 0,3430 0,2746 0,2160 0,1664 0,1250
1 0,1354 0,2430 0,3251 0,3840 0,4219 0,4410 0,4436 0,4320 0,4084 0,3750
2 0,0071 0,0270 0,0574 0,0960 0,1406 0,1890 0,2389 0,2880 0,3341 0,3750
3 0,0001 0,0010 0,0034 0,0080 0,0156 0,0270 0,0429 0,0640 0,0911 0,1250
4 0 0,8145 0,6561 0,5220 0,4096 0,3164 0,2401 0,1785 0,1296 0,0915 0,0625
1 0,1715 0,2916 0,3685 0,4096 0,4219 0,4116 0,3845 0,3456 0,2995 0,2500
2 0,0135 0,0486 0,0975 0,1536 0,2109 0,2646 0,3105 0,3456 0,3675 0,3750
3 0,0005 0,0036 0,0115 0,0256 0,0469 0,0756 0,1115 0,1536 0,2005 0,2500
4 0,0000 0,0001 0,0005 0,0016 0,0039 0,0081 0,0150 0,0256 0,0410 0,0625
5 0 0,7738 0,5905 0,4437 0,3277 0,2373 0,1681 0,1160 0,0778 0,0503 0,0313
1 0,2036 0,3281 0,3915 0,4096 0,3955 0,3602 0,3124 0,2592 0,2059 0,1563
2 0,0214 0,0729 0,1382 0,2048 0,2637 0,3087 0,3364 0,3456 0,3369 0,3125
3 0,0011 0,0081 0,0244 0,0512 0,0879 0,1323 0,1811 0,2304 0,2757 0,3125
4 0,0000 0,0004 0,0022 0,0064 0,0146 0,0284 0,0488 0,0768 0,1128 0,1563
5 0,0000 0,0000 0,0001 0,0003 0,0010 0,0024 0,0053 0,0102 0,0185 0,0313
6 0 0,7351 0,5314 0,3771 0,2621 0,1780 0,1176 0,0754 0,0467 0,0277 0,0156
1 0,2321 0,3543 0,3993 0,3932 0,3560 0,3025 0,2437 0,1866 0,1359 0,0938
2 0,0305 0,0984 0,1762 0,2458 0,2966 0,3241 0,3280 0,3110 0,2780 0,2344
3 0,0021 0,0146 0,0415 0,0819 0,1318 0,1852 0,2355 0,2765 0,3032 0,3125
4 0,0001 0,0012 0,0055 0,0154 0,0330 0,0595 0,0951 0,1382 0,1861 0,2344
5 0,0000 0,0001 0,0004 0,0015 0,0044 0,0102 0,0205 0,0369 0,0609 0,0938
6 0,0000 0,0000 0,0000 0,0001 0,0002 0,0007 0,0018 0,0041 0,0083 0,0156
7 0 0,6983 0,4783 0,3206 0,2097 0,1335 0,0824 0,0490 0,0280 0,0152 0,0078
1 0,2573 0,3720 0,3960 0,3670 0,3115 0,2471 0,1848 0,1306 0,0872 0,0547
2 0,0406 0,1240 0,2097 0,2753 0,3115 0,3177 0,2985 0,2613 0,2140 0,1641
3 0,0036 0,0230 0,0617 0,1147 0,1730 0,2269 0,2679 0,2903 0,2918 0,2734
4 0,0002 0,0026 0,0109 0,0287 0,0577 0,0972 0,1442 0,1935 0,2388 0,2734
5 0,0000 0,0002 0,0012 0,0043 0,0115 0,0250 0,0466 0,0774 0,1172 0,1641
6 0,0000 0,0000 0,0001 0,0004 0,0013 0,0036 0,0084 0,0172 0,0320 0,0547
7 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0006 0,0016 0,0037 0,0078
8 0 0,6634 0,4305 0,2725 0,1678 0,1001 0,0576 0,0319 0,0168 0,0084 0,0039
1 0,2793 0,3826 0,3847 0,3355 0,2670 0,1977 0,1373 0,0896 0,0548 0,0313
2 0,0515 0,1488 0,2376 0,2936 0,3115 0,2965 0,2587 0,2090 0,1569 0,1094
3 0,0054 0,0331 0,0839 0,1468 0,2076 0,2541 0,2786 0,2787 0,2568 0,2188
4 0,0004 0,0046 0,0185 0,0459 0,0865 0,1361 0,1875 0,2322 0,2627 0,2734
5 0,0000 0,0004 0,0026 0,0092 0,0231 0,0467 0,0808 0,1239 0,1719 0,2188
6 0,0000 0,0000 0,0002 0,0011 0,0038 0,0100 0,0217 0,0413 0,0703 0,1094
7 0,0000 0,0000 0,0000 0,0001 0,0004 0,0012 0,0033 0,0079 0,0164 0,0313
8 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0007 0,0017 0,0039

76
3. Modelos de probabilidad

probabilidades de las distintas caras del dado son constantes, la variable aleatoria X:nmero de
resultados pares en tres lanzamientos de dado sigue un modelo binomial con n = 3 y p = P(par) =
1
2
.
Seleccionando en la tabla ambos parmetros se obtienen las probabilidades correspondientes a los
valores de la variable: 0, 1, 2 y 3. Para nuestro ejemplo concreto, se tiene por tanto P(X =2)=0,375.
El objetivo de las tablas es recoger en un espacio limitado informacin amplia sobre las probabili
dades binomiales. Este ahorro de espacio se consigue limitando los recorridos de los valores n y p, y
tambin aprovechando algunas propiedades del modelo binomial. As, cuando el valor de p sea mayor
que 0,5, la simetra entre xitos y fracasos permite tambin obtener probabilidades de un modelo
B(n,p) a partir de su relacin con B(n, q). [Comprobar que si X B(n,p) e Y B(n, q), entonces:
P(X= k)=P(Y=nk)]
Por su parte, los valores de n contemplados no suelen exceder 10 o 12, hecho que se debe a que
-como veremos ms adelante- a medida que el tamao n crece, el modelo binomial puede ser aproxi
mado por la distribucin normal.

La siguiente tabla recoge la funcin de distribucin binomial para algunos valores


de n y p.
El uso de esta tabla es anlogo al descrito en el caso anterior, sin ms que te
ner en cuenta que ahora para cada n y p se recogen en columna las probabilidades
acumuladas hasta los valores k = 0,1,...,n. Esta tabla resulta muy adecuada para
responder a preguntas del tipo: probabilidad de que el nmero de xitos sea al menos
x1, probabilidad de obtener a lo sumo x2 xitos, ...
Las caractersticas esperanza y varianza del modelo binomial vienen dadas en fun
cin de sus parmetros a partir de las expresiones = np y 2 = npq.

La obtencin de las caractersticas esperanza y varianza puede ser efectuada a partir del binomio
de Newton. En efecto, el valor esperado se obtiene como:

k=0
n nk=0kn!k!(nk)!pk(1 p)nk n n!(k1)!(nk)!pk(1 p)nk =
E(X) = kP(X = k) =
np
= k=1
= n
k=1 (n1)!(k1)!(n1(k1))!pk1(1 p)n1(k1)

y haciendo r=k-1 se tiene:


E(X)=npn1r=0(n1)!r!(n1r)!prqn1r
=np(p+q)n1
=np

Por su parte, la varianza de la variable viene dada por V ar(X) = E(X)2 E2(X), cuyo clculo
resulta ms sencillo mediante la expresin Var(X) = E[X(X 1) + X] E2(X)
En efecto, se tiene mediante un procedimiento anlogo al clculo de la esperanza:
k=0
n k=2
m
E[X(X 1)] = k(k 1)n!k!(nk)!pkqnk = n!(k2)!(nk)!pkqnk =

= n(n 1)p2 n
k=2 (n2)!(k2)!(nk)!pk2qnk

que haciendo r = k 2 conduce a:

77
3. Modelos de probabilidad

Tabla 3.2.: Modelo Binomial B(n, p). Funcin de Distribucin

n k\p 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90
1 0 0,9000 0,8000 0,7000 0,6000 0,5000 0,4000 0,3000 0,2000 0,1000
1 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
2 0 0,8100 0,6400 0,4900 0,3600 0,2500 0,1600 0,0900 0,0400 0,0100
1 0,9900 0,9600 0,9100 0,8400 0,7500 0,6400 0,5100 0,3600 0,1900
2 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
3 0 0,7290 0,5120 0,3430 0,2160 0,1250 0,0640 0,0270 0,0080 0,0010
1 0,9720 0,8960 0,7840 0,6480 0,5000 0,3520 0,2160 0,1040 0,0280
2 0,9990 0,9920 0,9730 0,9360 0,8750 0,7840 0,6570 0,4880 0,2710
3 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
4 0 0,6561 0,4096 0,2401 0,1296 0,0625 0,0256 0,0081 0,0016 0,0001
1 0,9477 0,8192 0,6517 0,4752 0,3125 0,1792 0,0837 0,0272 0,0037
2 0,9963 0,9728 0,9163 0,8208 0,6875 0,5248 0,3483 0,1808 0,0523
3 0,9999 0,9984 0,9919 0,9744 0,9375 0,8704 0,7599 0,5904 0,3439
4 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
5 0 0,5905 0,3277 0,1681 0,0778 0,0312 0,0102 0,0024 0,0003 0,0000
1 0,9185 0,7373 0,5282 0,3370 0,1875 0,0870 0,0308 0,0067 0,0005
2 0,9914 0,9421 0,8369 0,6826 0,5000 0,3174 0,1631 0,0579 0,0086
3 0,9995 0,9933 0,9692 0,9130 0,8125 0,6630 0,4718 0,2627 0,0815
4 1,0000 0,9997 0,9976 0,9898 0,9688 0,9222 0,8319 0,6723 0,4095
5 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
6 0 0,5314 0,2621 0,1176 0,0467 0,0156 0,0041 0,0007 0,0001 0,0000
1 0,8857 0,6554 0,4202 0,2333 0,1094 0,0410 0,0109 0,0016 0,0001
2 0,9841 0,9011 0,7443 0,5443 0,3438 0,1792 0,0705 0,0170 0,0013
3 0,9987 0,9830 0,9295 0,8208 0,6562 0,4557 0,2557 0,0989 0,0158
4 0,9999 0,9984 0,9891 0,9590 0,8906 0,7667 0,5798 0,3446 0,1143
5 1,0000 0,9999 0,9993 0,9959 0,9844 0,9533 0,8824 0,7379 0,4686
6 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
7 0 0,4783 0,2097 0,0824 0,0280 0,0078 0,0016 0,0002 0,0000 0,0000
1 0,8503 0,5767 0,3294 0,1586 0,0625 0,0188 0,0038 0,0004 0,0000
2 0,9743 0,8520 0,6471 0,4199 0,2266 0,0963 0,0288 0,0047 0,0002
3 0,9973 0,9667 0,8740 0,7102 0,5000 0,2898 0,1260 0,0333 0,0027
4 0,9998 0,9953 0,9712 0,9037 0,7734 0,5801 0,3529 0,1480 0,0257
5 1,0000 0,9996 0,9962 0,9812 0,9375 0,8414 0,6706 0,4233 0,1497
6 1,0000 1,0000 0,9998 0,9984 0,9922 0,9720 0,9176 0,7903 0,5217
7 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
8 0 0,4305 0,1678 0,0576 0,0168 0,0039 0,0007 0,0001 0,0000 0,0000
1 0,8131 0,5033 0,2553 0,1064 0,0352 0,0085 0,0013 0,0001 0,0000
2 0,9619 0,7969 0,5518 0,3154 0,1445 0,0498 0,0113 0,0012 0,0000
3 0,9950 0,9437 0,8059 0,5941 0,3633 0,1737 0,0580 0,0104 0,0004
4 0,9996 0,9896 0,9420 0,8263 0,6367 0,4059 0,1941 0,0563 0,0050
5 1,0000 0,9988 0,9887 0,9502 0,8555 0,6846 0,4482 0,2031 0,0381
6 1,0000 0,9999 0,9987 0,9915 0,9648 0,8936 0,7447 0,4967 0,1869
7 1,0000 1,0000 0,9999 0,9993 0,9961 0,9832 0,9424 0,8322 0,5695
8 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

78
3. Modelos de probabilidad

E[X(X 1)] = n(n 1)p2 n2


(n 2)! prqn2k = (n(n 1)p2(p + q)n2 = n(n 1)p2
r=0
r!(n 2 r)!

As pues, sustituyendo esta expresin se obtiene para la varianza:

Var(X) = E[X(X 1)] + E(X) E2(X)= n(n 1)p2 + np (np)2 = np(1 p) = npq

Los clculos anteriores resultan ms sencillos a partir de la funcin generatriz de momentos, que
para un modelo B(n,p) viene dada por la expresin MX (t)=(etp + q)n para <t< .
Partiendo de la definicin de funcin generatriz de momentos se obtiene:
n n
( )
etkpkqnk = n (etp)kqnk = (etp+q)n
MX(t) = E (etX ) =
k
k=0 k=0

Como ya hemos comprobado en el captulo anterior, la funcin generatriz de momentos M propor


ciona los momentos de cualquier orden r como valor particular en el punto t = 0 de la correspondiente
derivada de orden r. Es decir:

X (t)
E(Xr)= drM dtr

t=0
dMX(t)dt

[Comprobar que E(X) = t=0 = np]

El valor esperado puede ser interpretado como valor al que tiende el promedio de
xitos al aumentar indefinidamente en idnticas condiciones el nmero de pruebas.
Por su parte, la varianza de X cuantifica el riesgo, aumentando con el nmero de
pruebas y tambin a medida que se aproximan los valores p y q.
As, si en el ejemplo de los empresarios convocados para la entrevista asumimos
que la probabilidad de aceptacin es de un 80%, el nmero esperado de empresarios
entrevistados ser 16 y la varianza de 3,2.
Si por el contrario el valor de p fuese 0,56 se tendra = 11,2 y 2 = 4,928.
[Qu cambios significativos se han producido en los parmetros?] [cmo se inter
pretara el valor esperado 11,2 entrevistados?]
El inters del modelo binomial es considerable. Adems de su generalizada aplicacin
en muchos casos prcticos, es posible establecer conexiones entre esta distribucin y
otros modelos probabilsticos que estudiaremos en apartados posteriores.
As, podemos definir nuevos modelos probabilsticos con slo alterar la definicin
de las variables (distribucin geomtrica y binomial negativa) o bien algunos de los
supuestos en los que se basa el modelo binomial (distribucin hipergeomtrica).
Por otra parte, las probabilidades binomiales pueden ser aproximadas -para valores
elevados de n y pequeos de p- por la distribucin denominada de Poisson y es posible
-bajo ciertos supuestos que analizaremos en temas posteriores- aproximar cualquiera
de estas distribuciones por el modelo normal.

79
3. Modelos de probabilidad

3.2. Distribuciones Geomtrica y Binomial negativa


Los supuestos en que se basan los procesos de Bernoulli (independencia entre prue
bas y valor constante de la probabilidad de xito p) permiten definir nuevos modelos
probabilsticos.
As, podramos suponer ahora que, en vez de prefijar el nmero de empresarios
convocados a las entrevistas, se decide llevar a cabo consultas sucesivas hasta tener
confirmado determinado nmero de entrevistas.
Las hiptesis de independencia entre las respuestas y probabilidad constante de
aceptacin (p) siguen siendo vlidas, pero cambia sin embargo la variable aleatoria
de inters, que vendra ahora definida como nmero de consultas hasta obtener las
entrevistas necesarias.
La situacin ms sencilla sera efectuar consultas hasta confirmar una entrevista,
variable recogida por la distribucin geomtrica.

Definicin 3.3. Dado un proceso de Bernoulli de pruebas independientes con slo dos
alternativas y probabilidad de xito (p) constante, la magnitud aleatoria X definida
como nmero de pruebas necesarias hasta la obtencin del primer xito sigue un
modelo denominado geomtrico que abreviadamente se representa por G(p).

Aunque presenta rasgos comunes con el modelo binomial, la distribucin geomtrica


resulta mucho ms sencilla, dado que slo debemos cuantificar la probabilidad de que
en cierta observacin aparezca el primer xito, sin preocuparnos de las observaciones
anteriores (en las que todos los resultados fueron fracasos y por tanto idnticos entre
s).
Como consecuencia de estas caractersticas, el recorrido de una variable X G(p)
ser infinito numerable: 1,2,... y su funcin de probabilidad viene dada por la expre
sin P(X = k) = (1 p)k1p, en la que se aprecia que p -probabilidad de xito- es el
parmetro caracterstico del modelo.

Toda variable aleatoria discreta cuya funcin de probabilidad venga dada por la expresin:
P(X=k)=(1p)k1p; conk=1,2,...

se dice que sigue un modelo Geomtrico o de Pascal (X G(p)).

El matemtico y filsofo Blaise Pascal (1623-1662), cuyo apellido se utiliza para designar la dis
tribucin geomtrica, es -gracias en gran medida a su correspondencia con Pierre Fermat- autor de
algunos de los fundamentos de la ciencia de la probabilidad, hasta el punto de que Laplace considera
a ambos autores como precursores de la Teora de la Probabilidad.
Vamos a analizar las caractersticas de la distribucin geomtrica. Para ello comencemos por
justificar que la expresin vista para P(X = k) es una verdadera funcin de probabilidad; esto es, se
trata de una funcin no negativa (puesto que los factores que intervienen son no negativos) y adems
su suma es la unidad:

P(X = k) = pqk1 = p
qk1

k=0 k=1 k=1

80
3. Modelos de probabilidad

La ltima suma corresponde a una progresin geomtrica de razn q, lo cual justifica el nombre
que recibe esta distribucin. Cuando la razn es menor que la unidad (q<1) la serie geomtrica es
convergente y su suma es el primer trmino de la serie partido por uno menos la razn. En este caso:

k=0
P(X =k)= p q0 p
1
1q = p =

La funcin de distribucin de esta variable ser:

F(x)=P(Xx)= [x] P(X=k)=1 pqk1 =1p


k=0 qk1 =1pq[x]1q =1q[x]

k=[x]+1 k=[x]+1

En ciertas ocasiones se plantea una versin alternativa del modelo geomtrico, definiendo la va
riable X como Nmero de fracasos antes del primer xito. Resulta sencillo deducir la funcin de
probabilidad, que en este caso viene dada por la expresin:
P(X = k) = (1 p)kp; conk =0,1,2,...

a la que es tambin posible llegar mediante un cambio de variable (si designamos por X y X a las
variables nmero de pruebas hasta el primer xito y nmero de fracasos antes del primer xito
respectivamente, se tendra X = X + 1).

Una v.a. geomtrica puede tomar infinitos valores y la probabilidad de la cola au


menta conforme va disminuyendo la probabilidad de xito.
El valor esperado de esta distribucin es = 1p, expresin a la que se llega a partir

kpqk1. Como es lgico, esta caracterstica variar de mo
del desarrollo E(X) =
k=0
do inverso con la probabilidad de xito. Por su parte, la varianza viene dada por la
q
expresin Var(X) = .
p2
Para obtener el valor esperado, debemos tener en cuenta que la derivada de la suma
es la suma de las derivadas y que la serie es convergente, con lo cual esta caracterstica
viene dada por:
k=1 kqk1=p
E(X) = p d qk=p dq
k=1 dq d ( )
dq
k=1 qk ) =p d ( q
1q
= p(1q)+q(1q)2=pp2=1p

Por lo que se refiere a la varianza, sta puede ser expresada como:

Var(X) = E(X2) E2(X) = E[X(X 1)] + E(X) E2(X)


donde todos los sumandos son conocidos a excepcin de E[X(X 1)] que puede ser
calculado de forma anloga al caso de la esperanza, donde ahora aparecer una deri

81
3. Modelos de probabilidad

vada segunda.

Tanto el valor esperado como la varianza pueden ser obtenidos fcilmente a partir
de la funcin generatriz de momentos del modelo, que viene dada por
MX(t)=E(etX)= k=1
etkq k1p=p
q (etq k= etp
)
1etq
k=1
a partir de la cual se obtiene E(X) = dt
d MX (t)|t=0 = 1
p.
[Comprubese de modo anlogo que E(X2) = d2dt2 MX(t)|t=0 = 1+qp2, y en conse
cuencia se obtiene de nuevo: Var(X) = qp2]
Las tablas 3.3 y 3.4 recogen la funcin de probabilidad y de distribucin del modelo
geomtrico.
El manejo de tablas de la distribucin geomtrica es similar al descrito para la
distribucin binomial: en la primera columna se recoge el nmero de pruebas necesarias
para obtener el primer xito y en las restantes columnas se han seleccionado ciertos
valores de p.
Como ya se coment a la vista de los grficos, las tablas confirman cmo al aumentar
la probabilidad de xito p la probabilidad de la cola se hace menor y as, aunque el
nmero de pruebas para obtener un xito pueden ser infinitas, se observa que con
p = 0,5 obtenemos una probabilidad casi nula a partir de la prueba nmero 15.
Son numerosas las aplicaciones prcticas del modelo geomtrico, que podra resultar
til para describir -bajo los supuestos de independencia y probabilidad constante- el
nmero de apuestas efectuadas por un jugador hasta obtener premio, las visitas de
un viajante hasta vender un artculo, las convocatorias de examen a las que acude
un alumno hasta obtener un aprobado, los das que un individuo mira el buzn hasta
recibir cierta carta, ... y
[Sera adecuado en estos ejemplos el supuesto de p constante? el de indepen
dencia entre las observaciones?]
La hiptesis de independencia garantiza que la probabilidad de que sean necesarios
ms de k nuevos intentos para obtener el primer xito no se ve afectada por el nmero
de pruebas que ya llevemos realizadas. Esta propiedad se conoce como prdida de
memoria de la distribucin geomtrica.

El resultado anterior puede formalizarse como sigue: Si X es una v.a. G(p), entonces se cumple:
P(X>k + m/X > m) = P(X>k). En efecto:

P(X>k+m/X>m)= P(X>k+m,X>m)
p(X>m) P(X>m) =1FX(k+m)
=P(X>k+m)
1 1qk+m
( 1FX(m) =
1(1qm)=qk=1P(Xk)=P(X>k)
)
=

La interpretacin de esta expresin es la siguiente: la informacin de que hemos realizado ya m

82
3. Modelos de probabilidad

Tabla 3.3.: Modelo Geomtrico. Funcin de probabilidad

k\p 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90
1 0,0900 0,1600 0,2100 0,2400 0,2500 0,2400 0,2100 0,1600 0,0900
2 0,0810 0,1280 0,1470 0,1440 0,1250 0,0960 0,0630 0,0320 0,0090
3 0,0729 0,1024 0,1029 0,0864 0,0625 0,0384 0,0189 0,0064 0,0009
4 0,0656 0,0819 0,0720 0,0518 0,0312 0,0154 0,0057 0,0013 0,0001
5 0,0590 0,0655 0,0504 0,0311 0,0156 0,0061 0,0017 0,0003
6 0,0531 0,0524 0,0353 0,0187 0,0078 0,0025 0,0005 0,0001
7 0,0478 0,0419 0,0247 0,0112 0,0039 0,0010 0,0002
8 0,0430 0,0336 0,0173 0,0067 0,0020 0,0004
9 0,0387 0,0268 0,0121 0,0040 0,0010 0,0002
10 0,0349 0,0215 0,0085 0,0024 0,0005 0,0001
11 0,0314 0,0172 0,0059 0,0015 0,0002
12 0,0282 0,0137 0,0042 0,0009 0,0001
13 0,0254 0,0110 0,0029 0,0005 0,0001
14 0,0229 0,0088 0,0020 0,0003
15 0,0206 0,0070 0,0014 0,0002
16 0,0185 0,0056 0,0010 0,0001
17 0,0167 0,0045 0,0007 0,0001
18 0,0150 0,0036 0,0005
19 0,0135 0,0029 0,0003
20 0,0122 0,0023 0,0002
21 0,0109 0,0018 0,0002
22 0,0098 0,0015 0,0001
23 0,0089 0,0012 0,0001
24 0,0080 0,0009 0,0001
25 0,0072 0,0008
26 0,0065 0,0006
27 0,0058 0,0005
28 0,0052 0,0004
29 0,0047 0,0003
30 0,0042 0,0002
40 0,0015
50 0,0005
100

83
3. Modelos de probabilidad

Tabla 3.4.: Modelo Geomtrico. Funcin de distribucin

k\p 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90
1 0,1900 0,3600 0,5100 0,6400 0,7500 0,8400 0,9100 0,9600 0,9900
2 0,2710 0,4880 0,6570 0,7840 0,8750 0,9360 0,9730 0,9920 0,9990
3 0,3439 0,5904 0,7599 0,8704 0,9375 0,9744 0,9919 0,9984 0,9999
4 0,4095 0,6723 0,8319 0,9222 0,9688 0,9898 0,9976 0,9997 1,0000
5 0,4686 0,7379 0,8824 0,9533 0,9844 0,9959 0,9993 0,9999 1,0000
6 0,5217 0,7903 0,9176 0,9720 0,9922 0,9984 0,9998 1,0000 1,0000
7 0,5695 0,8322 0,9424 0,9832 0,9961 0,9993 0,9999 1,0000 1,0000
8 0,6126 0,8658 0,9596 0,9899 0,9980 0,9997 1,0000 1,0000 1,0000
9 0,6513 0,8926 0,9718 0,9940 0,9990 0,9999 1,0000 1,0000 1,0000
10 0,6862 0,9141 0,9802 0,9964 0,9995 1,0000 1,0000 1,0000 1,0000
11 0,7176 0,9313 0,9862 0,9978 0,9998 1,0000 1,0000 1,0000 1,0000
12 0,7458 0,9450 0,9903 0,9987 0,9999 1,0000 1,0000 1,0000 1,0000
13 0,7712 0,9560 0,9932 0,9992 0,9999 1,0000 1,0000 1,0000 1,0000
14 0,7941 0,9648 0,9953 0,9995 1,0000 1,0000 1,0000 1,0000 1,0000
15 0,8147 0,9719 0,9967 0,9997 1,0000 1,0000 1,0000 1,0000 1,0000
16 0,8332 0,9775 0,9977 0,9998 1,0000 1,0000 1,0000 1,0000 1,0000
17 0,8499 0,9820 0,9984 0,9999 1,0000 1,0000 1,0000 1,0000 1,0000
18 0,8649 0,9856 0,9989 0,9999 1,0000 1,0000 1,0000 1,0000 1,0000
19 0,8784 0,9885 0,9992 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
20 0,8906 0,9908 0,9994 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
21 0,9015 0,9926 0,9996 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
22 0,9114 0,9941 0,9997 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
23 0,9202 0,9953 0,9998 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
24 0,9282 0,9962 0,9999 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
25 0,9354 0,9970 0,9999 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
26 0,9419 0,9976 0,9999 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
27 0,9477 0,9981 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
28 0,9529 0,9985 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
29 0,9576 0,9988 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
30 0,9618 0,9990 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
40 0,9867 0,9999 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
50 0,9954 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
100 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000

84
3. Modelos de probabilidad

pruebas sin xito (X>m), no altera la probabilidad de que an necesitemos k pruebas ms hasta
obtener un xito. As pues, el modelo geomtrico no tiene memoria.

Una extensin natural de la distribucin geomtrica se obtiene cuando nos interesa


observar las pruebas de Bernoulli necesarias hasta obtener un nmero determinado
de xitos (por ejemplo, si se realizasen las llamadas necesarias hasta conseguir 6 en
trevistas con empresarios). La variable aleatoria definida en este caso se adapta a la
distribucin denominada binomial negativa.
Definicin 3.4. Bajo los supuestos de un proceso de Bernoulli, una variable aleatoria
X definida como nmero de pruebas hasta el r-simo xito se distribuye segn un
modelo binomial negativo, denotado por BN(r, p).
( )prqkr
La funcin de probabilidad de la variable viene dada por P(X = k) = k1r1
donde k = r,r + 1,... ., expresin que puede ser justificada con un razonamiento
similar al de los modelos anteriores.

En este caso, la probabilidad de que sean necesarias k pruebas hasta los r xitos se obtiene toman
do en cuenta dos factores: la probabilidad de interseccin de r xitos y k r fracasos y las posibles
secuencias en que estas situaciones pueden presentarse. Obsrvese que para este segundo factor igno
ramos la ltima( prueba, que necesariamente corresponde al xito r-simo, con lo cual se calculan las
combinaciones k1).
r1

La denominacin de esta distribucin queda justificada en el esquema que sigue, donde se recogen
paralelamente las condiciones del modelo binomial negativo y las correspondientes a la distribucin
binomial.
Como puede observarse, los rasgos distintivos de ambas distribuciones se refieren al papel aleatorio
que el modelo binomial asigna al nmero de xitos (fijadas las pruebas) y viceversa para la binomial
negativa.

Binomial B(n,p) Binomial Negativa BN(r, p)


Probabilidadxito p p
Nm. de pruebas n(dado) X(aleatorio)
Nm. de xitos Y(aleatorio) r(dado)
Func.deProbabilidad P(Y=k)= (nk)pkqnk P(X=k)= (k1r1)prqkr
k=0,1,2,... k=r,r+1,...

Como consecuencia de esta conexin entre ambas distribuciones de probabilidad puede compro
barse que dadas las variables Y B(n,p) y X BN(r,p) se cumple: P(Y r) = P(X n) y
tambin P(Y <r) = P(X>n).
Por otra parte, podemos observar fcilmente que el caso particular X BN(r = 1,p) coincide con
la distribucin geomtrica G(p).

La grfica de la funcin de probabilidad de la distribucin binomial negativa vie


ne condicionada por los dos parmetros r y p; as en la figura 3.4 representamos 4
situaciones que muestran estas diferencias:
El primero de los grficos de esta figura recoge la distribucin de una v.a. BN(3, 0,5),
en cuya representacin observamos que se mantiene la asimetra caracterstica de la

85
3. Modelos de probabilidad

Figura 3.4.: Modelo Binomial negativo. Funcin de probabilidad

distribucin geomtrica; en cambio en el siguiente grfico (superior derecha) se recoge


una variable BN(7, 0,5), que presenta un menor grado de asimetra.
El grfico inferior izquierdo corresponde a una BN(7, 0,3), en la que se observa
una mayor simetra, como consecuencia de la disminucin en la probabilidad de xito
y finalmente, en el ltimo grfico se recoge una v.a. BN(3, 0,1). Podemos concluir
a la vista de estos resultados que a medida que aumenta el nmero de xitos (r)
o disminuye la probabilidad de xito (p), la representacin se aproxima hacia una
funcin campaniforme.
El nmero esperado de pruebas hastaVar(X)
obtener r xitos viene dado por la expresin
rp y la varianza del modelo es = rq
E(X) = .
p2
En ocasiones la distribucin binomial negativa se asocia a la variable X =nmero
de fracasos obtenidos antes del r-simo xito, definicin que conduce a expresiones
distintas a las estudiadas tanto para la funcin de probabilidad como para las ca
ractersticas del modelo. Ms concretamente, se tendra en este caso una funcin de
probabilidad dada por: r+
)prqk;k=0,1,...
k1
P(X=k)= (
k
observndose entonces con la variable X nmero de pruebas hasta el r-simo xito
la relacin X = X + r.

3.3. Modelo hipergeomtrico


A menudo la realidad sobre la que efectuamos nuestras observaciones dista de los
supuestos establecidos por los modelos probabilsticos. As, recordando los ejemplos
que recogamos anteriormente podramos plantearnos qu sucede si la respuesta de un

86
3. Modelos de probabilidad

Figura 3.5.: Probabilidad Hipergeomtrica

empresario afecta a las restantes, con lo cual los resultados de las pruebas dejan de
ser independientes.
En estas situaciones se incumplen las hiptesis de independencia y de probabilidad
constante asumidas en el proceso de Bernoulli, por lo cual, aun cuando nos siga in
teresando estudiar los elementos que presentan cierta caracterstica, queda excluida la
utilizacin del modelo binomial, resultando adecuada la distribucin hipergeomtrica.
Las condiciones en las que se define este modelo de probabilidad son las siguientes:
consideramos una poblacin total integrada por N elementos (empresarios, alumnos
presentados a un examen, candidatos a un empleo, ...) sobre los que nos interesa estu
diar determinada caracterstica, que podramos seguir denominando xito (acceder
a la entrevista, aprobar el examen, obtener el empleo, ...).
Definicin 3.5. Supongamos clasificados los integrantes de la poblacin segn la
caracterstica de inters, tal y como indica el esquema 3.5: M elementos presentan el
rasgo estudiado y (N M) no lo presentan.
Si de la poblacin total seleccionamos aleatoriamente y sin reposicin una muestra
de n elementos, el nmero de ellos que presentan la caracterstica analizada (xitos)
es una variable aleatoria que sigue una distribucin hipergeomtrica H(N,M,n).

Este modelo probabilstico aparece directamente asociado al anlisis combinatorio ya que las con
diciones del modelo equivalen a una seleccin aleatoria de n elementos extrados simultneamente
(sin reposicin) de una poblacin de tamao N.
Como consecuencia, la probabilidad de xito no es constante y el nmero de posibilidades de
seleccin coincide con los subconjuntos de n elementos extrados sin reposicin entre N, que pueden
ser cuantificados mediante la frmula de las combinaciones:
( )
CN,n= N
n

Dado que la seleccin es aleatoria, cada uno de estos grupos de tamao n tiene idntica probabilidad
de ser seleccionado. Por tanto, se trata de sucesos equiprobables resultando aplicable la expresin de
la probabilidad clsica. As pues, se tiene:

87
3. Modelos de probabilidad

(M
k
)(NM )
P(X = k) = CM,kCNM,nkCN,n = (Nnk
)
n

[Justificar cmo ha sido obtenida la expresin del numerador][Si los n elementos se seleccionasen
con reposicin cul sera el modelo probabilstico para el nmero de xitos?]

En la ilustracin del reportaje sobre empresarios se puede encontrar un modelo


hipergeomtrico asociado a las fotografas de la portada. Supongamos que de un total
de 15 entrevistados -de los cuales 6 eran mujeres- se seleccionarn aleatoriamente 3
fotografas para la portada.
La variable aleatoria X que describe el nmero de mujeres que aparecen en portada
viene descrita por un modelo H(N = 15,M = 6,n = 3). [Por qu es obvio que no se
trata de un modelo binomial?]
Aunque en principio podra parecer razonable que el recorrido de esta variable os-
cilase entre 0 y n (y as sucede en nuestro ejemplo, ya que puede haber en portada de
0 a 3 mujeres) es necesario tener presente tanto el nmero de elementos seleccionados
(n) como el tamao de elementos de la poblacin con el rasgo estudiado (M). As,
por ejemplo qu sucedera si slo hubiese dos mujeres entre los 15 entrevistados?
Es evidente que X no podra exceder el valor 2. Y si por el contrario 13 de los 15
entrevistados fueran mujeres?; podramos asegurar en ese caso que X 1.

En definitiva, resulta necesario contemplar situaciones en las que el colectivo de


inters tenga menos de n elementos (M < n) en cuyo caso el recorrido de X no
podra exceder el valor M. Adems la cota inferior no necesariamente se sita en 0,
pudiendo existir un nmero de elementos extrados que obligatoriamente pertenecern
al colectivo (en concreto, el valor inferior de X es el mximo entre 0 y la diferencia
n (N M)).
Como consecuencia de este razonamiento se tiene mx{0,n (N M)} k
mn{n, M}, cumplindose
mn{n,M} (M )(NMnk )
k
(N )=1
k=mx{0,n(NM)} n

La funcin de probabilidad definida por la variable hipergeomtrica cumple las


condiciones exigidas a stas al ser no negativa [por qu?], y de suma unitaria. Para
comprobar este segundo aspecto basta tener en cuenta una propiedad de los nmeros
combinatorios segn la cual:
( nx=0 ( Mx )( )
Nn ) NMnx
=

Las caractersticas del modelo hipergeomtrico son las siguientes:

88
3. Modelos de probabilidad

E(X) = n M
n = np
) =npq ( )
M M NnN1 NnN1
V ar(X) = n 1
n ( N )(
en las que pueden apreciarse similitudes con el modelo binomial: el valor esperado se
M
obtiene de modo anlogo (siendo p = ) y el riesgo disminuye como consecuencia
( ) N
del factor de correccin N n1 correspondiente al rasgo de seleccin sin reposicin.

El factor de correccin (que ser inferior a la unidad para n > 1) resulta de gran
inters en el muestreo de poblaciones finitas, puesto que incorpora el ajuste en la
dispersin de la variable que se produce como consecuencia del muestreo sin reposicin,
esto es, al eliminar el riesgo inherente a las observaciones repetidas.
Puede comprobarse que, a medida que el tamao poblacional N aumenta, este factor
de correccin se aproxima a la unidad, de tal modo que en poblaciones conceptual
mente infinitas resulta irrelevante que el muestreo se efecte con o sin reposicin.

El clculo del valor esperado se efecta


Mk
mediante el desarrollo siguiente:
k=mx{0,n(NM)}
mn{n,M} k( (Nn)
)(NMnk ) = M k=mx{0,n(NM)}
mn{n,M} (M1k1)(NMnk )
E(X) =
(Nn) =
Mn
N k=mx{0,n(NM)}
mn{n,M} (M1k1)(NMnk )
)=Mn
= (N1n1
N
ya que se cumple

k=mx{0,n(NM)}
mn{n,M} (M1k1)(NMnk )
(N1 ) =1
n1

Mediante un mtodo similar se obtiene la varianza 2, caracterstica que puede ser expresada
como:

Var(X) = E [X(X 1)]+ E(X) E2(X)

[Comprubese que se cumple E [X(X 1)] = M(M1)n(n1)N(N1) y utilizando el resultado obtenido


para la esperanza se tiene Var(X) = npqNnN1, siendo p = M
] N

A medida que en un modelo discreto aumenta el nmero de parmetros, resulta ms


difcil resumir en unas tablas de probabilidad la funcin de cuanta o la de distribucin.
Por ejemplo, en el caso binomial se tienen dos parmetros adems del valor x cuya
probabilidad tratamos de calcular, motivo por el cual una representacin tridimensio
nal sera lo ms indicado. En el modelo hipergeomtrico surge un nuevo parmetro
con lo que la representacin es ms difcil.

89
3. Modelos de probabilidad

Una alternativa a las limitaciones anteriores sera el clculo directo de las probabilidades a partir
de la expresin de la funcin de probabilidad, pero esto puede dar lugar a errores de aproximacin
importantes. Por ejemplo, si el tamao de la poblacin es muy elevado, podemos tener problemas
de desbordamiento de memoria por manejar cifras excesivamente altas o bajas; en este caso sera
recomendable factorizar las expresiones de clculo mediante cocientes parciales que permitiran ma
yor exactitud (esto quiere decir que deberamos ir simultaneando operaciones de multiplicar y dividir
para mantener los resultados dentro de un tamao razonable).

Afortunadamente, este problema puede ser resuelto considerando otras alternativas.


La principal diferencia entre los modelos binomial e hipergeomtrico estriba en el tamao de la
poblacin, ya que si sta fuese infinita las probabilidades de seleccin en cada observacin permanece
ran constantes y el modelo podra reducirse a uno binomial. Pues bien, aunque el tamao poblacional
no sea infinito, si es suficientemente grande la aproximacin binomial puede resultar satisfactoria al
proporcionarnos bajos mrgenes de error respecto a las probabilidades hipergeomtricas. Sin embar
go, para que esta aproximacin sea buena, debemos tener en cuenta una cosa ms: el tamao de la
muestra.
En efecto, si el tamao de la poblacin es elevado, en las primeras observaciones las probabilida
des prcticamente no se alteran, pero si la muestra llegase al 90% de la poblacin, en las ltimas
observaciones los casos posibles se reducen a poco ms del 10% de la poblacin original por lo que
el tamao pudo haberse vuelto pequeo. Un criterio para la sustitucin de las probabilidades de la
hipergeomtrica por la binomial sera N > 50, n < 0,1N.
Para comprobar empricamente el efecto de esta aproximacin, recordemos el supuesto que venimos
considerando respecto al nmero de mujeres empresarias que aparecen en la portada de la publicacin.
Se trata de una distribucin hipergeomtrica: H(N = 15,M = 6,n = 3), sobre la que podemos estar
interesados en conocer la probabilidad de que en la portada aparezca exactamente una mujer:
(61)(92)
P(X = 1) = (153) = 0,474725

Si aproximamos esta probabilidad por una binomial, se obtendra: p = 615, P(X =1)=0,432,
pudiendo apreciarse que las diferencias de probabilidad son del orden del 10 %.
Supongamos que multiplicamos por 10 el nmero de entrevistas y el de mujeres, con lo cual el mo
delo resultante sera: H(N = 150,M = 60,n = 3). En esta situacin la probabilidad hipergeomtrica
sera: P(X =1)=0,43587 mientras que la de la binomial no cambiara [por qu?] y se obtienen
diferencias del orden del 0,7 %.

El proceso de Bernoulli puede ser considerado como punto de partida para la defi
nicin de los modelos probabilsticos analizados hasta ahora, que aparecen conectados
entre s segn el esquema y presentan a su vez relaciones con otras distribuciones de
probabilidad que estudiaremos en posteriores apartados.

3.4. Modelo Uniforme


En algunas magnitudes aleatorias no existe ninguna evidencia a favor de determi
nados resultados, por lo cual resulta aplicable el principio de indiferencia. Este sera
el caso cuando lanzamos un dado, extraemos una bola de un bombo de lotera, o
seleccionamos al azar una carta de la baraja.
Tambin con frecuencia nos encontramos con que conocemos el recorrido de una

90
3. Modelos de probabilidad

Figura 3.6.: Esquema de modelos discretos

magnitud aleatoria pero carecemos de cualquier informacin adicional. Esta situa


cin, que puede darse tanto en variables discretas como continuas, conduce al modelo
uniforme, cuya distribucin se corresponde con un reparto equitativo de la probabili
dad.
Supongamos, por ejemplo, que una persona se dispone a desplazarse utilizando el
metro de su ciudad, y consultando el plano, observa que existen tres lneas alternativas
que le conducen hasta su destino, con servicio cada 10 minutos.
En este ejemplo aparecen dos magnitudes aleatorias de distinta ndole pero de ca
ractersticas similares: una de ellas es la lnea de metro elegida y la otra la hora a la
que ste realiza su salida.
Tal y como representa la figura 3.7 la primera de estas caractersticas es una variable
discreta a la que pueden asociarse valores 1, 2 y 3. Sin embargo, la segunda es continua
dentro de un recorrido que, a partir de una hora genrica h, expresada en minutos,
podemos denominar (h, h + 10).
En ambos casos la informacin se limita a la ya recogida, ignorndose cmo se
distribuye la probabilidad de las magnitudes. Ante esta falta de informacin, se adopta
el principio de indiferencia, asumiendo equiprobabilidad de los resultados posibles.
Como consecuencia de este supuesto aparece -en sus versiones discreta y continua
el modelo uniforme. Los grficos adjuntos ilustran la distribucin de probabilidad de
ambas caractersticas: si la lnea de metro es seleccionada al azar se tiene

P(X=1)=P(X=2)=P(X=3)=13

Anlogamente, la probabilidad se reparte de modo uniforme en cada intervalo de


amplitud 10 minutos como el representado, pudiendo adoptar cualquier valor de dicho

91
3. Modelos de probabilidad

Figura 3.7.: Modelo uniforme discreto y continuo

recorrido.

3.4.1. Caso discreto


Consideremos una variable aleatoria X con posibles valores x1, x2,..., xn que se
asumen indiferentes p(x1) = p(x2) = = p(xn). Podremos encontrarnos en esta
situacin si conocemos que dichos resultados son equiprobables o bien si la ausencia
de informacin adicional nos lleva a admitir el supuesto de uniformidad.
Teniendo en cuenta que debe cumplirse n
p(xi )=1, se tiene entonces p(xi ) =
1n
i=1
para cada uno de los valores i = 1,2,...,n.
Esta distribucin de probabilidad correspondiente a un modelo uniforme conduce a
la definicin clsica de probabilidad como cociente entre casos favorables y casos posi
bles. En efecto, al carecer de informacin, asumimos que todos los posibles resultados
de X son equiprobables y as se tiene para cualquier k = 1,2,... que
k
1 k
P(X xk) = p(xi ) = k n =
n
i=1

Como consecuencia de los rasgos anteriores, para el modelo uniforme se obtiene


un valor
ni=1esperado coincidente con la media aritmtica de los valores de la variable
xi
= n.

Esta expresin de la esperanza recoge el principio de indiferencia: asigna igual peso a cada uno de
los valores de la variable aleatoria X como consecuencia de que sus correspondientes probabilidades
son en este caso coincidentes.

92
3. Modelos de probabilidad

3.4.2. Caso continuo


Las caractersticas del modelo uniforme anterior pueden extenderse de modo in
mediato al caso continuo. En realidad, ste es el supuesto que subyace en las repre
sentaciones grficas tipo histograma para datos agrupados, cuando slo conocemos
la frecuencia o la probabilidad de un intervalo y asumimos que este valor se reparte
uniformemente en cierto recorrido genrico (a, b).
El modelo uniforme, que se representa abreviadamente U(a, b) se denomina tambin
rectangular en alusin a su representacin grfica. Esta distribucin -como consecuen
cia del principio de indiferencia o de la ausencia de informacin- asigna probabilidades
idnticas a cualesquiera intervalos de igual amplitud. As, en nuestro ejemplo del me
tro ilustrado en la figura 3.7, se observa que coinciden las probabilidades asociadas a
cualquier intervalo de un minuto de amplitud (subintervalos (h, h+ 1) y (h+5,h+6)
por ejemplo).

Definicin 3.6. Dada una variable aleatoria continua X distribuida segn un modelo
uniforme X U(a, b) su funcin de densidad viene dada por la expresin:
f(x) =
1 a sia<x<b
b
0 en otro caso

La expresin de f(x) puede ser deducida fcilmente de modo grfico, teniendo en cuenta que dicha
funcin asigna una densidad constante a cada punto del intervalo y que -segn la definicin de f(x)
el rea del rectngulo de base (b a) debe ser unitaria. Se tiene as que:
baf(x)dx= bakdx=k(ba)=1
P(aXb)=

1 para
con lo cual f(x) = k = todo a<x<b.
b a
xaba para
[Obtener la funcin de distribucin de X, que vendr dada por la expresin: F(x) =
a x<b] [cul sera su representacin grfica?]

Las caractersticas del modelo uniforme vienen dadas en funcin de los extremos
del correspondiente intervalo. As, dada X U(a, b) puede obtenerse fcilmente =
a+b
, centro de gravedad del recorrido de la variable. [Cul es la hora esperada para
2
el metro del ejemplo anterior?]
(ba)212, que depende
Por su parte, la varianza viene dada por la expresin 2 =
nicamente del recorrido de la variable considerada y se puede obtener por diferencia
a33(ba)
b3 y el cuadrado de la esperanza (2).
de E(X2) =
Ambas caractersticas pueden tambin ser deducidas a partir de la funcin generatriz
etbetat(ba).
de momentos, que para este modelo adopta la expresin MX (t) =

93
3. Modelos de probabilidad

3.5. Modelo Normal


El supuesto de continuidad resulta adecuado para numerosas magnitudes econ
micas, que frecuentemente pueden adoptar cualquiera de los infinitos valores de su
campo de variacin.
El nico modelo continuo que hemos analizado hasta ahora, la distribucin unifor
me, puede resultar adecuado si no tenemos razones para pensar que ciertos valores
de la variable sean ms probables que otros. No obstante, a menudo aparecen distri
buciones cuya representacin viene dada por una curva campaniforme, esto es, cuyo
recorrido central concentra gran parte de la probabilidad. La generalidad de este tipo
de magnitudes justifica su denominacin como modelo normal.

La distribucin normal fue obtenida inicialmente por De Moivre en 1733. Sin embargo, habitual
mente se conoce como modelo de Gauss, o de Gauss-Laplace por ser estos autores quienes, durante
el siglo XVIII, analizaron sus propiedades e impulsaron su utilizacin.
Aunque la distribucin normal se revela como un modelo probabilstico sumamente til para la
descripcin de numerosos fenmenos econmicos, los trabajos iniciales de Gauss (1777-1855), que
dieron lugar a la curva normal, iban referidos a errores de medida en observaciones astronmicas,
cuya distribucin era de tipo campaniforme.
Por su parte, Pierre Simon, marqus de Laplace (1749-1827) obtuvo este modelo como aproxima
cin de otras distribuciones. Este resultado, de gran trascendencia en las tcnicas inferenciales, se
conoce como Teorema Central del Lmite y ser analizado con detalle en un captulo posterior.

A modo de ilustracin de este modelo normal, consideremos de nuevo el ejemplo


inicial y supongamos que los empresarios son convocados para realizar la entrevista
a las 4 de la tarde, realizando el reportaje fotogrfico a su finalizacin. As pues, y
teniendo en cuenta que la duracin esperada de las entrevistas es de 2 horas se ha
convocado al equipo fotogrfico a las 6 de la tarde, pero es evidente que, por motivos
diversos, no todas las entrevistas tendrn exactamente la misma duracin, sino que
puede haber ligeras desviaciones, anticipndose o retrasndose la hora de finalizacin.
Como consecuencia, el "retraso respecto a la hora prevista" ser una variable aleato
ria continua, cuya representacin podra ser como sigue: una curva aproximadamente
simtrica, que acumula la mayor probabilidad en torno a la observacin central (en
trevistas que finalizan a la hora prevista, con retrasos aproximadamente nulos) siendo
despreciable la probabilidad de entrevistas muy breves (valores negativos extremos) o
muy largas (valores elevados con signo positivo).

3.5.1. Modelo Normal estndar


El tipo de representacin comentado se corresponde con una distribucin normal
tipificada o estndar , denotada como N(0,1) y que sirve como modelo de referencia
por ser su esperanza nula y su desviacin tpica unitaria.

Definicin 3.7. Se dice que una variable aleatoria X sigue una distribucin normal
estndar, que denotamos X N(0,1), si su funcin de densidad viene dada por la

94
3. Modelos de probabilidad

Figura 3.8.: Modelo normal estndar


Funcin de densidad N(O,1)

N(O,1)
0.4

O .35

0.3

Densidad 0.25 Punto de inflexion

0.2

0.15

0.1

0,05

0
-s 4 -3 -2 -1 0 l 2 3 4 5
Valores

expresin:

1 l 5];
f (w) I le ;oo<x<+oo
x/ 27r
La representacin grca de esta funcin corresponde a una curva simetrica que
alcanza su valor mximo en el punto x I 0, presenta dos puntos de inexion (en -1 y
+1) y una asntota horizontal en el eje de abscisas.

Proposicin 3.1. La anterior es una verdadera funcin de densidad dado que


su expresin es no negativa y adems su integral es la unidad.
Demostracin. En efecto,
[+00 ( ) +00 1 12 1 +00 12 1 +00
fxdxIf eFdxIf eFdxI2f eFdx
oo oc M27 V271 oc \/27T O

y haciendo el cambio t I , dx I dt, se obtiene:

t 2 Ei 45h: I _f
1 i 1 1
LO m) dm I _f
\/27T\/2 0 e \/7 0 il e "su I F
i/F ()
2 I
donde la ltima integral es la funcin matemtica F ( zo|> ) cuyo valor es M.

Proposicin 3.2. Las caractersticas de esta distribucin son u I 0, Var( ) I a2 I


1, que coinciden con los parmetros del modelo normal.

Demostracin. En efecto:

95
3. Modelos de probabilidad

uIEX
< > l
loo xe_dx:
1 H
m
l-i

el
mlHN +8
10
_OO \/2rr x/2rr _oo
Por otra parte:

EXQ mi 2-4
( ) X/xe 2 x
oo

que integrando por partes:

ux du: dx

dv : xe-dx
x2
v : dv : e
| w,

se obtiene:

E(X2) ll /
+00

8
1
x2e_dx :
=1a
12
61 a
xe l
oo
2 +00
Mis

/
+00

oo
e_dx
12 1
: t!
\/27T
+00

oo
e
m2
dx
xm//
0

Proposicin. La funcin generatriz de momentos de una distribucin ./\/(0, 1), viene


moho
dada por la expresin: MX(t) I ( , oo < t < +00, a partir de la cual se podran
obtener las caractersticas anteriores.

DGTLOSTLLCH. Esta funcin se obtiene como:

MX (t) I E (JI) f +00 x/e


1 t ZeTdx
12 I 1 +00 eT
12 +7, zdx
10o 7r rr DOO
_ 2
ahora construimos un cuadrado perfecto en el exponente para lo cual sumamos y restamos t,

12 a2
MX): fe
+ 2 2 12ZCZILE
(+++f1++)++ 4p 2 2 de:
,(I+f) 2
L

1 i +00 _(It)2 1 +00 _


Y WCZ fioo 6 dx 762 fioo 6 2 dZ

La expresin que gura entre parntesis en el ltimo trmino, en la que hemos hecho el cambio de
variable z I x t, se corresponde con la integral de la funcin de densidad de una /\/(0, 1) cuyo valor
es unitario; por tanto se obtiene: MX (t) I el.
2

Al presentar esperanza nula y dispersin unitaria, la interpretacin del modelo


./\/(0, 1) resulta muy intuitiva: cada valor de la variable X mide el nmero de des
viaciones estndar que dicho valor se separa de su valor esperado.

96
3. Modelos de probabilidad

El modelo normal sirve adems de referencia en cuanto a las caractersticas de forma: simetra y
curtosis. De hecho, el coeficiente de apuntamiento habitualmente utilizado es el propuesto por Fisher,
que es resultado de comparar para cada distribucin el ratio 44 con el valor 3, asociado al apunta

miento del modelo normal estndar.

Por lo que se refiere a las reas acumuladas bajo la curva normal, que se corres
ponden con la funcin de distribucin F(x), stas vendrn dadas por la expresin:
F(x)=x 12ex2
2dx, cuyo clculo debe ser efectuado por mtodos de integracin

numrica.

En la notacin anterior aparece un abuso de lenguaje al denotar por x tanto el punto donde
nos situamos para calcular la probabilidad acumulada como la variable de integracin en ese reco
rrido. Si queremos ser ms precisos podemos diferenciar ambos papeles de x, expresando: F(x) =
x 12et22dt .

Como consecuencia, las probabilidades asociadas a este modelo aparecen tabuladas,


siendo posible as calcular para cada punto x el correspondiente valor de probabilidad
acumulada F(x).
La estructura habitual de las tablas, que viene recogida en la tabla 3.5, slo propor
ciona los valores de la funcin de distribucin correspondientes al recorrido positivo
de la variable, seleccionando para sta el valor entero y dos decimales. Sin embar
go, gracias a la simetra del modelo resulta inmediata la obtencin de probabilidades
acumuladas para valores negativos.
Por otra parte, si nos interesase calcular probabilidades tipo "mayor que" bastara
aplicar la idea de complementario a las probabilidades recogidas en tablas ("menor o
igual a"). Los mismos planteamientos anteriores son tambin vlidos para obtener las
probabilidades de intervalos.

Manejo de tablas N(0,1)

El manejo de estas tablas consiste simplemente en compatibilizar nuestras necesi


dades con la informacin que aparece recogida en ellas, esto es, el valor de la funcin
de distribucin F(x). As, en el esquema siguiente proponemos algunos ejemplos -que
aparecen ilustrados grficamente- de cmo se llevara a cabo este proceso de adecua
cin:
Las probabilidades de los intervalos considerados, que aparecen ilustradas grfica
mente en la cuarta columna, pueden ser obtenidas mediante las expresiones indicadas
en la columna tercera. Puede apreciarse que la expresin final de clculo incluye F(a)
y F(b) cuando los valores a y b son positivos, mientras que en el caso de que sean
negativos aparecen respectivamente F(a) y F(b).

Conviene tener presente que no todas las tablas tienen el mismo formato. En concreto, aunque las

97
3. Modelos de probabilidad

Tabla 3.5.: Modelo normal. Funcin de distribucin

x 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09


0,6
2,3
1,9
0,9
0
2,9 0,5000 0, 5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0, 5319 0,5359
0,5
0,4
0,3
0,2
0,1
0,8
0,7
1,6
2,2
2,8
2,6
2,5
3,4
3,2
3,1
2,1
2,7
2,4
3,3
3,6
1,8
1,5
1
2
3,5
3 0,5398 0, 5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0, 5714 0,5753
0,5793 0, 5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0, 6103 0,6141
0,6179 0, 6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0, 6480 0,6517
0,6554 0, 6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0, 6844 0,6879
0,6915 0, 6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0, 7190 0,7224
0,7257 0, 7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0, 7517 0,7549
0,7580 0, 7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0, 7823 0,7852
0,7881 0, 7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0, 8106 0,8133
0,8159 0, 8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0, 8365 0,8389
0,8413 0, 8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0, 8599 0,8621
1,1 0,8643 0, 8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0, 8810 0,8830
1,2 0,8849 0, 8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0, 8997 0,9015
1,3 0,9032 0, 9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0, 9162 0,9177
1,4 0,9192 0, 9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0, 9306 0,9319
0,9332 0, 9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0, 9429 0,9441
0,9452 0, 9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0, 9535 0,9545
1,7 0,9554 0, 9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0, 9625 0,9633
0,9641 0, 9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0, 9699 0,9706
0,9713 0, 9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0, 9761 0,9767
0,9772 0, 9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0, 9812 0,9817
0,9821 0, 9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0, 9854 0,9857
0,9861 0, 9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0, 9887 0,9890
0,9893 0, 9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0, 9913 0,9916
0,9918 0, 9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0, 9934 0,9936
0,9938 0, 9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0, 9951 0,9952
0,9953 0, 9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0, 9963 0,9964
0,9965 0, 9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0, 9973 0,9974
0,9974 0, 9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0, 9980 0,9981
0,9981 0, 9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0, 9986 0,9986
0,9987 0, 9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0, 9990 0,9990
0,9990 0, 9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0, 9993 0,9993
0,9993 0, 9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0, 9995 0,9995
0,9995 0, 9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0, 9996 0,9997
0,9997 0, 9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0, 9997 0,9998
0,9998 0, 9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0, 9998 0,9998
0,9998 0, 9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0, 9999 0,9999

98
3. Modelos de probabilidad

Figura 3.9.:
Informacin _ _ Tratamiento de Representacin
_ Situacin _
necesaria Informacin de Tablas Grca

P(X g i)
P(X>a) asigo
<0 F(a) 1F(a)
IF (a)
1- F(a) a u

P(a < X < b) 0<a<b F(b)F(a)

5
a<0<b F (b) - (1 - F(<1)) I
a [l
F(b) _ 1+ F(a)

a<b<0 F(a)F(b) a,/ u

P(-a g X g i) I
P(]X]a) O<a m) Fl-l -a u a

99
3. Modelos de probabilidad

Figura 3.10.: Modelo N(, ). Funcin de densidad

ms habituales son las que incluyen valores de la funcin de distribucin, podran resultar tambin ti
les otros tipos de tablas, como las que recogen el rea central entre cada valor considerado y el origen.

En este caso la tabla proporciona para cada a > 0 el valor de P(0 <X<a) = P(a<X< 0),
probabilidades que aparecen relacionadas con las comentadas anteriormente. Se dispone as de una
expresin alternativa de las probabilidades que en algunos casos resulta ms directa que la funcin
de distribucin. A modo de ejemplo, para el caso a < 0 < b escribiramos ahora P(a<X b) =
P(a<X0)+P(0<Xb).

3.5.2. Modelo Normal general


Gracias a las tablas de probabilidad comentadas, el modelo normal estndar es la
referencia obligada para gran nmero de investigaciones. Sin embargo parece claro
que muchas magnitudes cuya descripcin podra adaptarse al modelo "normal" no
presentarn sus caractersticas = 0y = 1.
As, en la ilustracin inicial de las entrevistas realizadas a empresarios, la duracin
se concentrar en torno al tiempo esperado no nulo (2 horas, por ejemplo); su grfica
ser campaniforme, centrada en y ms o menos apuntada segn la dispersin en las
duraciones de las diferentes entrevistas.
Otros ejemplos de variables que pueden ser ajustadas al modelo normal son: los
beneficios de una empresa, las ventas en establecimientos comerciales, el peso de los
nios recin nacidos, la demanda de determinado producto, ... En todos estos casos el
centro de la distribucin se situar en una cantidad no nula que representa el valor
esperado de la correspondiente variable.
Las caractersticas grficas de esta distribucin corresponden a la curva campanifor
me, positiva, simtrica respecto a la recta x = (en la cual alcanza su valor mximo)
y con colas asintticas al eje de abscisas. Dicha curva es creciente para x< y decre
ciente para x>, presentando puntos de inflexin en ; es cncava en el intervalo
( , + ) y convexa en el resto de su recorrido.

Definicin 3.8. Se dice que una variable aleatoria X sigue una distribucin normal
de parmetros y , que denotamos como X N(, ), si su funcin de densidad
viene dada por la expresin:

100
3. Modelos de probabilidad

Figura 3.11.: Modelo N(, ). Cambio de origen

12 x
f(x)= 1 e ( )2 ;<x<
2
La esperanza y la desviacin tpica de esta distribucin coinciden precisamente con
los parmetros que caracterizan esta poblacin. Su funcin generatriz de momentos
viene dada por la expresin:

MX (t) = et+122t2

Las demostraciones en este caso se realizan de forma anloga a las desarrolladas para la normal
x
estndar considerando previamente el cambio z = .

Si sobre una v.a. Z con distribucin normal estndar, Z N(0,1) efectuamos una transformacin del
tipo X = + Z, entonces la variable aleatoria X resultante se distribuye segn un modelo normal
general N(, ).
A modo de recproco, si X N(, ), entonces:

X N(0,1)
z=

Los parmetros del modelo normal general y representan respectivamente ca


ractersticas de posicin y de escala, tal como indican las figuras 3.11 y 3.12. Cambios
en suponen desplazamientos del eje de simetra de la curva a lo largo del eje de
abscisas (Figura 3.11), mientras que las alteraciones en afectan a la dispersin, esto
es, a la forma de la curva (Figura 3.12).
Como ya hemos comentado, la distribucin normal estndar N(0,1) presenta la gran
ventaja de hallarse tabulada, hecho que garantiza un clculo sencillo de probabilidades.
Sin embargo aparece ahora el problema de calcular probabilidades asociadas a una
distribucin normal general, que se resuelve mediante un proceso de tipificacin de la
variable para reducirla a su forma estndar.
El procedimiento de tipificacin se revela como imprescindible si observamos que,
para diferentes modelos de partida, las probabilidades de un mismo intervalo difieren.
Consideremos por ejemplo dos distribuciones A y B, ambas normales, sobre las que
deseamos calcular la probabilidad de un mismo intervalo (10,20).

101
3. Modelos de probabilidad

Figura 3.12.: Modelo N(, ). Cambio de escala

Para cuantificar la probabilidad del intervalo resulta necesario traducir las distribu
ciones A y B a una normal tipificada N(0,1), cuyos valores aparecern perfectamente
tabulados.
Por lo que respecta al mecanismo para llevar a cabo la tipificacin, ste ser anlogo
al de variables estadsticas. A partir de cualquier variable X N(,) es posible
obtener un modelo Z N(0,1) con slo eliminar de la primera los efectos de sus
parmetros, esto es, operar sobre ella el cambio .
La aplicacin del procedimiento de tipificacin a las distribuciones A y B conduce a
los intervalos sealados sobre la distribucin estndar, que se obtienen como resultado
de eliminar de los intervalos iniciales los parmetros y . De este modo, para la
variable A N(9,5) el intervalo (inicial (10,20))quedara transformado en (0,2, 2,2)
ZA A 9
una vez tipificada dicha variable = , mientras el mismo proceso aplicado
5
a B N(15; 2,5) dara lugar al intervalo estandarizado (2,2).
Conviene insistir en que la tipificacin tiene como nico objetivo referir las variables
a un modelo estndar, permitiendo el clculo de probabilidades. En cambio, este pro
ceso elimina el propio significado de la magnitud inicial, impidiendo por tanto hacer
interpretaciones sobre la misma.
En nuestro ejemplo, una vez tipificados los correspondientes recorridos es posible
calcular las probabilidades correspondientes a los intervalos con ayuda de las tablas
N(0,1), obtenindose los resultados 0,4068 y 0,9544 respectivamente. [Comprubese]
A pesar de que, como hemos visto, el modelo normal es adecuado para la descripcin
de numerosos fenmenos, la distribucin de muchas magnitudes econmicas (como la
renta, la riqueza, los salarios, ...) no es simtrica, ya que la densidad se reparte de
forma distinta en los estratos bajos que en niveles elevados.
Sin embargo, este hecho se resuelve a menudo con una transformacin logartmica
de la variable, de modo que la distribucin de Y = lnX s se aproxima a un modelo
normal.
En estas situaciones, la distribucin de la variable X se denomina logaritmo normal
y resulta muy adecuada para la descripcin de magnitudes econmicas como la renta,
en especial para los niveles ms bajos de ingreso.

102
3. Modelos de probabilidad

3.6. Algunos modelos especiales de probabilidad


Entre el amplio abanico de posibilidades que se presentan para modelizar variables
aleatorias estudiaremos a continuacin algunas distribuciones que, aunque no son de
utilizacin tan generalizada como las de apartados anteriores, resultan sin embargo
muy adecuadas para describir ciertos fenmenos de inters.

3.6.1. Sucesos raros: modelo de Poisson


A menudo nos interesa estudiar sucesos que, aunque no resultan frecuentes, pue
den presentarse en el transcurso del tiempo o del espacio. Estas situaciones del tipo
"nmero de casas incendiadas en un ao", "erratas en la pgina de un peridico",
"llamadas de telfono equivocadas", errores de un equipo informtico, "atracos en
una sucursal bancaria", ... se adaptan bien al modelo probabilstico denominado de
Poisson o "ley de los sucesos raros".

Esta distribucin fue analizada por S.D. Poisson en un libro publicado en 1837 con el ttulo
Investigacin sobre la probabilidad de juicios en materia criminal y civil, lo cual en cierto modo
justifica sus dos denominaciones.
Por su parte, L.Bortkiewicz (1868-1931) fue el primero en observar que las ocurrencias de sucesos
con pequeas frecuencias en una poblacin amplia pueden ajustarse mediante una distribucin de
Poisson, lo que denomin "ley de los pequeos nmeros".
Bortkiewicz estudi el nmero de soldados fallecidos anualmente por coces de caballo en el ejrcito
prusiano. Se examinaron 14 cuerpos durante 20 aos, observando que estos 280 datos se ajustaban
bien por un modelo de Poisson (de hecho, del total de cuerpos estudiados, se observaron 144 en los
que no se registr ninguna muerte por la causa investigada).
Otros conocidos ejemplos histricos de ajustes a un modelo de Poisson corresponden a las obser
vaciones de estallidos de guerras mundiales entre los aos 1500 y 1931, y los impactos de bombas
alemanas sobre el rea de Londres durante la segunda guerra mundial.

Volviendo a las ilustraciones iniciales, podramos plantearnos analizar el nmero de


errores tipogrficos que se producirn a lo largo del reportaje sobre los empresarios.
Examinando el recorrido de esta variable aleatoria, parece claro que podra llegar a
tomar valores elevados, pero sin embargo, el nmero esperado de errores ser bajo, al
resultar poco probable que stos tengan lugar en un intervalo determinado (pgina,
seccin, ...).
Las caractersticas anteriores describen un modelo de Poisson, asociado al proceso
del mismo nombre que se basa en los siguientes supuestos:
El proceso es estable, al producir un nmero medio de sucesos constante por
unidad de tiempo o espacio.
Los sucesos se presentan aleatoriamente y de modo independiente, es decir, el
nmero de sucesos observados en un intervalo no condiciona los resultados de
otro intervalo disjunto del anterior.
La probabilidad de que el suceso estudiado se presente dos o ms veces en un
intervalo pequeo es aproximadamente nula.

103
3. Modelos de probabilidad

Figura 3.13.: Modelo de Poisson. Funcin de probabilidad

(a) P(=5) (b) P(=20)

Bajo las condiciones descritas, la variable aleatoria X que recoge el nmero de sucesos
en un intervalo de determinada amplitud se distribuye segn un modelo de Poisson,
representado abreviadamente por P(). Los valores que puede tomar esta variable
son: 0,1,2,... y su funcin de probabilidad viene dada por:
ek
P(X = k) =
k!
La figura 3.13 recoge la representacin de esta funcin de probabilidad para valores
de = 5 y = 20.
Podemos observar cmo cuando aumenta (figura 3.13b) la grfica tiende a ser
campaniforme, lo que nos sugiere que para valores elevados del parmetro esta distri
bucin podr ser aproximada por el modelo normal.
Esta distribucin viene caracterizada por un nico parmetro que representa el
nmero medio de sucesos por unidad de tiempo o espacio. Como consecuencia, el valor
del parmetro cambia segn cul sea la "unidad" adoptada, esto es, en funcin de la
amplitud del intervalo espacial o temporal en el que nos movemos.

Definicin 3.9. De un modo general, toda v.a. discreta X que puede adoptar valores
0,1,2,... con probabilidades dadas por la expresin P(X = k) = ek
k! , se dice que
sigue un modelo de Poisson P().

Esta funcin de probabilidad puede ser obtenida como lmite de un modelo binomial B(n, p), cuan
do se aumenta indefinidamente el nmero de pruebas n y la probabilidad p tiende a 0. Bajo estas
condiciones el modelo binomial se aproxima a una distribucin de Poisson con = np, resultando
estas aproximaciones adecuadas cuando np < 5 y p < 0,1.

Haciendo = np se tiene p = n y q =1 n con lo cual:

104
3. Modelos de probabilidad

pkqnk )( ]
nk n)k(1n)nk
) ] n
limnP(X=k)= limn [( n(n1)(nk+1)
=limn [( =
k
( ]
n [
kk!lim 1n )n
= nk(1n)k =
]
k ( n n 1 (1 1n ) (1
) k1 k
n ) e
= lim (1 n )k =
k! n 1 k!
[
= e y lmn 1(1 1n)(1
(1n)k k1n) =1
por ser lmn (1 n )n

Manejo de tablas P()

Con el objetivo de facilitar su clculo, las probabilidades de la distribucin de Pois


son aparecen tabuladas para distintos valores de . En la tabla 3.6 se recoge la funcin
de probabilidad de esta distribucin.
Por lo que se refiere a las caractersticas de este modelo, su rasgo ms destacado es
la coincidencia de esperanza y varianza con el valor del parmetro .
Dado que es un parmetro determinante del modelo de Poisson, cabra pregun
tarse cmo se llega a conocer su valor en la prctica. La respuesta es la informacin
pasada, ya que -asumidos los supuestos de estabilidad del proceso- el promedio de xi
tos que se han producido en un intervalo de determinada amplitud permite conocer
la esperanza de la variable.

La esperanza y la varianza pueden ser obtenidas a partir de la funcin generatriz de momentos,


que en esta distribucin viene dada por la expresin MX (t) = e(et 1) que se obtiene como sigue:

k=0 ek k=0 tkk k=0 (et)k


= eeet = e(et1)
MX (t) = etk k! =e e = e
k! k!

3.6.2. Tiempos de espera: modelo exponencial


En el apartado anterior hemos visto algunos ejemplos de magnitudes discretas que
podra describirse segn un modelo de Poisson (errores tipogrficos, llamadas equivo
cadas, fallos de un equipo informtico...). Si en cambio estudisemos el tiempo que
transcurre hasta que se produce el siguiente error o fallo, la variable -aunque relacio
nada en cierto modo con la anterior- sera continua.
Este nuevo planteamiento resulta habitual en el mbito econmico-empresarial, en
el que frecuentemente interesa conocer el perodo de tiempo necesario hasta que se pre
senta determinado acontecimiento: aprobacin de presupuestos, salida de una empresa
a bolsa, contratacin de un trabajador, ....
Estas magnitudes aleatorias se adaptan a un modelo continuo denominado expo
nencial cuya funcin de densidad es decreciente como indica la figura 3.14

105
0,8

0,9

3. Modelos de probabilidad
1,1

1,2

1,3 Tabla 3.6.: Modelo de Poisson. Funcin de probabilidad

1,4

\x
1,5 0 1 2 3 4 5 6 7 8 9
0,9048 0, 0905 0,0045 0,0002
1,6 0,8187 0, 1637 0,0164 0,0011 0,0001
0,7408 0, 2222 0,0333 0,0033 0,0003
1,7 0,6703 0, 2681 0,0536 0,0072 0,0007 0,0001
0,6065 0, 3033 0,0758 0,0126 0,0016 0,0002
1,8 0,5488 0, 3293 0,0988 0,0198 0,0030 0,0004
0,4966 0, 3476 0,1217 0,0284 0,0050 0,0007 0,0001
1,9 0,4493 0, 3595 0,1438 0,0383 0,0077 0,0012 0,0002
0,4066 0, 3659 0,1647 0,0494 0,0111 0,0020 0,0003
1 0,3679 0, 3679 0,1839 0,0613 0,0153 0,0031 0,0005 0,0001
0,3329 0, 3662 0,2014 0,0738 0,0203 0,0045 0,0008 0,0001
2,1 0,3012 0, 3614 0,2169 0,0867 0,0260 0,0062 0,0012 0,0002
0,2725 0, 3543 0,2303 0,0998 0,0324 0,0084 0,0018 0,0003 0, 0001
2,2 0,2466 0, 3452 0,2417 0,1128 0,0395 0,0111 0,0026 0,0005 0, 0001
0,2231 0, 3347 0,2510 0,1255 0,0471 0,0141 0,0035 0,0008 0, 0001
2,3 0,2019 0, 3230 0,2584 0,1378 0,0551 0,0176 0,0047 0,0011 0, 0002
0,1827 0, 3106 0,2640 0,1496 0,0636 0,0216 0,0061 0,0015 0, 0003 0,0001
2,4 0,1653 0, 2975 0,2678 0,1607 0,0723 0,0260 0,0078 0,0020 0, 0005 0,0001
0,1496 0, 2842 0,2700 0,1710 0,0812 0,0309 0,0098 0,0027 0, 0006 0,0001
2
2,5 0,1353 0, 2707 0,2707 0,1804 0,0902 0,0361 0,0120 0,0034 0, 0009 0,0002
0,1225 0, 2572 0,2700 0,1890 0,0992 0,0417 0,0146 0,0044 0, 0011 0,0003
2,6 0,1108 0, 2438 0,2681 0,1966 0,1082 0,0476 0,0174 0,0055 0, 0015 0,0004
0,1003 0, 2306 0,2652 0,2033 0,1169 0,0538 0,0206 0,0068 0, 0019 0,0005
2,7 0,0907 0, 2177 0,2613 0,2090 0,1254 0,0602 0,0241 0,0083 0, 0025 0,0007
0,0821 0, 2052 0,2565 0,2138 0,1336 0,0668 0,0278 0,0099 0, 0031 0,0009
2,8 0,0743 0, 1931 0,2510 0,2176 0,1414 0,0735 0,0319 0,0118 0, 0038 0,0011
0,0672 0, 1815 0,2450 0,2205 0,1488 0,0804 0,0362 0,0139 0, 0047 0,0014
2,9 0,0608 0, 1703 0,2384 0,2225 0,1557 0,0872 0,0407 0,0163 0, 0057 0,0018
0,0550 0, 1596 0,2314 0,2237 0,1622 0,0940 0,0455 0,0188 0, 0068 0,0022
3 0,0498 0, 1494 0,2240 0,2240 0,1680 0,1008 0,0504 0,0216 0, 0081 0,0027
3,1 0,0450 0, 1397 0,2165 0,2237 0,1733 0,1075 0,0555 0,0246 0, 0095 0,0033
3,2 0,0408 0, 1304 0,2087 0,2226 0,1781 0,1140 0,0608 0,0278 0, 0111 0,0040
3,3 0,0369 0, 1217 0,2008 0,2209 0,1823 0,1203 0,0662 0,0312 0, 0129 0,0047
3,4 0,0334 0, 1135 0,1929 0,2186 0,1858 0,1264 0,0716 0,0348 0, 0148 0,0056
3,6 0,0273 0, 0984 0,1771 0,2125 0,1912 0,1377 0,0826 0,0425 0, 0191 0,0076
3,8 0,0224 0, 0850 0,1615 0,2046 0,1944 0,1477 0,0936 0,0508 0, 0241 0,0102
4 0,0183 0, 0733 0,1465 0,1954 0,1954 0,1563 0,1042 0,0595 0, 0298 0,0132
5 0,0067 0, 0337 0,0842 0,1404 0,1755 0,1755 0,1462 0,1044 0, 0653 0,0363
6 0,0025 0, 0149 0,0446 0,0892 0,1339 0,1606 0,1606 0,1377 0, 1033 0,0688
10
9
8
7 0,0009 0, 0064 0,0223 0,0521 0,0912 0,1277 0,1490 0,1490 0, 1304 0,1014
0,0003 0, 0027 0,0107 0,0286 0,0573 0,0916 0,1221 0,1396 0, 1396 0,1241
0,0001 0, 0011 0,0050 0,0150 0,0337 0,0607 0,0911 0,1171 0, 1318 0,1318
0, 0005 0,0023 0,0076 0,0189 0,0378 0,0631 0,0901 0, 1126 0,1251

106
3. Modelos de probabilidad

Figura 3.14.: Modelo exponencial. Funcin de densidad

Definicin 3.10. Dada una variable aleatoria X se dice que se distribuye segn un
modelo exponencial de parmetro cuando su funcin de densidad viene dada por:
f(x)=ex ; x>0,>0

La probabilidad acumulada para este modelo viene dada por la funcin de distri
bucin F(x)=1 ex.
Las principales caractersticas del modelo exponencial vienen expresadas en funcin
del parmetro . As se tiene una esperanza = 1, que permite interpretar como
la inversa del tiempo medio de espera hasta la aparicin de un suceso.
Por lo que respecta a la dispersin se tiene 2 = 12 [Comprubese].
Los parmetros esperanza y varianza de este modelo exponencial guardan claras si
militudes con los correspondientes a la distribucin geomtrica, que es la "traduccin"
al caso discreto del modelo exponencial. La funcin generatriz de momentos por su
parte viene dada por la expresin:

1t )1 t
MX(t)= ( =

El modelo exponencial presenta dos caractersticas destacables. La primera es que se trata de


una distribucin sin memoria, esto es, la probabilidad de que no se produzca un suceso durante
un intervalo es independiente de que haya tenido lugar antes. Este rasgo se expresa como: P(X >
k + m/X > m) = P(X>k) donde k y m son dos nmeros reales ambos positivos.
Esta propiedad de prdida de memoria se demuestra de modo similar a la vista para el modelo
geomtrico, ya que se tiene:

P(X>k+m/X>m)= P(X>k+m,X>m)
P(X>m) = P(X>k+m) em = ek =P(X>k)
P(X>m)= e(k+m)

Adems, la distribucin exponencial aparece conectada con la de Poisson en los siguientes tr


minos: dada una variable Y P() que recoge el nmero de veces que se presenta un suceso en
cierto intervalo, entonces el intervalo X transcurrido entre dos sucesos se distribuye segn un modelo
exponencial.

107
3. Modelos de probabilidad

Si consideramos la variable Y: nmero de veces que se presenta cierto suceso por unidad de
tiempo Y P() y definimos ahora X: tiempo transcurrido hasta la primera aparicin del suceso,
entonces X ser una variable aleatoria continua para la cual podemos calcular probabilidades gracias
a su conexin con la variable Y.
En efecto, la probabilidad de que el tiempo necesario hasta la aparicin del suceso sea superior a
x coincide con la probabilidad de que en un intervalo temporal de amplitud x no se haya producido
el suceso. As pues, la variable YX: nmero de veces que se presenta cierto suceso en un intervalo de
amplitud x vendr caracterizada por el parmetro x (es decir, YX P(x)) y en consecuencia se
tiene: P(X>x) = P(YX = 0) = ex.
La funcin de distribucin de X puede tambin ser obtenida como:
F(x)=P(Xx)=1P(X>x)=1P(YX=0)=1ex,x>0

El modelo exponencial puede tambin ser estudiado como caso particular (cuando p = 1) del
modelo generalizado gamma (p,a). Se trata de una distribucin continua biparamtrica que, por
resultar adecuada para la modelizacin de rentas, estudiaremos en el epgrafe siguiente.

3.6.3. Modelos de distribucin de la renta


El comportamiento de fenmenos econmicos como la renta o la riqueza resulta
difcil de describir mediante modelos probabilsticos. De hecho, a menudo se emplean
con carcter complementario varios de los modelos que analizaremos en este apartado,
o bien generalizaciones de los mismos.
La modelizacin probabilstica de las rentas resulta de gran inters para poder apro
ximar la proporcin de rentistas incluidos en determinado estrato de rentas. Entre las
posibilidades que ofrece esta modelizacin se encuentran la realizacin de interpolacio
nes y extrapolaciones del nmero de rentistas en determinados grupos, la estimacin
-a partir de los parmetros caractersticos del modelo- de ciertos indicadores de de
sigualdad y pobreza, o la realizacin de simulaciones de polticas redistributivas de
renta con la consiguiente evaluacin de resultados.

Desde finales del siglo pasado las teoras estocsticas proporcionan una alternativa a los estudios
deterministas de distribucin de la renta. Los autores pioneros de estos estudios -McAlister (1879),
Pareto (1897)- abrieron una corriente de investigacin que ha alcanzado un notable desarrollo.

Supongamos que nos interesa conocer la distribucin de la renta en una poblacin. Desde una ptica
descriptiva, esta variable vendra representada por una tabla estadstica con valores x1,x2 ,...,xk y
sus correspondientes frecuencias n1,n2 ,...,nk .
Sin embargo, para conseguir una mayor operatividad en su manejo, estos datos aparecen frecuen
temente agrupados en intervalos que representan en realidad decilas de ingresos. Este es el tipo de
informacin recogida habitualmente por las Encuestas de Presupuestos Familiares, y su representa
cin podra ser efectuada mediante un histograma (figura 3.15).

Este histograma representa las decilas de hogares segn sus ingresos. Cada uno de los rectngulos
que componen el histograma tendra una frecuencia relativa -o proporcin de familias- del 10 %.
Sin embargo, para llegar a una descripcin ms completa de la poblacin investigada, debera
mos analizar tambin la distribucin de ingresos dentro de las decilas. En este sentido una primera
opcin sera -reconociendo nuestras limitaciones de informacin- asumir el modelo uniforme, esto
es, considerar como vlido el histograma, donde los rectngulos construidos sobre cada una de las

108
3. Modelos de probabilidad

Figura 3.15.: Histograma. Decilas de ingresos

decilas recogen un 10 % de probabilidad, repartido igualitariamente entre los hogares que componen
ese intervalo, con las consecuencias que ello conlleva.
[A modo de ejemplo cul sera la esperanza de ingresos en cada decila? resulta adecuado este
representante?]
Parece claro que el supuesto de uniformidad puede ser mejorado, buscando modelos que describan
de forma ms realista la distribucin de la renta. En concreto, las distribuciones ms habituales
en la modelizacin de rentas, ingresos y gastos son la logaritmo normal, el modelo de Pareto y la
distribucin gamma.

3.6.3.1. Distribucin logaritmo normal


Las rentas no se distribuyen habitualmente de modo simtrico, pero resulta posible
llevar a cabo una transformacin lineal de stas mediante logaritmos, apareciendo as
el modelo log-normal.
La distribucin logaritmo normal (o simplemente log-normal) aparece cuando los
logaritmos de los valores de la magnitud analizada se distribuyen normalmente, y se
describe indicando los parmetros y de la variable en logaritmos.

Consideremos una v.a Y log-normal y sea X = ln Y. Calculemos en primer lugar la f.d. de Y

FY(y) = P(Y y) = P(lnY lny) = P(X lny)= FX(lny)


donde X sigue un modelo normal N(, ).
Para calcular la funcin de densidad de Y derivemos su f.d.:

dFY(y)dy = dFX(lny)d(lny) d(lny)dy = fX (lny)1y


fY(y) =

As pues, teniendo en cuenta la expresin de fX , se tiene:

Definicin 3.11. Decimos que una v.a. Y sigue una distribucin log-normal, si su funcin de
densidad viene dada por la expresin:
fY(y)= 1 e12(lny)2 ; y > 0
y
2

109
3. Modelos de probabilidad

Figura 3.16.: Modelo de Pareto. Funcin de densidad

Debemos observar que los parmetros y que aparecen en las expresiones anteriores correspon
den al modelo normal y no al log-normal. Las caractersticas de la distribucin logaritmo normal son
las siguientes:
E(Y) = e+2 e2 )
2 ; Var(Y) = e2 (e22

El modelo log-normal resulta aplicable cuando numerosos factores pequeos presentan un efecto
multiplicativo. Esta ley, denominada "ley del efecto proporcional", fue introducida por McAlister
(1879), si bien es conocida habitualmente como Ley de Gibrat debido a que fue este autor quien en
su obra Les Inegalits Economiques (1931) la estudi de modo exhaustivo y la aplic como modelo
de renta.

Aunque el modelo logaritmo normal resulta adecuado para describir el comporta


miento probabilstico de los tramos bajos de renta, suelen aparecer problemas en los
tramos altos, para los que habitualmente esta distribucin subestima las proporciones
de rentistas.

3.6.3.2. Distribucin de Pareto


En un anlisis distributivo de la renta parece deseable tener en cuenta la existen
cia de un mnimo necesario para subsistir. Este valor (umbral que denominamos x0)
podra ser el gasto en alimentacin, el salario mnimo interprofesional, la subvencin
a hogares pobres,...) y como consecuencia, la distribucin de la variable podra venir
representada por una curva como la recogida en la figura, correspondiente a un modelo
de Pareto (en este caso P(X0 = 5, = 3)).
El modelo de Pareto, introducido por este autor a finales del siglo pasado, se ha
revelado histricamente til en la descripcin de la distribucin de la renta y la riqueza.
Dicho modelo se basa en que el nmero de personas que reciben una renta superior a
cierta cantidad R es inversamente proporcional (aunque no de forma lineal) al citado
valor.

110
3. Modelos de probabilidad

Esta distribucin viene caracterizada por dos parmetros: el ya comentado "nivel


mnimo" x0 y una constante , ambos no negativos.
La funcin de densidad de este modelo y su representacin grfica, denominada
curva de Pareto e ilustrada en la figura, 3.16 indican cmo a medida que aumentan
los niveles de X disminuye su densidad de probabilidad. A partir de ella es posible
(x0 )
obtener la proporcin de personas con renta superior a un valor dado x como x .

El modelo de Pareto es un caso particular de distribucin truncada, que se presenta con cierta
frecuencia en estadstica econmica.
Una distribucin truncada es aqulla elaborada a partir de otra distribucin, al darle un corte a
la altura de cierto valor de la variable aleatoria e ignorando la parte derecha o izquierda de la misma
(tambin podra considerarse un doble truncamiento e ignorar las dos bandas, quedndonos slo con
la parte central).
La ley de Pareto fue introducida por este autor a finales del siglo pasado, al estudiar la distribucin
A
de la renta y la riqueza. Segn su propia formulacin la distribucin de renta viene dada por: N = x ,
donde N es el nmero de personas por encima de un cierto valor R, y A y son constantes.
Suponiendo que la renta x se sita por encima de un mnimo x0, esta ley se reduce a un trunca
miento de la distribucin exponencial negativa en el punto ln x0.

Definicin 3.12. Decimos que una variable aleatoria sigue la ley de Pareto de parmetros y
x0, siendo >0, x0 >0, si su funcin de densidad viene dada por:
f(x)=
x0 sixx0
x+1

0 en otro caso

La esperanza matemtica de este modelo existir para > 1 y viene dada por la expresin:
1 . Por su parte, la varianza existir para todo > 2: V ar(X) =
x0 x20
E(X) = ( 2)( 1)2
[Deducirxlas expresiones anteriores. Para la varianza puede comprobarse previamente que se cumple
2
E(X2) =
02]
Esta distribucin admite una interpretacin muy sencilla por cuanto que el ratio entre su valor
esperado y la renta mnima, E(X)x0 = 1 , puede ser considerado como una medida de desigualdad.
De hecho, los estudios de Wilfredo Pareto aplicando su ley empricamente a varios pases y en distintos
perodos de tiempo arrojaban resultados muy estables de , lo que llev a este autor a defender la
incapacidad de las polticas ms progresistas para reducir el nivel de desigualdad.
Debemos tener en cuenta sin embargo que la eleccin del valor mnimo condiciona el valor de .
Como consecuencia, el modelo de Pareto slo describe la distribucin de la renta -y por tanto mide
la correspondiente desigualdad- para rentas superiores a la adoptada como umbral.

El inters del modelo de Pareto en economa se justifica por su validez para ajustar
distribuciones empricas, excepto en los estratos inferiores de renta. Como consecuen
cia, esta ley se complementa muy bien con la distribucin logaritmo normal, en el
sentido de que cuando una no se ajusta bien a la distribucin de la renta, la otra
suele dar resultados satisfactorios, y, viceversa. De forma global (las dos colas) las
distribuciones de renta tambin suelen ajustarse, entre otros, a travs de modelos
Gamma.

111
3. Modelos de probabilidad

Figura 3.17.: Modelo Gamma. Funciones de densidad

3.6.3.3. Distribucin Gamma


El modelo gamma es otra distribucin continua utilizada para describir la renta.
Este modelo, que depende de dos parmetros (p y a), viene representado grficamente
por una curva que suele adaptarse bien a los distintos niveles de rentas.

Definicin 3.13. Decimos que una variable aleatoria X sigue una distribucin Gamma con
parmetros p y a, que se denota por (p, a), si su funcin de densidad viene dada por:

ap(p)
xp1eax six > 0
f(x) =
0 en otro caso

Los parmetros caractersticos del modelo gamma p y a adoptan siempre valores positivos y
recogen caractersticas de forma y escala respectivamente. En consecuencia, cambios en el parmetro
p alteran el perfil o forma grfica del modelo, mientras que el parmetro a viene relacionado con la
unidad de medida de la variable tal y como muestra la figura 3.17.

Un caso particular de esta distribucin es la expresin correspondiente a p = 1, modelo que recibe


la denominacin de exponencial de parmetro a y ha sido estudiado anteriormente.

Por lo que se refiere a las caractersticas de la distribucin gamma, su valor esperado viene dado
por E(X) = pa y su varianza es Var(X) = pa2.

La distribucin gamma es una contribucin de L. Euler (1707-1783) pero fue O. Ammon (1895) el
primero en proponerla como modelo descriptivo de la distribucin de la renta.
Otras aplicaciones de este modelo se deben a March (1898), Salem y Mount (1974) y Bartels
(1977). Existen adems generalizaciones de la distribucin gamma como la propuesta por Amoroso
(1924) y varios modelos probabilsticos conectados con ste.

112
3. Modelos de probabilidad

Con el objetivo de aumentar la capacidad descriptiva de los modelos, algunos au


tores han introducido nuevas distribuciones probabilsticas de la renta. Entre ellas se
encuentran la de Singh-Maddala (1976) que se obtiene como caso particular de una
generalizacin de la familia beta, y la de Dagum (1977) que ha mostrado una buena
adaptacin a las distribuciones de renta tanto en pases desarrollados como en otros
en vas de desarrollo. No obstante, algunos de los modelos ms recientes que se han
revelado como muy adecuados para la descripcin de la renta presentan expresiones
muy complejas en las que intervienen varios parmetros que no resultan sencillos de
estimar.
Todas estas distribuciones persiguen una descripcin adecuada del comportamiento
probabilstico de las rentas. Adems, es interesante sealar que los parmetros caracte
rsticos de estos modelos aparecern conectados con los indicadores de la desigualdad
de renta.

Sin entrar aqu en un anlisis detallado de la desigualdad, presentamos a modo de resumen las
expresiones que adoptan la medida clsica de Gini-Lorenz y el ndice de desigualdad colectiva bajo
los modelos probabilsticos ms habituales para las rentas: Pareto, Log-normal y Gamma.

Indice ndice
Gini-Lorenz Pareto
21
1 Log-normal
2FN(0,1) ( Gamma
)1 )

(+12
(+1)

2

Desigualdad colectiva 1 eVar(X) 1 1


2 1 1

Si la renta es una variable aleatoria X cuya funcin de densidad de probabilidad es f(x), los
indicadores de desigualdad anteriores vienen dados por las expresiones siguientes:
Indice de Gini-Lorenz: L(X)=1 2 +0 F1(x)f(x)dx, donde F1(x) = 1 +0 f(t)dt

+0 (
Indice de desigualdad colectiva: D(X) = x
1) f(x)dx

113
4. Vectores aleatorios y distribuciones
de agregados
La realidad socioeconmica es compleja y de ah la necesidad de introducir los con
ceptos y expresiones que permitan un tratamiento simultneo de k variables aleatorias.
Supongamos a modo de ejemplo que estamos interesados en conocer la probabilidad
de que los beneficios de un centro comercial al finalizar este ao superen a los del
anterior. Lgicamente, este suceso aparecer relacionado con el comportamiento de
numerosas variables como el nivel de precios, la renta familiar disponible, las campaas
publicitarias, la competencia de otros centros comerciales cercanos, .... As pues, la
variable X, beneficios netos aparecera relacionada con otro conjunto de variables
Y, Z, W, ... con lo cual una probabilidad referida a X (por ejemplo, que los beneficios
superen los 2.000 euros) podra ser planteada en los siguientes trminos:

P(X > 2.000) = P(Y 0,12, Z 15.000, ....)


y para poder determinar la probabilidad pedida sera necesario conocer la distribucin
conjunta de ese vector de variables aleatorias.

Adems, al realizar nuestro anlisis podramos tambin tener en cuenta que los
beneficios totales del centro comercial son resultado de agregar
i los beneficios de cada
uno de los establecimientos que lo integran, esto es, X = Xi. Evidentemente, los
distintos establecimientos podran registrar evoluciones dispares, pero si su nmero
es elevado, un comportamiento anmalo en uno de ellos no afectar demasiado al
agregado (esta desviacin podra verse compensada por otras de sentido contrario).
Como consecuencia, resultar posible efectuar afirmaciones relativas al total ignorando
cada uno de los sumandos, ya que este beneficio agregado tendr un comportamiento
normal.
La consideracin de vectores aleatorios integrados por k variables aleatorias permite
abordar el estudio exhaustivo (marginal o condicionado) de una de ellas, resultando
perfectamente aplicables los contenidos de captulos anteriores. Sin embargo, nos in
teresarn preferentemente los anlisis conjuntos, que permitirn conocer el modo en
el que las variables se relacionan, si son o no independientes, ....
Al igual que suceda para el estudio individualizado de variables aleatorias, existen
infinitas distribuciones de probabilidad k-dimensionales. De entre ellas, podemos des
tacar ciertos modelos probabilsticos habituales para describir fenmenos econmicos
que resultan de generalizar al caso k-dimensional los modelos conocidos: as, la genera
lizacin del modelo binomial conducir a la distribucin de probabilidad multinomial
y la extensin del hipergeomtrico a la distribucin multihipergeomtrica. De forma

114
4. Vectores aleatorios y distribuciones de agregados

similar, introduciremos los modelos de Poisson multivariante y normal multivariante,


resultado de generalizar al caso k-dimensional las distribuciones de Poisson y normal
respectivamente.
Por otra parte, en el mbito econmico son numerosos los ejemplos de magnitudes
aleatorias que se obtienen como resultado de la actuacin conjunta de diversas causas.
En estas situaciones -por ejemplo, los beneficios globales de los establecimientos del
centro comercial, la produccin final del sector industrial, la demanda agregada de
un producto agrcola- el estudio se centra a menudo en el efecto final, para el cual es
posible garantizar -bajo ciertos supuestos- una distribucin aproximadamente normal.

4.1. Vectores aleatorios. Distribuciones k-dimensionales


La formalizacin del estudio de vectores aleatorios k-dimensionales permite ampliar
el anlisis de fenmenos aleatorios. Sin nimo de llevar a cabo un estudio exhaustivo
de las distribuciones k-dimensionales, dedicamos este epgrafe a recoger las principales
definiciones y conceptos asociados al estudio de vectores aleatorios.
Centrndonos en el caso bidimensional, si investigamos conjuntamente dos caracte
rsticas aleatorias X e Y, podemos disponer la informacin relativa a ambas variables
mediante una tabla como la representada a continuacin, en la que aparecen las pro
babilidades asociadas a los pares (xi ,yj).
Y/X x1 x2 xk pj
y1 p11 p21 pk1 p1
y2 p12 p22 pk2 p2
.. .. .. .. .. ..
. . . . . .
yh p1h p2h pkh ph
pi p1 p2 pk p = 1

4.1.1. Variable aleatoria bidimensional


Definicin 4.1. Dadas dos v.a. unidimensionales X e Y definidas sobre el mismo
espacio de probabilidad (E,A,P), se denomina variable aleatoria bidimensional, que
denotamos por el par (X, Y), a la observacin conjunta de dos variables:

(X,Y) :w E (X(w),Y(w)) 2

De una manera ms formalizada, si X e Y son dos v.a. definidas sobre el mismo espacio de pro
babilidad (E,A,P), y denotamos por 2 la -lgebra de Borel sobre 2, construida con todas las
uniones, intersecciones, complementarios, ... de rectngulos de 2, definimos una variable aleatoria
bidimensional (X, Y) como una aplicacin:

(X, Y) : w E (X(w),Y(w)) 2

tal que la imagen inversa de cualquier boreliano de B 2 sea un elemento de la -lgebra A.

115
4. Vectores aleatorios y distribuciones de agregados

En este caso se define la probabilidad inducida como una aplicacin: P : B 2 P (B) =


P [(X,Y)1(B)]
La -lgebra de Borel 2 est generada por rectngulos de la forma (,x] (,y] (todo ele
mento B puede ser expresado mediante operaciones de los rectngulos anteriores); si denotamos
por [X x,Y y] = {w E/ < X(w) x, < Y(w) y}, para comprobar que la
variable bidimensional (X, Y) es aleatoria basta comprobar que para todo (x,y) 2, se verifica:
[X x,Y y] = {w E/X(w) x,Y(w) y}A.
De la misma forma, la probabilidad inducida puede establecerse como: P [(,x] (,y]] =
P(X x, Y y).

Decimos que una v.a. bidimensional (X, Y) es discreta si las variables X e Y que la integran son
discretas. De igual manera diremos que es continua si sus componentes lo son.

En esta clasificacin de las v.a. bidimensionales, la definicin dada para variables continuas (que lo
sean sus componentes) es en realidad una condicin necesaria pero no suficiente; pueden encontrarse
contraejemplos en los que tanto X como Y son continuas y en cambio la variable conjunta no lo es.

4.1.1.1. Funcin de distribucin bidimensional


Definicin 4.2. Dada una v.a. bidimensional (X, Y) definimos la funcin de distri
bucin conjunta asociada a esta variable como:

F : (x,y) 2 F(x,y) =P(X x,Y y)[0,1]


Esta funcin cumple las propiedades exigidas a las f.d.. Su representacin grfica
tendra forma de un estereograma escalonado en el espacio para variables discretas
(con puntos de salto en los pares (xi ,yj )) y sera una superficie continua para variables
continuas.
A partir de la funcin de distribucin bidimensional podemos calcular la probabili
dad de cualquier rectngulo (a, b] (c, d], mediante la expresin:

P(a<Xb,c<Yd)=F(b,d)F(a,d)F(b,c)+F(a,c)

4.1.1.2. Funcin de probabilidad bidimensional


Dada una v.a. bidimensional discreta, sta podr tomar un conjunto numerable de
valores (xi,yj), i,j = 1,2,... . Como caso particular de la expresin anterior podemos
obtener la probabilidad conjunta de cada par de valores a partir de la funcin de
distribucin como:

P(X = xi,Y = yj) = F(xi,yj) F(xi,yj1) F(xi1,yj)+ F(xi1,yj1) = pij

Definicin. Podemos definir la funcin de probabilidad conjunta de una v.a. bidi


mensional (X, Y) como aqulla que asigna a cada posible resultado (xi ,yj) una masa
de probabilidad que verifica: pij 0, y ij pij = 1.

116
4. Vectores aleatorios y distribuciones de agregados

A partir de la funcin de probabilidad es posible obtener la f.d. en un punto (xi,yj),


como suma de las probabilidades de todos los pares con coordenadas no superiores al
punto considerado; esto es:

F(xi,yj) = pi1j1
i1i j1j

4.1.1.3. Funcin de densidad bidimensional


Si consideramos dos variables aleatorias continuas, podemos utilizar el mismo ra
zonamiento anterior partiendo de una agrupacin por intervalos de estas variables;
pero este mtodo perdera validez si plantesemos el problema a partir de valores
individuales [por qu?].

Definicin. Dada una v.a. bidimensional continua (X, Y), si existe una funcin
f(x,y), tal que:

f(x,y)= 2F(x,y)
xy
la denominaremos funcin de densidad bidimensional (o conjunta) de X e Y.

Obsrvese que para que exista la funcin de densidad de una v.a. bidimensional continua es nece
sario que exista la derivada parcial de segundo orden respecto a x e y.

A modo de operacin inversa, podemos obtener la funcin de distribucin conjunta


a partir de la de densidad como:
x yf(x,y)dxdy
F(x,y) =

Por otra parte, a partir de la f.d. F(x,y), podemos calcular la probabilidad de


cualquier rectngulo (a, b] (c, d], mediante la expresin:
ab d
P(a<Xb,c<Yd)=
cf(x,y)dxdy

La probabilidad de que una v.a. se encuentre en un intervalo representa el rea


en ese intervalo por debajo de la funcin de densidad. En el caso bidimensional, la
probabilidad de encontrarse en un rectngulo (a, b] (c, d], ser el volumen que sobre
el mismo establece la funcin de densidad conjunta.
As pues, podemos definir la funcin de densidad conjunta f(x, y), si existe, como
una aplicacin f : (x,y) 2 +, tal que:

117
4. Vectores aleatorios y distribuciones de agregados

Figura 4.1.: Funcin de densidad bidimensional

+ + f(x,y)dxdy = 1 y

a b d
P(a<Xb,c<Yd)=
cf(x,y)dxdy

Las condiciones de existencia de la funcin de densidad bidimensional son equivalentes a las co


mentadas para el caso unidimensional con la extensin lgica de una a dos variables.
Las variables continuas que utilizaremos en este libro son absolutamente continuas por lo que
identificaremos ambos trminos, en un abuso de lenguaje, y por tanto consideraremos que dada una
v.a. bidimensional continua, su funcin de densidad siempre existe.

4.1.1.4. Vectores aleatorios k-dimensionales


Habitualmente nos interesar recoger ms de dos caractersticas de los elemen
tos de la poblacin. Podemos extender entonces los conceptos anteriores al caso k
dimensional, considerando el vector aleatorio (X1,X2,...,Xk).

Supongamos que cada componente del vector anterior es una v.a., en cuyo caso se dice que se trata
de un vector aleatorio, y que son observadas conjuntamente para cada elemento de la poblacin, de
forma que cada elemento w proporciona un vector de informacin: (X1 (w),X2 (w),...,Xk (w)); esto
es, la variable aleatoria k-dimensional puede entenderse como:

(X1,X2,...,Xk) :w E (X1(w),X2(w),...,Xk(w)) k

Definida una -lgebra de Borel sobre k, generada por cubos k-dimensionales de la forma
(,x1] (,x2] (,xk], la probabilidad inducida nos permite establecer una funcin
de distribucin k-dimensional F(x1 ,x2, ...,xk):
F:(x1,x2,...,xk) k F(x1,x2,...,xk) [0,1]

118
4. Vectores aleatorios y distribuciones de agregados

Consideraremos una v.a. k-dimensional discreta o continua cuando lo sean sus componentes.
Dada una v.a. k-dimensional discreta (X1,X2,...,Xk), definimos la funcin de probabilidad k
dimensional como aquella que a cada posible valor de la variable, (x1 ,x2 ,...,xk), le asigna una masa
de probabilidad, que verifica:

pi1,i2,...,ik = P(xi1,xi2,...,xik) = P(X1 =xi1,X2 =xi2,...,Xk =xik)

+ + +
pi1,i2,...,ik 0 y i1=0 i2=0 pi1i2ik = 1
ik=0

La funcin de distribucin se puede obtener mediante agregacin de la funcin de probabilidad y


sta por diferencias de la funcin de distribucin.
Para el caso de una v.a. k-dimensional continua (X1,X2,...,X 0, ,definimos
k) la funcin
+ de densidad
como una aplicacin fde k en , que cumple: f(x1,x2,...,xk) + +
b f(x1,x2,...,xk)dx1dx2 dxk =
b
1 yP(a1 < X1 b1,a2 < X2 b2,...,ak < Xk bk ) = a 1 a 2 abk f(x1,x2,...,xk)dx1dx2 dxk
1 2 k
Podemos obtener la funcin de distribucin a partir de la de densidad como una integral mltiple
de sta, y de forma inversa, la densidad conjunta se obtiene a partir de la funcin de distribucin
como la derivada parcial de orden k respecto a sus componentes x1,x2,...,xk .

4.2. Distribuciones marginales y condicionadas


Una variable aleatoria bidimensional (X, Y) es un vector formado por dos v.a. uni
dimensionales. Abordamos en este epgrafe la caracterizacin probabilstica de cada
una de estas componentes considerando un comportamiento libre de la otra variable
o bien exigindole determinada condicin.
Cuando imponemos alguna restriccin al rango de la segunda variable nos encon
traremos con distribuciones condicionadas, mientras que en caso contrario hablaremos
de distribuciones marginales.

4.2.1. Distribuciones marginales


Para introducir el concepto de marginalidad consideremos una variable estadstica
bidimensional genrica (X, Y) que representamos por la siguiente tabla:
Y/X 2 4 8 f.j
1 0,1 0,2 0,1 0,4
2 0,050,050,10,2
3 0,1 0,1 0,2 0,4
fi 0,25 0,35 0,4 1

Si nos preguntamos por la frecuencia relativa con la que la variable X toma el va


lor 4 independientemente del comportamiento de la variable Y, la respuesta es 0,35,
resultado obtenido como suma de las frecuencias relativas de X = 4 con todas las
diferentes alternativas de la variable Y. Pues bien, podemos extender este concepto

119
4. Vectores aleatorios y distribuciones de agregados

de forma inmediata a las variables aleatorias.

Dada una v.a. bidimensional (X, Y), denominamos distribucin marginal de X a la distribucin
de probabilidad de la v.a. X cuando consideramos un comportamiento libre de Y. Esto es, denotando
por FX (x) a su funcin de distribucin, se tiene:

FX(x) = P(X x) = P(X x,Y < +) = limy+F(x,y)

Distinguiendo para variables discretas y continuas, se obtiene:

+
FX(xi) = lim F(xi,y) = phj
y+
hi j=1
f(x,y)dy
x (+ )
FX(x) = limy+F(x,y) = dx

A partir de la funcin de distribucin obtenemos las funciones de probabilidad o de densidad mediante


la diferencia o la derivada de la primera, obteniendo en cada caso la expresin que figura entre
parntesis ; es decir:

+
pX(xi) = FX(xi) FX(xi1) = pij
j=1

+ f(x,y)dy
fX(x) = FX(x) =

Definicin 4.3. Si (X, Y) es una v.a. bidimensional discreta definimos la funcin de


probabilidad marginal de X como:
+
pX (x) = pij
j=1

Si la variable es continua, definimos la funcin de densidad marginal de X, que


denotamos por fX (x), como:
+
fX(x) = f(x,y)dy

Si ahora consideramos la tabla inicial como una distribucin probabilstica bidimen


sional donde aparecen los valores que pueden adoptar las variables X e Y y las proba
bilidades pij con las que pueden asumir conjuntamente los valores (xi,yj), podemos
obtener la probabilidad marginal pX (4) = 0,2+0,05 + 0,1=0,35.
Razonando de modo similar para los restantes valores de X se llega a la distribucin
marginal recogida a continuacin:

X pX (x)
2 0,25
4 0,35
8 0,4

120
4. Vectores aleatorios y distribuciones de agregados

Figura 4.2.: Campo de variacin bidimensional

[Comprobar que se trata de una verdadera distribucin de probabilidad. Cul sera


la distribucin marginal de la variable Y?]

El caso continuo incorpora algunos rasgos diferenciales, que podemos examinar a travs de una
ilustracin. Consideremos un reciente estudio sobre los mrgenes comerciales del sector de electrodo
msticos, en el que se observaron conjuntamente los precios de venta (X) y su coste (Y), ambos en
miles de unidades monetarias, obtenindose la siguiente funcin de densidad:

200 si10<y<x
f(x,y)= x2y2
0 en otro caso

cuyo campo de variacin -representado en la figura 4.2- supone que el precio de venta tie
ne
que
+ +

ser mayor que su coste (y < x). [Comprubese que f(x,y) es no negativa y se cumple
f(x,y)dxdy = 1].
Si ahora queremos obtener la distribucin marginal del precio de venta, podemos utilizar las
expresiones anteriormente vistas para fX (x):
+ f(x,y)dy =
x x2y2
10 200 dy= 200
x2 [ x = 20
x2 200
fX(x) = x3 ,x > 10
1y
]10

[Obtener de modo similar la distribucin marginal del coste fY (y)]

Podemos comprobar que las funciones de probabilidad y de densidad marginales verifican los
requisitos exigidos a estas expresiones; esto es, que son funciones no negativas cuya suma o integral
es la unidad.
En el caso de la funcin de densidad marginal tendramos que es un valor no negativo puesto que a
cada punto le asigna el rea de la seccin determinada por la superficie f(x, y) con un plano paralelo
al eje de la variable que marginamos, y como tal rea no
+
puede adoptar valores negativos.
En segundo lugar tendramos que comprobar que fX (x)dx = 1 (en el caso que se tratase de
la marginal de X). En efecto:
+ fX (x)dx = + + f(x,y)dxdy = 1

obtenindose la ltima igualdad por serf(x, y) una funcin de densidad.


[Comprobar que la funcin de probabilidad marginal pX (x) verifica las condiciones de no negati
vidad y suma unitaria]

121
4. Vectores aleatorios y distribuciones de agregados

La funcin de distribucin marginal FX (x), puede obtenerse a partir de las correspondientes fun
ciones de probabilidad o de densidad, segn se trate de v.a. discretas o continuas, mediante suma o
integracin de las mismas:

Fxbv): Z 111x061): Z pvayi)


Iilzl Iilzljl

Mi) - f; fxbadw - f; f: f(wiv)dwdy


o la
Las
obtencin
expresiones
de la
defuncin
clculo de
de densidad
las probabilidades
marginal adepartir
intervalos,
de la [a
funcin
< X de b],
distribucin
de valores son
[X Iigua

les que en el caso unidimensional, teniendo en cuenta que ahora se trata de una distribucin marginal.

Caractersticas marginales y medidas de correlacin

Dado que las distribuciones marginales son variables unidimensionales es posible


denir las caractersticas marginales asociadas a las mismas. En el caso continuo, la
esperanza y la varianza marginal de X vendran dadas por las siguientes expresiones:

+00
E(X) 1 fs fO ivfvlvlwdv I QW ftixvlvj di I
oo

IXW)

: xfX(x)dx : u);

v} = E(X - ux)2 I fO II - ux)2f(wlv)dwdv I

I f_oo(w
+00 _ 9x) 2 +00 f(1viv)d9 div I f_so(w
+09 _ ux)fx(fv)d1v
2
oo
~
GX)

[Cmo se expresaran las caractersticas de la distribucin marginal de YT, cules


seran las expresiones anteriores para el caso de v.a. discretas]

Entre las caractersticas marginales se encuentran los momentos centrados de orden


2, que se corresponden con las varianzas marginales. Nos interesan tambin otros
momentos, mixtos, de orden 1 en la variable X y 1 en la variable Y.

Denicin 4.4. Dadas dos variables aleatorias X e Y llamamos Covarianza, que


denotamos por Cov(X, Y) o aXy al valor de la expresin, si existe:

UX,Y I 9014553): E l(X - MX)(Y - MY)l

122
4. Vectores aleatorios y distribuciones de agregados

Figura 4.3.: Correlacin X, Y

Sus frmulas de clculo para los casos discreto y continuo son las siguientes:

i=1
X,Y = (xi X)(yj Y)pij
j=1
+ +
X,Y = (x X)(yY)f(x,y)dxdy

La covarianza es una medida de la correlacin lineal existente entre dos variables


aleatorias. As, si las variables X e Y presentan una relacin lineal directa, se observar
una nube de puntos como la representada en la parte izquierda de la figura 4.3, esto
es, distribuida a lo largo de los cuadrantes I y III.
En tal situacin, se observa que las desviaciones (X X) > 0 aparecen asociadas
a (Y Y) > 0 y del mismo modo las desviaciones (X X) < 0 se presentan con
(Y Y) < 0. Ambas posibilidades dan como resultado productos positivos por lo
cual la covarianza presentar signo positivo.
Razonando de modo similar para el caso de relacin lineal negativa, se observaran
desviaciones negativas para una de las variables junto a desviaciones positivas para
la otra (que se agruparan en los cuadrantes II y IV, tal y como recoge la grfica
representada a la derecha).
Puede observarse que la expresin de la covarianza es simtrica y por tanto la
covarianza de X con Y es igual a la obtenida de Y con X.

Proposicin. La covarianza de una variable sobre s misma coincide con la varianza marginal:

X,X = 2X = E[(X X)(X X)] = E(X X)2

Al igual que la varianza, la covarianza admite una expresin de clculo ms simple. En concreto,
la covarianza puede obtenerse como diferencia entre la esperanza del producto y el producto de las
esperanzas marginales:

123
4. Vectores aleatorios y distribuciones de agregados

X,Y = E(XY) E(X)E(Y)

[Comprubese]
La covarianza presenta la importante limitacin de no encontrarse acotada; el valor resultante de
la covarianza nos permitir establecer el tipo de dependencia lineal (nula, directa o inversa), pero no
as el nivel de la relacin. Este inconveniente motiva la utilizacin del coeficiente de correlacin lineal
definido como cociente entre la covarianza y las desviaciones tpicas de las variables:
X,Y
X,Y =
XY
expresin que se encuentra acotada entre -1 y 1, y resulta adecuada como medida de correlacin lineal
entre dos variables aleatorias, puesto que su valor absoluto expresa el grado de la relacin lineal.

Si consideramos el vector fila aleatorio x = (X, Y), podemos construir un vector de valores espe
rados y matrices de varianzas-covarianzas y de correlaciones como sigue:

E(x) = E(X,Y )=(E(X),E(Y))= (X,Y)

[ ]
Cov(x) = 2X Y,X
Y,X 2Y

[
1 Y,X
Corr(x) =
Y,X 1 ]

Al igual que hemos visto para las variables unidimensionales, es posible generar los momentos
bidimensionales a partir de una funcin generatriz.
La funcin generatriz de momentos de una v.a.bidimensional se define como el valor, si existe, de
la expresin:
(et1X+t2Y )
M(X,Y)(t1,t2) = E
pudiendo comprobarse fcilmente a partir de esta expresin: MX+Y (t) = M(X,Y) (t, t).

Distribuciones marginales en variables k-dimensionales

Podemos extender los conceptos anteriores de distribuciones marginales y sus matrices caracters
ticas al caso de variables k-dimensionales sin ms complejidad que la derivada de su terminologa.
En efecto, si denotamos por x un vector aleatorio con k componentes, x = (X1,X2 ,...,Xk), la
distribucin marginal del componente Xj, ser la distribucin unidimensional de esta variable con
independencia de lo que ocurra con los restantes componentes; esto es:

FXj(xj)= x1
lim xj1
lim xj+1
lim xk
lim F(x1,...,xj1,xj,xj+1,...xk)

Para variables discretas y continuas obtenemos las funciones de probabilidad y densidad, respec
tivamente:
i1=0
ij1=0
ij+1=0

PXj(xi)= P(xi1,...,xij1,xij,xij+1,...,xik)
ik=0

124
4. Vectores aleatorios y distribuciones de agregados

+ +
fXj (xj ) =

f(x1,...,xj,...,xk)dx1dxj1dxj+1dxk

Las distribuciones marginales son de carcter unidimensional y por tanto su funcin de distribucin se
obtiene sumando o integrando las correspondientes funciones de probabilidad o de densidad margina
les. [A partir de una distribucin k-dimensional cuntas distribuciones marginales pueden obtenerse?]

El vector de esperanzas y las matrices de covarianzas y correlaciones vienen en este caso dados
por:

= E(x) = E(X1,X2 ,...,Xk )=(E(X1 ),E(X2 ),...,E(Xk )) = (1,2 ,..., k)

Cov(x)= k1 k2 ... 2k
21
21 12
22
... 1k
2k


.
.. .. .. ..
. . .

Corr(x)=
1 12 1k
21 1 ... 2k

.. .. .. ..
. . . .
k1 k2 ... 1

La funcin generatriz de momentos de una v.a. k-dimensional se define como el valor, si existe, de
la expresin:
)
M(X1,X2,...,Xk)(t1,t2,...,tk) = E (et1X1+t2X2++tkXk

A partir de la definicin anterior es inmediato comprobar:

Mki=1 Xi (t) = M(X1,X2,...,Xk)(t,t,. . . ,t)

4.2.2. Distribuciones condicionadas


Otras distribuciones interesantes que se derivan de la observacin conjunta de va
riables aleatorias son las distribuciones condicionadas.
Supongamos en primer lugar un vector bidimensional (X, Y). En el anlisis marginal
buscbamos la distribucin de una variable con independencia del comportamiento de
la otra; abordamos ahora un planteamiento complementario: la distribucin de una
variable cuando la otra adopta un comportamiento determinado; esto es, por ejemplo,
la distribucin de Y cuando X toma cierto valor x, un conjunto B de posibles valores
o cualquier valor no superior a x.
Consideremos este ltimo caso, analizando la distribucin de Y cuando X adopta
valores no superiores a x. Si denotamos por Y/X x esta variable condicionada, su
recorrido es idntico al de Y, cambiando nicamente la distribucin de probabilidad

125
4. Vectores aleatorios y distribuciones de agregados

asociada a la misma.

Dada una v.a. bidimensional (X, Y), con funcin de distribucin conjunta F(x,y), definimos la
funcin de distribucin de Ycondicionada a X x, como la aplicacin:

FY/Xx(./X x) : y P(X x, Y y) F(x,y)FX(x) [0,1]


F(y/X x) = P(Y y/X x) = =
P(X x)

En lugar de condicionar al intervalo (,x] podramos hacerlo a cualquier otro conjunto B de


posibles resultados o incluso a un nico valor x. Cuando la restriccin se limita a un nico valor
pueden surgir algunos problemas, puesto que para variables continuas es nula la probabilidad de un
punto concreto (que aparecera en el denominador) por lo que no podramos determinar la expresin
de FY/X=x.
No obstante, estos problemas pueden resolverse sustituyendo el valor por un intervalo infinitesimal
y tomando lmites cuando la amplitud de ste tiende a cero.
Como en casos anteriores, podemos pasar de la funcin de distribucin a la funcin de probabilidad
o de densidad, segn se trate de variables discretas o continuas, calculando la diferencia o la derivada
de la funcin de distribucin.

Definicin 4.5. Dada una v.a. bidimensional discreta (X, Y) y un resultado [X = xi ]


de probabilidad no nula, definimos la funcin de probabilidad condicionada como:

P(Y=yj/X= xi )= P(xi,yj)
PX(xi) = P(xi,yj)
j=1P(xi,yj)

De forma similar, para variables aleatorias continuas, podemos definir la funcin de


densidad condicionada a un valor x como:

f(x,y)fX(x) = f(x,y)+f(x,y)dy
f(y/x) =

expresin que permite asignar a cada valor de Y su densidad de probabilidad condi


cionada, siempre que se cumpla fX (x) > 0.

A modo de ilustracin, consideremos que en el ejemplo anterior nos piden la distri


bucin de Y condicionada a que X tome el valor 4. La probabilidad marginal de que
se haya presentado el valor X = 4 es 0,35 como ya vimos en un apartado anterior,
y los valores que puede presentar la variable condicionada Y/X = 4 son {1,2,3} (es
decir, el mismo recorrido que la variable marginal Y). La probabilidad del valor Y = 1
condicionado a X = 4 vendr dada por:

P(Y=1/X=4)= P(X=4,Y=1)
P(X =4)= 0,2
0,35 =0,5714

y de modo anlogo se obtiene P(Y = 2/X =4)=0,1429 y P(Y = 3/X = 4) =


0,2857.

126
4. Vectores aleatorios y distribuciones de agregados

Las expresiones anteriores cumplen las condiciones exigidas a las funciones de probabilidad y de
densidad. En efecto, dada la variable bidimensional continua (X, Y), la densidad de Y condicionada
a X = x es una funcin:

f(./x) : y f(y/x)

Segn la definicin anterior esta funcin f(y/x) ser no negativa, al obtenerse como cociente entre
un valor de la funcin de densidad conjunta y un rea, ambos no negativos.
Por otra parte, se tiene:

+ f(y/x)dy= + + f(x, y)dy
[
f(x, y) dy= =1
+ f(x,y)dy ] +
f(x,y)dy

[Justificar que en el caso discreto, la probabilidad condicionada es una funcin de probabilidad].


[Definir las funciones de densidad y probabilidad de X condicionada a un valor Y = y]

* La funcin de distribucin condicionada FY/X=x(y) = P(Y y/X = x), presenta las siguientes
frmulas de clculo:

F(y/X=xi)= P(yj/xi)= P(xi,yj) yj<|y|P(xi,yj)

yj<[y] yj<[y]

j=1 P(xi,yj)
= j=1 P(xi,yj)

y y f(x,t)+f(x,y)dydt
F(y/X = x) = f(t/x)dt =

A modo de ejemplo, a partir de la distribucin bidimensional recogida en la tabla inicial, se obtendra


la siguiente funcin de distribucin para la variable Y condicionada al valor X = 4:

0 paray< 1


0,2857 para1 y < 2
F(y/X = 4) =

0,4286 para2 y < 3


1 para3 y

[Obtener de modo similar la funcin de distribucin F(x/Y = 2)]

Por lo que se refiere a las caractersticas de las distribuciones condicionadas, stas pueden ser
obtenidas de forma anloga al caso de las distribuciones marginales, teniendo en cuenta que ahora se
utilizar la funcin de densidad o de probabilidad condicionada.

Distribuciones condicionadas en variables k-dimensionales

Si consideramos un vector k-dimensional (X1,X2 ,...,Xk) podemos establecer a partir de l con


diciones muy diversas; por ejemplo: Xi/Xj, Xi/XjXk, XiXk/Xj. Puede entonces considerarse un
mayor nmero tanto de variables condicionadas como condicionantes; y en el caso de estas ltimas
las condiciones pueden ir referidas a valores determinados o bien a rangos de la variable; respetando
siempre la condicin de que la probabilidad o densidad (segn corresponda) del suceso que condiciona
sea positiva.
No contemplamos aqu la casustica posible, que se desarrolla a partir de la probabilidad condi
cionada y sera generalizacin de las expresiones correspondientes a dos variables. [Proponemos al
lector la obtencin de algunos de estos resultados. Por ejemplo, cmo se definira la distribucin de
probabilidad de X3 condicionada a X1 = x1 y X4 = x4?]

127
4. Vectores aleatorios y distribuciones de agregados

4.3. Modelos probabilsticos k-dimensionales


4.3.1. Distribucin Multinomial
Entre los modelos unidimensionales discretos, la distribucin binomial ocupa sin
duda un papel relevante al describir el nmero de resultados favorables obtenidos en
experiencias sucesivas.
La distribucin binomial apareca asociada a una experiencia dicotmica en la que
slo distinguimos dos posibles resultados, denominados xito y fracaso. No obstante,
a menudo nos interesan experiencias que presentan ms de dos modalidades, cuya
descripcin por tanto no se adapta a dicho modelo. Este sera, por ejemplo, el caso
de un estudio del sector econmico en el que desarrolla su actividad una empresa, el
estrato de edad al que pertenece un individuo o la intencin de voto ante las prximas
elecciones.
En todas estas situaciones, existen mltiples modalidades observables en la magni
tud objeto de estudio, por lo cual es preciso definir una variable aleatoria capaz de
cuantificar la intensidad con la que se ha presentado cada modalidad, surgiendo as el
modelo multinomial o polinomial .
Considerando uno de los ejemplos citados, supongamos que estamos interesados
en investigar la actividad econmica a la que se dedican n empresas, seleccionadas
aleatoriamente y con reposicin. Si adoptamos la clasificacin sectorial convencio
nal: agricultura, industria, construccin y servicios, definiremos el vector aleatorio
(X1,X2,X3,X4), cuyas componentes recogen el nmero de empresas dedicadas a ca
da una de las actividades econmicas.

Supongamos un experimento aleatorio que repetimos n veces. En cada una de estas n repeticiones
-que asumimos independientes entre s- el resultado del experimento ser uno y slo uno de los
resultados (modalidades) A1,A2,...,Ak y designaremos por pj la probabilidad de que en una de las
realizaciones independientes ocurra Aj, asumiendo que dichas probabilidades se mantienen constantes
en las n pruebas.
Los sucesos A1,A2 ...,Ak constituyen una particin de E: k
Ai = E, Ai Aj = , i = j y se
cumple por tanto k i=1

i=1pi = 1. Sean las variables aleatorias X1,X2,...,Xk que recogen el nmero de

veces que han sido observados los sucesos A1,A2, ...,Ak en las n realizaciones del experimento. En
tonces el vector aleatorio k dimensional ((X1,X2 ,...,Xk) recibe el nombre de variable aleatoria mul
tinomial de parmetros n, p1,p2 ,...,pk y se representa como (X1,X2,...,Xk) M(n,p1,p2 ,...,pk)

La funcin de masa de probabilidad del vector aleatorio (X1,X2 ,...,Xk) M(n,p1,p2 ,...,pk)
ser la siguiente:
k
P(X1 =x1,...,Xk=xk)=n!x
1 !px11pxkk;con xj=n
!xk j=1

Estas probabilidades son no negativas y su suma es la unidad, por lo que se cumplen las condiciones
de una funcin de probabilidad.
Justificbamos el nombre de la distribucin binomial porque sus probabilidades se correspondan
con los sumandos del binomio (p+q)n. Del mismo modo, en la distribucin actual las probabilidades

128
4. Vectores aleatorios y distribuciones de agregados

se corresponden con los sumandos correspondientes del multinomio (p1 + p2 + + pk )n, hecho que
por una parte justifica su nombre y por otra garantiza que la suma de la funcin de probabilidad es
precisamente (p1 + p2 + + pk)n = 1n =1.
Por lo que se refiere a las caractersticas de esta distribucin, los momentos marginales nos pro
porcionan las medias y varianzas marginales dadas por las expresiones:

E(Xj) = npj;Var(Xj)= npj(1 pj); j = 1,...,k

Adems, por tratarse de un modelo k dimensional nos interesa conocer las expresiones de algunas
caractersticas de correlacin entre variables unidimensionales. As la covarianza entre dos variables
Xi y Xj, viene dada por:

Xi,Xj = E [(Xi npi)(Xj npj)] = npipj ; i = j = 1,...,k


y el correspondiente coeficiente de correlacin lineal:
XiXj
Xi,Xj =
npipj
Xi ,Xj = npi(1 pi) npj(1pj) = pipj(1pi)(1pj)

expresin que como vemos depende de las probabilidades de los sucesos considerados pero no del
nmero de pruebas.

En ocasiones la definicin de la distribucin multinomial se lleva a cabo excluyendo una de las cate
goras que se adopta como referencia. Se tendra en este caso un vector k-1 dimensional (X1 ,...,Xk1)
siendo k1
j=1 xi n.

4.3.2. Distribucin Multihipergeomtrica


Al igual que el modelo hipergeomtrico, la distribucin multihipergeomtrica (tam
bin llamada polihipergeomtrica) aparece asociada al muestreo sin reposicin, si bien
en este caso se observan simultneamente varias caractersticas. Se trata de una gene
ralizacin de la distribucin hipergeomtrica similar a la que el modelo multinomial
establece del binomial.
Si en la ilustracin anterior de la actividad econmica de las empresas asumimos
ahora que el muestreo se realiza sin reposicin, la situacin podra describirse en los
siguientes trminos: partimos de una poblacin de N empresas que pertenecen a 4
sectores distintos y al seleccionar sin reposicin una muestra de n empresas investiga
mos cuntas de ellas se adscriben a cada sector, obteniendo as una variable aleatoria
distribuida segn un modelo multihipergeomtrico.

Consideremos una poblacin de tamao N en la cual existen Ni elementos con las caractersticas
de inters A1,A2,...,Ak, que son excluyentes entre s. Al extraer de esta poblacin muestras de ta
mao n sin reposicin, definimos el vector aleatorio (X1 ,X2 ,...,Xk) donde Xi representa el nmero
de elementos de la muestra con la caracterstica Ai.

La funcin de masa de probabilidad de (X1,X2 ,...,Xk) viene dada por la expresin:


(N1x1 )(N2x2 ) ( )
Nkxk
P(X1 =x1,X2=x2,...,Xk=xk)= (Nn)

129
4. Vectores aleatorios y distribuciones de agregados

que corresponde a una distribucin de probabilidad multihipergeomtrica de parmetros N,N1 ,N2,...,Nk ,n


y se representa (X1,X2 ,...,Xk) MH(N,N1,N2,...,Nk,n)

Las caractersticas de la distribucin multihipergeomtrica guardan relacin con las vistas para el
modelo hipergeomtrico obtenindose:
E(Xi)=n 1
N =npi ; Var(Xi) = n Ni
Ni N ( NiN ) N
nN1=npi(1pi)NnN1

donde por pi representamos la proporcin de casos favorables a la categora Ai.

Por lo que se refiere a la covarianza, su expresin mantiene cierta similitud con la correspondiente
a la distribucin multinomial:

N2 Nn
nNiNj N1 ; i=j=1,2,...k
N1=npipj Nn
Xi,Xj =

y conduce al coeficiente de correlacin lineal


Xi,Xj=
Ni Nj
Ni Nj 1pi
pi pj
= NN
N N
NNj
=
N Ni N Nj i 1pj
N N

4.3.3. Distribucin Normal Multivariante


La distribucin normal ocupa un papel fundamental en el anlisis de datos, al
tratarse de un modelo probabilstico adecuado para la descripcin de numerosas mag
nitudes. En el caso de que estudiemos simultneamente varias variables aleatorias, la
idea de normalidad sigue siendo vlida, extendida en este caso al mbito multivariante.

Consideremos ahora un vector columna k-dimensional x, para el cual suponemos que


existe su vector de esperanzas y su matriz de varianzas-covarianzas, que denotamos
por :

1 21 12 1k
2 21 22 ... 2k
.
= . ; = .. . . . . ..
. . . . .
k k1 k2 ... 2k
se dice que x sigue una distribucin normal multivariante de parmetros y , que
representamos por x N(, ), si su funcin de densidad viene dada por la expresin:
1 1
f(x1,x2,...,xn)= (2)k2||12e 2 [(x)1(x)]

donde || denota el determinante de la matriz de covarianzas y (x ) el vector


transpuesto de (x ).

En el caso k = 1, se tiene: x = X1, = 1, = 21 = ||, con lo que al sustituir


obtenemos la funcin de densidad de la normal general univariante.

130
4. Vectores aleatorios y distribuciones de agregados

En el caso k I 2, se obtienen las siguientes expresiones para el vector de esperanzas,


la matriz de covarianzas y su determinante:

M(m>52(1 jifizisisi-ii 2

M2 21 2
donde al calcular el determinante se tiene en cuenta que la covarianza es simtrica:
U12 I 021
. _ 2 2 92 _ 2 2 2
El determinante podemos expresarlo como. [E] a1 a2 (1 a???) a1a2(1 p ),
y la matriz inversa de E resulta:

1_ 1 a2 a 12
2 al 2 12 U1

Sustituyendo ahora en la expresin general, se obtiene:

mi i
i(l_llli2_ll2)
U2 <T12
2
901 M1
Q 1 Q 2( P) U12 0'] x2 /sL2
f( x 1 ,x 2 > I Ge 1
27ra1a2\/1 p2
ion-i ( 1 Mi
)_i l m [(991M1)T(I2M2)T12i-(I1 M1)T12+(12M2)Ui] _
Q 01m Q
2 992 M2
e
277a1a2\/1 p2
)_i ion-i 1 (11Mi)2+(92M2)2_2P(11M1)(I2M2)
l
(Y! Q 2 Q 2(1p2) a? 0% 0102
> no

27ra1a2\/ 1 p2

que es la funcin de densidad de la normal bivariante.

La funcin generatriz de momentos de la normal multivariante viene dada por:

011 Uils tl
(tlvitlc) j j j

M1 t
(t177tl) + 021 2 02k k

M(Xii...X1s)(t1 - - - 7tk) I e M2 I 6222+?

donde el ltimo miembro est expresado en notacin inatricial.

Dada una variable normal multivariante, las funciones de densidad marginales coin
ciden con las funciones de densidad univariantes de distribuciones A/(u), ai), con lo
que se tiene: = u,- y Var(X,) I a2.

Si las variables unidimensionales que componen la normal multivariante tienen es


peranza 0 y varianza 1, las expresiones anteriores se simplican considerablemente. A

131
4. Vectores aleatorios y distribuciones de agregados

Figura 4.4.: Modelo normal bivariante. Funcin de densidad

modo de ejemplo, la funcin de densidad de la normal bivariante resultara:


12 1
f(x1,x2) = 12
(x21+x222x1x2)
1 e
2 1 2

Por lo que se refiere a la representacin del modelo, para el caso bidimensional se


obtendra un grfico como el representado en la figura 4.4.

4.4. Variables aleatorias independientes


Cuando abordamos el estudio conjunto de varias variables aleatorias parece lgico
interrogarnos sobre las ventajas que presenta el anlisis del vector (X1,X2 ,...,Xk)
con respecto al estudio marginal de las variables X1, X2,..., Xk.
La respuesta a este interrogante aparece conectada con el tipo de relaciones existen
tes entre las variables analizadas y resultar por tanto reveladora de las posibilidades
de llevar a cabo posteriores estudios de regresin o modelizaciones causales.
Consideremos a modo de ilustracin una serie de magnitudes econmicas de carcter
aleatorio: X1:Valor aadido bruto del sector industrial, X2:Tipo de inters a lar
go plazo, X3:Recaudacin total del impuesto sobre sociedades, X4:Tasa de paro,
plantendonos su anlisis conjunto. Si el estudio del vector aleatorio (X1,X2,X3,X4)
aporta informacin de la que no dispondramos analizando separadamente las cuatro
caractersticas (esto es, en sus distribuciones marginales) estamos detectando la exis
tencia de interrelaciones entre las magnitudes (por ejemplo, que la evolucin de los
tipos de inters condiciona el VAB industrial, que ste ltimo afecta a la tasa de paro,
etc.). En esta situacin, el hecho de imponer determinadas condiciones a una o varias

132
4. Vectores aleatorios y distribuciones de agregados

de las variables afectar a la distribucin probabilstica de las restantes, resultando


por tanto de inters el planteamiento de estudios condicionados, que -como veremos
en un captulo posterior- aparece muy ligado a los anlisis de regresin.
En definitiva, el objetivo ltimo al que nos enfrentaramos consiste en explicar
o modelizar una caracterstica a partir de las restantes, e incluso llegar a plantear
modelos de ecuaciones simultneas capaces de recoger las interrelaciones existentes
entre el conjunto de magnitudes analizadas.
Si por el contrario llegsemos a la conclusin de que resulta indiferente estudiar las
caractersticas de forma conjunta o marginal, estaramos en situaciones donde el an
lisis conjunto no aporta nada a nuestro estudio, como consecuencia de la no existencia
de interconexiones entre las variables estudiadas. As pues, nos encontraramos an
te caractersticas aleatorias independientes, por lo cual carecera de inters cualquier
anlisis condicionado o intento de modelizacin causal.
La formalizacin del concepto de independencia para el caso bidimensional podra
ser efectuada en los siguientes trminos:
Definicin 4.6. Sea (X, Y) una variable aleatoria bidimensional con funcin de distri
bucin conjunta F(x, y), y sean FX(x), FY (y) las funciones de distribucin marginales
de X e Y respectivamente. En estas condiciones diremos que las variables X e Y son
independientes si se verifica: F(x, y) = FX(x)FY(y), (x, y) 2.

Dado que las variables aleatorias representan sucesos asociados a determinada experiencia alea
toria, el concepto de independencia de variables aparece conectado a la independencia de sucesos.
As, diremos que dos variables aleatorias X e Y son independientes si los sucesos [a < X b] y
[c<Y d] son independientes para cualesquiera valores reales a, b, c, d.

En efecto, para comprobar que estos sucesos son independientes tendramos que probar la siguiente
igualdad:

P(a<Xb,c<Yd)=P(a<Xb)P(c<Yd)
y para ello partimos de la definicin anterior de independencia. Utilizando la funcin de distribucin
conjunta podemos expresar:

P(a<X b,c<Y d) = F(b,d) F(b,c) F(a,d) + F(a,c)=


= FX(b)FY(d) FX(b)FY(c) FX(a)FY(d) + FX(a)FY(c)

donde en la ltima igualdad hemos aplicado la independencia de las v.a., y si ahora sacamos factor
comn se tiene:
P(a<X b,c<Y d) = FX (b)[FY (d) FY(c)] FX (a)[FY (d) FY(c)] =
= [FX(b) FX(a)][FY(d) FY(c)] =
= P(a<Xb)P(c<Yd)

De modo recproco, si se verifica la relacin anterior para cualquier par de sucesos [a<X b],
[c<Y d], entonces se tiene la condicin de independencia enunciada. En efecto, para todo (x, y)
2 bastar considerar los intervalos de tipo (-,x], (,y] y la comprobacin resulta inmediata.

F(x,y) = P( < X x, < Y y) = P( < X x)P( < Y y) = FX(x)FY(y)

133
4. Vectores aleatorios y distribuciones de agregados

La condicin de independencia puede tambin ser recogida mediante expresiones


equivalentes en las que aparecen las funciones de probabilidad o de densidad, segn que
la variable considerada sea discreta o continua. As, diremos que X es independiente
de Y si y slo si se verifica:

p(xi ,yj) = p(xi)p(yj), (xi,yj) 2, para (X, Y) discreta

f(x, y) = fX (x)fY (y), (x, y) 2, para (X, Y ) continua

Para comprobar el resultado discreto, el proceso es similar al desarrollado anterior


mente para intervalos, considerando ahora la probabilidad de un punto.
Por lo que se refiere al caso continuo, se tiene la siguiente expresin:
[
2F(x, y) xFX(x)][ yFY(y)]
f(x,y) = [FX(x)FY(y)] = =
xy
= fX(x)fY(y)

A partir de cualquiera de las definiciones anteriores de independencia podemos demostrar que dos
v.a. son independientes si y slo si las distribuciones marginales y condicionadas coinciden. Aparece
as un nuevo significado de la independencia; X es independiente de Y si su distribucin no se ve
afectada por los hipotticos valores de Y que puedan haberse verificado.

En efecto, teniendo en cuenta la definicin de probabilidad condicionada, para todo xi y para todo
yj con p(yj) > 0 se tiene:
p(xi,yj) = p(xi/yj)p(yj)
y por ser independientes se cumple: p(xi,yj) = p(xi)p(yj). Comparando miembro a miembro las dos
ecuaciones resulta: p(xi ) = p(xi/yj), y esto para todo xi y para todo yj .
[Comprubese que la implicacin en sentido recproco tambin es cierta]

Tambin podemos expresar la independencia entre variables en trminos de la f.g.m., y en este


caso se tiene el siguiente resultado:

Proposicin. Dos variables X e Y son independientes si y slo si M(X,Y)(t1,t2) = MX (t1)MY (t2)

Sin duda, la independencia entre variables aleatorias es un concepto de gran tras


cendencia porque de esta caracterstica se derivan propiedades de inters en el anlisis
conjunto de variables aleatorias.
Antes de pasar a estudiar esas propiedades, conviene comentar que, como conse
cuencia de su definicin, el concepto de independencia entre variables aleatorias es
simtrico. Este rasgo -ya comentado al estudiar la independencia entre sucesos- resul
ta sumamente intuitivo, ya que si la variable aleatoria X es independiente de Y se
cumplir tambin que Y es independiente de X.

134
4. Vectores aleatorios y distribuciones de agregados

Propiedades de la independencia de variables aleatorias


Proposicin 4.1. Dadas X e Y independientes se cumple E(XY) = E(X)E(Y)

Demostracin. La comprobacin de esta propiedad resulta muy sencilla con slo apli
car la condicin de independencia anteriormente vista. As, en el caso de una variable
(X, Y) discreta, si el rango de valores de X es x1,...,xk , y el de Y,y1,...,yh, se tiene:

k
i=1 h k h
E(XY ) = xiyjp(xi ,yj) = xiyjp(xi)p(yj) =
j=1 i=1 j=1
[k ] h
xip(xi)
= yjp(yj) = E(X)E(Y)
i=1 j=1

[Comprobar que la propiedad se cumple en el caso continuo]


Proposicin 4.2. Para todo par de variables X e Y independientes, se cumple
Cov(X,Y )=0 y XY = 0

Demostracin. La comprobacin es inmediata como consecuencia de la propiedad


anterior y de la expresin alternativa de la covarianza: Cov(X,Y) = E(XY)
E(X)E(Y ).
[Comprobar que en este caso XY = 0]
Proposicin 4.3. Dadas X e Y independientes, se cumple Var(X+Y) = Var(X)+
Var(Y)

Demostracin. La demostracin se efecta desarrollando la expresin de la varianza


de la suma:

Var(X + Y) = E [(X + Y) E(X + Y]2 = E [(X E(X)) + (Y E(Y))]2 =


= E(X E(X))2 + E(Y E(Y))2 + 2E [(X E(X))(Y E(Y))] =
= Var(X) + Var(Y )+2Cov(X, Y)

y aplicando ahora la propiedad anterior de covarianza nula, se tiene:

Var(X + Y) = Var(X) + Var(Y)

[Comprobar que para la diferencia de v.a. independientes se obtendra de modo


similar: Var(X Y) =
Una generalizacin deVar(X) + Var(Y)]
la propiedad anterior puede establecerse tal y como sigue:

Proposicin 4.4. Dadas X e Y independientes, se cumple para cualesquiera a y b


reales:

Var(aX + bY) = a2Var(X) + b2Var(Y)

135
4. Vectores aleatorios y distribuciones de agregados

Demostracin. Para comprobar esta propiedad basta desarrollar la varianza de la


combinacin lineal hasta obtener:

Var(aX + bY) = a2Var(X) + b2Var(Y )+2abCov(X, Y)

Puede comprobarse fcilmente que la varianza de la diferencia se corresponde con


el caso particular de esta expresin cuando a = 1, b = 1
Proposicin 4.5. Para todo par de variables independientes X e Y y para cuales
quiera f y g funciones medibles-Borel de esas variables, se cumple que las variables
aleatorias f(X) y g(Y) son tambin independientes.

Demostracin. En efecto, se tiene:

{ }
P{f(X) x, g(Y ) y} = P {X f1(,x],Y g1(,y] = }
= P Xf1(,x]} P {Yg1(,y] =
= P{f(X) x}P{g(Y) y}

desarrollo que puede efectuarse por ser f y g funciones medibles-Borel.


Proposicin 4.6. Si X e Y son dos variables aleatorias independientes se verifica:

MX+Y(t) = MX(t)MY(t)
siendo MX(t), MY(t) y MX+Y(t) las funciones generatrices de momentos de X, de
Y y de su suma respectivamente.

Esta propiedad es un caso particular de la condicin de independencia enunciada anteriormente en


trminos de la funcin generatriz de momentos k-dimensional, pues se tiene: MX+Y (t) = M(X,Y ) (t, t).
Se trata de la particularizacin t1 = t y t2 = t, que es una condicin necesaria de la independencia
pero no suficiente.

Demostracin. En la comprobacin de esta propiedad utilizamos la anterior, ya que


si X e Y son v.a. independientes tambin lo sern sus funciones etX y etY:

etX etY
MX+Y(t) = E [et(X+Y)] = E (etXetY ) = E ( ) E ( ) = MX(t)MY(t)

Hemos visto que cuando dos variables son independientes entonces son incorreladas.
La implicacin simtrica no es cierta en general, pero sin embargo se verifica:
Proposicin 4.7. Si X e Y son variables aleatorias normales e incorreladas, entonces
son independientes.

136
4. Vectores aleatorios y distribuciones de agregados

Demostracin. Supongamos X N(1,1) e Y N(2,2) . La funcin generatriz


de momentos de estas variables vienen dadas por:
1 t2 2 1 t2 2
MX (t1 ) = et1 1 2 1 1 ; MY (t2 ) = et2 2 2 2 2

Por otra parte, en el apartado anterior hemos visto la expresin de la f.g.m. para
el modelo normal multivariante, que en el caso particular bivariante (k = 2) vendr
dada por:
M(X,Y )(t1,t2) = et11+t22+12(t2121+t2222+2t1t212)

Si las variables son incorreladas 12 = 0 y en consecuencia esta funcin puede


expresarse como:

M(X,Y)(t1,t2) = et11+12(t2121)et22+12(t2222) = MX(t1)MY(t2)

4.4.1. Reproductividad
Adems de las propiedades anteriores, algunos modelos probabilsticos cumplen la
propiedad denominada reproductividad que resulta muy intuitiva y de gran inters
prctico. A grandes rasgos esta propiedad garantiza que, dadas dos variables aleatorias
independientes distribuidas segn cierto modelo, la variable suma sigue tambin ese
modelo probabilstico.
A modo de ilustracin de esta propiedad, consideremos que un individuo apuesta al
resultado sacar 2 en 3 lanzamientos sucesivos de un dado. Como hemos estudiado en
un captulo anterior, la variable aleatoria que recoge el nmero de xitos viene descrita
por un modelo binomial con parmetros n = 3 y p = 16.
Si consideramos ahora que un amigo del individuo anterior realiza la misma apuesta
para 5 lanzamientos sucesivos de dado, qu podramos afirmar sobre el nmero de
xitos conseguidos por los dos amigos? La respuesta es que se tiene ahora la suma de
dos variables independientes (los resultados del primer individuo no afectarn a los
obtenidos por su amigo) y con p = 16 constante, por lo cual la variable nmero total
de xitos tambin ser binomial, en este caso con parmetros n = 8 y p = 16.

Definicin 4.7. Dada una familia de variables aleatorias se dice que sta es repro
ductiva si y slo si para todo par de variables aleatorias independientes X1,X2
se cumple X1,+X2 .

Este enunciado genrico del requisito de reproductividad es aplicable a muchos


de los modelos estudiados con anterioridad. Gracias a la reproductividad, podemos
garantizar que la suma de variables aleatorias independientes distribuidas segn cierto
modelo sigue ese mismo modelo, presentando adems parmetros relacionados con los
de las variables iniciales. Dicho con otras palabras, un modelo reproductivo, permite

137
4. Vectores aleatorios y distribuciones de agregados

reproducirse dentro de l; es cerrado para la operacin de sumar siempre que las


variables sean independientes.
La reproductividad es un concepto relativo; si la familia depende de un vector de
parmetros v, puede ser reproductiva respecto a algunas componentes de este vector
y no serlo respecto de otras.
Tal y como recoge la tabla 4.1, los modelos binomial, binomial negativo, normal,
Poisson y gamma son reproductivos, pudiendo expresarse formalmente esta propiedad
en los siguientes trminos:
Proposicin 4.8. Si X e Y son variables aleatorias independientes que siguen distri
buciones binomiales B(nX,p) y B(nY,p) respectivamente, entonces la variable suma
X + Y tambin sigue una distribucin binomial B(nX + nY,p).

Demostracin. La comprobacin de la reproductividad binomial se efecta a partir


de la funcin generatriz de momentos:
E(etX)E(etY) =
MX+Y(t) = E [et(X+Y)] = E (etXetY ) = nX+nY
(etp+q )nX (etp+q )nY = (etp+
= q)

correspondiendo esta ltima expresin a la funcin generatriz de momentos de una


variable binomial B(nX + nY,p).
Proposicin 4.9. Si X e Y son variables aleatorias independientes que siguen dis
tribuciones binomiales negativas BN(rX,p) y BN(rY,p) respectivamente, entonces la
variable suma X+Y tambin sigue una distribucin binomial negativa BN(rX+nY,p).

Demostracin. La comprobacin se lleva a cabo de modo similar al modelo anterior,


partiendo de la expresin de la funcin generatriz de momentos para una distribucin
binomial negativa X BN(r, p):
etp
)r
MX(t)= ( etp

[Comprubese que, aplicando esta propiedad1 en el caso particular r = 1, es posible


obtener una distribucin binomial negativa X BN(r, p) como suma de r variables
aleatorias independientes, cada una de ellas con distribucin geomtrica G(p)]
Proposicin 4.10. Si X e Y son variables aleatorias independientes que siguen dis
tribuciones normales N(X,X) y N(Y,Y) respectivamente, entonces la variable
suma X + Y tambin sigue una distribucin normal .

[Comprobar, a partir de la funcin generatriz de momentos, que el modelo normal


es reproductivo respecto a las caractersticas esperanza y varianza]

En el caso particular de que las distribuciones iniciales de X e Y se encuentren estandarizadas,


)
puede verse fcilmente que la suma X + Y seguir un modelo N (0, 2 .

138
4. Vectores aleatorios y distribuciones de agregados

Tabla 4.1.: Modelos y reproductividad

V.A. independientes Variable Suma Modelo Reproductiviad


X B(nX ,p) X + Y B(nX + nY,p) Binomial respectoan
Y B(nY ,p) (pconstante)
X BN(rX,p) X + Y BN(rX + rY,p) Binomial respectoar
Y BN(rY,p) X + Y, Negativa respecto
(pconstante)
X N(X ,X ) Normal a
X+Y N( 2X+2Y ) y2
YX N(
P(
Y ,Y )
X) X + Y P(X + Y) Poisson respecto a
Y P(Y )
X (pX,a) X + Y (pX + pY ,a) Gamma respecto a p
Y (pY,a)

Proposicin 4.11. Si X e Y son variables aleatorias independientes que siguen dis


tribuciones de Poisson P(X) y P(Y) respectivamente, entonces la variable suma
X + Y tambin sigue una distribucin de Poisson P(X + Y).
Si X e Y son variables aleatorias independientes que siguen distribuciones gamma
(pX ,a) y (pY ,a) respectivamente, entonces la variable suma X + Y tambin sigue
una distribucin gamma (pX + pY ,a).

Hasta ahora hemos abordado la independencia y sus propiedades en el caso bidimensional. Sin
embargo, cabe extender este concepto al caso k-dimensional en los siguientes trminos:

Definicin. Se dice que las variables X1,X2,...,Xk son independientes si y slo si se cumple:
k
F(x1,x2...,xk) = FXi(xi), (x1,x2,...,xk) k

i=1

donde F(x1 ,x2 ...,xk) es la funcin de distribucin de la variable k-dimensional y FXi (xi ) la funcin
de distribucin marginal de la variable unidimensional Xi, (i = 1,2,...,k).

De la misma forma pueden establecerse las equivalencias de independencia k-dimensional en tr


minos de la funcin de probabilidad, funcin de densidad o funcin generatriz de momentos.

Todas las propiedades anteriores pueden generalizarse al caso k-dimensional con la nica dificultad
derivada del cambio de notacin.

A partir de este concepto de independencia pueden efectuarse las siguientes afirmaciones:

Si X1,X2,...,Xk son variables unidimensionales e independientes, entonces toda subcoleccin


de X1,X2,...,Xk es tambin una coleccin de variables aleatorias independientes.

Si x = (X1,X2 ,...,Xk) e y = (Y1,Y2 ,...,Yh) son dos vectores aleatorios independientes,


entonces la variable aleatoria unidimensional Xi y la variable aleatoria unidimensional Yj
(componentes i-simo y j-simo de los vectores x e y respectivamente) son variables aleatorias
independientes.

139
4. Vectores aleatorios y distribuciones de agregados

Si x = (X1,X2 ,...,Xk) e y = (Y1,Y2 ,...,Yh) son dos vectores aleatorios independientes,


y f(x) y g(y) son funciones medibles-Borel de los vectores aleatorios, entonces los vectores
f(x) = f(X1,X2,...,Xk) y f(y) = f(Y1,Y2 ,...,Yh) son independientes.

4.5. Agregacin de variables aleatorias


Son numerosos los ejemplos de magnitudes econmicas que se obtienen a partir
de variables individuales. En algunos casos, la nueva variable se obtiene como suma
de las iniciales (la demanda agregada de un bien, por ejemplo) y en otras ocasiones
como promedio, generalmente una media aritmtica simple (el nmero anual medio
de parados en cierto sector econmico), si bien en ocasiones se calcula tambin una
media ponderada (ndices de precios o de produccin).
Obsrvese que en estos casos el planteamiento es distinto al de epgrafes anteriores:
hasta ahora nos ocupbamos de analizar conjuntamente k caractersticas mediante
un vector k-dimensional mientras que en este apartado nuestro objetivo consiste en
estudiar una caracterstica aleatoria sobre n unidades (hogares, empresas, pases,...).
Obtendremos as una sucesin de variables aleatorias X1,X2,...,Xn que podemos
identificar con un vector n-dimensional, a partir del cual podemos definir nuevas ex
presiones aleatorias.
Dadas las variables aleatorias unidimensionales X1,X2,...,Xn es posible definir a
partir de las mismas las siguientes expresiones aleatorias:
n
Suma o valor total: Sn = Xi
i=1
n
Xi
Media o valor medio: Xn = i=1
n
n
Media ponderada XW = wiXi con pesos o ponderaciones wi constantes,
ni=1wi=1 i=1
0<wi<1y

Nos planteamos ahora el estudio de estas nuevas magnitudes aleatorias para lo cual
analizaremos en primer lugar sus caractersticas esperanza y varianza.
Consideremos el vector aleatorio (X1,X2,...,Xn), con vector de esperanzas y ma
triz de varianzas-covarianzas finitos. Entonces las caractersticas de las magnitudes
aleatorias suma, media y media ponderada pueden ser obtenidas a partir de las co-
rrespondientes caractersticas del vector n-dimensional.
As, las esperanzas vendran dadas por las siguientes expresiones:
(n ) n n
E(Sn) = E Xi = E(Xi) = i
i=1 i=1 i=1

140
4. Vectores aleatorios y distribuciones de agregados

)=E (ni=1Xin ) =1nni=1i


E (Xn

(n ) n wii
E (XW ) = E wi Xi =
i=1 i=1
en cuya obtencin hemos aplicado nicamente las propiedades de la esperanza como
operador lineal.
Por su parte, para las varianzas se obtiene:

n n Var(Xi) + n Cov(Xi,Xj) = n 2i + n ij
Var(Sn) = Var ( Xi) =
i=1 i=1 i=j i=1 i=j

expresin que, asumiendo el supuesto de independencia entre las variables podra


escribirse como:
n
Var(Sn) = 2i
i=1

(obsrvese que bastara con que las variables fuesen independientes dos a dos, ya
que en ese caso se cumplira ij = 0, i = j = 1,2,...n).
Aplicando el mismo razonamiento a las expresiones de la media simple y ponderada
se obtendra, bajo el supuesto de independencia:
= 1n2ni=12i; Var ( n
Var (Xn ) XW ) = w2i2i
i=1

[Comprubense estos resultados]


Aunque en algunas ocasiones nos podra interesar tan slo conocer las caractersticas
de una magnitud agregada, en general nuestro objetivo ser ms amplio, ya que nos
interesar obtener probabilidades referidas a esos agregados o incluso, si es posible,
determinar por completo su distribucin de probabilidad.
La cuantificacin o aproximacin de probabilidades relativas a agregados depender
del nivel de informacin disponible en cada situacin. Comenzando por el caso ms
favorable, podemos considerar como primera posibilidad aqulla en que las variables
individuales Xi son independientes y distribuidas segn cierto modelo probabilstico
reproductivo. Bajo estos supuestos, es posible determinar con exactitud el modelo
probabilstico de la suma o la media, as como los correspondientes parmetros.

A modo de ejemplo, si se consideran n variables aleatorias independientes Xi N(i,i) las


distribuciones de los agregados suma y media seran respectivamente:

141
4. Vectores aleatorios y distribuciones de agregados

lo que permitira el clculo exacto de probabilidades.

Es necesario tener presente que la propiedad de reproductividad se reere a la suma de variables,


por lo cual no permite efectuar armaciones sobre el modelo probabilstico de la media ponderada.
As, el hecho de que X, se distribuya segn un modelo binomial o de Poisson no permite armar que
la expresin w,-X,- se adapte a dichos modelos.
Como caso particular, para el modelo normal s podra garantizarse bajo el supuesto de indepen
dencia:

X, % N(/L,,O,) => U),X, % N(LU,/L,,LU,O,) => % N w,u,, )


i:1 i:1

En general no dispondremos de informacin exacta sobre la distribucin de las va


riables individuales X,-, por lo cual deberemos conformarnos con aproximaciones a las
probabilidades. Ms concretamente, siempre que el vector n-dimensional tenga carac
tersticas nitas conocidas (esperanzas y matriz de varianzas-covarianzas) es posible
obtener acotaciones de las probabilidades mediante la desigualdad de Chebyshev que
aplicada respectivamente a las magnitudes suma, media y media ponderada da lugar
a las expresiones que siguen:

P(lXii-E(Xn)l
P(lSTLE(SW)l z2)s) ss
PUXW-Evunl

Si sustituimos ahora las expresiones de estas magnitudes y sus correspondientes


valores esperados y asumimos adems la hiptesis de independencia, se tiene:
TL

P<jX,-/vj2)
i:1 i:1
i /\

l)?
-

TL

M

= o?
TL TL
E, /\| F0
[O
|
g/

142
4. Vectores aleatorios y distribuciones de agregados

n
P (ni=1wiXini=1wii i=1w2i2i


)
2
Tal y como hemos visto al enunciar la desigualdad de Chebyshev para una variable
individual, a partir de las desigualdades anteriores es posible obtener formulaciones
alternativas donde la cota sea proporcional a la desviacin estndar y/o pasando a
los complementarios.

Un caso particular de inters sera que las variables aleatorias X1,X2,...,Xn fueran
independientes e identicamente distribuidas. Se obtendra entonces para cualquier i:
E(Xi ) = y Var(Xi) = 2, caractersticas que conducen a las siguientes expresiones
para la esperanza, la varianza y la cota de Chebyshev de las magnitudes suma, la
media simple y ponderada:

Magnitud Esperanza Varianza Acotacin Chebyshev


Suma E(Sn) = n Var(Sn) = n2 P (|Sn n| ) n2
2
2n P (Xn
Media E(Xn) = Var(Xn) = ) 2n2

2
Media E(XW) = Var (XW ) = 2 ni=1 w2i P (XW ni=1 w2
) i
ponderada 2

Son numerosas las magnitudes econmicas generadas mediante procesos aditivos


como las anteriormente analizadas (sumas, promedios, medias ponderadas). Sin em
bargo, es tambin posible encontrar ciertas caractersticas originadas mediante proce
sos multiplicativos que, aunque menos frecuentes, resultan interesantes en el mbito
econmico.
As, en los modelos de mercados empresariales se asume en ocasiones la presencia
de mltiples factores cuya interrelacin origina un efecto final. Se tratara por tanto
de expresiones multiplicativas del tipo , en las que el efecto de cada variable interacta
con los restantes factores.

Este tipo de esquema de composicin fue investigado por autores como Gibrat
(1931), quien en sus estudios sobre ingresos supona que los valores de estas varia
bles se hallan afectados por gran cantidad de factores aleatorios independientes, de
varianza finita, que operan de modo multiplicativo y no aditivo. Esta propiedad se
conoce como ley del efecto proporcional y bajo dicha ley la aplicacin del teorema
central del lmite a los logaritmos de los elementos aleatorios conduce, en el lmite, a
una distribucin logartmo normal.

Sean n variables aleatorias unidimensionales X1,X2,...,Xn, independientes con


esperanza i y varianza 2i para i = 1,...,n. Entonces se tiene:

143
4. Vectores aleatorios y distribuciones de agregados

n
) i=1 E(Xi)
n = n
E (i=1 Xi = i
i=1
n Xi n n E2(Xi) = n E ( n
Var ( ) = E ( X2i) X2i) E2(Xi)
i=1 i=1 i=1 i=1 i=1

si las variables tienen igual esperanza e igual varianza marginal, resulta:


(n ) (n )
E n;
X = i
Var X = n2 2n
i
i=1 i=1

4.6. Teoremas lmites


Los teoremas lmites son considerados como los resultados tericos ms trascenden
tales de la teora de la probabilidad. Bajo este epgrafe se incluyen dos tipos distintos
de resultados: las leyes de los grandes nmeros y el teorema central del lmite.
Las leyes de los grandes nmeros hacen referencia a las condiciones bajo las cuales
la media de una sucesin de variables aleatorias converge en algn sentido a la media
poblacional. La importancia de estas leyes se debe a que justifican tericamente el
concepto frecuencialista de probabilidad y son de aplicacin generalizada en inferencia
estadstica, cuando estudiamos muestras de tamao elevado.
El teorema central del lmite, por su parte, va referido a las condiciones bajo las
cuales la suma de un nmero elevado de variables aleatorias tiene una distribucin de
probabilidad que es aproximadamente normal.
Los teoremas lmites suponen una nueva etapa en nuestra aproximacin a la distri
bucin de los agregados econmicos. Tal y como ilustra la figura 4.5, las situaciones
estudiadas hasta el momento se corresponderan con dos casos extremos: el primero
sera un conocimiento perfecto de la distribucin (gracias, por ejemplo, a la aplicacin
de la reproductividad a cada una de las variables aleatorias que intervienen en el agre
gado) mientras que el extremo opuesto se correspondera con situaciones donde slo
es aplicable la acotacin de probabilidades mediante la desigualdad de Chebyshev.
Como su propia denominacin indica, los teoremas lmites permiten establecer conclusiones re-
feridas a los comportamientos asintticos de sucesiones de variables aleatorias, por lo cual resulta
interesante concretar el concepto de convergencia con el que estamos trabajando.
Cuando consideramos una sucesin numrica {xn} convergente a un valor x0, el concepto de
lmite es unvoco. Pero cuando consideramos una sucesin de v.a. {Xn} cada elemento de la sucesin
presenta cierta aleatoriedad y converge a otra variable X0 que tambin es aleatoria, por lo cual el
concepto de convergencia admitir diversos planteamientos segn dnde pongamos el nfasis. As
podemos considerar la incertidumbre asociada a la convergencia numrica (Plim: probabilidad del
lmite) o bien el lmite de las discrepancias aleatorias (LimP: lmite de la probabilidad); tambin
podemos considerar las convergencias de los modelos de probabilidad de Xn al de X0 o considerar la
convergencia en promedio de las desviaciones de cualquier orden.

144
4. Vectores aleatorios y distribuciones de agregados

Figura 4.5.: Probabilidades de Agregados

Las afirmaciones ms fuertes que podemos llegar a efectuar responden al concepto de convergencia
fuerte o casi-segura (c.s.) que se define en los siguientes trminos:

Definicin 4.8. Se dice que la sucesin {Xn} converge a X casi-seguro, lo que representamos por
Xn c.s.
Xo , si y slo si P(lmn Xn = X)=1 o bien > 0, n0 tal que n>n0 , entonces:

P(|Xn X| > ) = P({w E/|Xn(x) X(w)| > })=0

Por su parte, la convergencia en probabilidad (P) -denominada habitualmente dbil en contrapo


sicin a la anterior- se define como sigue:
Definicin 4.9. Se dice que la sucesin {Xn} converge a X en probabilidad, Xn p Xo, si y slo
si:
lm P(|Xn X| )=0
> 0, n

o bien: > 0 y > 0, n0 tal que n>n0 , entonces:

P(|Xn X| ) =P({wE/|Xn(w)X(w) ) <

En el primer tipo de convergencia estamos garantizando que en el lmite ambas variables coinciden
salvo a lo sumo en un conjunto de probabilidad nula; intuitivamente, para un n suficientemente
grande, la probabilidad de que Xn diste de de la variable lmite ms de cierto nmero es nula, esto
es, Xn coincide casi-seguro con X. Con otras palabras, la convergencia casi-segura (que tambin se
puede denominar convergencia con probabilidad uno) nos indica que para casi todos los resultados
elementales (w E) se verifica:

lm Xn (w)
n = X(w)
si denotamos por E E el conjunto de resultados para los que se verifica el lmite anterior, se tiene
que P(E)=1; el complementario podra no ser vaco pero su probabilidad es nula.

En el segundo tipo de convergencia garantizamos que el lmite de la probabilidad de los conjuntos


de discrepancia es nulo; de nuevo de forma intuitiva, fijada una constante arbitraria, podemos

145
4. Vectores aleatorios y distribuciones de agregados

encontrar un n suficientemente grande, tal que la probabilidad de que Xn diste de la variable lmite
ms de cierto nmero es menor que la constante prefijada.
Otra forma de expresar esta convergencia sera:

lm P(|Xn X| < )=1


>0, n

lo cual quiere decir que si denotamos por En E el conjunto de resultados donde |Xn (w)X(w)| < ,
se tiene:

lm P(En )=1
n

La convergencia en promedio podemos enunciarla como sigue:

Definicin 4.10. Dada una sucesin de v.a. {Xn} se dice que converge en media r-sima a la
variable X si:

lm
n
E[|Xn X|r ]=0

Los dos valores de r ms utilizados son 1 y 2. Cuando r = 1, decimos que la convergencia es en


media y cuando r = 2 se denomina convergencia en media cuadrtica.

Proposicin 4.12. Si la sucesin Xn converge en media cuadrtica a X entonces tambin


converge en probabilidad.

Demostracin. En efecto, teniendo en cuenta la desigualdad de Chebyshev podemos expresar:


P(|Xn X| ) E(XnX)22

por tanto:

lm P(|Xn
n X| ) n
lm E(XnX)22

Si se verifica la convergencia cuadrtica el segundo miembro es cero; entonces se tiene:

lm P(|XnX|
n )0

y como la probabilidad no puede ser negativa ese lmite tiene que ser nulo y por tanto {Xn} converge
en probabilidad a X.

En principio no podemos establecer implicaciones entre la convergencia en media cuadrtica y la


convergencia casi-segura salvo que aadamos alguna hiptesis adicional.

Por ltimo la convergencia entre los modelos de probabilidad, que denominamos en ley (L) o
distribucin y representamos Xn L X podemos expresarla como sigue:

Definicin 4.11. Se dice que una sucesin de v.a. {Xn}, cuyas funciones de distribucin repre
sentamos por Fn, converge en ley o distribucin a otra v.a. X, con f.d. F, si:

lm Fn(x)
n = F(x), x
donde F es continua.

146
4. Vectores aleatorios y distribuciones de agregados

Figura 4.6.: Relacin entre convergencias

La convergencia en distribucin puede expresarse en trminos de la funcin generatriz de momentos


(el criterio habitualmente utilizado para analizar esta convergencia). La convergencia en probabilidad
implica la convergencia en ley.

Ya hemos estudiado algunos modelos entre los cuales podemos establecer una convergencia en ley.
As, el modelo binomial converge al modelo de Poisson. Tendramos que demostrar que la funcin de
distribucin binomial
discretas, para todo xconverge
, sus a laf.d.
funcin de distribucin
constan de Poisson.
de los mismos sumandosPor
ser ambas distribuciones
xix p(xi ) y ya hemos
demostrado al estudiar estas distribuciones la convergencia de cada sumando de la binomial a la de
Poisson, con lo cual se verifica la convergencia enunciada.
De modo similar, la distribucin hipergeomtrica converge en ley a la distribucin binomial.

A modo de sntesis, en la figura 4.6 recogemos la relacin entre los distintos tipos de convergencia:

4.6.1. Leyes de los grandes nmeros


Las leyes de los grandes nmeros resultan de gran inters, ya que justifican la con
cepcin frecuentista de la probabilidad y avalan la utilizacin de la media muestral
como aproximacin del valor esperado de una poblacin.

Teorema 4.1. Sea {Xn} una sucesin de variables aleatorias independientes e idnticamente
distribuidas (i.i.d.), con E(Xi ) = y Var(Xi) = 2. Si definimos la variable media

Xn = X1+X2++Xn
n
entonces se cumple: Xn P .
Esto es, para cualquier > 0 se cumple:
( ) =0
lm P Xn
n

147
4. Vectores aleatorios y distribuciones de agregados

Este enunciado se denomina habitualmente ley dbil de los grandes nmeros, dado que se trata de
una convergencia dbil o en probabilidad. (En el enunciado anterior puede sustituirse por su equiva
lente ).

Demostracin. La comprobacin de este enunciado puede llevarse a cabo a partir de la desigualdad


de Chebyshev, asumiendo que las variables tienen una varianza finita 2. En ese caso, la aplicacin
de la desigualdad de Chebyshev a la media proporciona la expresin:
( )
X1+X2++Xnn 2n2
P

a partir de la cual, con slo tomar lmites, se llega al resultado enunciado.

La primera demostracin de la ley de los grandes nmeros aparece recogida en la obra Ars
Conjectandi de Jacob Bernoulli (1832). Este autor demostr la ley para el caso particular de variables
dicotmicas:

Corolario. Supongamos que se realizan n pruebas independientes de un experimento aleatorio en


el que se observa el suceso A. Si denotamos por f(A) la frecuencia relativa de este suceso y por
p = P(A) su probabilidad, que se asume constante a lo largo de las n pruebas, se cumple: f(A) P p;
esto es, para cualquier > 0:

lmnP(|fn(A)p|)=0

El enunciado de esta propiedad es equivalente a considerar una sucesin {Xn} de pruebas inde
pendientes de Bernoulli, con probabilidad de xito constante. La suma de estas variables indica el
nmero de xitos en las n pruebas y si calculamos la media reflejaremos la frecuencia relativa del
xito o suceso A:
X =X1+X2++Xn
n
n = f(A)
y por otra parte E(Xi ) = = p. As pues, la expresin de la ley dbil de los grandes nmeros nos
conduce al enunciado de esta propiedad.
Dado que dicha prueba es anterior a la desigualdad de Chebyshev, Bernoulli necesit una meto
dologa muy ingeniosa para llegar a su demostracin de la ley.

El enunciado anterior puede ser generalizado al caso en que no se verifique la igualdad de esperanzas
y varianzas.

Teorema 4.2. Sea {Xn} una sucesin de variables aleatorias independientes con E(Xi ) = i y
Var(Xi) = 2i. Si definimos la media de estas variables
n n
Xi i
Xn = n
i=1 y= i=1
n
entonces se cumple Xn P
.

Demostracin. La comprobacin de este enunciado puede ser efectuada aplicando la desigualdad


de Chebyshev a la sucesin de medias, teniendo en cuenta que E (Xn) = y

1n2 n 2
Var (Xn ) = 1n2 [Var(X1) + Var(X2) + + Var(Xn)] = 2i
n
i=1

148
4. Vectores aleatorios y distribuciones de agregados

donde 2 = mxi{2i}.

En los enunciados anteriores hay una circunstancia que nos puede llamar la atencin, y es el hecho
de que para asegurar la convergencia de la media debamos establecer una hiptesis sobre un momento
de orden superior (varianza). En este sentido, una demostracin general de la ley dbil de los grandes
nmeros fue establecida por el matemtico ruso Khintchine (1929). Adems de l, numerosos autores
contribuyeron a la generalizacin de estas leyes, entre ellos Laplace, Chebyshev, Kolmogorov, Levy,
Cramer, Gnedenko y Feller.

Adems de la ley dbil enunciada, que hace referencia a la convergencia en probabilidad, existen
leyes fuertes de los grandes nmeros, referidas a la convergencia casi-segura. Entre ellas, el enunciado
ms simple es el siguiente:

Teorema 4.3. Sea {Xn} una sucesin de variables aleatorias independientes e idnticamente
distribuidas, con la misma esperanza y varianza y 2 respectivamente, finitas. Entonces se verifica:
Xn c.s. .

Este enunciado fue generalizado por Kolmogorov en dos sentidos: para el caso de sumas infinitas
y para la convergencia a cualquier constante C.

4.6.2. Teorema central del lmite


Como su propio nombre indica, el Teorema central del lmite (TCL) ocupa un papel
central en estadstica. A grandes rasgos, este postulado garantiza que la suma de
un nmero elevado de variables aleatorias independientes presenta una distribucin
aproximadamente normal; por tanto su aportacin es doble: en primer lugar, permite
el clculo aproximado de probabilidades para tamaos elevados de muestra y adems
de ello proporciona una explicacin a la generalidad con la que aparecen distribuciones
campaniformes -aproximadamente normales- en los estudios empricos.
Una de las formulaciones ms sencillas del teorema central del lmite es la versin
de Levy-Lindeberg, que puede ser expresada en los siguientes trminos:

Teorema 4.4. Sea {Xn} una sucesin de n variables aleatorias independientes e


idnticamente distribuidas, con E(Xi ) = y Var(Xi) = 2 finitas y consideremos la
suma de estas variables
n
Sn= Xi
i=1

Entonces se cumple:
Sn L )
N (n, n
o equivalentemente
Snn
L
n N(0,1)

149
4. Vectores aleatorios y distribuciones de agregados

Figura 4.7.: Interpretacin TCL

En trminos generales, este teorema garantiza que la variable aleatoria definida


como suma o como media de una sucesin de variables independientes e idnticamente
distribuidas X1,X2,...,Xn presenta una forma que se aproxima al modelo normal
a medida que el tamao de muestra aumenta. En general, dicha aproximacin se
considera vlida para tamaos muestrales superiores a n = 30.
La interpretacin del teorema central del lmite, que aparece ilustrada por la figu
ra 4.7, puede ser efectuada en los siguientes trminos: si se produce una actuacin
conjunta de numerosas causas individuales independientes entre s, con distribucin
idntica y escaso peso cada una de ellas, entonces el efecto total de estas causas es
aproximadamente normal.
El teorema central del lmite puede tambin ser aplicado a la media de las observa
n
ni=1Xi , con el siguiente enunciado:
ciones Xn =

Teorema 4.5. Dada una sucesin {Xn} de v.a. independientes e idnticamente dis
tribuidas, con E(Xi ) = y Var(Xi) = 2 finitas, entonces se cumple:
( )
L ,n
Xn N

o equivalentemente
Xnn
L
considerndose estas aproximaciones vlidas N(0,1)
para n > 30.

La demostracin de este teorema, que no vamos a realizar, puede ser efectuada en


trminos de la funcin generatriz de momentos.

La primera versin del TCL fue establecida por Abraham De Moivre (1667-1754)
para variables de Bernoulli.

150
4. Vectores aleatorios y distribuciones de agregados

Teorema 4.6. Si {Xn} es una sucesin de v.a. de Bernoulli de parmetro p e inde


pendientes, se verifica:
n
Xi np i=1
npq L
Demostracin. La comprobacin de
este resultado
N(0,1)
es inmediata a partir del enunciado

del TCL anterior, pues bastara tener en cuenta que


n Xi n n Xi n Var(Xi) = npq
E( )= E(Xi ) = np y Var ( )=
i=1 i=1 i=1 i=1

Corolario 4.1. Como conclusin de este resultado se tiene que la distribucin binomial B(n,p)
converge a la normal N (np, npq)
.
Demostracin. Bastara tener en cuenta que la suma de n v.a. independientes de Bernoulli de
parmetro p es una binomial, B(n,p). En efecto, sean X1,X2,...,Xn, v.a. independientes B(p),
etp + q)
entonces la f.g.m de cada una de ellas ser: MXi (t) = ( .
La f.g.m. de la suma ser:
n
Mni=1 Xi (t) = (etp + q )n
MXi (t)=(MXi (t))n =
i=1
que es la f.g.m. de una binomial B(n,p).
Por tanto, en el enunciado de De Moivre sustituyendo la suma de Bernoulli por la correspondiente
binomial, obtendremos la propiedad enunciada.

Laplace generaliz el enunciado dado por De Moivre, para el caso de variables discretas y si
mtricas. Paul Levy lo extendi a v.a. independientes idnticamente distribuidas con momentos de
segundo orden finitos.

Corolario 4.2. Para valores elevados de la distribucin de Poisson P() converge a la normal
.

Demostracin. De modo intuitivo, la justificacin podra efectuarse en los siguientes trminos:


consideremos n v.a. independientes, X1,X2 ,...,Xn, distribuidas segn un modelo de Poisson de
parmetro Var(Xi) =
n
. Se verifica entonces E(Xi ) = n y n
.
Al ser la distribucin de Poisson reproductiva y las variables X1,X2,...,Xn independientes, se
tiene para la suma:

n+n++n ) =P()
SnP (

Por otra parte, se trata de una sucesin de v.a. i.i.d. con esperanza y varianza finitas; por tan
to en virtud del TCL su suma Sn converge a una normal con media E(Sn) y varianza Var(Sn),
caractersticas que vienen dadas por las expresiones:

151
4. Vectores aleatorios y distribuciones de agregados

n Xi n Xi n
i=1
= nn = ; Var(Sn) = Var ( Var(Xi) = nn =
E(Sn) = E ( ) )=
i=1 i=1

As pues, se cumple para tamaos suficientemente elevados de n:


( )
Sn LN
,
con lo cual la distribucin de Poisson puede ser aproximada por el modelo normal, siendo adecuada
dicha aproximacin para valores elevados del parmetro .

La demostracin se llevara a cabo de forma anloga para cualquier otra distribucin que sea
reproductiva.

Lvvich Chebyshev (1821-1894) y Andrei A. Markov (1856-1922), ambos autores pertenecientes a


la escuela rusa de San Petersburgo, establecieron la validez del teorema central del lmite en condi
ciones ms generales, como la alteracin del supuesto de independencia. M.A. Liapunov (1857-1918)
estableci una condicin suficiente para que se produzca una convergencia a la normal aunque las
variables Xi no tengan idntica distribucin.
Lindeberg dio en 1922 unas condiciones suficientes para la validez del teorema y William Feller en
1935 demostr en cierto sentido la necesidad de tales condiciones.

Como hemos visto, el teorema central del lmite resulta aplicable a las magnitudes
originadas mediante agregacin de variables individuales. Este sera por ejemplo el
caso de los errores de distinta ndole, que se superponen hasta dar lugar al error total
observado en un estudio, para el cual se obtienen habitualmente representaciones
campaniformes aproximadamente normales.
Cabe por ltimo sealar que, en el caso de que el teorema central del lmite sea
aplicado a variables aleatorias discretas, se plantean dudas sobre el valor puntual a
partir del cual debe ser efectuada la aproximacin. Para solucionar este inconveniente
se introduce la correccin de continuidad, consistente en calcular la probabilidad sobre
el valor medio de dos observaciones consecutivas de la variable.

En efecto, la aplicacin del TCL podr dar lugar a resultados distintos segn el
punto a partir del cual se cuantifique la probabilidad. As, la probabilidad P(X>xi )
podra ser tambin planteada como P(X xi+1), expresin que conducira a un
resultado inferior al anterior.
Para resolver este problema, se introduce la correccin de continuidad, consistente
en enunciar las dos alternativas para la probabilidad buscada, adoptando finalmente
como aproximacin la correspondiente al valor intermedio,
x= xi + xi1
2
que no pertenecer al recorrido de la variable discreta.
Se tendra entonces como aproximacin P(X x) tanto si la probabilidad ini
i
cialmente enunciada es P(X > xi ) como si sta fuese P(X xi+1). A modo de

152
4. Vectores aleatorios y distribuciones de agregados

ilustracin, supongamos que deseamos conocer la probabilidad de que durante el pr


ximo trimestre llueva ms de 15 das. Si conocemos la probabilidad de que un da
cualquiera llueva (p = 0,2, por ejemplo) tendramos inicialmente una distribucin
binomial X B(90, 0,2) que como hemos visto anteriormente puede ser aproximada
por un modelo normal con esperanza np = 18 y varianza npq = 14,4.
Si calculamos la probabilidad pedida como P(X > 15) se obtendra mediante la
aproximacin normal P(X > 15) = P(Z > 0,7906) = 0,7854 [comprubese]. Sin
embargo, dado que el nmero de das con lluvia es una v.a. discreta, esta probabilidad
debera coincidir con P(X 16), hecho que no se verifica si utilizamos la aproximacin
normal sobre este valor [comprubese que P(X 16) = 0,7009]. Para solucionar
este tipo de situaciones, la correccin de continuidad nos llevara a aproximar ambas
probabilidades como: P(X 15,5) = P(Z 0,6588) = 0,745.

153
Parte II.

Inferencia estadstica

154
5. Muestras y estimadores
Las variables econmicas no pueden ser conocidas de forma determinista ni siquiera
de forma probabilstica, ya que el tiempo, el espacio y otros factores contribuyen a
que no tengan carcter esttico y como consecuencia nuestros anlisis se desarrolla
rn en un contexto dinmico e incierto. As pues, las poblaciones que investigamos
sern cambiantes, y generalmente nos encontraremos con un cierto desconocimiento
sobre algunos parmetros y caractersticas de la poblacin, o incluso sobre su propia
estructura.
En la prctica nuestras decisiones deben ser adoptadas a partir de informacin par
cial sobre la poblacin investigada. As, los estudios de mercado se basan en muestras
de clientes, las pruebas de control de calidad examinan muestras del producto analiza
do, e incluso algunas de las principales estadsticas oficiales como el Indice de Precios
de Consumo (IPC) o la tasa de paro se basan en la informacin procedente de en
cuestas muestrales: la Encuesta de Presupuestos Familiares (EPF) y la Encuesta de
Poblacin Activa (EPA), ambas realizadas por el Instituto Nacional de Estadstica
(INE).
Teniendo en cuenta la importancia de las investigaciones muestrales en el mbito
socioeconmico, en este captulo recogemos una breve introduccin a la seleccin de
muestras y sus errores, para posteriormente centrarnos en el estudio de los estimadores,
las propiedades bsicas que deben cumplir y los principales mtodos para su obtencin.

5.1. Estudios muestrales. Conceptos bsicos


5.1.1. Poblacin
En estadstica descriptiva el concepto de poblacin es entendido como el conjunto
de personas o cosas a las que va referida una investigacin.
En este sentido estamos identificando los conceptos de poblacin y universo. Sobre el
colectivo de personas o cosas investigadas, habitualmente observamos una variable que
puede tomar un conjunto de valores con una distribucin de probabilidad determinada.
En el mbito de la inferencia estadstica la poblacin suele identificarse no con el
universo sino con la propia variable aleatoria, y as es habitual hablar de una pobla
cin X que se distribuye normalmente, la esperanza poblacional, la distribucin de
la poblacin, ... afirmaciones que en realidad iran inicialmente referidas a la variable
aleatoria pero que resultar ms cmodo plantear en trminos de la poblacin.

En inferencia estadstica esta segunda acepcin suele ser la habitual y en algunas ocasiones se
mezclan ambas terminologas. As en poblaciones finitas hablamos indistintamente de una poblacin

155
5. Muestras y estimadores

E (formada por unidades: personas o cosas) sobre la que se disea el plan de muestreo y de una
poblacin X (v.a.) sobre la que estimamos el total o la media.

Cuando observamos varias variables partimos de una poblacin identificada como universo. Sin
embargo, cuando identificamos la poblacin como v.a. podemos encontrarnos con una poblacin k
dimensional o con k poblaciones unidimensionales.

Se denomina tamao poblacional al nmero de elementos u observaciones que inte


gran una poblacin.
El tamao de una poblacin puede ser finito o infinito. En la mayor parte de las apli
caciones reales las poblaciones investigadas son finitas, como el nmero de lectores de
un peridico o el nmero de automviles que sale de una factora. En otras ocasiones
el tamao poblacional puede ser infinito, como sucede por ejemplo para la poblacin
generada por los lanzamientos sucesivos de un dado o el conjunto de nmeros reales
pertenecientes al intervalo [0,1]. A menudo, las poblaciones de inters, aunque finitas,
son de tamao tan elevado que en teora se asumen como infinitas (por ejemplo, la
poblacin mundial, el parque mvil europeo, ...).

Sera preferible una poblacin finita o una infinita? Hemos hecho esta pregunta durante muchos
cursos a nuestros alumnos y la respuesta siempre es finita: los nmeros finitos nos parecen siempre
ms tangibles y conocidos (podemos alcanzarlos) y por tanto de ms fcil manejo. El infinito es un
campo cuyo tratamiento y comprensin requiere imaginacin y que, en cualquier caso, se percibe
como lejano. Sin embargo, ya hemos comentado que los modelos son idealizaciones matemticas y en
ellas lo infinito y lo continuo, en contra de nuestra intuicin, tienen un importante papel simplificador.

La mayor parte del aparato matemtico desarrollado hasta la actualidad es de carcter continuo, la
matemtica discreta o finita se encuentra menos desarrollada y por tanto su aplicacin para resolver
problemas reales (finitos) es limitada.
Por este motivo, nos interesar que las poblaciones sean infinitas y a ser posible continuas o apro
ximables por stas.

La informacin necesaria para llevar a cabo el estudio estadstico se encuentra dis


ponible en los elementos que componen la poblacin (universo), a los que se denomina
unidades elementales o unidades primarias. En estas unidades la informacin se en
cuentra en estado puro, completa y por tanto a partir de ellas la informacin se ir
transmitiendo, agregando y sintetizando, de manera que cada proceso constituye un
filtro donde la informacin va perdiendo fiabilidad.
La transmisin de la informacin desde los elementos de la poblacin se realiza
mediante encuestas que pueden ser censales o muestrales.
A pesar de que los avances informticos nos permiten procesar volmenes de infor
macin que hace unos aos resultaban impensables, en general no ser posible analizar
exhaustivamente las poblaciones, como consecuencia de las limitaciones de recursos
(tiempo, presupuesto, e incluso imposibilidad fsica cuando las poblaciones que inves
tigamos son infinitas o perecederas). De ah que debamos conformarnos con efectuar
estudios parciales, llevando a cabo posteriormente una generalizacin de los resultados
obtenidos.

156
5. Muestras y estimadores

5.1.2. Muestras
En el caso de que las poblaciones que estudiamos sean finitas -supuesto ms ha
bitual en la prctica- podra parecer en un principio que la investigacin exhaustiva
conlleva mayor fiabilidad que los estudios muestrales. Sin embargo, ello no es nece
sariamente cierto, puesto que la disminucin del nmero de unidades investigadas
permite aumentar el detalle con que stas se analizan y en consecuencia la calidad de
los resultados.
Esta ventaja, junto con el ahorro en tiempo y costes, justifica el inters que tienen
en estadstica las investigaciones muestrales.
As, si deseamos llevar a cabo un anlisis sobre la penetracin de cierto producto en
el mercado nos encontraremos con que un estudio exhaustivo de todos los puntos de
venta muy probablemente desbordara las posibilidades de cualquier empresa, debido
al personal necesario, los desplazamientos del mismo, las consiguientes necesidades en
cuanto a tiempo y costes ...
Estos mismos argumentos serviran para justificar la necesidad de tomar muestras en
una amplia variedad de situaciones, en las que resultar recomendable limitar nuestro
anlisis a algunas unidades de la poblacin investigada. De hecho, este tipo de estudio
ser inevitable cuando el anlisis realizado afecte a las unidades investigadas, como
en el caso de los procesos destructivos.

Los procesos destructivos de investigacin justifican plenamente las tcnicas muestrales, ya que
en este tipo de estudios un anlisis exhaustivo conllevara el deterioro o destruccin de la poblacin
investigada. Ejemplos claros son las pruebas de control alimentario que incluyen degustacin de pro
ductos, las experiencias cientficas con elevado riesgo, las pruebas blicas, etc.

Adems de las caractersticas sealadas anteriormente, existen poblaciones en las


que, por sus especiales caractersticas, se hacen ms patentes las ventajas del muestreo:
se trata de colectivos en los que existe homogeneidad respecto a las caractersticas in
vestigadas. A modo de ejemplo, si se desea publicar una fe de erratas de determinada
obra bastara examinar un ejemplar, dado que la tirada sera una poblacin perfecta
mente homognea, generada como reproduccin de un nico original.

Algunos ejemplos extremos de poblaciones homogneas se tienen en las pruebas clnicas (anlisis
de sangre, por ejemplo) o bien de cocina (temperatura o sabor de una sopa, ...), situaciones en las
que una mnima parte de la poblacin resulta suficientemente informativa del total.

Una vez analizadas sus ventajas, conviene sealar tambin algunos inconvenien
tes del muestreo. Entre ellos, el ms inmediato es la posible introduccin de errores
asociados a la propia seleccin de la muestra, que no siempre es posible evitar.
Adems, los estudios muestrales requieren una mayor cualificacin personal, ya que
aumenta considerablemente la complejidad del aparato estadstico necesario tanto

157
5. Muestras y estimadores

para el diseo de la muestra como para el tratamiento de la informacin.


Este balance de ventajas e inconvenientes de los estudios muestrales aparece sinteti
zado en el esquema siguiente. Su observacin nos conduce a la conclusin recogida por
el profesor Francisco Azorn -uno de los mayores impulsores del muestreo en nuestro
pas- quien afirma "las muestras en sentido amplio no slo podran ser importantes y
en ocasiones necesarias, sino que generalmente son inevitables"1 .
' $' $
ESTUDIOS MUESTRALES
ESTUDIO CENSALES
investigaciones Exigen trabajo especializado
Imprescindibles en recuentos e
Permiten ahorro econmico y
humanos y materiales de trabajo de campo
Exigen amplios recursos
Convenientes en poblaciones
Costes elevados homogneas
Largo tiempo de ejecucin
Imprescindibles en procesos
destructivos y poblaciones
&infinitas
& % %
Con el objetivo de aprovechar al mximo las ventajas del muestreo, en la actualidad
este tipo de tcnicas se incorporan incluso a algunas investigaciones censales. As,
el Censo de Poblacin y Viviendas 2011 realizado por el INE, con el objetivo de
ser ms rpido, eficiente y econmico, combina por primera vez el uso de registros
administrativos con trabajo de campo, que incluye un censo de edificios y una gran
encuesta muestral para conocer las caractersticas de personas y viviendas.

5.1.3. Subpoblaciones o estratos


Una vez justificada la conveniencia de limitarnos a anlisis parciales de una po
blacin, podramos preguntarnos si todo estudio parcial es muestral, es decir, si todo
subconjunto de una poblacin puede ser considerado como una muestra.
Obviamente, la respuesta es negativa, ya que una muestra estar constituida por
elementos seleccionados de una poblacin con el fin de representar a todo el colectivo.
Se distingue as este concepto de otros subconjuntos poblacionales -habitualmente de
nominados subpoblaciones o estratos- integrados por elementos que presentan alguna
caracterstica en comn.

La seleccin de subpoblaciones se lleva a cabo atendiendo a ciertos criterios, que garantizan la ho


mogeneidad entre los elementos que integran cada subpoblacin. As, en algunas estadsticas oficiales
los hogares son estratificados atendiendo a criterios socioeconmicos, los establecimientos se agrupan
en subpoblaciones segn el nmero de trabajadores, ...
1AZORIN, F. (1988): Curso breve de muestreo en poblaciones finitas. Curso de doctorado Infor
macin y esquemas difusos, Universidad de Oviedo.

158
5. Muestras y estimadores

Si por el contrario seleccionsemos algunos hogares a partir del callejero o de la gua telefnica el
resultado sera una muestra, ya que es previsible que en ese subconjunto de la poblacin estuviesen
incluidos muy distintos tipos de hogares. Esta heterogeneidad, equivalente a la que se observa en
la poblacin, es el rasgo caracterstico de las muestras: as, un colegio podra ser considerado como
una muestra de la poblacin infantil, un hospital como una muestra de una poblacin de enfermos o
un establecimiento como una muestra de una poblacin de trabajadores. No obstante, las muestras
utilizadas en la investigacin estadstica suelen ser resultado de procesos de seleccin ms complejos.

A modo de ejemplo, supongamos que deseamos realizar un estudio sobre la cuota de mercado de
un producto y, una vez descartado por las razones anteriormente expuestas un estudio exhaustivo,
debemos concretar el mbito de la encuesta.
Una primera posibilidad sera realizar la encuesta slo en una parte de la poblacin (digamos una
capital como Madrid). Sin embargo este mtodo parece poco recomendable dado que cada ciudad
presenta unos rasgos especficos (volumen de poblacin, tipo de actividad a la que se dedican, dota
ciones de servicios, ...) que la hacen distinta por ejemplo de las zonas rurales. Dichas caractersticas
configuran a las ciudades como subpoblaciones, mientras que nuestro objetivo sera la extraccin de
muestras.
Resultara interesante por tanto llegar a disponer de un ncleo representativo de la poblacin,
algo similar a una "micropoblacin robot" cuyos rasgos seran los siguientes: un volumen moderado
de habitantes, distribuidos segn una pirmide poblacional similar a la de la poblacin global, una
estructura productiva equivalente a la global (en cuanto a proporcin de poblacin dedicada a cada
sector productivo), la misma renta percpita e igualmente distribuida, una reproduccin a escala de
las ideologas, religiones, razas, etc.
Esta idea de micropoblacin robot -que sera una fuente perfecta de informacin sobre la pobla
cin total- resulta sin embargo demasiado ambiciosa, por lo cual en la prctica debemos contentarnos
con muestras que presentan -consideradas globalmente- caractersticas similares a las del colectivo de
inters. En definitiva, dado que nuestro estudio tendr por objetivo una o varias caractersticas de
la poblacin, trataremos de que la aproximacin que proporciona la muestra sea adecuada, es decir,
que no se produzcan demasiadas discrepancias entre muestra y poblacin.

5.1.4. Muestreo probabilstico


Un segundo interrogante referido al muestreo, sera si toda muestra debe necesaria
mente ser aleatoria o probabilstica. Nuevamente la respuesta es negativa, puesto que
el concepto genrico de muestra hace referencia a su finalidad (representar adecuada
mente al conjunto de la poblacin) pero no a su mtodo de obtencin, entendiendo
como tal el criterio mediante el cual se procede a la eleccin de las unidades de la
poblacin. Este criterio permitir distinguir entre muestras aleatorias (aqullas selec
cionadas al azar) y no aleatorias.

En un abuso del lenguaje utilizamos aqu el trmino "aleatorio" como sinnimo de "probabilsti
co". En realidad, "aleatorio" se aplica habitualmente a todo suceso que depende del azar y por tanto
no puede ser conocido de antemano, mientras los trminos "estocstico" o "probabilstico" indican
que es posible asignar probabilidades de realizacin a los sucesos, esto es, cuantificar su incertidumbre.

Definicin 5.1. Decimos que un proceso de seleccin es probabilstico o aleatorio


cuando es posible asignar a cada muestra una probabilidad de ser elegida.

159
5. Muestras y estimadores

Cuando la muestra es aleatoria podemos asignarle una cierta funcin de distribucin


y sus correspondientes funciones de probabilidad o densidad segn que la poblacin sea
discreta o continua; gracias a ello podemos establecer una distribucin de probabilidad
de los errores o un coeficiente de fiabilidad de los resultados asociados a estas muestras.
En cambio, si la muestra no es aleatoria, las estimaciones pueden ser muy buenas, pero
nunca tendremos garantas porque no es posible calcular ninguna medida de bondad
asociada a la muestra. Por este motivo, desarrollaremos nuestros anlisis inferenciales
sobre las muestras aleatorias.

Funcin de distribucin muestral


Nuestro objetivo central sern los procesos de muestreo aleatorio y las posibilidades
inferenciales derivadas de los mismos.

Supongamos una poblacin X y seleccionemos a partir de ella una muestra de tamao unitario,
que denotamos por X1. Antes de realizar la seleccin, el valor que puede aparecer es uno cualquiera
de la poblacin y la probabilidad de que salga un valor determinado ser la que dicho valor tenga en
la poblacin. Por tanto la distribucin de X1 ser idntica a la de X, de modo que, denotando por
F la distribucin de X y por FX1 la de X1 se tiene:

FX1(x) = F(x)

Hablamos de muestra genrica cuando sta an no se ha concretado en una realizacin, sino que
se trata de una muestra potencial. En el caso anterior se trata de una muestra de tamao uno
que podemos identificar con la variable muestral X1 y de la misma forma a FX1 la denominaremos
distribucin de la muestra.
Supongamos ahora que se toma una muestra de tamao dos. En la primera seleccin puede obtener
se un valor aleatorio, X1 y en la segunda extraccin de nuevo se puede obtener un valor aleatorio X2;
por tanto la muestra puede identificarse con una v.a. bidimensional (X1,X2). Utilizando la frmula
de la probabilidad condicionada, la funcin de distribucin de la muestra en este caso ser:

FX1,X2(x1,x2)= FX1(x1)FX2/X1=x1(x2)

Si la poblacin es infinita el conocimiento de la primera unidad seleccionada no tiene influencia en


la probabilidad de la segunda y lo mismo ocurrira si la poblacin es finita y el proceso de seleccin
conlleva la reposicin de cada unidad observada. En estas condiciones las variables X1 y X2 son
independientes y la distribucin anterior puede ser simplificada:

FX1,X2 (x1,x2) = FX1(x1)FX2(x2)

Ya hemos visto que la primera componente tiene la misma distribucin que X. Adems, dado que
consideramos que las dos extracciones son independientes, al devolver la unidad a la poblacin para
la segunda seleccin, la composicin poblacional vuelve a ser la original y por tanto la distribucin
de X2 tambin coincide con la de X, obtenindose:

FX1,X2 (x1,x2) = F(x1)F(x2)


en este caso se dice que las variables muestrales son idnticamente distribuidas (i.d.).

160
5. Muestras y estimadores

Los supuestos de independencia e idntica distribucin (i.i.d.) son hiptesis simpli


ficadoras del tratamiento estadstico; por tal motivo la inferencia estadstica trabaja
bajo estos supuestos y en los desarrollos que siguen, salvo que se especifique lo con
trario, supondremos que las poblaciones son infinitas o bien que la seleccin se realiza
con reemplazamiento.

Definicin 5.2. Se denomina muestra aleatoria simple (m.a.s.), a aqulla que es


seleccionada bajo los supuestos de independencia e idntica distribucin.

Si consideramos una muestra aleatoria simple de tamao n, sta puede ser identifi
cada con una v.a. n-dimensional (X1,X2,...,Xn) cuyas componentes, bajo los supues
tos asumidos, son independientes e idnticamente distribuidas. As pues, la funcin de
distribucin de la muestra viene dada por:
n
FX1,X2,...,Xn(x1,x2,...,xn) = F(x1)F(x2 ) F(xn) = F(xi)
i=1

La comprobacin de esta expresin es una extensin de las desarrolladas en los prrafos preceden-
tes. [Qu expresiones adoptara la f.d. si se alterara alguna de las hiptesis anteriores?].

Puesto que la distribucin de cada componente de la muestra genrica coincide con la de X, la


variable (X1,X2 ,...,Xn) ser discreta o continua segn lo sea X. A partir de la f.d. anterior podemos
obtener en su caso la funcin de probabilidad o densidad de la muestra genrica, denominada funcin
de verosimilitud. Sin embargo, dado que el estudio de esta funcin -de suma importancia en todo el
proceso inferencial- surge ligada a algn parmetro poblacional, posponemos al siguiente apartado
su definicin e interpretacin.

Consideremos ahora una muestra particular (x1,x2 ,...,xn), algunos de cuyos valores aparecern
repetidos y representemos en una tabla de frecuencias cada valor muestral xi con su correspondiente
frecuencia relativa f(xi ). La aplicacin que a cada valor observado le asigna su frecuencia relativa
acumulada se denomina distribucin de frecuencias de la muestra F(x ).
i
Es de suma importancia diferenciar entre los conceptos de muestra genrica y muestra concreta,
y tambin entre la distribucin probabilstica de la muestra y su distribucin de frecuencias. En los
primeros casos existen las componentes de potencialidad o incertidumbre caractersticas de las varia
bles aleatorias, mientras que en los segundos se trata de problemas descriptivos. Las diferencias son
equivalentes a las que existen entre probabilidad y frecuencia o entre las caractersticas esperanza y
media aritmtica.

Para aclarar los conceptos anteriores, consideremos un ejemplo sencillo consistente en extraer bolas
de la urna en la que hay un total de diez bolas, de las que seis son de color blanco y las cuatro restantes
son negras.
El resultado de la extraccin de una bola de la urna puede ser identificado con una v.a. X dico
tmica (1 para el suceso Blanco y 0 para Negro, por ejemplo) que vendr caracterizada por la
probabilidad p = 0,6.
Si de esta urna se realizan dos extracciones sucesivas con reposicin, se obtiene una muestra
aleatoria simple que describimos mediante la variable aleatoria (X1 ,X2), cuya distribucin de proba
bilidad puede ser obtenida fcilmente, teniendo en cuenta las condiciones de independencia e idntica
distribucin:

161
5. Muestras y estimadores

Observaciones
(x1,x2) p(x1,x2)
muestrales
(B,B) (1,1) 0,36
(B,N) (1,0) 0,24
(N,B) (0,1) 0,24
(N,N) (0,0) 0,16

Puede comprobarse que la funcin p(x1,x2) es una verdadera funcin de probabilidad, por cumplir
los requisitos de no negatividad y suma unitaria.
[Definir la variable aleatoria asociada a la extraccin de tres bolas de la urna]

5.2. Errores y diseo de encuestas


Las encuestas tienen por objetivo la investigacin de poblaciones para llegar a co-
nocer ciertas caractersticas o parmetros poblacionales que denominaremos valores
verdaderos (por ejemplo la tasa de paro, la renta media o el nivel de inflacin de
un pas). Estos valores verdaderos sern desconocidos y nunca podrn ser cuantifica
dos de una forma exacta, por lo cual deberemos ser conscientes de que el resultado de
cualquier investigacin -y especialmente las de tipo social- vendr afectado por errores.

El estudio de la cuantificacin de los errores est mucho ms desarrollado en las ciencias naturales
que en las ciencias sociales. Para constatar esta afirmacin, basta recordar que en sus orgenes la dis
tribucin normal aparece asociada a los errores de medicin en astronoma, investigaciones realizadas
por Gauss a finales del siglo XVIII y principios del XIX.
Sin embargo, en las ciencias sociales los problemas de la medicin se encuentran menos desarrolla
dos debido a la mayor dificultad que entraa en ellas la cuantificacin. Ello no debe llevarnos a pensar
que los errores en las ciencias sociales sean de menor cuanta, pues como recoge O. Morgenstern , en
un amplio estudio sobre la exactitud de los datos econmicos, en el mbito de las ciencias sociales
estn presentes, al menos, todas las causas de error de las ciencias naturales.
En muchas ocasiones la necesidad de facilitar datos de carcter econmico inspira cierto recelo en
los agentes (sobre todo por las implicaciones de tipo jurdico o fiscal), lo que puede conducir a un
falseamiento deliberado de la informacin. As la falta de exactitud que pueden presentar los datos
econmicos facilitados por las empresas y los consumidores aconsejan una confrontacin entre datos
obtenidos por distintas vas de captacin.
Otro tipo de dificultades son las relacionadas con la utilizacin de distintas fuentes, ya que con
frecuencia existen discrepancias entre la informacin facilitada por varios organismos. La existencia
de una pluralidad de observadores de una misma realidad introduce por s misma elementos de error
en la informacin cuantitativa porque los observadores pueden tener objetivos diferenciados (pinsese,
por ejemplo, en las discrepancias sobre el paro estimado en la Encuesta de Poblacin Activa (EPA)
del INE y el paro registrado por los Servicios Pblicos de Empleo).
Del mismo modo, pueden aparecer problemas de homogeneidad por parte de las unidades de ob
servacin, debido a la utilizacin de definiciones diferentes, a cambios en los criterios de clasificacin,
a desfases temporales en las magnitudes consideradas, etc.

162
5. Muestras y estimadores

Figura 5.1.: Errores de encuesta

5.2.1. Errores de encuesta


Aunque habitualmente nos centramos en un nico error global, entendido como
diferencia entre el valor verdadero y el resultado de nuestra investigacin, conviene
tener presente que dicho error habr sido generado por varias fuentes, que difieren en
cuanto a su importancia y sus posibilidades de control.
Aun analizando todos los elementos de la poblacin, los errores de observacin,
como fallos en los instrumentos de medida, listados no actualizados, ..., nos llevarn
a tomar como verdaderos ciertos valores que denominamos valores observados. Es
evidente que el error o discrepancia entre los valores verdaderos y los observados no
podr ser cuantificado de una forma exacta aunque existan controles de calidad de las
encuestas censales.
A partir de la informacin facilitada por una encuesta muestral, podemos obtener
aproximaciones al valor verdadero que conocemos como valor estimado. Normalmente
designamos por error de encuesta la discrepancia total existente entre las caractersti
cas poblacionales investigadas (valores verdaderos) y los resultados inferidos a partir
de la muestra (valores estimados).
La figura 5.1 recoge las distintas fuentes de error que acompaan a una encuesta
muestral y que conforman el error de la encuesta. As, el hecho de seleccionar una
parte de la poblacin ya puede introducir un error de muestreo (por qu las unidades
seleccionadas y no otras que nos conduciran a resultados distintos?). Si la seleccin
muestral es aleatoria podemos conocer a priori la probabilidad que tiene la muestra de
ser elegida y por tanto la probabilidad de cometer un determinado error de muestreo;
es decir, nos interesan muestras probabilsticas para poder acotar el riesgo de estos
errores en trminos de probabilidad.
A continuacin, una vez seleccionadas las unidades muestrales aparecen nuevas
fuentes de error: aqullas que se refieren a la observacin de las unidades y que se
denominan errores ajenos al muestreo, porque van asociados a la observacin de las
unidades con independencia de que el estudio sea muestral o poblacional. En esta
categora recogemos errores de tipo diverso como posibles deficiencias del marco o el

163
5. Muestras y estimadores

cuestionario, influencias del agente encuestador, ... que estudiaremos con detalle en
un captulo posterior y que habitualmente introducen sesgos en las conclusiones de
nuestros estudios.

Decimos que un diseo (o la estimacin derivada del mismo) es sesgado cuando las desviaciones o
errores que origina tienen carcter sistemtico. El sesgo puede ser debido a diversos factores, como
el diseo de la encuesta, los instrumentos de medida o las respuestas y sus consecuencias son habi
tualmente subestimaciones o sobreestimaciones de las caractersticas investigadas.

5.2.2. Acuracidad y precisin


Como consecuencia de su carcter sistemtico, los errores ajenos al muestreo resul
tan ms fcilmente identificables que los muestrales aunque su control slo ser posible
dentro de ciertos lmites. Por el contrario, la aleatoriedad de los errores muestrales hace
que sea necesaria para su cuantificacin una sofisticada herramienta matemtica.
La bsqueda de la mayor calidad posible en nuestros resultados aconseja minimizar
las desviaciones entre valores verdaderos y estimados, esto es, el error de encuesta,
con sus dos componentes. Segn dnde se site el nfasis aparecen los conceptos de
precisin y exactitud o acuracidad.
El requisito de precisin exige limitar el error debido al muestreo, esto es, las oscila
ciones de carcter aleatorio. Por su parte, la idea de exactitud o acuracidad va referida
a todo el error de encuesta, por lo cual resulta ms ambiciosa (adems del requisito
de precisin, exige un control de los errores ajenos al muestreo).

A modo de ilustracin, pensemos en una balanza que en su posicin normal se encuentra inclinada,
de modo que pesa siempre algunos gramos de ms.
Esto significara que el instrumento de peso que estamos utilizando es sesgado. Sin embargo, puede
ser muy preciso en el sentido de detectar cualquier diferencia de peso por reducida que sta sea. El
instrumento de medida en este caso ser preciso y poco acurado, pues el peso de cualquier objeto se
encuentra desviado respecto a su verdadero valor.

5.2.3. Diseo de encuestas y seleccin muestral


Como ya hemos comentado, es impensable llegar a realizar un estudio exento de
errores. Sin embargo, los objetivos de exactitud y precisin sern ms accesibles en la
medida en que nuestro estudio tenga una base slida. De ah que el diseo de encuestas
-cuyas etapas resumimos en el esquema siguiente- constituya una fase decisiva, que
condiciona en gran medida la calidad de los resultados obtenidos.

164
5. Muestras y estimadores

DISEO DE ENCUESTAS
Fase preliminar: objetivos del estudio

Determinacin del marco


Unidades elementales
Unidades complementarias

Seleccin muestral

Transmisin de la informacin
Contexto del estudio
Trabajo de campo

Tratamiento de la informacin
Tabulacin y sntesis
Tcnicas inferenciales

Evaluacin de resultados

Dentro del diseo de encuestas incluimos desde las etapas previas al estudio (defi
nicin de objetivos y determinacin de la poblacin y sus unidades) hasta el trabajo
de campo y los anlisis posteriores (publicacin y evaluacin de resultados), siendo
especialmente interesante desde la ptica estadstica la etapa de seleccin muestral.
Todas estas etapas sern analizadas con detalle en un captulo posterior, dedicado
al muestreo en poblaciones finitas, por lo cual nos limitaremos aqu a describir cmo
se seleccionan en la prctica muestras aleatorias o probabilsticas.

El trmino aleatorio, que consideramos sinnimo de probabilstico, suele ser utilizado de forma
abusiva en el lenguaje coloquial, para indicar que una seleccin no est expresamente dirigida. As
por ejemplo, frases como "un encuestador de televisin ha salido a la calle preguntando la opinin de
personas seleccionadas aleatoriamente" no seran estrictamente correctas. En efecto, el hecho de que
el encuestador intente que su opinin subjetiva no afecte a la seleccin no basta para calificar a una
muestra de aleatoria ya que, aunque los resultados muestrales son imprevisibles (interviene el azar),
no es posible asignarles probabilidades.
As pues, solamente denominaremos aleatorios (o estocsticos o probabilsticos) a aquellos procesos
en los que podemos determinar la probabilidad de seleccin para cada muestra concreta.

Consideremos el total de hogares sobre los que deseamos analizar las pautas de
lectura o bien el total de puntos de venta del peridico, para los cuales disponemos de
un listado correctamente numerado. Una vez decididos a extraer una muestra aleatoria
o probabilstica qu mecanismo podemos emplear para introducir azar en la seleccin?
Los ejemplos ms conocidos son los sorteos: extraccin al azar de bolas numeradas
de una urna o un bombo de lotera, de tal forma que los elementos de la poblacin
cuyos nmeros se correspondan con los extrados pasan a integrar la muestra. Este

165
5. Muestras y estimadores

mecanismo, muy popular gracias a los sorteos de lotera nacional, resulta sin embargo
impracticable para tamaos muestrales elevados debido al coste material y de tiempo
que conlleva.
Como consecuencia de estas limitaciones, el mtodo general consiste en acudir a
tablas de nmeros aleatorios generadas por distintos procedimientos fsicos y matem
ticos.
Estas tablas recogen los resultados de un proceso que genera dgitos decimales alea
torios, asociados a variables aleatorias independientes con valores 0, 1, ..., 9, que
cumplen las siguientes propiedades:

Cualquier dgito de la tabla tiene probabilidad 110 de presentar valores 0, 1, ...


, 9, es decir, corresponden a realizaciones de una v.a. discreta con distribucin
uniforme.

Los distintos dgitos de la tabla son independientes.

Como consecuencia de su carcter aleatorio, los dgitos de las tablas no presentarn ningn orden
concreto. Para ilustrar esta idea, E.U. Condon, director del Bureau of Standards afirmaba que la
obtencin de una secuencia lgica al seleccionar nmeros aleatorios resulta tan probable como que
los saltos de un mono sobre una mquina de escribir reproduzcan un prrafo de Shakespeare.2

Por lo que se refiere a la utilizacin de estas tablas, las nicas dudas podran ir
referidas a cuntos dgitos seleccionar y en qu orden.
El punto de arranque es arbitrario dado el propio carcter aleatorio de las tablas.
Una vez situados en ciertas coordenadas, efectuaremos selecciones sucesivas de nme
ros avanzando por filas o por columnas.
Es importante adems tener presente que cualquier elemento de la poblacin debe
ser candidato a formar parte de la muestra. Para garantizar esta potencialidad, el
nmero de columnas seleccionadas en la tabla debe coincidir con el nmero de dgitos
del tamao poblacional N.

Una de las primeras tablas de nmeros aleatorios fue elaborada en 1927 por L.H.C. Tippett, quien
construy una tabla de 41.600 dgitos a partir de datos del censo britnico sobre las reas parroquiales,
eliminando en cada caso los dgitos primero y ltimo.
En 1943 Fisher y Yates publicaron una tabla con 15.000 nmeros, correspondientes a los dgitos
que ocupaban el orden 15 y 19 en tablas logartmicas de 20 dgitos.
El antecedente de las actuales rutinas generadoras de nmeros aleatorios fue un mtodo puesto en
marcha en 1939 por Kendall y Babington-Smith, quienes generaron una tabla de 100.000 nmeros
con ayuda de una mquina electrnica que simulaba lanzamientos de un cuerpo geomtrico de 10
caras, numeradas del 0 al 9. En la actualidad, la generacin y contraste de nmeros aleatorios sigue
siendo un campo de investigacin.

2Esta ancdota aparece recogida en Youden, W.J. (1957): Random Numbers arent Nonsense
Industrial and Engineering Chemistry, 49, n. 10, 89 A

166
5. Muestras y estimadores

Como sucede en otros muchos campos, el avance de la informtica ha simplificado


considerablemente la seleccin de nmeros aleatorios: hoy da gran parte de los progra
mas estadsticos e incluso las hojas de clculo contienen procedimientos para generar
nmeros aleatorios segn distintos modelos de probabilidad (uniforme, normal, ...).

5.3. Estadsticos y estimadores


Imaginemos que nuestro objetivo fuese aproximar el valor verdadero de la renta
esperada de una poblacin de hogares, esto es, el parmetro poblacional = E(X).
Una vez que dispongamos de informacin muestral (es decir, de rentas observadas
para ciertos hogares, seleccionados aleatoriamente), debemos preocuparnos de llevar
a cabo un tratamiento adecuado de la misma, diseando procedimientos de sntesis
muestral que se adapten a nuestros objetivos de estimacin.
Parece claro que en ningn caso llegaremos a conocer con exactitud la verdadera
renta esperada de la poblacin. Sin embargo, podemos considerar algunas restriccio
nes respecto a los errores que estamos dispuestos a asumir: en general, toleraremos
los errores de tipo aleatorio (inevitables si tenemos en cuenta que es el azar quien de
termina qu hogares forman parte de la muestra) pero no ser admisible sin embargo
una sobrevaloracin (o una subvaloracin) sistemtica de las rentas, que introducira
un sesgo en nuestro proceso de estimacin de .
De modo complementario, debemos exigir a nuestro proceso de estimacin que el
riesgo de desviarnos del verdadero valor del parmetro sea moderado (esto es, que
exista una baja probabilidad de obtener estimaciones muy alejadas de la verdadera
renta esperada). Este requisito proporciona una especie de garanta para el proceso
de estimacin, al acotar la dispersin de nuestras estimaciones respecto al parmetro.
Por otra parte, parece necesario que los estimadores utilicen toda la informacin
a su alcance, ya que de lo contrario estaran ignorando datos tiles en la aproxima
cin del valor buscado. En este sentido, bastara recordar que una medida de sntesis
de las rentas observadas en la muestra debe abarcar todos y cada uno de los datos
proporcionados por los hogares incluidos en la misma.
Cabe por ltimo enfatizar la distincin entre los conceptos de estimacin (resulta
do) y proceso de estimacin (procedimiento). El primero depender de la informacin
muestral disponible en cada caso, que conducir a un valor concreto como aproxima
cin (nunca exacta) del parmetro, mientras que el segundo describe nuestro mtodo
de trabajo. Como consecuencia, cabe esperar que, si el procedimiento empleado es
correcto, la existencia de informacin adicional (nuevos datos sobre las rentas de los
hogares) nos permita aproximarnos ms adecuadamente a nuestro objetivo. En el lmi
te, si la muestra creciese indefinidamente y llegsemos a disponer de informacin sobre
todos los hogares de la poblacin, cabra esperar que nuestra estimacin se aproximase
indefinidamente al parmetro .
El ejemplo propuesto pretende hacer explcita una lista de requisitos que resultan
intuitivamente deseables en todo proceso de aproximacin o estimacin. Su cumpli
miento no garantizar la bondad de resultados concretos pero s en cambio del mtodo

167
5. Muestras y estimadores

Figura 5.2.: Esquema del proceso inferencial

general.
Nuestro esquema de actuacin, que aparece recogido en la figura 5.2, exige la pre
sencia de instrumentos de sntesis denominados estadsticos que, por ser funciones de
la muestra aleatoria, sern tambin aleatorios.
En efecto, consideremos una m.a.s. (X1,...,Xn) extrada de una poblacin X. Se
trata de n v.a. independientes e idnticamente distribuidas (i.i.d.) y una vez que dicha
muestra aleatoria se concrete en determinada observacin muestral, podemos llevar
a cabo una sntesis de su informacin mediante medidas descriptivas aplicadas a los
valores obtenidos. Adems, antes de que la muestra concreta haya sido seleccionada
es posible tambin establecer expresiones matemticas que son funcin de la muestra
aleatoria y por tanto variables aleatorias. Dichas expresiones genricas, que represen
taremos por T = T(X1,...,Xn) se denominan estadsticos.

Definicin 5.3. Sea (X1,...,Xn) una muestra aleatoria de tamao n de una variable
X. Llamamos estadstico T = T(X1,...,Xn) a cualquier funcin medible definida
sobre las variables muestrales; esto es, una funcin observable del vector aleatorio.

Como ya hemos comentado en el captulo segundo, toda funcin medible de v.a. es


una v.a. Por lo tanto, un estadstico ser una v.a., lo cual significa que llevar asocia
da una distribucin de probabilidad y las correspondientes caractersticas: esperanza,
varianza, etc.

A modo de ejemplo, a partir de una m.a.s. (X1 ,...,Xn) definamos un estadstico T = ni=1 Xi.
Se trata de una variable aleatoria cuyas caractersticas ya han sido obtenidas en temas anteriores;
as, por ser la esperanza un operador lineal se tiene:
n
) n n
E(T) = E ( i=1 Xi = i=1 E(Xi) = = n
i=1
ya que las variables estn idnticamente distribuidas y por tanto E(Xi ) = , i = 1,...n.
Para obtener la varianza se tiene en cuenta, adems de la idntica distribucin, la independencia
entre las variables X1,...,Xn:

168
5. Muestras y estimadores

n Xi n
i=1 n
i=1
Var(T) = Var ( )= Var(Xi) = 2 = n2
i=1

La distribucin de probabilidad del estadstico T vendra dada por la funcin:


n
)
FT(t) = P(T t) = P ( Xi t
i=1

en cuya expresin aparece la distribucin de la suma, que en el captulo 4 ha sido analizada para
distintos supuestos.

En sntesis, considerbamos las siguientes situaciones:

Si la poblacin X se distribuye segn un modelo reproductivo, es posible afirmar para cualquier


tamao muestral que la suma presenta el mismo modelo probabilstico, conocindose adems
sus parmetros.

Para tamaos elevados de muestra, el teorema central del lmite garantiza -con independencia
de la distribucin de partida- la convergencia de la distribucin de la suma a un modelo normal.

Por ltimo, para poblaciones desconocidas y tamaos pequeos de muestra, no es posible


determinar la distribucin de la suma por lo cual nicamente obtendramos acotaciones de las
probabilidades mediante la desigualdad de Chebyshev.

El estadstico es una funcin que puede tomar valores en una o ms dimensiones, por lo que puede
tratarse de una v.a. unidimensional o k-dimensional. Nos interesarn fundamentalmente los estads
ticos de resumen, que a cada vector aleatorio (X1 ,...,Xn) asocian un valor real T(X1 ,...,Xn).

Generalmente las poblaciones investigadas dependen de ciertos parmetros desco


nocidos (, 2, p, ...) y la introduccin de estadsticos suele tener como objetivo la
aproximacin de dichos parmetros a partir de muestras aleatorias. De ah que a tales
estadsticos se les denomine estimadores.
Definicin 5.4. Consideremos una variable aleatoria X cuya distribucin de probabi
lidad F depende de un parmetro (o vector de parmetros) perteneciente al espacio
paramtrico , esto es FX (x, ). Denominaremos estimador de a un estadstico
T(X1,...,Xn) que toma valores slo en .
Como puede apreciarse, la definicin de estimador resulta ms restrictiva que la de estadstico, ya
que un estimador T de slo podr tomar valores en el espacio paramtrico . Nuestro objetivo ser
seleccionar, de entre todas las expresiones que satisfacen este requisito, aqullas cuyas propiedades
proporcionen garantas en el proceso de estimacin del parmetro.
En el caso de que la distribucin de X dependa de k parmetros 1,...,k, podramos plan
tearnos la utilizacin de k estimadores unidimensionales o bien la consideracin de un estimador
k-dimensional.

Como consecuencia de su definicin, los estimadores T(X1,...,Xn) sern variables


aleatorias. Sin embargo, una vez seleccionada una muestra particular (x1,...,xn)
se obtiene un valor concreto del estimador t = T(x1,...,xn) al que se denomina
estimacin.

169
5. Muestras y estimadores

Figura 5.3.: Interpretacin de la funcin de verosimilitud

5.3.1. Funcin de verosimilitud


Dado que gran parte de la inferencia tiene como objetivo la aproximacin de pa
rmetros desconocidos a partir de informacin muestral, resulta necesario analizar la
distribucin probabilstica de las muestras y de los estadsticos definidos a partir de
las mismas.
La distribucin de probabilidad de una muestra aparece conectada al concepto de
funcin de verosimilitud. Se trata de una expresin que admite dos interpretaciones
alternativas ilustradas en la figura 5.3 y que resulta de gran inters para examinar la
idoneidad de las expresiones propuestas como estimadores.
Definicin 5.5. Consideremos una poblacin X cuya distribucin depende de cierto
parmetro desconocido , esto es, FX (x, ). Si de esta poblacin extraemos m.a.s.
de tamao n, (X1 ,...,Xn), entonces la distribucin de probabilidad muestral vendr
dada para cada realizacin (x1,...,xn), por la expresin:
n
F(x1,...,xn,)= F(xi ,)
i=1

Esta expresin ha sido obtenida en el primer epgrafe de este tema cuando la distribucin no de
penda de ningn parmetro. En este caso el razonamiento sera anlogo.

La consideracin de F como funcin de parmetros poblacionales desconocidos


conlleva nuevas interpretaciones para esta expresin, y ms concretamente para su
derivada que recibe la denominacin de funcin de verosimilitud (f.v.) y se denota
habitualmente por L (del trmino ingls Likelihood).
L=L(x1,...,xn)=
nF(x1,...,xn,)
x1xn = n F(xi ,)
xi
i=1

Segn la tipologa de la variable X, la f.v. puede ser expresada como:

170
5. Muestras y estimadores

ni=1p(xi ,) para el caso discreto


L(x1,...,xn ,) =
ni=1 f(x ,)
L(x1,...,xn ,) = i para el caso continuo

De este modo, si consideramos un valor fijo -aunque desconocido- del parmetro, que
designamos por , la expresin L(x1 ,...,xn,) representa la probabilidad de la
muestra aleatoria (x1 ,...,xn).
De modo alternativo, si disponemos de una realizacin muestral concreta (x1,...,x
n),
la expresin L(x1,...,xn ,) depender nicamente del parmetro , respondiendo as
a su denominacin como funcin de verosimilitud (evala la verosimilitud o credibili
dad de una observacin muestral concreta en funcin del parmetro ).

A modo de ilustracin, consideremos dos ejemplos con los que trabajaremos a lo largo de este tema.
El primero de ellos se corresponde con una variable aleatoria discreta X que recoge si un individuo
activo se encuentra o no en paro, y por tanto sigue un modelo de Bernoulli de parmetro p, cuya
distribucin de probabilidad viene dada por la expresin:
pxi(1 p)1xi , xi = 0,1
p(xi ,p) =

Por lo tanto, a partir de una muestra de tamao n se obtendra la funcin de verosimilitud:


n n pxi(1 p)1xi = pni=1 xi(1 p)nni=1 xi
L(x1 ,...,xn,p) = i=1 p(xi,p) =
i=1
que, segn las interpretaciones anteriormente comentadas, para valores fijos de p proporciona la
distribucin muestral, mientras que para cada muestra concreta evala su verosimilitud en funcin
de la tasa de paro p.
Consideremos por otra parte una variable continua que recoge el gasto mensual de los hogares y
se distribuye segn un modelo normal en el que, para mayor operatividad, asumimos una dispersin
unitaria. A partir de la distribucin X N(, = 1) se obtiene:
n n ni=1(xi)2
1
L(x1,...,xn,p) = f(xi,p) = 12 e12(xi)2 = n e12
(2) 2
i=1 i=1

La interpretacin de L como funcin de verosimilitud equivale a asumir una realizacin muestral


concreta, es decir, determinados hogares para los que se ha examinando el gasto mensual. De este
modo, no existe ya incertidumbre sobre la muestra, y L(x1,...,xn,) mide su verosimilitud para
cada potencial gasto esperado .

La funcin de verosimilitud genrica es L(x1 ,...,xn,) con , expresin que para valores
concretos del parmetro proporciona resultados L(x1,...,xn,) [0,1], que evalan el nivel de
credibilidad o verosimilitud de nuestra realizacin muestral para cada valor potencial de .
Por tanto, si para dos posibles valores del parmetro 1 y 2 se tiene L(x1 ,...,xn ,1) < L(x1,...,xn ,2)
parece razonable afirmar que la probabilidad de haber obtenido la muestra (x1,...,xn) sera mayor
con el valor 2 que con 1. Esta interpretacin de la funcin de verosimilitud ha inspirado un mtodo
de obtencin de estimadores que analizaremos en un apartado posterior.

En nuestro ejemplo de la tasa de paro, imaginemos que sobre una muestra de 20 activos hemos
observado 5 parados. Si asumimos para mayor claridad que el parmetro p (tasa de paro) pertenece
a un espacio paramtrico con slo dos valores = {0,1; 0,3}, entonces se tiene:

L(x1,...,xn,p=0,1) = 0,150,915

171
5. Muestras y estimadores

L(x1,...,xn,p=0,3) = 0,350,715
verificndose L(x1 ,...,xn,p = 0,1) < L(x1 ,...,xn,p = 0,3), con lo cual concluiramos que p = 0,3
es el valor de la tasa de paro que hace ms verosmil la muestra seleccionada.

5.4. Propiedades de los estimadores


A la vista del planteamiento general del apartado anterior, sera posible construir
infinitos estadsticos con capacidad de resumir la informacin muestral. Sin embargo,
los parmetros interesantes de una poblacin son a menudo sus caractersticas ms dis
tintivas: la esperanza, la varianza, la proporcin, ... y los estadsticos que analizaremos
tendrn en general vocacin de estimadores de estos parmetros.
Consideremos una v.a. X con distribucin de probabilidad F(x, ) cuyo parmetro
pretendemos aproximar a partir de la informacin suministrada por una m.a.s.
Existiran numerosas expresiones que proporcionan estimaciones del parmetro y,
dado que en la prctica la utilizacin de una u otra no va a resultarnos indiferente,
debemos enunciar los requisitos considerados deseables en un buen estimador, que
servirn para discriminar entre expresiones alternativas.

5.4.1. Ausencia de sesgo


Un primer requisito deseable en un estimador es que su comportamiento sea "im
parcial" o centrado, que no conduzca sistemticamente a subvaloraciones o sobreva
loraciones del parmetro. Esta propiedad se conoce como ausencia de sesgo.
Al asumir como objetivo la aproximacin de un parmetro desconocido , las li
mitaciones de informacin hacen inevitable la presencia de errores o desviaciones. De
este modo, es posible definir:

Definicin 5.6. Se denomina error aleatorio asociado a T que se genera como dife
rencia entre el estimador y el parmetro desconocido:

eT=T

En el caso de que el origen de estos errores sea nicamente aleatorio, sin que se
presente ninguna componente de tipo sistemtico, se puede asumir fcilmente que
stos llegarn a compensarse, dando lugar a un error esperado nulo, E(eT )=0 .
El requisito de ausencia de sesgo exige que no haya intencionalidad en los errores,
esto es, que las desviaciones tengan carcter aleatorio y por tanto exista neutralidad
en el proceso de estimacin. Cuando una expresin T satisface esta condicin de
neutralidad recibe la denominacin de estimador insesgado o centrado.

Definicin 5.7. Se dice que T(X1,...,Xn) es un estimador insesgado del parmetro


si el valor esperado de su error aleatorio asociado existe y es nulo para cualquier
valor posible del parmetro (E(eT )=0 o equivalentemente E(T) = ).

172
5. Muestras y estimadores

Cuando un estimador es centrado, su valor esperado coincide con el parmetro que


pretende aproximar. De ah que el requisito de ausencia de sesgo se exija habitualmente
a los estimadores como garanta de su carcter objetivo.
En el caso de que un estimador T no sea centrado para estimar el parmetro
(E(eT) = 0) se denomina sesgado. Para cuantificar el sesgo o desviacin sistem
tica inherente a un estimador comparamos su valor esperado con el parmetro que
pretende aproximar.

Definicin 5.8. El sesgo introducido por un estimador T para estimar un parmetro


viene definido por la expresin:

BT() = E(eT) = E(T)


Dicho sesgo ser una funcin del parmetro , que habitualmente se denota con la
inicial del trmino ingls Bias.
Cuando un estimador T lleva asociado un sesgo positivo (esto es, un error esperado
positivo) dicho estimador se desva sistemticamente al alza" en su aproximacin del
parmetro desconocido, y lo contrario sucede para los estimadores con sesgo negativo
(conducen a subestimaciones sistemticas de ). Por ltimo, los estimadores que lle
van asociados sesgos o errores esperados nulos han sido definidos anteriormente como
centrados o insesgados.

Consideremos de nuevo la v.a. gasto mensual de los hogares, X N(,1) de la que


se ha extrado una m.a.s. de tamao n = 4, definiendo las tres expresiones siguientes
como estimadores del parmetro = E(X):

T1= X1+X2+X3+X4
4;T2= 2X1+X4
4 ;T3 X1+X2+2X3+X4+50
5
Se comprueba fcilmente que slo el primero de los estimadores propuestos es cen
trado o insesgado para estimar por ser el nico que conduce a un error esperado nulo
o, equivalentemente, el nico que presenta esperanza coincidente con el parmetro :

E(T1) = ; E(T2 )=0,75; E(T3) = + 10


[Comprubese]
Calculando ahora los sesgos de los estimadores anteriores BT() = E(T) se
obtiene:

BT1()=0; BT2() = 0,25 ; BT3() = 10


informando estos valores sobre la direccin y la cuanta del error sistemtico cometido
con cada estimador.
En el caso de T1 el sesgo es nulo ya que dicho estimador es centrado y por tanto no
introduce ningn error de carcter no aleatorio. En cambio no sucede lo mismo con
T2 y T3.

173
5. Muestras y estimadores

Analizando las expresiones de los sesgos se aprecia que T2 subestima el verdadero


valor de , ya que BT2 () = 0,25 mientras que para T3 se obtiene un sesgo positivo
BT3 () = 10 y por tanto una sobreestimacin del parmetro.
Se observa adems que en ciertos casos particulares (para T3, por ejemplo) el sesgo
adopta valor constante (en este caso 10 unidades). En general sin embargo el sesgo
es funcin del parmetro desconocido (situacin que se presenta por ejemplo para el
estimador T3, cuya expresin sobreestima sistemticamente el parmetro ).

Cuando el sesgo viene expresado en funcin de no puede ser calificado de alto o


bajo ya que desconocemos la magnitud de . Puede entonces resultar til definir el
sesgo relativo, como cociente entre el sesgo y el parmetro desconocido:

BT ()
BTR () =

A modo de ilustracin, para el estimador T2 se tena un sesgo BT2()=0,25 que
expresado en trminos relativos proporciona el valor BRT2 () = 0,25. Este resultado
permite afirmar que T2 subestima el parmetro en un 25 % de su valor.

Los estimadores insesgados presentan propiedades interesantes:


Proposicin 5.1. Si T es un estimador insesgado de , entonces aT + b es un esti
mador insesgado de a + b, a, b .
Demostracin. La comprobacin de esta propiedad es inmediata, con slo tener pre
sente que la esperanza es un operador lineal:

E(aT+b)=aE(T)+b=a+b

Proposicin 5.2. Si T1 y T2 son dos estimadores insesgados de entonces cualquier


combinacin convexa de ellos es tambin un estimador insesgado.
Demostracin. En efecto, si T1 y T2 son insesgados, se tiene: E(T1) = y E(T2) = .
Dada ahora una combinacin convexa: T = T1 + (1 )T2, 0 << 1, su valor
esperado viene dado por:

E(T) = E(T1 + (1 )T2) = E(T1)+ (1 )E(T2) = + (1 ) =

y por tanto T es insesgado.

As pues, si existen dos estimadores insesgados, entonces existen infinitos.

La figura 5.4 recoge una ilustracin grfica de la idea de estimador centrado o


insesgado. En dicha figura representamos el proceso de estimacin como lanzamientos
sucesivos de dardos a una diana, cuyo punto central se corresponde con el parmetro

174
5. Muestras y estimadores

Figura 5.4.: Eficiencia


Estimador Ta Estimador Tb

desconocido . Los lanzamientos representados son equivalentes a las estimaciones


obtenidas al aplicar T a las realizaciones muestrales, y el error de estimacin es en
cada caso la distancia del dardo al centro de la diana. La figura a) representa una
situacin de ausencia de sesgo en la que los errores cometidos al estimar se compensan
por no tener carcter sistemtico. Los dardos lanzados se distribuyen aleatoriamente
alrededor del centro de la diana o, en otras palabras, las estimaciones se distribuyen
aleatoriamente en torno al parmetro por lo cual E(Ta) = .
La figura 5.4b) representa una situacin bastante distinta, en la que los dardos
lanzados presentan un error sistemtico o sesgo. En este caso los errores cometidos
no parecen debidos nicamente al azar sino ms bien a algn fallo del proceso (algn
defecto de vista del propio tirador, corrientes de aire, un arco defectuoso, ...) por lo
cual la esperanza ya no es el centro de la diana, sino que se sita en la parte superior
derecha.

5.4.2. Eficiencia
El criterio de ausencia de sesgo exige que el valor esperado de los errores sea nulo;
sin embargo, este requisito no ofrece garantas respecto al riesgo de obtener estima
ciones muy alejadas del parmetro.

En efecto, si examinamos de nuevo los grficos de la figura 5.4 vemos que pueden existir estimadores
insesgados cuyo uso no resulta aconsejable. Esta sera la situacin del estimador Ta, ya que su
esperanza (resumen de los lanzamientos) coincide con el parmetro (centro de la diana) pero sin
embargo puede conducir a estimaciones muy distantes del valor central (alta dispersin).
Por el contrario el estimador Tb presenta un sesgo pero, frente a este rasgo negativo, el estimador
tiene a su favor la baja dispersin (los dardos se encuentran concentrados en un radio pequeo, lo
que equivaldra a estimaciones muy prximas entre s).

Supongamos que deseamos elegir un estimador de entre varias expresiones alterna


tivas. Si estas expresiones resultan indiferentes respecto al sesgo (es decir, si todos son
insesgados o bien presentan sesgos idnticos) parece claro que deberamos seleccionar
el estimador con menor riesgo o varianza.

175
5. Muestras y estimadores

Sin embargo, en general necesitaremos comparar estimadores con diferentes sesgos,


por lo cual debemos considerar un criterio ms amplio de seleccin, que tenga en
cuenta tanto el sesgo como el nivel de riesgo asociados a un estimador. Surge as la
idea de eficiencia.
Para comparar la eficiencia de varios estimadores alternativos de un parmetro
estudiaremos los errores asociados a los mismos que, para evitar compensaciones
de signo, elevamos al cuadrado. Este planteamiento conduce al concepto de error
cuadrtico medio.
Definicin 5.9. El error cuadrtico medio (ECM) asociado a un estimador T del
parmetro es una medida de eficiencia definida como el valor esperado del error
cuadrtico de T:

ECMT() = E(e2T) = E(T )2


Dicha medida puede tambin ser formulada como:

ECMT() = B2T() + Var(T)


expresin que se obtiene fcilmente a partir de la anterior y permite distinguir dentro
del error cuadrtico medio dos componentes: sesgo y varianza.

En efecto, a partir de la expresin de la varianza del error Var(eT) = E (e2T ) E2(eT), se obtiene:

E (e2T ) = E2 (eT) + Var(eT) = B2T() + Var(T)


con slo aplicar la definicin de sesgo de T y tener en cuenta que se cumple Var(eT) = Var(T) [por
qu ?].
Otra alternativa ms habitual para llegar a esta expresin consiste en desarrollar el cuadrado del
error:

ECMT() = E (e2T ) = E(T )2 = E(T2 2T + 2) = E(T2) + 2 2E(T) =


= E(T2) E2(T) + E2(T) + 2 2E(T) = Var(T) + B2T()

El error cuadrtico medio es el criterio utilizado para comparar la eficiencia de varios


estimadores de un parmetro.
Definicin 5.10. Para cualesquiera T1 y T2 estimadores de se dir que T1 es ms
eficiente que T2 si su error cuadrtico medio es inferior:

ECMT1() < ECMT2 ()


Volviendo al ejemplo anteriormente considerado, podemos construir ahora los ECM de las tres
expresiones propuestas como estimador del gasto esperado . Teniendo en cuenta los dos componentes
sesgo y varianza, se obtienen los resultados recogidos a continuacin:

Estimador Sesgo Varianza ECM


T1 = X1+X2+X3+X44 0 14 14

T2 = 2X1+X44 0,25 516 0,06252 + 516

T3X1+X2+2X3+X4+505 10 725 100+ 725

176
5. Muestras y estimadores

que permiten concluir que, de las tres expresiones consideradas como estimadores del gasto men-
sual esperado, T1 resulta ser la ms eficiente.

El requisito de eficiencia permite formalizar las propiedades de precisin y exactitud


o acuracidad a las que nos hemos referido en un apartado anterior. La precisin va
referida a la concentracin de la distribucin de las estimaciones respecto al valor es-
perado, y por tanto aparece relacionada inversamente con la dispersin y su indicador,
la varianza.
Por su parte, el requisito de exactitud o acuracidad es ms estricto, por ir referido
a la concentracin de la distribucin de estimaciones respecto al valor verdadero del
parmetro y aparece por tanto inversamente relacionado con el error cuadrtico medio.

Consideremos de nuevo la ilustracin grfica 5.4 de los estimadores Ta y Tb, plantendonos la


pregunta cul de estos estimadores resultara -en trminos relativos- ms eficiente?
La comparacin de la eficiencia de ambos estimadores nos llevar a considerar simultneamente
los componentes de sesgo y riesgo a travs del ECM.
Razonando en trminos grficos a partir de la figura 5.4, el estimador Tb tiene un sesgo representado
por el segmento BT (), mientras que su dispersin puede ser cuantificada a partir del radio de la
circunferencia en la que se incluyen las estimaciones. Si a partir de ambos componentes construimos
un tringulo, el cuadrado de su hipotenusa se correspondera con el ECM, y podra obtenerse como
suma de los cuadrados de los catetos, es decir:

ECMTb () = B2Tb () + Var(Tb)


alcanzando esta expresin valores ms reducidos cuanto ms eficiente sea Tb.
Por su parte, el estimador Ta es insesgado, presentando por tanto un ECM coincidente con su
varianza (aproximacin -salvo constante- del rea del crculo en el que se inscriben las estimaciones).

5.4.3. Mnima varianza


Hasta ahora hemos estudiado la eficiencia como criterio de seleccin entre varios
estimadores. Sin embargo, teniendo en cuenta que podran existir mltiples expresio
nes vlidas como estimadores de cierto parmetro, cabe preguntarse cmo es posible
seleccionar aqulla que resulte, en sentido absoluto, ms eficiente.
Definicin 5.11. Se dice que un estimador T = T(X1,...,Xn) es eficiente cuando
es insesgado y posee mnima varianza.
La condicin de mnima varianza no resulta tan inmediata en su comprobacin como
la de ausencia de sesgo. Sin embargo es posible establecer una cota inferior para la
varianza de cualquier estimador, de modo que si un estimador concreto alcanza esta
cota podemos garantizar que no existe ningn otro estimador de varianza inferior.
Esta acotacin, denominada desigualdad de Frechet-Cramer-Rao, permite una defi
nicin alternativa de la eficiencia:
Teorema 5.1. Sea x = (x1 ,...,xn) una muestra aleatoria extrada de una poblacin
X con distribucin F(x,) y denotemos por L(x,) la funcin de verosimilitud aso
ciada. Si T es un estimador cualquiera de , entonces la varianza de T verifica, bajo
ciertas condiciones de regularidad, la desigualdad:

177
5. Muestras y estimadores

(1+~)Q
Var(T) Z ~

Las condiciones de regularidad necesarias para la demostracin de la desigualdad anterior hacen


referencia a que el campo de variacin de X no dependa del parmetro 9, que el espacio paramtrico G
sea un intervalo que no se reduce a un punto, que existan derivadas de primero y segundo orden de la
funcin de verosimilitud y que se puedan permutar las operaciones de derivabilidad e integrabilidad.
De estas condiciones nos interesa especialmente la primera, que iremos comprobando en las ilus
traciones de este captulo.

En la acotacin de Frechet-Cramer-Rao (F-C-R) puede observarse que slo el nume


rador depende del estimador considerado. En el caso particular de que dicho estimador
sea insesgado, el numerador adopta valor unitario.
Por lo que se reere al denominador de la cota de Frechet-Cramer-Rao, se trata de
una expresin de gran inters, denotada habitualmente por L, y denominada cantidad
de informacin de Fisher. Esta medida es un indicador de la cantidad de informacin
que la muestra contiene sobre el parmetro 9 y para cada muestra aleatoria x viene
dada por la expresin:

I,,(x,9) I E (~)2
Entre los rasgos de esta medida de informacin destacan los siguientes:

PFOPOSCII 5.3. La cantidad de informacin de Fisher puede ser tambin expresada de forma
ms operativa como.

Proposicin.
ln(X,0) E
a2 iiiL(x,0)

DGTLOSTLLCiH. Primero comprobamos:

E(IHL(X,))I !8lnLgX,)L(x76)dX:!(~ 1 )L(x76)dx:


99 9 99 L(x,9)
9 9
I a, f (w. 9 ) d1 I
L ,,,( 1) I 0

Con lo cual su derivada tambin es nula: % (f ~L(x,9)dx) I 0, y desarrollando esta


derivada se tiene:

_ e IHL(X,) _ l62iiiL(x,0) aiiiL(x,0) erase) l


O%(fL(XGIdX)flMXH W ldx
\_\,_/
l -%.5""L<X.9l

178
5. Muestras y estimadores

Por lo tanto:

lIaQ lnL(X,9) lnL(X,9) 6lI1L(X,9)


l|
~

(%+)2
o lo que es lo mismo:

f(~)2L(x,9)dx:f(~)
9 892 L(x,9)dx

que, por denicin de esperanza, coincide con lo que queremos demostrar:

l:|
PFOPOSCII 5.4. La cantidad de informacin es una medida aditiva en el sentido de que la
informacin de Fisher contenida en una m.a.s. de tamao n coincide con la suma de la informacin
contenida en n muestras de tamao unitario:

1,, (x, 9) I nI1(x, 9)

DGTLOSTLLCiH. Partiendo de la denicin de la cantidad de informacin, se tiene:

99959 I 141942451) 4 E 141110124, sisnr 4


2
iiQ, mas

4 E13 2341111704 Q) \_/ 4 E 12:4 lnf(si9)l2


Desarrollando ahora el cuadrado de esta suma y teniendo en cuenta que los componentes de una
in.a.s son independientes se llega al enunciado propuesto:

44x79) 4 E[2:1(%lnf(xiv6))2] JFE[zizj#j(%1nf(xi9))(%11f(93j6))] 4


I 27:1E(6lnf(I,-7g))2+2zE(%lnf(x,9))E(%lnf(xj,9))
7. 9
1 1742
x v 4
IO (propiedad anterior)

4 TLE(%lI1f(I,9))2 4 TLT1(I,)

Con lo cual queda demostrada la propiedad enunciada.



Esta propiedad de aditividad permite obtener la cantidad de informacin asociada a una muestra
global como suma de las cantidades de informacin correspondientes a las distintas submuestras que
la integran. Es interesante sealar sin embargo que este rasgo de aditividad es susceptible de crticas,
dado que no recoge la existencia de "rendimientos marginales decrecientes" en la informacin mues
tral.

Desde un punto de vista intuitivo, parece claro que la cantidad de informacin sobre 9 aportada
por el primer elemento de la muestra 11 (x1 , 9) supera la cantidad de informacin incorporada por el

179
5. Muestras y estimadores

elemento n-simo I1(xn,), ya que en el primer caso se parte de una situacin de desconocimiento
mientras que la informacin asociada al elemento n-simo I1(xn,) se incorpora a partir de un nivel
determinado de informacin In1(x1,...,nn1 ,).

A modo de ilustracin, calculemos la cantidad de informacin y la acotacin de Frechet-Cramer


Rao correspondientes a nuestro ejemplo del gasto normalmente distribuido con dispersin unitaria.

Debemos tener presente que dicha acotacin slo se cumple bajo ciertas condiciones de regularidad.
En concreto, en nuestro ejemplo asumimos un modelo N(,1) por lo cual el recorrido de la variable
es (,+) que no depende del parmetro, y el espacio paramtrico no se reduce a un punto por
incluir todos los posibles valores de .
La funcin de verosimilitud, obtenida anteriormente, viene dada por la expresin:
1 ni=1(xi)2
L(x,) = n2 e12
(2)

A partir de la cual se obtiene:


n
lnL(x,) = n2 ln(2) 1
(xi )2
2 i=1

Y derivando respecto al parmetro :


n n
lnL(x,) =

i=1 (xi ) = xi n
i=1

2 lnL(x,)
2 = n

Se obtiene entonces para la cantidad de informacin de la muestra:

2lnL(x,)2 ]
In(x,) = E [ = E(n) = n

es decir, la cantidad de informacin sobre contenida por una muestra coincide con su tamao n.
Teniendo en cuenta que se cumplen las condiciones de regularidad, la acotacin de Frechet-Cramer
Rao permite afirmar:
1+ )2
BT()
Var(T) > (
n

A partir de esta expresin es sencillo comprobar que la media muestral es un estimador eficiente,
ya que su varianza sera:

Var(X) = 2n = 1
n
y la cota de F-C-R, cuyo numerador es unitario por ser el estimador insesgado, adopta el mismo
valor:
(
1+BX() )2
1
=
n n

180
5. Muestras y estimadores

5.4.4. Suficiencia
Un estudio muestral no podr ser calificado de adecuado si desperdicia o ignora
parte de la informacin disponible. De ah el concepto de suficiencia, entendido como
capacidad de un estadstico para conservar toda la informacin que contiene una
muestra.
Un estadstico suficiente deber resultar igualmente til -en cuanto al objetivo per
seguido en cada caso- que la muestra inicial. Como recoge el esquema siguiente, la idea
de suficiencia exige que toda la informacin de la muestra sea recogida o "atrapada"
por T y en consecuencia, la distribucin de la muestra una vez conocido T ya no
depender del parmetro .
' $
Muestra

(X1,...,Xn) Suficiente?
Sntesis Informacin
sobre la poblacin
Estimador
T(X1,...,Xn)
& %
Como ilustra el esquema anterior, la utilizacin de estimadores supone en cierto
sentido la aplicacin de un filtro a nuestra informacin muestral. Desde un punto de
vista conceptual, la propiedad de suficiencia resulta muy intuitiva, ya que se traducir
en que dicho filtro sea capaz de "asimilar" toda la informacin muestral disponible.
No obstante, desde un punto de vista "tcnico" la comprobacin de la suficiencia no
resulta sencilla.

El concepto de estadstico suficiente fue introducido por Fisher en 1922. Segn dicho autor, un
estadstico es suficiente para los objetivos de la inferencia estadstica si contiene, en cierto sentido,
toda la informacin acerca de la funcin de distribucin a partir de la cual se ha generado la muestra.

Consideremos a modo de ejemplo la estimacin del parmetro poblacional tasa de paro p. La


situacin de cada individuo activo se describe mediante una v.a. dicotmica X que adopta el valor
1 si el individuo se encuentra en paro y 0 en caso contrario, y a partir de muestras de 5 individuos
activos se proponen dos estimadores alternativos de p:

51 5 Xi;
T1 = T2= 1
5(2X1+X2+X5)
i=1

5 2
Estimadores
V.A. T1 T2
35
15 15
25
(0,1,0,0,0)
(0,1,1,1,0)
(1,0,0,0,0)
4 3
Como se aprecia en el cuadro anterior, los estimadores presentan comportamientos distintos frente
al requisito de suficiencia. Para estudiar este comportamiento, consideremos las tres muestras alea
torias representadas, que reflejan situaciones claramente distintas: en la primera y la tercera hay slo
un individuo parado, mientras que en la segunda el nmero de parados se eleva a 3.

181
5. Muestras y estimadores

Cmo recogen esta informacin muestral los dos estimadores propuestos para p? Puede verse que
T1 es capaz de diferenciar las situaciones muestrales registradas pero no sucede lo mismo con T2,
estimador para el que se aprecian dos tipos de contradicciones:
Por una parte, T2 adopta el mismo valor ( 15 ) para dos situaciones muestrales distintas (la primera
muestra con un slo individuo en paro y la segunda con 3 parados).
Adems, se observa que T2 adopta valores distintos para dos situaciones muestrales que resultan
indiferentes. En efecto, la tercera situacin se obtiene como permutacin de la primera, registrando
ambas un slo individuo parado; sin embargo los valores de T2 asociados a dichas muestras son 15 y
2
5 respectivamente.

Definicin 5.12. Se dice que T es un estimador suficiente de si y slo si la


distribucin de una realizacin muestral (x1 ,...,xn) condicionada a un valor T = t
no depende del parmetro , esto es, si la expresin: F(x1,...,xn/T) = t) no depende
de .
La definicin anterior no resulta de fcil aplicacin, ni permite conocer las modifi
caciones necesarias para transformar el estimador en otro suficiente. Debido a estas
limitaciones, el mtodo ms habitual para comprobar la suficiencia de los estadsticos
es el teorema de factorizacin de Fisher-Neyman:
Teorema 5.2. Sea (X1,...,Xn) una m.a.s. de una poblacin X, con funcin de
verosimilitud L(x1,...,xn ,) con y sea T = T(X1,...,Xn) un estadstico para
estimar . Entonces T es suficiente si y slo si es posible la siguiente factorizacin:
L(x1,...,xn,) = h(x1,...,xn)t(t, ) ; (x1,...,xn) n

donde h es una funcin no negativa que slo depende de la muestra (x1 ,...,xn) y g
es una funcin no negativa que slo depende de y del valor del estadstico t.

En este enunciado del teorema de factorizacin se asume que se cumplen las condi
ciones de regularidad exigidas por la acotacin de Frechet-Cramer-Rao. En otro caso
sera necesario que g(t, ) coincidiera con la funcin de densidad del estimador consi
derado.

Bajo las condiciones de regularidad, un mtodo alternativo para comprobar la sufi


ciencia de un estimador se basa en la cantidad de informacin. Recordando el propio
concepto de suficiencia, diremos que un estimador T de es suficiente si y slo si la
cantidad de informacin contenida en T coincide con la informacin de la muestra, es
decir, si se cumple:

In(x,) = I(T,) ; x = (x1 ,...,xn) n

El concepto de suficiencia lleva asociadas varias propiedades de inters:


Proposicin 5.5. Toda funcin inyectiva de un estimador suficiente es tambin su
ficiente

182
5. Muestras y estimadores

Proposicin. Si T1 y T2 son estimadores, el primero suficiente y el segundo con error


cuadrtico medio determinado, entonces es posible obtener otro estimador T3, funcin
del suficiente y con error cuadrtico medio inferior al de T2.

La segunda propiedad permite limitar el nmero de estimadores a considerar en un


problema: bastara con elegir un estimador suficiente, estudiando slo los que fuesen
funcin de l ya que entre ellos estara el ptimo, entendido como aqul que minimiza
el error cuadrtico medio. Como consecuencia de ambas propiedades es posible afir
mar que la clase de estimadores eficientes es un subconjunto de la clase de estimadores
suficientes.

La media muestral es un estimador suficiente de la esperanza poblacional . En


concreto, para nuestro ejemplo del gasto normalmente distribuido X N(,1), a
partir de la funcin de verosimilitud:
(2)n2
1 e 12 ni=1 (xi)2
L(x,) =

se obtiene, desarrollando el sumatorio del exponente:


(2)
1 e12 ni=1 (xi+xx)2 = e12n(x)e 12 ni=1 (xix)2
L(x,) = n2 n2
(2)
1
expresin que cumple el criterio de factorizacin de Fisher-Neyman, ya que:
1 e12n(x) = g(x, ) y e12 ni=1(xix)2 = h(x1,...,x
n2 n)
(2)
Siguiendo el mtodo alternativo anteriormente comentado, para verificar la suficien
cia de la media muestral basta comprobar que su cantidad de informacin coincide
con la de la muestra, esto es:
In(x,) = I(x,) ; x= (x1,...,xn) n

Para el primer trmino de la igualdad ya hemos obtenido In(x,) = n y para


calcular el segundo basta con tener presente que por ser X N(,1), se tiene
( )
X N ,1n

con lo cual su distribucin de probabilidad viene dada por:


( 2
1 x

f(x,)= 1 2 1
e n )
1n 2

obtenindose a partir de ella:

183
5. Muestras y estimadores

Tabla 5.1.: Consistencia


9 6

(X1,...,Xn) {Tn}

..
. +

(X1,...,...,Xn)

lm P(|Tn|
n <)=1
8 n
7

[ ]
2 lnf(x,)
I(x, ) = E =n
2
[Comprubese].

5.4.5. Consistencia
Las propiedades que hemos examinado hasta ahora asumen como dado el tamao
muestral. Sin embargo, parece razonable que cuando la muestra aumente de tamao se
disponga de ms informacin y tengamos una seguridad mayor de que las estimaciones
se concentran en torno al verdadero valor del parmetro. Este requisito, denominado
consistencia, se incluye tambin entre las propiedades exigidas a los estimadores.
El requisito de consistencia viene ilustrado en el esquema 5.1, donde los aumentos
en el tamao de la muestra se corresponden con estimadores que, cada vez con mayor
probabilidad, adoptarn valores en determinado entorno de .

Definicin 5.13. Si partimos de una muestra cuyo tamao podemos aumentar inde
finidamente (n ) y consideramos la sucesin de estimadores Tn de (cada uno
de ellos asociado a un tamao de muestra), se dice que esta sucesin es consisten
te si converge en probabilidad al valor del parmetro. Es decir, la sucesin estima
consistentemente a si:

>0,, lmn P(|Tn|>)=0

184
5. Muestras y estimadores

Este enunciado puede ser tambin interpretado en trminos del error ya que, a me
dida que el tamao muestral aumenta, los errores eTn = Tn convergen a 0.

Si consideramos el ejemplo de los gastos mensuales con el que venimos trabajando, para comprobar
, por tanto (X)
el requisito de consistencia bastara con tener en cuenta que X N ( 1 ), y n
n
N(0, 1), con lo cual se obtiene:

|X |n< n< (X )n<


P (|X | < ) = P ( n) = P ( n) = 2FX ( n) 1

y bastara con tomar valores suficientemente elevados de n para que la probabilidad anterior se apro
xime a 1 (y en consecuencia su complementaria a 0) tanto como queramos.

La aplicacin general del criterio de consistencia al estimador media muestral puede ser efectuada
gracias a la ley dbil de los grandes nmeros, cuyo postulado es:

lm P (|X| > ) =0
, n

y permite calificar a la media muestral de estimador consistente de la media poblacional.

Una formulacin alternativa del criterio de consistencia, viene dada en los siguientes trminos:
dada una sucesin de estimadores Tn del parmetro , se dice que Tn es consistente para si se
cumple:

lm E(Tn) = , lm Var(Tn )=0


n n

Aunque el concepto de consistencia hace referencia a una sucesin de estimadores, habitualmente

se presupone que todos sus miembros gozan de las mismas propiedades, hablando as de estimadores
consistentes.

5.5. Mtodos de obtencin de estimadores


En el epgrafe anterior nos hemos ocupado de las propiedades que debe verificar un
buen estimador, pero no hemos abordado el problema de cmo obtenerlos.
Aunque existen varios procedimientos alternativos, posiblemente el primer criterio
al que acudiramos para construir estimadores sera el de analoga.

Definicin 5.14. Para estimar cierta caracterstica poblacional, denominamos esti


mador analgico a la correspondiente expresin muestral.

Este mtodo es altamente intuitivo, pero sin embargo resulta poco riguroso ya que
no disponemos de herramientas para comprobar de modo general si los estimadores
analgicos cumplen o no las propiedades consideradas deseables.

5.5.1. Mtodo de la mxima verosimilitud


El procedimiento ms empleado para la obtencin de estimadores es el mtodo de la
mxima verosimilitud, debido a las buenas propiedades que presentan los estimadores
que genera.

185
5. Muestras y estimadores

Tabla 5.2.: Estimacin mximo verosmil


1 (
Zonas Tasa de paro Verosimilitud EMV
Europa 12 % L=0,0098 p = 12 %
EEUU 6,2 % L=0,0032
Japn 2,5% L=0,0007
0 )

El planteamiento subyacente a este mtodo es muy intuitivo, tal y como ilustramos


en el siguiente ejemplo, y consiste en aprovechar la informacin muestral para obtener
estimaciones verosmiles de los parmetros desconocidos.

Consideremos una nueva ilustracin basada en nuestro ejemplo de la tasa de paro: disponemos de
una muestra aleatoria de 5 trabajadores procedentes de una delegacin cuyo origen desconocemos.
Para mayor comodidad asumiremos que existen slo las tres posibilidades siguientes:

Si la muestra fuese la recogida en el esquema de la figura 5.2 cul sera el origen ms verosmil de
los trabajadores? o, dicho de otro modo, cul sera la estimacin mximo-verosmil de la tasa de paro
p? Para responder a esta pregunta utilizaremos la informacin disponible, obteniendo la verosimilitud
de la muestra de trabajadores para cada valor posible de p:

L(0,1,1,0,0,pEUROPA )=0,122(1 0,12)3 = 0,0098

L(0,1,1,0,0,pEEUU )=0,0622(1 0,062)3 = 0,0032

L(0,1,1,0,0,pJAPON )=0,0282(1 0,028)3 = 0,0007

A partir de estos resultados podemos calificar de ms verosmil el primer supuesto (Europa, con tasa
de paro del 12%), ya que la muestra efectivamente extrada, con dos trabajadores en paro, resulta
ms verosmil o creible en ese caso.
Es fcil observar que en el mtodo de mxima verosimilitud la muestra desempea un papel cen
tral. En definitiva, el ejemplo anterior se limita a considerar que, si la muestra es representativa de
la poblacin, la muestra mantendr la misma estructura de la poblacin y por tanto resultar ms
probable bajo la composicin correcta que bajo otra cualquiera.

Como hemos visto, el mtodo de mxima verosimilitud consiste en elegir la esti


macin del parmetro que maximiza la funcin de verosimilitud muestral. Su idea es
muy sencilla, ya que conduce a los valores del parmetro que hacen ms probable la
seleccin de la muestra realmente obtenida.
El principio de mxima verosimilitud puede ser descrito en los siguientes trminos:

Definicin 5.15. Se llama estimacin mximo verosmil del parmetro al valor, si


existe, = T(x1,...,xn) que maximiza la funcin de verosimilitud, esto es, un valor
tal que:

L(x1 ,...,xn) = sup


L(x1 ,...,xn)

186
5. Muestras y estimadores

Al estimador correspondiente se denomina estimador mximo verosmil de o abre


viadamente EMV().

Aunque la maximizacin de la funcin de verosimilitud suele conducir a un valor nico , no puede


garantizarse que esto sea cierto en general.
Adems en ciertas ocasiones el valor que hace mxima la funcin de verosimilitud no pertenece
al espacio paramtrico , concluyndose entonces que el EMV de no existe.

La obtencin prctica del estimador mximo verosmil parte de la pregunta cul


es la probabilidad de seleccin de una muestra determinada? Para responderla es
necesario construir la funcin de verosimilitud L(x1 ,....,xn,) que depende de la
distribucin de la poblacin y por tanto del parmetro desconocido.
Una vez construida la funcin L (producto de funciones de densidad o de probabi
lidad segn la variable aleatoria sea continua o discreta) debemos buscar el valor del
parmetro que maximice la probabilidad de la muestra, esto es:

sup L(x1,...,xn,)

Dado que muchas de las funciones de verosimilitud presentan expresiones exponen


ciales, en la prctica resulta habitual -para aumentar la operatividad- trabajar con la
funcin de verosimilitud transformada mediante logaritmos neperianos:
sup lnL(x1,...,xn,)

ya que dicha transformacin (por ser el logaritmo una funcin montona) linealiza las
expresiones a maximizar, sin que ello afecte a sus puntos extremos.

La condicin necesaria de extremo sera:

lnL(x1...,xn,)
=0

obtenindose a partir de esta igualdad la EMV de , que denotamos por .



Este valor debe adems verificar la condicin suficiente de mximo:

2 lnL(x1 ,...,xn ,)
0
2 <

El mtodo de mxima verosimilitud es consistente con la segunda de las interpre


taciones contempladas al definir la funcin de verosimilitud L, esto es, asume como
fijos los datos muestrales, dependiendo su valor del parmetro desconocido.

El mtodo de mxima verosimilitud traslada importantes propiedades a sus estimadores, lo que es


una buena garanta para utilizar EMV.
Proposicin 5.6. Entre las principales propiedades de los estimadores mximo verosmiles des
tacan las siguientes:

187
5. Muestras y estimadores

Bajo condiciones generales, los estimadores mximo verosmiles son consistentes y adems su
distribucin converge a una normal de esperanza y varianza In
1 .

El estimador mximo verosmil es invariante; es decir, si T es un estimador mximo verosmil


de entonces g(T) lo es de g(), siendo g una aplicacin entre intervalos abiertos.

Si existe un estimador suficiente, entonces el estimador mximo verosmil es funcin de l. Si


adems existe un estimador de mnima varianza, ste es de mxima verosimilitud.

Los estimadores mximo verosmiles son asintticamente eficientes.

Estamos ahora en condiciones de deducir el estimador mximo verosmil de la tasa de paro p.


Siguiendo el mtodo anteriormente expuesto, partimos de una realizacin muestral buscando el
valor p que haga mxima la expresin:
L(x,p) = pni=1 xi(1 p)nni=1 xi

que, linealizada mediante logaritmos neperianos, conduce a:

n n
)
lnL(x,p) = i=1 xi lnp+ (n xi ln(1 p)
i=1

La condicin necesaria de extremo, lnL(x,p)p = 0, sera entonces:

ni=1xilnp+ (nni=1xi) ln(1p) n nni=1xi)


p [
] =0 1 i=1 xi =0
p 11p (
cuya solucin conduce al valor:
ni=1 xi
p =
n
[Comprubese que se cumple tambin la condicin suficiente de mximo]
Con nuestra realizacin muestral anterior (0,1,1,0,0) se obtendra el EMV p = 25 = 0,4; es decir,
una tasa de paro del 40 % maximiza la verosimilitud de la muestra observada.

Obsrvese que el proceso seguido parte de una realizacin muestral concreta (x1 ,...,xn), por
lo cual proporciona una estimacin mximo verosmil (que ser la solucin de la ecuacin a la que
conduce la condicin de extremo). El estimador mximo verosmil vendr dado por la correspondiente
expresin aleatoria, funcin de la muestra genrica (X1 ,...,Xn), que en el ejemplo anterior sera:
ni=1 Xi
EMV(p) =
n

De modo anlogo, para deducir el EMV de en el ejemplo de los gastos mensuales, deberamos
partir de la funcin de verosimilitud dada por la expresin:
(2)
2 e12 ni=1(xi)2
L(x,) = n2

que una vez linealizada da lugar a la expresin:


ni=1
lnL(x,) = 12 (xi )2
n2ln(2)

Si ahora derivamos respecto al parmetro e igualamos a cero, se tiene el EMV:

188
5. Muestras y estimadores

Tabla 5.3.: Mtodo de los momentos


9 6
Poblacin X Muestra (X1 ,...,Xn)
Momentos Momentos
Poblacionales muestrales
ni=1 Xi
E(X) n X2i
ni=1
E(X2) n
.. ..
. .
ni=1 Xki
E(Xk)
n
Sistema de k ecuaciones e incgnitas 1,...k
8 7

lnL(x,)
=0 n ni=1 xi
(xi)=0= x
n=
i=1
con lo cual el correspondiente estimador mximo verosmil vendra dado por la expresin:
ni=1Xin
EMV() = = X

5.5.2. Mtodo de los momentos


Otro procedimiento para la obtencin de estimadores es el mtodo de los momentos,
basado en la conexin entre poblacin y muestra.
Cuando nos planteamos aumentar indefinidamente el tamao muestral, extendiendo
la seleccin al conjunto poblacional parece lgico asumir que los resmenes de la
informacin muestral se aproximen a los parmetros desconocidos. De hecho, este es
el planteamiento subyacente en el requisito de consistencia, que inspira tambin un
nuevo procedimiento de obtencin de estimadores llamado mtodo de los momentos.
Definicin 5.16. La estimacin de k parmetros por el mtodo de los momentos con-
siste en resolver el sistema de ecuaciones resultante de igualar los k primeros momen
tos poblacionales, si existen, 1,...,k a los correspondientes momentos muestrales
a1,...,ak .
Dado que los momentos muestrales son estadsticos obtenidos a partir de la muestra
y los momentos poblacionales dependen de la distribucin probabilstica de la variable
aleatoria X y por tanto del correspondiente parmetro (o parmetros), la igualacin
de los momentos da lugar a un sistema de tantas ecuaciones como incgnitas (k pa
rmetros), cuya resolucin proporciona los valores considerados como estimaciones de
los parmetros.

Denominando m1,...,mk a los momentos muestrales se llegara mediante el procedimiento descrito


a un sistema de k ecuaciones con incgnitas 1 ,...,k:

189
5. Muestras y estimadores

1 = h1(m1,...,mk)
2 = h2(m1,...,mk)
..
.
k = hk(m1,...,mk)

El mtodo de los momentos resulta de aplicacin ms sencilla que el de mxima verosimilitud y


conduce a estimadores consistentes. Sin embargo, su utilizacin es menos generalizada ya que los
estimadores mximo verosmiles suelen resultar ms eficientes.

5.5.3. Mtodo de los mnimos cuadrados


Definicin 5.17. El mtodo de los mnimos cuadrados permite obtener estimadores
basndose en minimizar la suma de las desviaciones cuadrticas entre las observaciones
y sus valores esperados, esto es, la expresin:
n
i=1
(Xi E(Xi))2

en la que E(Xi ) sern funcin de los parmetros desconocidos.

La aplicacin de este mtodo resulta operativa en el caso de que E(Xi ) sea una
funcin lineal de los parmetros que deseamos estimar, pero sin embargo no pro
porciona estimadores para parmetros que no figuren en los valores esperados de las
observaciones.
La obtencin de estimadores mnimo cuadrticos (EMC) resulta habitual en los
procesos de regresin, cuando una variable aleatoria Y presenta un valor esperado que
es funcin lineal de una o varias caractersticas X:

E(Y) = 1 +2X2++kXk

Los procedimientos alternativos que hemos examinado conducen en ocasiones a ex


presiones coincidentes para estimar determinado parmetro, llegando a menudo inclu
so a los estimadores analgicos que aconsejaba nuestra intuicin inicial. As la media
poblacional sera estimada a travs de la media muestral X, la proporcin pobla
cional p mediante la proporcin muestral p, etc.

Los mtodos anteriormente recogidos, aunque habituales, no agotan las posibilida


des para la construccin de estimadores. As, en el caso de que las observaciones se
agrupen en intervalos o bien sean frecuencias de sucesos disjuntos resulta aconsejable
el mtodo de la chi-cuadrado mnima, que consiste en minimizar la medida de discre
pancia chi-cuadrado entre las frecuencias observadas y tericas (estas ltimas dadas
en trminos de la probabilidad de la variable y por tanto en funcin de los parme

190
5. Muestras y estimadores

tros). Una ventaja de este mtodo es que los estimadores a los que conduce satisfacen
el requisito de consistencia.

5.6. Algunos estimadores habituales


Las posibilidades inferenciales son ilimitadas como consecuencia de la diversidad de
parmetros de los que puede depender la distribucin de una magnitud aleatoria. Sin
embargo, en la prctica los parmetros habitualmente investigados se corresponden
con las principales caractersticas poblacionales: la esperanza , la varianza 2 y la
proporcin p.
Supongamos por ejemplo que nos interesa la v.a. X: "Consumo de electricidad de
los hogares. Aunque por su propio carcter aleatorio no ser posible llegar a anticipar
el comportamiento de este consumo, si disponemos de informacin muestral podremos
reducir nuestra incertidumbre inicial.
Ms concretamente, si asumimos para X un modelo probabilstico determinado
dependiente de uno o varios parmetros desconocidos, podramos formular algunos
interrogantes del tipo siguiente: cul es el consumo mensual esperado? qu nivel
de dispersin existe entre los consumos de los hogares? qu proporcin de hogares
superan cierta cifra de consumo mensual?
Preguntas similares a las anteriores aparecen con gran frecuencia y una respuesta
adecuada para ellas puede condicionar en gran medida el xito de una investigacin.
Por tanto, resulta aconsejable examinar en detalle las expresiones idneas para la
estimacin de las caractersticas poblacionales de inters.
En los apartados que siguen asumiremos que disponemos de m.a.s. de tamao n
(X1,...,Xn) seleccionadas de la poblacin considerada y analizaremos los estimado
res adecuados para aproximar con la informacin muestral los parmetros objeto de
estudio.

5.6.1. Parmetro media poblacional


Si nuestro primer objetivo es aproximar el consumo esperado , parece lgico re-
sumir la informacin muestral calculando el promedio de consumo para los meses
observados.
El estimador analgico media muestral resulta muy adecuado para llevar a cabo
inferencias sobre la media poblacional = E(X). A partir de una m.a.s. (X1,...,Xn)
la media muestral es una nueva variable aleatoria definida por la expresin:
n
X = Xi
n
1 i=1

Por lo que respecta a las caractersticas de esta variable aleatoria, se obtiene fcil
mente:

191
5. Muestras y estimadores

) 2n ; = n
E (X =;Var (X) = 2X = X

[Efectuar la deduccin de las caractersticas anteriores]


La media muestral es un estimador insesgado de la media poblacional y su riesgo
viene dado en funcin de dos caractersticas: la dispersin poblacional y el tamao de
la muestra.
Para sucesivas realizaciones muestrales el estimador media muestral adoptara va
lores x1, x2,..., xk obtenindose como valor esperado de todos ellos la esperanza po
blacional .
La dispersin asociada a la media muestral viene recogida por su varianza Var(X)
o la correspondiente raz cuadrada, denominada error estndar de la media.

Definicin 5.18. El error estndar de la media muestral se obtiene como cociente


entre la desviacin tpica poblacional y la raz cuadrada del tamao muestral:

X =
n
Esta es la medida de dispersin habitualmente utilizada para la media muestral,
ya que -a diferencia de la varianza- viene expresada en las mismas unidades que la
variable aleatoria X. Como podemos apreciar en su expresin, el error estndar de la
media aparece relacionado directamente con la dispersin poblacional e inversamente
con el tamao de la muestra.

Cuando seleccionamos una nica observacin de la variable aleatoria X la desviacin es-


tndar (que aproxima su dispersin respecto al valor esperado E(X) = ) viene dada por
el parmetro . Si en cambio seleccionamos una muestra aleatoria simple de n elementos
(X1,...,Xn), el riesgo o dispersin respecto al valor esperado disminuir a medida que au-
menta el tamao de la muestra.

Las expresiones anteriores han sido obtenidas para el supuesto de muestreo aleato
rio simple en poblaciones infinitas o bien con reposicin en el caso finito, que hemos
adoptado como situacin de referencia. Sin embargo, como ya hemos comentado, en
la prctica resultan habituales otras tcnicas de seleccin cuyas caractersticas sern
analizadas con detalle en un captulo especfico dedicado al muestreo en poblaciones
finitas.

En concreto, en la prctica es frecuente la seleccin de muestras aleatorias en las que cada


elemento poblacional puede aparecer una vez a lo sumo, esto es, los muestreos aleatorios sin
reposicin o sin reemplazamiento. Las consecuencias de este cambio en el procedimiento de
muestreo -que sern tratadas con detalle en un captulo posterior- aparecen recogidas en la
figura 5.4.

Como ya hemos visto, las condiciones de independencia no son necesarias para calcular

192
5. Muestras y estimadores

Tabla 5.4.: Media muestral en el muestreo aleatorio simple

mtodo de muestreo
con reposicin sin reposicin
Esperanza
Varianza E (X)
Var (X) = E (X) =
= 2n Var (X) = Nn 2
N1 n
Error estndar X = n X = Nn
N1 n

el valor esperado de una suma, por lo cual se sigue cumpliendo en este caso E (X) = . Sin
embargo, se producirn cambios en las medidas de dispersin (varianza y error estndar),
dado que el riesgo disminuye en el muestreo sin reposicin, como consecuencia de la garanta
de no poder observar ms de una vez un mismo elemento.
La expresin de la varianza sera ahora:

N n 1 2
Var (X) =
n
denominndose factor de correccin a la expresin NnN1 que adoptar valores inferiores a la
unidad siempre que n > 1.

5.6.2. Parmetro varianza poblacional 2


Una vez que conocemos los consumos esperados, puede ser relevante investigar su
dispersin poblacional, esto es, cuantificar en qu medida los hogares realizan consu
mos homogneos o existen discrepancias entre las cifras de consumo de electricidad.
Si nuestro objetivo es efectuar inferencias sobre la varianza poblacional 2 una pri
mera posibilidad podra ser partir del estimador analgico de la varianza, que vendra
dado por la expresin aleatoria:
ni=1 ( )2
Xi X
S2n=
n
No obstante, al examinar las caractersticas de esta expresin se comprueba que no
resulta muy adecuada, por ser un estimador sesgado del parmetro 2.
En efecto, desarrollando la esperanza de S2n se obtiene:

n (Xi ] (ni=1 )
X) = E (n X2 1n (
E(S2n ) = E [ i=1 i=1 i X2)
= E Xi2 E X2) =
n 2 n
) ) (
= E (X2i E (X2 = Var(Xi) + E2(Xi) Var X) E2(X) =
= 2+22n2=n 1
2
n
igualdad en la que hemos aplicado la definicin de varianza para las variables Xi y
para la media muestral.

193
5. Muestras y estimadores

El resultado anterior permite afirmar que el estimador analgico de la varianza poblacional


subestima su verdadero valor, ya que conlleva un sesgo negativo:

=2
BS2n (2)
n

[Comprubese]

Con el objetivo de solucionar las limitaciones que presenta en cuanto a la estimacin


insesgada la expresin muestral analgica de 2, definiremos la varianza muestral S2
como la expresin:
ni=1 (Xi X )2
S2 =
n1
Dado que este estimador se diferencia del anterior S2n slo en el denominador, se
verifica la relacin
S2= n1
n S2n

a partir de la cual se comprueba fcilmente que S2 s es un estimador insesgado de la


varianza poblacional:
E(S2)= n n n1
n1E (S2n) n 2=2
= n1
En estadstica clsica resulta comn la denominacin de varianza muestral para el estima
dor analgico, designando al estimador insesgado S2 cuasivarianza muestral. Sin embargo,
hemos considerado ms conveniente utilizar el trmino varianza muestral para la expresin
S2, que ser la utilizada en todos los estudios inferenciales sobre la varianza.

Como hemos visto, la varianza de la media muestral y su error estndar dependen de


la varianza poblacional 2. Por tanto la estimacin de estas caractersticas se efectuar
tambin a partir de la varianza muestral anteriormente definida. As se obtiene:

( ) S2
S2X = V
ar X = ;SX = S
n n

La ausencia de sesgo es una propiedad de gran inters, que justifica la utilizacin de la


varianza muestral S2 en lugar de la expresin analgica S2n. Sin embargo, ello no permite
concluir que el estimador S2 sea mejor, ya que sera necesario estudiar lo que ocurre con las
restantes propiedades.
En concreto, si se admite el supuesto de normalidad para la poblacin estudiada X, es
posible demostrar que el estimador analgico S2n presenta un menor error cuadrtico medio
(y por tanto una mayor eficiencia relativa) que la varianza muestral S2.

194
5. Muestras y estimadores

Tambin comprobaremos ms adelante que en poblaciones finitas cuando las unidades ob


servadas no se reponen a la poblacin, el comportamiento de los estimadores difiere del obte
nido aqu, puesto que la varianza muestral es un estimador sesgado.

5.6.3. Parmetro proporcin poblacional p


La tercera pregunta planteada sobre nuestro ejemplo era qu proporcin de hogares
realizan consumos de electricidad superiores a una cifra determinada? En este caso la
situacin consiste en describir una caracterstica e investigar la proporcin poblacional
asociada a la misma.
Las inferencias sobre la proporcin son frecuentes cuando trabajamos con caracte
rsticas cualitativas (este es el caso de la tasa de paro, el porcentaje de votantes a
favor de cierto candidato, la cuota de mercado de cierto producto, ...) y el estimador
adecuado en estas situaciones es la proporcin muestral que denominamos p.
La proporcin muestral se define como

X
p =
n
donde X es la v.a. que recoge el nmero de elementos de la muestra que presentan la
caracterstica analizada.
As pues, se tiene ahora un caso particular de m.a.s. (X1,...,Xn) donde las variables
Xi son dicotmicas o Bernoulli:
Xi
= 1 si se presenta laencaracterstica
otro caso investigada P(Xi = 1) = p p
Xi = 0 P(Xi =0)=1

siendo por tanto el numerador de la proporcin muestral X = ni=1 Xi una v.a.
distribuida segn un modelo binomial B(n, p).
Como consecuencia, se obtienen las siguientes caractersticas para la proporcin
muestral:E(p)= E ( np = p
Xn )
= 1nE(X) =
( ) n
Var (p) = Var Xn n2Var(X)
1 = np(1p)n2 = p(1p)
=
n
El estimador proporcin muestral podra ser analizado como un caso particular
de la media muestral para variables dicotmicas. No obstante, presenta como rasgo
diferencial la presencia del parmetro p tanto en la esperanza como en la varianza del
estimador, por lo cual resulta conveniente trabajar con estimaciones de la varianza,
dadas por la expresin:

S2(p)=p(1p)n1

Puede comprobarse que esta expresin es insesgada para estimar Var (p) , ya que se obtiene:

195
5. Muestras y estimadores

E [52 03)] E jliiflj I si: (r - f) I si; o) - E (f)


[p - Var (15) - E(152)i I iP(1A P) - Var ? )i
inVar (n - Var (mi - - Var (p)

196
6. Herramientas inferenciales
Como hemos comentado en captulos anteriores, la informacin muestral es el punto
de partida para un amplio abanico de procesos inferenciales. Dichos procesos se basan
en la informacin disponible y tienen como objetivo reducir la incertidumbre, que
puede ir referida a parmetros concretos o a las poblaciones en su conjunto.
Cuando las inferencias que realizamos van referidas a caractersticas poblacionales
concretas, es necesaria una etapa de diseo de estimadores que ya hemos abordado
en el captulo anterior. Una vez que dispongamos de estimadores adecuados para los
parmetros de inters, debemos conectar sus expresiones con modelos probabilsticos
conocidos, tarea de la que nos ocuparemos en este tema. En algunos casos ser posible
adaptar las expresiones a modelos empricos ya estudiados, mientras que en otras
situaciones las necesidades muestrales obligan a definir otra serie de distribuciones de
carcter "artificial" cuya finalidad son precisamente los procesos inferenciales.
Cuando las inferencias son de carcter genrico (por ejemplo, si contrastamos hipte
sis relativas al conjunto de la poblacin) debemos aprovechar la informacin muestral,
construyendo expresiones que permitan efectuar afirmaciones probabilsticas sobre
nuestras conclusiones inferenciales.

6.1. Modelos probabilsticos asociados al muestreo


En este apartado analizamos las distribuciones de probabilidad usuales en los estu
dios inferenciales. Con excepcin del modelo normal, que ya ha sido estudiado y ocupa
un lugar central en los estudios empricos, estas distribuciones muestrales pueden ser
calificadas de "artificiales" por tratarse de modelos no observables en la realidad.
En efecto, las distribuciones probabilsticas asociadas a los procesos inferenciales no
tienen por objeto describir el comportamiento de magnitudes aleatorias sino que se
trata de construcciones "de laboratorio" que aparecen asociadas a ciertas expresiones
muestrales bajo determinados supuestos. Sus distribuciones de probabilidad aparecen
tabuladas y sern herramientas imprescindibles en los anlisis inferenciales.
Como veremos en los apartados que siguen, estas distribuciones muestrales (chi
cuadrado, t de Student, F de Snedecor) se introducen asumiendo ciertos supuestos
o hiptesis sobre la poblacin de partida. Por tanto, resulta interesante conocer en
qu medida se ven afectadas las distribuciones por la alteracin de dichos supuestos,
concepto que se conoce como robustez.

Una distribucin, y los procesos inferenciales basados en la misma, se denominan robustos cuando
no resultan muy sensibles a los cambios en los supuestos de partida, es decir, cuando no presentan

197
6. Herramientas inferenciales

alteraciones graves ante el incumplimiento de las hiptesis poblacionales.

6.1.1. Distribucin Normal


Al examinar los principales modelos probabilsticos tiles en el mbito de la inferen
cia estadstica debemos ocuparnos en primer lugar de la distribucin normal, que a su
importancia en la descripcin de magnitudes econmicas y como lmite de agregados
une ahora su inters desde una ptica inferencial.
Consideremos una m.a.s. (X1,...,Xn) a partir de la cual es posible definir la v.a.
media muestral:
n
Xi
X = i=1
n
n
Como ya hemos visto en captulos anteriores, existen diferentes situaciones en las
que esta expresin seguir una distribucin normal:

Siempre que la poblacin de partida X se distribuya normalmente (X N(, )),


la propiedad de reproductividad garantiza para la media muestral:

, )
Xn N ( n

[Este resultado aparece recogido en un captulo anterior, epgrafe 4.5]

Aun cuando se desconozca el modelo poblacional de partida, los teoremas lmites


permiten afirmar que

, )
Xn N (
n
aproximacin que suele realizarse para tamaos muestrales n > 30. Esta convergencia
generaliza de modo considerable la aplicacin del modelo normal como distribucin
de la media muestral.

Un caso particular de esta segunda situacin se presenta cuando la muestra (X1,...,Xn) est
formada por variables dicotmicas o de Bernoulli. Se obtiene en este caso una suma distribuida
segn un modelo binomial B(n, p) que, gracias al Teorema de De Moivre puede ser aproximada para
tamaos elevados por una distribucin normal:
np, )

Sn N ( np(1 p)

y en consecuencia
(p, )
XnN p(1p)n

198
6. Herramientas inferenciales

6.1.2. Distribucin chi-cuadrado


El modelo chi-cuadrado aparece conectado con la distribucin normal al venir defi
nido en los siguientes trminos:

Definicin 6.1. Dadas n v.a. X1,...,Xn independientes y distribuidas segn un


modelo N(0,1), se define la v.a. chi-cuadrado (o ji-cuadrado) con n grados de libertad,
que denotamos por 2n, como:
n
2n = X2i
i=1

Consideremos una poblacin normal estndar, X N(0,1) y sea (X1,...,X


ni=1 X2i una
n)
muestra aleatoria simple de esa poblacin. Entonces la variable 2n = sigue
una distribucin chi-cuadrado (o ji-cuadrado) con n grados de libertad (basta tener
en cuenta que las componentes de una muestra genrica son independientes e idnti
camente distribuidas).

Cuando partimos de una poblacin normal genrica Y N(,), y consideramos una muestra
aleatoria (Y1 ,...,Yn), entonces la suma de los cuadrados de las variables muestrales tipificadas se
distribuye segn un modelo chi-cuadrado, con n grados de libertad:
ni=1 ( )
Yi
2n

La justificacin en este caso resulta sencilla con slo llevar a cabo un proceso de tipificacin sobre la
(
muestra, definiendo variables Xi = Yi )distribuidas segn modelos N(0,1), a partir de las cuales
se obtiene de forma inmediata la distribucin chi-cuadrado anteriormente definida.

Como consecuencia de su definicin, esta variable adopta valores no negativos, y


su distribucin de probabilidad viene caracterizada por el parmetro n, que recoge el
nmero de sumandos que intervienen en su definicin y se denomina grados de libertad
(g.l.).
Los grados de libertad asociados a una expresin pueden ser interpretados como
"nmero de valores que es posible fijar de modo arbitrario" y aparecen relacionados
con el nmero de variables o tamao muestral n. Una muestra de tamao n tiene
n grados de libertad, pues no establecemos ninguna restriccin sobre los valores que
pueden obtenerse en cada componente y stos se eligen libremente. Por extensin, un
estadstico definido a partir de esa muestra tambin tiene n grados de libertad, salvo
que su expresin est sometida a alguna restriccin, en cuyo caso los niveles de holgura
o libertad se reducen.

Para ilustrar el concepto de grados de libertad supongamos una poblacin N(0, 1) a partir de la
cual extraemos una muestra aleatoria simple de tamao n =3(X1,X2 ,X3) y definimos el estads
tico media aritmtica. Tanto sobre la expresin muestral como sobre la media podemos seleccionar
arbitrariamente 3 valores, por lo cual ste es el nmero de grados de libertad existentes.

199
6. Herramientas inferenciales

Imaginemos por ejemplo, x1 = 4, x2 = 2 y x3 = 9, con lo cual se obtendra la media x = 5; hemos


elegido 3 valores por lo cual el nmero de g.l. es n = 3 (podramos tambin haber fijado dos valores
y la media, con lo cual quedara determinado el tercer valor; por tanto los g.l. siguen siendo 3).
Supongamos ahora que definimos la expresin:

3
(XiX)2
i=1

Resulta sencillo comprobar que en ella podemos seleccionar nicamente dos sumandos, ya que el
tercero quedar automticamente determinado. As, a modo de ejemplo, con la muestra anterior se
tendra (x1 X) = 1, (x2 X) = 3 y la tercera desviacin deber ser obligatoriamente (x3
X)=4
para que se cumpla la propiedad

3
(XiX)=0
i=1
En definitiva, se aprecia que existe una restriccin:
3i=1 (Xi X)=0, equivalente a la definicin
de la media

3i=1
Xi
X =
3

Como consecuencia, se reducen en uno los grados de libertad de la muestra, de modo que la
expresin presenta en este caso 2 g.l.
En el caso de una muestra de tamao n, la expresin ni=1(Xi X)2 tendra n 1 grados de
libertad. De hecho, estos g.l. coinciden con el denominador del estimador insesgado varianza muestral
n
(Xi X)2
i=1
S2 =
n1

A modo de resumen, la tabla siguiente recoge los grados de libertad asociados a expresiones
genricas con y sin restriccin.

Expresin
Variables aleatorias Restricciones g.l.
ni=1X2i X1,...,Xn n

2 X1,...,Xn ni=1Xin=X n-1

n ( ) o bien
XiX X1X,...,XnX
i=1
ni=1 (XiX) =0 n-1

En general, para una muestra de tamao n agrupada en k intervalos o clases, los grados de
libertad sern k 1 ya que,
k1una vez especificadas k 1 frecuencias, la frecuencia restante nk vendr
determinada como n i=1 ni.
Razonando de modo anlogo, dada una muestra de tamao n si se adoptan como constantes k
funciones de los valores muestrales, el nmero de grados de libertad vendr reducido en k.

La funcin de densidad del modelo chi-cuadrado para n g.l. viene dada por la
expresin:

200
6. Herramientas inferenciales

Tabla 6.1.: Modelo 2. Funcin de distribucin

g.l. n
5 10 20
Valores
5 2n 0,5841 0,1088 0,0003

10 0,9248 0,5595 0,0318


20 0,9988 0,9709 0,5421

2n21(n2 )xn21ex2 , x> 0


f(x) =
( n2 ) n
donde representa la funcin matemtica gamma en el punto 2.

La expresin de esta funcin de densidad puede obtenerse en dos etapas: en la primera, se parte
de una variable Xi N(0,1) efectuando sobre la misma el cambio de variable Yi = X2i, con lo cual
se obtiene para Yi una funcin de densidad que corresponde a un modelo gamma de parmetros p =
12,a = 1 . En la segunda etapa, teniendo en cuenta que las Xi son v.a. independientes e idnticamente
2
distribuidas (i.i.d.), es posible aplicar la reproductividad del modelo gamma respecto al parmetro
p; as se tiene:
ni=1Yi=ni=1X2i (p= )
n2 1
,a =
2

La probabilidad de que 2n tome valores en un intervalo [a, b] sera la integral entre


estos lmites de la expresin anterior que slo puede resolverse mediante mtodos
numricos, por lo cual el modelo aparece tabulado para diferentes grados de libertad. A
modo ilustrativo recogemos en la tabla 6.1 algunos valores de su funcin de distribucin
para ciertos g.l.

Sin embargo, conviene sealar que esta estructura de tablas resulta poco til, dado
que en las aplicaciones habituales de esta distribucin nos interesa tener un amplio
recorrido de g.l. y buscaremos el valor correspondiente a determinados centiles (esto
es, valores cuya probabilidad acumulada se sita en el 0,1%, 1%, 5%, etc). De ah
que una estructura ms habitual sea la de la tabla 6.2:
Como puede verse, en la primera columna se recogen los grados de libertad, en la
primera fila el orden de los centiles indicados y en el interior de la tabla aparecen los
distintos valores de la distribucin 2n.

En una aplicacin usual de esta distribucin, lo primero que conoceremos ser el nmero de g.l.,
obtenido directamente a partir del tamao muestral, en segundo lugar fijaremos el nivel de incerti
dumbre (1 %, 5 % o 10 % en general) o bien el nivel de confianza con el que deseamos trabajar (90 %,
95 % o 99 %) y luego buscaremos el valor de la 2n correspondiente a esas restricciones.

201
6. Herramientas inferenciales

Tabla 6.2.: Modelo XL. Valores x para P(X, x)

n\I7 0,01 0,025 0,05 0,1 0,9 0,95 0,975 0,99


1 0,0002 0,0010 0,0089 0,0158 2,7055 8,8415 5,0289 6,6849
2 0,0201 0,0506 0,1026 0,2107 4,6052 5,9915 7,8778 9,2108
8 0,1148 0,2158 0,8518 0,5844 6,2514 7,8147 9,8484 11,8449
4 0,2971 0,4844 0,7107 1,0686 7,7794 9,4877 11,1488 18,2767
5 0,5548 0,8812 1,1455 1,6108 9,2864 11,0705 12,8825 15,0868
6 0,8721 1,2878 1,6854 2,2041 10,6446 12,5916 14,4494 16,8119
7 1,2890 1,6899 2,1678 2,8881 12,0170 14,0671 16,0128 18,4758
8 1,6465 2,1797 2,7826 8,4895 18,8616 15,5078 17,5845 20,0902
9 2,0879 2,7004 8,8251 4,1682 14,6887 16,9190 19,0228 21,6660
10 2,5582 8,2470 8,9408 4,8652 15,9872 18,8070 20,4882 28,2098
11 8,0585 8,8157 4,5748 5,5778 17,2750 19,6751 21,9200 24,7250
12 8,5706 4,4088 5,2260 6,8088 18,5498 21,0261 28,8867 26,2170
18 4,1069 5,0088 5,8919 7,0415 19,8119 22,8620 24,7856 27,6882
14 4,6604 5,6287 6,5706 7,7895 21,0641 28,6848 26,1189 29,1412
15 5,2298 6,2621 7,2609 8,5468 22,8071 24,9958 27,4884 80,5779
16 5,8122 6,9077 7,9616 9,8122 28,5418 26,2962 28,8454 81,9999
17 6,4078 7,5642 8,6718 10,0852 24,7690 27,5871 80,1910 88,4087
18 7,0149 8,2807 9,8905 10,8649 25,9894 28,8698 81,5264 84,8058
19 7,6827 8,9065 10,1170 11,6509 27,2086 80,1485 82,8528 86,1909
20 8,2604 9,5908 10,8508 12,4426 28,4120 81,4104 84,1696 87,5662
21 8,8972 10,2829 11,5918 18,2896 29,6151 82,6706 85,4789 88,9822
22 9,5425 10,9828 12,8880 14,0415 80,8188 88,9244 86,7807 40,2894
28 10,1957 11,6886 18,0905 14,8480 82,0069 85,1725 88,0756 41,6884
24 10,8564 12,4012 18,8484 15,6587 88,1962 86,4150 89,8641 42,9798
25 11,5240 18,1197 14,6114 16,4784 84,8816 87,6525 40,6465 44,8141
26 12,1981 18,8489 15,8792 17,2919 85,5682 88,8851 41,9282 45,6417
27 12,8785 14,5784 16,1514 18,1189 86,7412 40,1188 48,1945 46,9629
28 18,5647 15,8079 16,9279 18,9892 87,9159 41,8871 44,4608 48,2782
29 14,2565 16,0471 17,7084 19,7677 89,0875 42,5570 45,7228 49,5879
80 14,9585 16,7908 18,4927 20,5992 40,2560 48,7780 46,9792 50,8922
40 22,1648 24,4880 26,5098 29,0505 51,8051 55,7585 59,8417 68,6907
50 29,7067 82,8574 84,7648 87,6886 68,1671 67,5048 71,4202 76,1589
60 87,4849 40,4817 48,1880 46,4589 74,8970 79,0819 88,2977 88,8794
70 45,4417 48,7576 51,7898 55,8289 85,5270 90,5812 95,0282 100,4252
80 58,5401 57,1582 60,8915 64,2778 96,5782 101,8795 106,6286 112,8288
90 61,7541 65,6466 69,1260 78,2911 107,5650 118,1458 118,1859 124,1168
100 70,0649 74,2219 77,9295 82,8581 118,4980 124,8421 129,5612 185,8067

202
6. Herramientas inferenciales

Figura 6.1.: 2n. Funcin de densidad


0.12
Chi-cuadrado(28)
Chi-cuadrado(8)

0.1

0.08

d
a
di
s 0.06
n
e
D

0.04

0.02

0 0 10 20 30 40 50 60
E(X)=8 E(X)=28

En la tabla 6.1 observamos cmo para determinados grados de libertad la probabilidad acumulada
aumenta con el valor de la 2n o bien para un valor fijo de sta, la probabilidad disminuye conforme
aumentan los grados de libertad. Siguiendo el mismo razonamiento, la tabla nos muestra cmo fijados
los grados de libertad, los valores de 2n aumentan con el valor de la probabilidad, mientras para una
probabilidad acumulada fija estos valores aumentan con los grados de libertad.
Intuitivamente este comportamiento es muy razonable, teniendo en cuenta que Xi N(0,1) y X2i
toma slo valores positivos, con valor esperado la unidad. Por tanto, cuando definimos
n
2n = X2i
i=1

a medida que aumenta n se incrementa el valor esperado de la expresin y el punto donde se alcanza
determinada probabilidad acumulada se desplaza a la derecha.

La representacin grfica del modelo chi-cuadrado aparece recogida en la figura 6.1.


Esta funcin presenta una forma ms simtrica a medida que aumentan sus grados de
libertad n.
Las caractersticas del modelo chi-cuadrado dependen nicamente de sus grados
de libertad: E (2n ) = n, Var (2n ) = 2n. Esta relacin directa con n es razonable
puesto que las variables cuya suma da lugar a la 2n estn normalizadas y por tanto
no dependen de los valores de cada Xi. En la tabla 6.1 podemos observar que cuando el
valor de la chi-cuadrado coincide con el nmero de grados de libertad, la probabilidad
acumulada, aunque algo superior, se sita prxima a 0,5.
Proposicin 6.1. El modelo probabilstico chi-cuadrado es reproductivo respecto a los
grados de libertad, esto es, dadas dos v.a. independientes X e Y con distribuciones
respectivas 2n y 2m es posible afirmar que su suma (X + Y) se distribuye segn un
modelo 2n+m.

203
6. Herramientas inferenciales

Demostracin. La comprobacin de la reproductividad es inmediata a partir de la


definicin vista para el modelo chi-cuadrado, ya que se tendra:
n
X= X2i , con (X1,...,Xn) m.a.s. extrada de una poblacin X N(0,1)
i=1
m
Si =
Y operamos
Y2i el
concambio Xn+1 =m.a.s.
(Y1,...,Ym) Y1, Xn+2 = Y2,de...,
extrada unaXn+m = Yn, Yentonces
poblacin N(0,1)
podemos
i=1

escribir:
n+m
X +Y = X2i (6.1)
i=1

Adems X1,...,Xn son independientes por tratarse de una m.a.s, Xn+1,...,Xn+m


lo son por tratarse de otra muestra aleatoria y adems, por ser las variables X e Y
independientes, tambin lo son las muestras entre s. Como consecuencia, el sumatorio
6.1 es por definicin una chi-cuadrado con n + m g.l.

Desde un punto de vista intuitivo, la reproductividad va directamente asociada a la


interpretacin de los grados de libertad: si en las variables X e Y se tienen holguras
de n y m valores respectivamente, la consideracin conjunta de ambas caractersticas
aleatorias nos proporcionar libertad para fijar un total de n + m valores.
Proposicin 6.2. Para tamaos elevados de muestra la distribucin chi-cuadrado
puede ser aproximada por el modelo normal.

Demostracin. En efecto, aplicando el TCL a una sucesin de variables 2n indepen


dientes, su suma se distribuira segn un modelo normal cuya esperanza y varianza se
obtienen como sumas de las correspondientes caractersticas de cada sumando.
Este resultado puede ser aplicado a la siguiente sucesin: 211 = X21,...,21n = X2n
cuyos elementos presentan distribucin chi-cuadrado con un grado de libertad y son
variables independientes por serlo las componentes muestrales. As se obtiene:
2n= n
N (n, 2n)
21i
i=1

Sin embargo, para obtener una convergencia ms rpida utilizamos la aproximacin:


22n
2n1N(0,1) (6.2)
)
En la tabla que sigue aparecen calculadas por distintos mtodos las probabilidades P (2n n ,
esto es, la probabilidad acumulada hasta el valor esperado para diferentes grados de libertad.

204
6. Herramientas inferenciales

)
g.l. y valores P (2n x Aprox. TCL Aprox. rpida
n=30, x=30 0,5343 0,5 0,5258
n=50, x=50 0,5266 0,5 0,5200
n=100, x=100 0,5188 0,5 0,5141
n=500, x=500 0,5084 0,5 0,5063

En la segunda columna, que recoge los resultados de esta probabilidad calculada mediante el
modelo chi-cuadrado, se observa que dicha probabilidad converge lentamente hacia 0,5 a medida que
aumentan los tamaos muestrales. En cambio, la aproximacin de estas probabilidades mediante la
aplicacin del TCL, que se recoge en la columna tercera, da siempre un resultado constante e igual
a 0,5.
Por ltimo, la aproximacin que hemos denominado rpida (6.2) subvalora la verdadera probabi
lidad, aunque se aproxima considerablemente al valor verdadero a medida que n aumenta. De ah que
sta ser la aproximacin utilizada siempre que dispongamos de tamaos muestrales suficientemente
elevados.
[En realidad, habra que tener en cuenta que en todas las situaciones - incluida la que hemos llama
do verdadera probabilidad- se utilizan algoritmos de clculo numrico con lo cual se trata siempre
de aproximaciones].

La distribucin chi-cuadrado tambin aparece ligada a otros modelos de probabilidad. As, dada
una v.a. distribuida uniformemente en el intervalo (0, 1) y siendo (X1,...,Xn) una m.a.s. de esa
poblacin, entonces la variable:

ni=1X2i ) = n
ln ( lnX2i
i=1
sigue una distribucin 2n.
El signo negativo de la expresin anterior se debe a que los valores de Xi son inferiores a la unidad
y por tanto sus logaritmos resultan negativos.

El modelo chi-cuadrado desempea un papel destacado en los procesos inferencia


les. Concretamente, esta es la distribucin de probabilidad que aparece asociada a
las inferencias relativas a la dispersin poblacional, y adems su utilizacin es muy
frecuente en la inferencia no paramtrica (por ejemplo, cuando realizamos contrastes
de independencia, de bondad de ajuste, de homogeneidad, ...).

Karl Pearson (1857-1936), considerado por algunos autores como el fundador de la ciencia esta
dstica, fue el primero en introducir el modelo chi-cuadrado, en el ao 1900, como expresin vlida
para contrastar la bondad del ajuste de una distribucin terica a la observada.
Pearson obtuvo tambin un sistema de curvas de frecuencias generalizadas basndose en una sola
ecuacin diferencial obteniendo los parmetros por el mtodo de los momentos. Esta aportacin con
virti al modelo chi-cuadrado en una herramienta bsica del anlisis estadstico, hecho que explica
la mayor relevancia otorgada a Pearson que a Helmert, autor que le precedi cronolgicamente ob
teniendo, en 1875, la distribucin de la varianza muestral para una poblacin con distribucin normal.

205
6. Herramientas inferenciales

Teorema de Fisher
La generalidad del modelo chi-cuadrado como distribucin muestral se debe en gran
medida al Teorema de Fisher, que garantiza la independencia entre los estadsticos
media y varianza muestral, as como un modelo probabilstico relacionado con esta
ltima.

Teorema 6.1. Dada una m.a.s. (X1,...,Xn) extrada de una poblacin N(,), se
cumple:
La media muestral X y la varianza muestral S2 son variables aleatorias inde
pendientes.
(n 1)S2
La expresin aleatoria 2 se distribuye segn un modelo chi-cuadrado
con n-1 grados de libertad (2n1).
Demostracin. El primero de los resultados del teorema de Fisher se basa en el hecho de que el
vector (X1 X,...,X
n
X) es independiente de la media muestral por lo cual S2, que es funcin del
vector (X1 X,...,X
n
X), tambin ser independiente de X. Este resultado puede demostrarse
construyendo la funcin generatriz de momentos n+1-dimensional del vector ( X,X1 X,...,X
X)
n
y viendo que dicha funcin se puede factorizar como un producto de dos f.g.m.: una correspondiente
a X y la otra al vector (X1 X,...,X
n
X), lo cual es una condicin necesaria y suficiente (como
hemos visto en el captulo 4) para la independencia entre las dos variables.
Es posible garantizar que esta independencia entre las variables X y S2 slo se obtiene cuando la
poblacin de partida es normal.
Por lo que se refiere al segundo resultado del teorema de Fisher, ste se basa en la descomposicin:
ni=1 ( )2 = )2
Xi (n1)S22 + (X
2n

en la que se cumple:

n ( 2 ;
(
Xi ) X )
2n 22
n
21 ; [Justifquese por qu ]
i=1

Adems, gracias al primer resultado del teorema de Fisher podemos garantizar que los sumandos
)2
(n 21)S2 y (X
2
n
son independientes, y por tanto la reproductividad de la distribucin chi-cuadrado garantiza que la
(n 1)S2
expresin 2 se distribuir segn un modelo 2n1.

En el caso particular de que la distribucin poblacional fuese N(0,1), entonces la comprobacin


(n 1)S2 2n1 podra hacerse de forma directa:
) X2inX2=n X2i(nX)2
n
( )2 = n (XiX
2n=n
(n1)S2 = Xi X n
i=1 i=1 i=1 i=1
donde, teniendo en cuenta que

206
6. Herramientas inferenciales

( )
1 y
X N 0, nXN(0,1)
n
obtenemos nuevamente la definicin de 2n1.

El enunciado de Fisher garantiza un modelo probabilstico chi-cuadrado conectado


a la dispersin muestral. Los grados de libertad de esta distribucin sern n1, debido
a que en la expresin de S2 aparece la restriccin
n
Xi
X = i=1
n
que reduce en uno los niveles de libertad de la muestra.

Siguiendo este mismo planteamiento, cada restriccin adicional que limite la posibilidad de elegir
las componentes de la expresin supondra una nueva reduccin en los grados de libertad.

6.1.3. Distribucin t de Student


La necesidad de trabajar con muestras de pequeo tamao limita la aplicabilidad
del modelo normal, y justifica la utilizacin de la distribucin denominada t de Stu
dent, cuya aparicin histrica ilustra la interaccin entre el desarrollo de las tcnicas
estadsticas y los problemas del mundo real.
Definicin 6.2. Dadas dos variables aleatorias independientes X N(0,1) e Y 2n,
la variable aleatoria

X
t=
Yn

se distribuye segn un modelo t de Student con n grados de libertad (tn).


La derivacin del estadstico t se debe a W. S. Gosset, empleado de las industrias cerveceras
Guinness, quien se enfrentaba a la necesidad de estimar, a partir de muestras pequeas, parmetros
relativos a la fermentacin de la cerveza. Dado que la compaa Guinness, para evitar el espionaje
industrial, no autorizaba a sus empleados a publicar los resultados de sus investigaciones, Gosset
(1908) utiliz el seudnimo Student que an en la actualidad da nombre a la distribucin t.

Si consideramos una poblacin X N(0,1) y una m.a.s. de la misma, (X1,...,Xn), entonces la


expresin:

X
t=
X21++X2n
n1
sigue una distribucin t con n g.l. (tn). Del mismo modo, teniendo en cuenta los comentarios del
epgrafe anterior, podemos afirmar que:

X
t=
(Xi X )2
n
i=1
n1

207
6. Herramientas inferenciales

Figura 6.2.: Modelo t de Student


0.5
E(X)=0 t(30)
t(8)

0.4
0.3
0.2
0.1
0 -5 -4 -3 -2 -1 0

1 2 3 4 5

sigue el modelo t con n 1 g.l. (tn1).

Si la poblacin X sigue un modelo normal general, X N(, ) y (X1 ,...,Xn) es una m.a.s. de
X, entonces considerando los cambios de variable:

X
y
Yi = Xi
Y =

para i = 1,2,...,n, y aplicando los estadsticos anteriores a las nuevas variables, se tiene:

n
X n )2 X
t= tn y t= tn1
(Xi X )2
i=1(Xi n
i=1
n1

El modelo t es en muchos sentidos similar al normal que aparece en su numerador,


ya que se trata de una distribucin unimodal simtrica y campaniforme. Este mo
delo viene caracterizado por el parmetro n, que representa sus grados de libertad,
coincidentes con los de la distribucin chi-cuadrado que aparece en su denominador.
La funcin de densidad del modelo tn viene dada por la expresin:
f(x)=1n(n+12)(n2)(1+x2n)n+12 <x<

La esperanza y la varianza de esta distribucin son respectivamente:


n
E(tn)=0 y Var(tn) =
n 2

208
6. Herramientas inferenciales

observndose que el riesgo del modelo disminuye a medida que aumentan los grados de libertad de
la distribucin t de Student (se cumple lmn Var(tn )=1).

Por lo que se refiere a la utilizacin de las tablas (6.3), el procedimiento es similar


al estudiado para la distribucin 2n y consiste en buscar en la tabla los valores corres
pondientes a determinados niveles de probabilidad y para ciertos grados de libertad.
Sin embargo, dado que la densidad de la distribucin t de Student es simtrica, las
tablas pueden ser utilizadas buscando probabilidades correspondientes a las reas de
una sola cola (indicadas en la fila superior) o de las dos colas (tal y como recoge la
fila inferior). Obsrvese que para cualquier t > 0 se cumple: P(|tn| > t)=2P(tn > t).
Como ya hemos comentado, para valores elevados de n la distribucin t se aproxima
por el modelo N(0,1). Sin embargo, como muestra la figura 6.3, se obtienen aproxi
maciones ms adecuadas adoptando un modelo normal con la verdadera dispersin de
la variable X (en la tabla se observa que, incluso para valores bajos de los grados de
libertad n, las discrepancias aparecen slo en la cuarta cifra decimal).

6.1.4. Distribucin F de Snedecor


La distribucin denominada F de Snedecor juega un importante papel en la com
paracin de la homogeneidad de varias poblaciones y viene definida en los siguientes
trminos:
Definicin 6.3. Dadas dos v.a. independientes X e Y distribuidas segn modelos de
probabilidad 2n y 2m respectivamente, la expresin
XnYm
F=

sigue un modelo F de Snedecor con n y m grados de libertad, que denotamos por Fn,m
o Fnm (indicando as que tenemos n g.l. en el numerador y m en el denominador).

Debido a su construccin como cociente de dos modelos chi-cuadrado, la distribu


cin F viene caracterizada por dos parmetros, que describen los grados de libertad
en el numerador y el denominador respectivamente.

Sean X e Y dos poblaciones distribuidas segn modelos N(0,1). Dadas dos m.a.s. independientes
extradas de esas poblaciones (X1,...,Xn) y (Y1,...,Ym), entonces la expresin:
n
1 n
X2i
i=1
F = m
1 i=1
m
Y2i
sigue una distribucin F de Snedecor con grados de libertad n y m ( Fnm).

Si las variables poblacionales fuesen N(X ,X) y N(Y ,Y) respectivamente, entonces la expre
sin:

209
6. Herramientas inferenciales

Tabla 6.3.: Modelo t de Student. Valores x para p = P(|tn| x)

n/p 0,001 0,0025 0,005 0,01 0,025 0,05 0,1 0,25


1 636,6192 254,6466 127,3213 63,6567 25,4517 12,7062 6,3138 2,4142
2 31,5991 19,9625 14,0890 9,9248 6,2053 4,3027 2,9200 1,6036
3 12,9240 9,4649 7,4533 5,8409 4,1765 3,1824 2,3534 1,4226
4 8,6103 6,7583 5,5976 4,6041 3,4954 2,7764 2,1318 1,3444
5 6,8688 5,6042 4,7733 4,0321 3,1634 2,5706 2,0150 1,3009
6 5,9588 4,9807 4,3168 3,7074 2,9687 2,4469 1,9432 1,2733
7 5,4079 4,5946 4,0293 3,4995 2,8412 2,3646 1,8946 1,2543
8 5,0413 4,3335 3,8325 3,3554 2,7515 2,3060 1,8595 1,2403
9 4,7809 4,1458 3,6897 3,2498 2,6850 2,2622 1,8331 1,2297
10 4,5869 4,0045 3,5814 3,1693 2,6338 2,2281 1,8125 1,2213
11 4,4370 3,8945 3,4966 3,1058 2,5931 2,2010 1,7959 1,2145
12 4,3178 3,8065 3,4284 3,0545 2,5600 2,1788 1,7823 1,2089
13 4,2208 3,7345 3,3725 3,0123 2,5326 2,1604 1,7709 1,2041
14 4,1405 3,6746 3,3257 2,9768 2,5096 2,1448 1,7613 1,2001
15 4,0728 3,6239 3,2860 2,9467 2,4899 2,1314 1,7531 1,1967
16 4,0150 3,5805 3,2520 2,9208 2,4729 2,1199 1,7459 1,1937
17 3,9651 3,5429 3,2224 2,8982 2,4581 2,1098 1,7396 1,1910
18 3,9216 3,5101 3,1966 2,8784 2,4450 2,1009 1,7341 1,1887
19 3,8834 3,4812 3,1737 2,8609 2,4334 2,0930 1,7291 1,1866
20 3,8495 3,4554 3,1534 2,8453 2,4231 2,0860 1,7247 1,1848
21 3,8193 3,4325 3,1352 2,8314 2,4138 2,0796 1,7207 1,1831
22 3,7921 3,4118 3,1188 2,8188 2,4055 2,0739 1,7171 1,1815
23 3,7676 3,3931 3,1040 2,8073 2,3979 2,0687 1,7139 1,1802
24 3,7454 3,3761 3,0905 2,7969 2,3909 2,0639 1,7109 1,1789
25 3,7251 3,3606 3,0782 2,7874 2,3846 2,0595 1,7081 1,1777
26 3,7066 3,3464 3,0669 2,7787 2,3788 2,0555 1,7056 1,1766
27 3,6896 3,3334 3,0565 2,7707 2,3734 2,0518 1,7033 1,1756
28 3,6739 3,3214 3,0469 2,7633 2,3685 2,0484 1,7011 1,1747
29 3,6594 3,3102 3,0380 2,7564 2,3638 2,0452 1,6991 1,1739
30 3,6460 3,2999 3,0298 2,7500 2,3596 2,0423 1,6973 1,1731
40 3,5510 3,2266 2,9712 2,7045 2,3289 2,0211 1,6839 1,1673
50 3,4960 3,1840 2,9370 2,6778 2,3109 2,0086 1,6759 1,1639
60 3,4602 3,1562 2,9146 2,6603 2,2990 2,0003 1,6706 1,1616
70 3,4350 3,1366 2,8987 2,6479 2,2906 1,9944 1,6669 1,1600
80 3,4163 3,1220 2,8870 2,6387 2,2844 1,9901 1,6641 1,1588
90 3,4019 3,1108 2,8779 2,6316 2,2795 1,9867 1,6620 1,1578
100 3,3905 3,1018 2,8707 2,6259 2,2757 1,9840 1,6602 1,1571

210
6. Herramientas inferenciales

Figura 6.3.: Modelo t. Aproximacin normal


0.5
N(0,1)
t(30)

0.4

0.3
0.2
0.1
0

-5 -4 -3 -2 -1 0 1 2 3 0, 4 5
)
P(tn x) n
g.l. y valores Aprox. N(0,1) Aprox. N ( n2

n = 10,x = 1,96 0,9608 0,9750 0,9602


n = 30,x = 1,96 0,9703 0,9750 0,9709
n = 50,x = 1,96 0,9722 0,9750 0,9726
n = 100,x = 1,96 0,9736 0,9750 0,9738

211
6. Herramientas inferenciales

n
1 n
(XiX)2
F= i=1
m
1 m
(YiY)2
i=1
sigue tambin un modelo Fnm.

R. A. Fisher (1890-1962) fue el primero en estudiar la distribucin del cociente de varianzas. Estos
estudios fueron proseguidos por G. W. Snedecor (1881-1974), autor de la obra Statistical Methods
(1937) quien denomin F a la distribucin de la razn de varianzas en honor de Fisher.
Existe tambin una distribucin denominada z de Fisher que se obtiene mediante una transfor
macin de la F de Snedecor:

z= 12lnF
que resulta de utilidad para llevar a cabo inferencias relativas a la correlacin entre variables.

La funcin de densidad de la distribucin Fnm viene dada por la expresin:

(n2 )(m2 )xn21(nx+m)n+m


f(x)=nn2mm2 ( n+m2 )
2

; x>0

Las caractersticas del modelo F de Snedecor aparecen relacionadas con sus grados de libertad.
As se obtiene:
E(Fnm)=nn2 conn>2

y
2n2(n+m2)
Var (Fm
n
) = m(n2)2(n4) con n > 4

Por lo que se refiere a la representacin grfica, esta distribucin presenta una forma
similar a la del modelo chi-cuadrado, tal y como puede apreciarse en la figura 6.4.
Para tabular las probabilidades de este modelo es necesario recoger los grados de
libertad tanto del numerador (n) como del denominador (m), por lo cual cada tabla
contiene valores de la distribucin que llevan asociada una probabilidad fija. En la
tabla 6.4 recogemos una de las situaciones ms habituales, con probabilidades en la
cola derecha del 5% (esto es P (F n > x)=0,05 y por tanto P (F n x)=0,95).
m m
En general, utilizaremos las tablas del modelo F cuando disponemos de informacin
sobre los tamaos muestrales y fijamos alguna probabilidad para la cola derecha de la
distribucin.
La interseccin en las tablas entre la columna y la fila asociadas a los g.l. del
numerador y del denominador proporciona el valor de la distribucin que deja a su
derecha la probabilidad fijada.
La utilizacin prctica del modelo F de Snedecor se beneficia en gran medida de la
propiedad de inversin.

212
6. Herramientas inferenciales

Tabla 6.4.: Modelo F de Snedecor. Valores x para P(Fnm x)=0,05

gld/n 1 2 3 4 5 6 7 8 9 10
1 161,448 199,500 215, 707 224,583 230,162 233,986 236,768 238,883 240,543 241,882
2 18,513 19,000 19, 164 19,247 19,296 19,330 19,353 19,371 19,385 19,396
3 10,128 9,552 9, 277 9,117 9,013 8,941 8,887 8,845 8,812 8,786
4 7,709 6,944 6, 591 6,388 6,256 6,163 6,094 6,041 5,999 5,964
5 6,608 5,786 5,409 5,192 5,050 4,950 4,876 4,818 4,772 4,735
6 5,987 5,143 4,757 4,534 4,387 4,284 4,207 4,147 4,099 4,060
7 5,591 4,737 4,347 4,120 3,972 3,866 3,787 3,726 3,677 3,637
8 5,318 4,459 4,066 3,838 3,687 3,581 3,500 3,438 3,388 3,347
9 5,117 4,256 3,863 3,633 3,482 3,374 3,293 3,230 3,179 3,137
10 4,965 4,103 3,708 3,478 3,326 3,217 3,135 3,072 3,020 2,978
11 4,844 3,982 3,587 3,357 3,204 3,095 3,012 2,948 2,896 2,854
12 4,747 3,885 3,490 3,259 3,106 2,996 2,913 2,849 2,796 2,753
13 4,667 3,806 3,411 3,179 3,025 2,915 2,832 2,767 2,714 2,671
14 4,600 3,739 3,344 3,112 2,958 2,848 2,764 2,699 2,646 2,602
15 4,543 3,682 3,287 3,056 2,901 2,790 2,707 2,641 2,588 2,544
16 4,494 3,634 3,239 3,007 2,852 2,741 2,657 2,591 2,538 2,494
17 4,451 3,592 3,197 2,965 2,810 2,699 2,614 2,548 2,494 2,450
18 4,414 3,555 3,160 2,928 2,773 2,661 2,577 2,510 2,456 2,412
19 4,381 3,522 3,127 2,895 2,740 2,628 2,544 2,477 2,423 2,378
20 4,351 3,493 3,098 2,866 2,711 2,599 2,514 2,447 2,393 2,348
21 4,325 3,467 3,072 2,840 2,685 2,573 2,488 2,420 2,366 2,321
22 4,301 3,443 3,049 2,817 2,661 2,549 2,464 2,397 2,342 2,297
23 4,279 3,422 3,028 2,796 2,640 2,528 2,442 2,375 2,320 2,275
24 4,260 3,403 3,009 2,776 2,621 2,508 2,423 2,355 2,300 2,255
25 4,242 3,385 2, 991 2,759 2,603 2,490 2,405 2,337 2,282 2,236
26 4,225 3,369 2, 975 2,743 2,587 2,474 2,388 2,321 2,265 2,220
27 4,210 3,354 2, 960 2,728 2,572 2,459 2,373 2,305 2,250 2,204
28 4,196 3,340 2, 947 2,714 2,558 2,445 2,359 2,291 2,236 2,190
29 4,183 3,328 2, 934 2,701 2,545 2,432 2,346 2,278 2,223 2,177
30 4,171 3,316 2, 922 2,690 2,534 2,421 2,334 2,266 2,211 2,165
40 4,085 3,232 2, 839 2,606 2,449 2,336 2,249 2,180 2,124 2,077
50 4,034 3,183 2, 790 2,557 2,400 2,286 2,199 2,130 2,073 2,026
60 4,001 3,150 2, 758 2,525 2,368 2,254 2,167 2,097 2,040 1,993
70 3,978 3,128 2, 736 2,503 2,346 2,231 2,143 2,074 2,017 1,969
80 3,960 3,111 2, 719 2,486 2,329 2,214 2,126 2,056 1,999 1,951
90 3,947 3,098 2, 706 2,473 2,316 2,201 2,113 2,043 1,986 1,938
100 3,936 3,087 2, 696 2,463 2,305 2,191 2,103 2,032 1,975 1,927

213
6. Herramientas inferenciales

Figura 6.4.: Modelo F de Snedecor. Funcin de densidad


0.9
F(10, 10)
F(30, 30)

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 1 2 3 4 5 6

Proposicin 6.3. Si una variable X se distribuye segn un modelo Fnm entonces su


1
inversa X aparece tambin distribuida segn este modelo, invertido el orden de sus
grados de libertad (F m ).n

Demostracin. En efecto, si una variable X sigue distribucin F con grados de libertad


n y m, entonces puede ser expresada como:
2n
X= n2m
m Fnm

y calculando su inversa se obtiene


2m
1
= m2n
n
Fmn
X

Esta propiedad de inversin rentabiliza el uso de las tablas de la F, ya que permite limitar la
informacin contemplando un mayor recorrido de los grados de libertad en el numerador o en el
denominador, de forma que si la probabilidad buscada no aparece en las tablas podemos llevar a
cabo la transformacin:
( ) ( )
F(Fnmx)=P =P Fmn1x
1Fnm
1x

De esta forma, combinando inversos y complementarios podemos resolver buena


parte de las lagunas que presentan estas tablas.

214
6. Herramientas inferenciales

Otra propiedad interesante de la distribucin F de Snedecor es su conexin con el


modelo t de Student:
Proposicin 6.4. Si X es una variable con distribucin t de Student de m grados de
libertad (X tm) entonces la variable X2 sigue un modelo Fm1.

Demostracin. En efecto, por definicin de la distribucin t de Student, la variable X


es de la forma:

X=N(0,1)
2m
m

con lo cual para su cuadrado se tiene:


21
X2=(N(0,1))22m
=F1m
= 12m
m m

6.2. Procesos inferenciales y distribuciones asociadas


Un proceso inferencial consiste en utilizar de forma coordinada gran parte de las
tcnicas que hemos analizado en captulos anteriores. De este modo, una vez decidido
el objetivo de nuestros estudios ser posible determinar las expresiones muestrales ade
cuadas para cada caso y conectar dichas expresiones con algn modelo probabilstico
conocido.
Este procedimiento ser a su vez el punto de partida para los captulos posteriores,
en los que abordaremos diversos objetivos inferenciales mediante dos tcnicas diferen
ciadas: la estimacin y el contraste de hiptesis.
El objetivo de la inferencia ser en cualquier caso la investigacin de una o varias
poblaciones que identificamos con variables aleatorias y sobre las que existe incerti
dumbre. En ocasiones nos centraremos en ciertos parmetros poblacionales que deno
tamos genricamente por , mientras que en otros casos abordaremos caractersticas
ms genricas como la aleatoriedad, la distribucin probabilstica de la poblacin o la
independencia entre dos poblaciones.

Conviene destacar la importancia de estas caractersticas genricas, que a menudo coinciden con
los supuestos asumidos sobre una o varias poblaciones (normalidad, independencia,...). De ah la
necesidad de ser rigurosos en nuestros procesos inferenciales, en el sentido de especificar (y contrastar)
los supuestos que en cada caso estamos admitiendo como vlidos.
Entre dichos supuestos merece una mencin especial la hiptesis de normalidad, que ocupa un
papel central en la inferencia estadstica: por una parte, es frecuente asumir que la poblacin de
partida se distribuye normalmente y por otra, aun partiendo de poblaciones desconocidas, siempre
que analicemos muestras de tamao suficientemente elevado y se cumplan los supuestos necesarios,

215
6. Herramientas inferenciales

Figura 6.5.: Esquema de trabajo en inferencia


' $
POBLACIN
Parmetros X

Parmetros Parmetros
de posicin de dispersin
m.a.s.
(X1,...,Xn )

T(X1,...,Xn)

eT = T Error eT eRT = T


& Discrepancia dT
%

podremos aplicar el teorema central del lmite que garantiza la convergencia de agregados o prome
dios a una distribucin normal.

6.2.1. Inferencias relativas a parmetros


Supongamos que deseamos llevar a cabo inferencias sobre algn parmetro pobla
cional que denominamos . En este caso el esquema de trabajo que seguiremos aparece
descrito en la figura 6.5 y consiste en aprovechar toda la informacin muestral, lle
gando a resumir dicha informacin mediante expresiones que nos permitan realizar
afirmaciones probabilsticas.
Como puede apreciarse en el esquema, el punto de partida es la poblacin X cuya
distribucin probabilstica viene dada por FX(x, ) que depende de ciertos parmetros
desconocidos .
La primera etapa del proceso inferencial consistir en seleccionar una muestra alea
toria que podemos identificar con una v.a. n-dimensional, cuya distribucin probabi
lstica depender tambin de los parmetros .
A partir de esta muestra se definen estimadores T que, por ser funciones de la mues
tra, sern tambin variables aleatorias cuya distribucin de probabilidad denotamos
por FT(t, ).
Como hemos visto en el captulo anterior, el estimador T no coincidir con el valor
del parmetro desconocido , por lo cual definimos los correspondientes errores alea
torios. Cuando el parmetro investigado sea una caracterstica de posicin (esperanza,
proporcin) este error se define como diferencia eT = T , mientras que si es una
caracterstica de dispersin debemos definir errores relativos, que vienen dados por el
cociente eRT = T.
Las caractersticas de estos errores aleatorios aparecen conectadas con las del esti

216
6. Herramientas inferenciales

mador T, tal y como muestra la siguiente tabla:


E(T) Var(T)
= T E(eT)
eT Error Esperanza
( =) Var(eT)
Varianza
=

eRT = T
E eRT =E(T)
Var (eRT) = Var(T)
2

Como ya hemos visto, las propiedades de ausencia de sesgo y eficiencia pueden


ser formuladas indistintamente sobre los errores o sobre el estimador. As, si T es
insesgado se cumple E(T) = o equivalentemente E(eT )=0 y en el caso del error
relativo E(eRT)=1.
De modo similar, se observa que si T es un estimador de mnima varianza, entonces
tambin se hace mnima la varianza del error.

Si T es un estimador sesgado del parmetro investigado se tiene:

BT() =1+BRT()
E(eT) = E(T) = BT() ; E (eRT) =1+

[Comprubese]

Una vez conocidas las caractersticas de los errores, nos interesar llevar a cabo un
proceso de transformacin de alos
hasta llegar mismos, efectuando ciertos ajustes sobre las expre
obtener
siones de eT y eRT discrepancias tipificadas o estandarizadas que
denotaremos por dT.

La definicin de estas discrepancias abarca dos etapas:


1. La primera etapa consiste en reducir los errores a su expresin de referencia o
estndar.
En el caso de los parmetros de posicin, este objetivo se consigue mediante una
tipificacin de los errores que conduce a expresiones:
E(eT) = T E(T)
eT eT
T
que presentan esperanza nula y varianza unitaria.
Para los parmetros de dispersin el procedimiento es distinto como consecuencia de
su carcter multiplicativo. En este caso los errores relativos deben presentar esperanza
unitaria, para lo cual -si es necesario- se efecta el ajuste:
eRT
)
E (eRT
2. La segunda etapa abarca los ajustes necesarios en las expresiones anteriores hasta
obtener modelos de probabilidad conocida, que no dependan de ningn parmetro
desconocido.
En general, las discrepancias tipificadas se adaptarn a los modelos probabilsticos
analizados en el epgrafe anterior (normal, chi-cuadrado, t de Student y F de Snede

217
6. Herramientas inferenciales

cor).

En los apartados que siguen estudiamos la construccin de las discrepancias utili


zadas en las inferencias sobre los parmetros de inters.

Es conveniente observar que, aunque este apartado tiene por objetivo las inferencias relativas a
parmetros, ello no implica que todas las inferencias examinadas sean de tipo paramtrico. La situa
cin ms habitual -y ms conveniente para nuestros objetivos- ser que la poblacin X investigada
sea conocida, limitndose la ausencia de informacin a los parmetros con lo que el estudio sera de
inferencia paramtrica.
Sin embargo, es posible tambin que nos enfrentemos a poblaciones completamente desconocidas,
en cuyo caso nos situaramos en el mbito de la inferencia no paramtrica. En estos casos, a menudo
deberemos renunciar a la segunda etapa de la construccin de discrepancias, ya que no resulta posible
garantizar su conexin con modelos probabilsticos conocidos.

6.2.2. Inferencias sobre la media


Como hemos justificado en temas anteriores, cuando deseamos llevar a cabo inferen
cias sobre la esperanza poblacional , resulta adecuado el estimador media muestral
que viene dado por la expresin
n
Xi
X = i=1
n
En concreto, sus caractersticas esperanza y varianza vienen dadas por:

Var (X )
2
E (X) = ;
= n
El error cometido con este estimador ser una variable aleatoria, que se obtiene por
diferencia entre la media muestral y la media poblacional: eX = X .
Siguiendo el esquema anteriormente descrito, debemos analizar las caractersticas
del error, para el que se obtiene un valor esperado nulo:

E(eX)=E (X) =0
y una dispersin dada por las expresiones:

2
n ; eX=
V ar(eX)= V ar (X) = n

As pues, es posible en una primera etapa llevar a cabo una tipificacin o ajuste del
error aleatorio, llegando a una expresin:

eXE(eX)
eX = X
n

que presenta esperanza nula y dispersin unitaria.

218
6. Herramientas inferenciales

Por lo que se refiere a la segunda etapa, la distribucin de probabilidad de esta


expresin depender de los supuestos asumidos sobre la poblacin de partida X. As,
en el caso de que asumamos que X se distribuye normalmente con varianza conocida,
se obtendra la discrepancia tipificada para la media:

eX = X
eX n
dX = N(0,1)

No obstante, si la varianza 2 fuese desconocida la expresin anterior no sera vlida.


Podramos en este caso proponer una discrepancia dada por:

eX X
dX = SeX = Sn tn1

expresin en la que hemos sustituido 2 por su estimador S2.

La deduccin de estos modelos probabilsticos resulta sencilla aplicando resultados anteriores. En


efecto, siempre que la poblacin investigada sea normal, X N(, ) y por estar todas las variables
muestrales idnticamente distribuidas se tiene:
Xi ( n,n )
nN

Dado que dichas variables son independientes, podemos aplicar la propiedad de reproductividad
del modelo normal, con lo cual obtenemos:
ni=1 ( )
Xin ,
X = N
n

Para el error aleatorio se tiene por tanto:


( )
0,n
eX = X N

y en consecuencia para la discrepancia tipificada:

eXn X
dX = = N(0,1)

n

As pues, la discrepancia es funcin de la dispersin poblacional y si sta es conocida podemos


acudir a las tablas del modelo normal estndar para obtener la probabilidad de que esta expresin
se encuentre en cualquier intervalo [a, b].
Si por el contrario la varianza poblacional resulta desconocida entonces no podramos calcular las
probabilidades anteriores y por tanto tendramos que construir una expresin alternativa. Para ello
acudimos a las distribuciones definidas en el apartado anterior, construyendo una distribucin t de
Student (tn) como cociente entre una distribucin N(0,1) y la raz cuadrada de una 2n entre sus
grados de libertad.
En efecto, la discrepancia tipificada anterior
X

N(0,1)
n

nos proporciona el numerador, mientras que para el denominador se tiene, gracias al teorema de
Fisher:

219
6. Herramientas inferenciales

(n1)S2
2 2n1

Teniendo en cuenta que -tambin por el teorema de Fisher- ambas expresiones son v.a. indepen
dientes, se obtiene:

X
/n
dX = tn1
(n1)S22(n1)

expresin que puede tambin ser formulada como:

X
dX = S/n

Hasta la introduccin de la t de Student por parte de Gosset (1908), el procedimiento habitual en


los estudios inferenciales sobre la media consista en calcular X y S2 procediendo como si la media
muestral siguiese un modelo
( )
X N ,Sn

No obstante, teniendo en cuenta que este supuesto no necesariamente era correcto (al ignorar el
riesgo asociado a la estimacin de por S) Gosset intua que este procedimiento aplicado a muestras
pequeas dara una falsa idea de exactitud. Dicho inconveniente se soluciona al introducir el modelo
probabilstico t, que en tamaos pequeos de muestra viene representado por curvas campaniformes
con menor apuntamiento que la normal.
Parece lgico pensar, y as lo confirmaremos en captulos posteriores, que si utilizamos la infor
macin muestral para estimar los dos parmetros y 2 perderemos fiabilidad, de modo que para
conseguir un mismo nivel de probabilidad, la distribucin t de Student exige un mayor recorrido que
el modelo normal.

Las dos distribuciones obtenidas (normal y t de Student) se basan en el supuesto


de normalidad de X. Resulta interesante examinar cmo se veran afectados estos
resultados si la poblacin de partida no es normal.
El efecto de la ausencia de normalidad sobre las distribuciones anteriores depender
de la informacin poblacional. As, si la poblacin X no es normal pero su varianza es
conocida y el tamao de muestra n es elevado, entonces la distribucin de dX puede
ser aproximada por una N(0,1).

En efecto, en el desarrollo anterior hemos obtenido X como un agregado de v.a. independientes


e idnticamente distribuidas. Por tanto, para tamaos suficientemente elevados, el TCL garantiza la
convergencia a un modelo normal.

Cuando la varianza poblacional es conocida y el tamao de muestra elevado, el


procedimiento descrito resulta vlido con hiptesis de normalidad o sin ella. Sin em
bargo, la situacin cambia cuando la varianza es desconocida, ya que en ese caso el
incumplimiento del supuesto de normalidad invalida el procedimiento desarrollado an
teriormente para construir dX tn1.

220
6. Herramientas inferenciales

Obsrvese que en esta situacin podemos aplicar el TCL, con lo cual el numerador convergera a
una distribucin N(0,1). Sin embargo, la no normalidad nos impide aplicar el teorema de Fisher,
con lo cual no tenemos garantizada la independencia entre numerador y denominador ni tampoco la
distribucin 2n para el denominador.
No obstante, es interesante sealar que aunque Gosset deriv la expresin de la t a partir del su
puesto de poblaciones normales, se ha comprobado que las poblaciones no normales aproximadamente
simtricas proporcionan expresiones que se aproximan mucho a la distribucin t.
Este rasgo permite calificar a la distribucin t de robusta y constituye una garanta de estabilidad
para los procesos inferenciales. En general, la distribucin t de Student asociada a la discrepancia de
la media dX resulta insensible a la hiptesis de normalidad cuando n > 15 y se ha comprobado que
para tamaos pequeos de muestra dicha distribucin se ve ms afectada por la asimetra que por la
no normalidad.

6.2.3. Inferencias sobre la varianza


Las inferencias sobre la varianza poblacional se basan en la varianza muestral S2
cuya expresin se compara con 2 mediante el error relativo

eRS2=S22

que adoptar valores superiores a la unidad si la varianza muestral sobreestima la


poblacional y ser inferior a 1 en caso contrario.

Obsrvese que en este caso la comparacin del estimador con el parmetro se lleva a cabo por
cociente y no por diferencia como se haca para la esperanza. Este hecho se debe al propio concepto
de dispersin, que tiene carcter multiplicativo (en este sentido, basta recordar que la dispersin no
viene afectada por el origen sino nicamente por la escala y tambin que en el procedimiento de
tipificacin de variables aleatorias se eliminan la esperanza y la dispersin, pero mientras la primera
se elimina mediante diferencias, en cambio la dispersin se elimina por cociente, dividiendo entre la
desviacin tpica).

El error relativo es una v.a. definida en funcin de la varianza muestral, cuya


S22

esperanza es unitaria por cumplirse E(S2) = 2.


Por lo que respecta a la segunda etapa, si asumimos que la poblacin de partida
es normal, la expresin anterior puede ser ajustada a un modelo conocido con slo
multiplicar por los grados de libertad de la varianza muestral (n-1).
Definimos entonces la discrepancia tipificada de la varianza:
(n 1)S2
dS2 =
2
expresin que, gracias al teorema de Fisher, sigue un modelo chi-cuadrado con n-1
grados de libertad siempre que X sea normal.

221
6. Herramientas inferenciales

A diferencia de los procesos inferenciales referidos a la media, los procesos asociados a la varianza
resultan poco robustos, en el sentido de que el incumplimiento del supuesto de normalidad para la
poblacin de partida invalida la obtencin de una distribucin chi-cuadrado asociada a la varianza
muestral.

6.2.4. Inferencias sobre proporciones


La proporcin poblacional puede ser analizada como caso particular de la esperanza,
cuando la poblacin investigada es dicotmica o de Bernoulli B(p).
Como consecuencia, en esta situacin la m.a.s. sera del tipo (X1,...,Xn) donde
cada Xi est definida como sigue:
P(X
Xi = 0 sisielelelemento
elementoi no
i presenta
presentaelelrasgo
rasgoestudiado
estudiado i 1) = p
p
Xi = 1 P(Xi =0)=1
=

y el estimador analgico proporcin muestral viene definido por la expresin:


n
Xi
p =
n
1
i=1
siendo ni=1 Xi una v.a. que sigue un modelo binomial B(n,p). Definimos el error como
la diferencia entre la proporcin muestral y la poblacional ep = p p, que presenta
las caractersticas:

E(ep)=0 ; Var(ep)=p(1p)n

La deduccin de la varianza puede ser efectuada en los siguientes trminos:

( n
) 1n2ni=1Var(Xi) = 1n2ni=1p(1p) =
1 p(1p)n
Var(ep) = Var(p) = Var Xi =
n i=1

La discrepancia tipificada para la proporcin se obtiene entonces como:


ep pp
dp = =
p(1p) p(1p)
n n

y para tamaos muestrales suficientemente elevados es posible aplicar la convergencia


del modelo binomial al normal, con lo cual se tiene: dp N(0,1).

En efecto, el teorema de De Moivre nos indica que:


ni=1Xi L N (np, )
np(1 p)

con lo cual para tamaos elevados de n asumimos

222
6. Herramientas inferenciales

p,
Xi )
1nn N (
p(1p)n
p =
i=1

y por tanto se obtienen tambin aproximaciones


0, normales para el error y la discrepancia tipificada:

p(1p)n )
epN ( ; dpN(0,1)
Puede observarse que el error estndar o desviacin tpica del estimador,
p(1p)n, depende de la

proporcin p y por tanto, si esta desviacin tpica fuese conocida podramos despejar de forma exacta
el valor de la proporcin, sin necesidad de utilizar la informacin muestral para su estimacin.
No obstante, en el caso de la proporcin esta afirmacin no es enteramente correcta. En muchos
supuestos asumiremos como conocido el valor de la dispersin (a veces en problemas reales apro
vechamos cierta informacin obtenida de algn censo anterior o relativo a una actividad afn a la
que estamos estudiando, con lo cual estamos asumiendo que no cambia el riesgo). Sin embargo, la
informacin sobre la dispersin no es vlida para establecer el valor concreto del parmetro p, ya que
los hbitos, el entorno y otras caractersticas influirn en alteraciones de la proporcin poblacional,
aun cuando la banda de riesgo que acompaa a estas estimaciones en perodos no muy grandes de
tiempo se mantenga constante.
Si la varianza del error es desconocida, sta podra aproximarse por su estimador insesgado p(1p)
n1
.

En efecto, en el captulo anterior hemos comprobado que se cumple:


[ ]
p(1 p) p(1 p)
E = = V ar (p)
n1 n

La aproximacin normal para la discrepancia tipificada de la proporcin exige tamaos de muestra

elevados ya que se basa en los teoremas lmites. Debemos tener presente que la variable aleatoria X
que aparece en el numerador de la proporcin muestral es discreta y sin embargo las transformaciones
sucesivas que operamos sobre ella (clculo de errores y tipificacin de los mismos) desembocan en
un modelo aproximadamente normal; por tanto, cuando nos interese aproximar probabilidades para
valores concretos de X conviene llevar a cabo la correccin de continuidad estudiada en el captulo 4.

Los desarrollos precedentes son tambin aplicables si nuestro objetivo inferencial es


una combinacin de proporciones (generalmente diferencias de proporciones referidas
a varias poblaciones, ...).

6.2.5. Inferencias sobre la diferencia de medias


En el mbito econmico-empresarial resultan frecuentes las situaciones en las que se
deben realizar inferencias relativas a las esperanzas de dos poblaciones. Este sera el
caso si deseamos estimar la diferencia de ingresos medios entre dos regiones, contrastar
si ha aumentado la esperanza de vida a lo largo del tiempo o si se ha producido
ganancia salarial en una poblacin tras la aplicacin de cierta medida econmica.
En estos casos, aun siendo perfectamente vlido el planteamiento visto en los apar
tados anteriores, existe una mayor complejidad en el estudio como consecuencia de
la diversidad de situaciones que pueden presentarse. As, debemos considerar si las

223
6. Herramientas inferenciales

muestras a partir de las cuales extraemos informacin son o no independientes, si los


parmetros poblacionales son conocidos, etc.
Las distintas situaciones posibles presentan como objetivo comn llevar a cabo
inferencias sobre el parmetro X Y = E(X)E(Y ), pero la casustica que puede
aparecer es amplia, tal y como se describe en los apartados siguientes.

6.2.5.1. Diferencia de medias con datos pareados


Comencemos por considerar aquellas situaciones en las que extraemos la informacin
de dos muestras aleatorias que no son independientes. Ms concretamente, asumiremos
que disponemos de dos muestras dependientes con datos pareados, esto es, que sobre
cada integrante de la muestra estudiamos dos caractersticas dependientes.
Ilustraciones de esta situacin podran ser las siguientes: muestras de individuos
sobre los que observamos renta y gasto, muestras de empresas sobre las que estudia
mos los beneficios antes y despus de impuestos, muestras de artculos sobre los que
analizamos precio de adquisicin y de venta, etc.
Si denotamos por X e Y las caractersticas aleatorias analizadas y por (X1,...,Xn),
(Y1,...,Yn) las muestras respectivas [por qu tienen el mismo tamao?], resultara
posible definir la v.a. diferencia D = XY, pasando as de las dos muestras anteriores
a una muestra nica (D1, ..., Dn).
Nuestro objetivo ser realizar inferencias sobre E(D) = E(X) E(Y) para lo cual
debemos basarnos en la informacin muestral (D1, ..., Dn). Por tanto el problema es
idntico al ya visto con anterioridad para una media poblacional, y conducir en ge
neral a una distribucin t de Student con n 1 grados de libertad.

Dado que nuestro objetivo inferencial es E(D), si consideramos como estimador la


diferencia media, el error correspondiente puede ser definido como: eD = D E(D).
Resulta sencillo comprobar que la esperanza de este error es nula y su varianza viene
dada por la expresin:

Var(D)
Var(eD) = Var (D) =
n
que slo podr ser determinada si conocemos las varianza de D o bien las varianzas
de las variables originales y su covarianza.
En general, la varianza anterior resulta desconocida, por lo cual debera ser estimada
a partir de la muestra mediante la expresin:
S2eD =S2D
n =1 n ni=1 (DiD)2n1
ni=1[(XiYi)(XY)]2n1
= 1n

Por tanto, bajo el supuesto de normalidad para la variable D la expresin de la


discrepancia tipificada vendr dada por:

224
6. Herramientas inferenciales

61)
Q
i ll I 92"
5_D
JE ya
Obsrvese que en el supuesto poco frecuente de que la varianza de D resultase
conocida se tendra

Q.
i ll i w A/(O, 1)
4/ Var (eD)
La distribucin normal resultara tambin aplicable cuando la variable D no fuera
normal, siempre que el tamao de muestra fuese elevado y la varianza conocida. En
tal situacin, la aplicacin del TCL conducira a la discrepancia tipicada

Q.
i ll 152 i> N(0,1)
y/Var (eD)

6.2.5.2. Diferencia de medias con muestras independientes

Supongamos ahora que a partir de las poblaciones X e Y hemos extrado muestras


aleatorias independientes: (X1, . . . ,X,,) e (Y1, . . . , Y).
Si denotamos por uX y uy las medias poblacionales y por a y a2, las varianzas de X
e Y respectivamente, denimos el estimador de la diferencia de las medias muestrales
T I X Y, a partir del cual obtenemos el error aleatorio 5x47 I (X Y) (uX ,uy),
cuyas caractersticas son:

E (XY) I 1 a; t
V (ex-v) I 13
En efecto, se tiene:

><i al "<i
Var(eX_g/):Var( Y):Var(X)+Var(Y)2C0v( ):%+%

puesto que al ser las muestras independientes Cov(X, Y) I 0 y en consecuencia Cov(X, Y) I 0 [Por
qu?]

As pues, adoptamos como discrepancia en este caso la expresin:


l><ii "<i
| |
>I<i "<ji ll 62-17 (vx - w)
Q,

Var (eX_/) Var (X Y)

que podemos ajustar a modelos probabilsticos conocidos en funcin de las hiptesis


de partida.
Supongamos que las poblaciones X e Y se distribuyen normalmente:

XzA/(iuxvax) v yzA/(rbyiay)

225
6. Herramientas inferenciales

Siempre que las varianzas poblacionales de X e Y sean conocidas, tambin lo ser


la varianza de eXY . En consecuencia, la expresin

eXY X Y (X Y)
dXY = =
Var (eXY ) 2X + 2Y
n m

se distribuye segn un modelo N(0,1).

En efecto, segn hemos visto al estudiar la distribucin de la media,


( ) ( )
X
X N X , e Y N Y , Y
n m

Se trata de muestras independientes y aplicando la propiedad de reproductividad del modelo


normal se tiene
( )
X-Y, 2Xn+2Ym
X Y N

As pues, se obtienen las siguientes distribuciones para el error aleatorio y para la discrepancia
tipificada: 0,
)
X Y 2Xn + 2Ym
eXY = (X-Y)N (

eXY (X Y) N(0,1)
X Y
dXY =
Var(eXY) = 2Xn+2Ym

Si no se verifica la hiptesis de normalidad pero los tamaos de las dos muestras,


n y m, son suficientemente elevados, entonces -gracias al teorema central del lmite
obtenemos una distribucin de la discrepancia que es aproximadamente N(0,1).

La comprobacin de este caso se limita a aplicar el teorema central del lmite, ya que si n y m son
elevados, entonces obtenemos:
( ) ( )
X N X,Xn e Y N Y,Ym

siendo vlido el resto del razonamiento sin ms que tener presente que trabajamos con distribuciones
aproximadas.
Obsrvese que si una de las dos muestras tuviese un tamao inferior a 30 ya no podramos aplicar
este desarrollo.

En el caso de que las variables se distribuyan normalmente pero las varianzas pobla
cionales sean desconocidas, la expresin anterior de la discrepancia no resulta vlida.
No obstante, este problema podr ser solventado si las varianzas, aunque desconocidas,
son coincidentes: 2X = 2Y = 2.
En esta situacin, la varianza poblacional 2 podr ser estimada utilizando la in
formacin que proporcionan las dos muestras, mediante la expresin:

226
6, Herramientas inferenciales

2 _ (n 1)Si( + (m llsi
S P n+m 2

que como vemos es una media ponderada de las varianzas muestrales, adoptando como
pesos los grados de libertad.
Utilizando dicha estimacin se llegara a una discrepancia dada por la expresin
<i
>l<ji
N | (HX-MY) | N,
Q "Q H /(n1)S2 +(rn1)S2 N m4
L / SI l El
n+m2

que se distribuye segn un modelo t de Student con n + m 2 grados de libertad.

La deduccin de la expresin anterior se realiza asumiendo los siguiente supuestos:

I Normalidad de las poblaciones: X w A/(uxgx) , Y w N(,ay,0y)


F<B 2
I Igualdad de varianzas: a; I c! H q

I Muestras (X1, . . . ,X,,) e (Yl, . . . ,Y,,) independientes

Bajo estas hiptesis, el error asociado a la diferencia de medias de dos muestras independientes:
(B ><l i *<\ I (X Y) (u); uy), se distribuye normalmente con las siguientes caractersticas:
2 2
E(x_/):;V1T(@x_/): UXJFUX IU2

As pues, la discrepancia tipicada vendra. dada inicialmente por:

mi m A/(g, 1)
HIH EIH
0' +
pero, dado que en esta expresin aparece el parmetro desconocido o, resulta necesario acudir a la
informacin proporcionada por las dispersiones muestrales.
Gracias al supuesto de normalidad, es posible aplicar a cada muestra el teorema de Fisher, segn
el cual se verica:
sQ s
(n- 1),? w x14 ; (m- U7; w xwl

Teniendo en cuenta que ambas variables son independientes por serlo las muestras y aplicando la
reproductividad de la distribucin chi-cuadrado se obtiene:

(n ns + (m os; 2 2 2
~ z Xn1 +Xm1 = Xn+m2

El teorema de Fisher garantiza adems que esta distribucin chi-cuadrado y la expresin nor
mal anterior son independientes, por lo cual podemos denir a partir de ambas una nueva variable
distribuida segn un modelo t de Student:
N
i +a,

Q f: j ,
7
i><1| 7(HXHY) Nt
"ri+m2
l\/(n1)S%+(m1)S/. \/(n1)S%+(m1)S, HIH
a ri+m2 ri+m2 + El

227
6. Herramientas inferenciales

Resulta interesante analizar cmo se ve afectada esta expresin por la alteracin de los supuestos
de partida.
Comenzando por la hiptesis de normalidad de las poblaciones investigadas, ya hemos comentado
en epgrafes anteriores que la distribucin t de Student resulta ser muy robusta, es decir, poco sensible
a la no normalidad.
En concreto, los estudios efectuados por Barlett (1935), Gayen (1949,1951) y Boneau (1960) ponen
de manifiesto que, siempre que las muestras investigadas tengan tamaos coincidentes, la distribucin
de la expresin no se ve alterada por la no normalidad (incluso cuando las poblaciones de partida sean
muy asimtricas). De modo similar, si las distribuciones de partida son aproximadamente simtricas,
la expresin resulta robusta aun cuando las muestras tengan tamaos distintos.
La alteracin del supuesto de igualdad de varianzas invalida la deduccin efectuada para la t de
Student, dando lugar al problema conocido como de Behrens-Fisher, ampliamente tratado por varios
autores sin que exista una solucin universalmente aceptada.
En general, las propuestas para solucionar este problema parten de la consideracin de las varianzas
muestrales, estimadores consistentes de las varianzas poblacionales, que conducen a la expresin:
X Y (X Y)
dXY =
n+ S2Y
S2X
m
que sigue aproximadamente una distribucin t de Student con grados de libertad:

(n1)S2Xn+(m1)S2Ym
g.l.= 2 2
SX SY
n
+ m

Esta aproximacin, que se debe a Cochran (1964), conduce a un nmero de g.l. que, en general,
no ser entero, por lo cual cuando consultemos en las tablas tendremos que buscar el nmero de g.l.
ms prximo o bien interpolar.
Por ltimo, el supuesto de independencia entre las muestras resulta de gran importancia ya que,
si esta hiptesis se incumple, las expresiones anteriormente deducidas pierden su validez. De ah el
inters de distinguir las inferencias sobre diferencia de medias con muestras independientes de las
correspondientes a datos pareados, analizada con anterioridad.

El planteamiento recogido en este apartado para la diferencia de medias es suscep


tible de ser generalizado a la suma o a cualquier combinacin lineal de esperanzas del
tipo X + Y .

Aunque no recogemos aqu estos desarrollos, en el supuesto ms sencillo de normalidad y varianzas


conocidas, la discrepancia normalizada viene dada por la expresin:

X+Y(X+Y) N(0,1)
dXY =
22X
n 22Y
+ m

[Llevar a cabo la deduccin de esta expresin]

Otra posible generalizacin consiste en llevar a cabo comparaciones de las esperanzas


en ms de dos poblaciones. Este planteamiento conduce al anlisis de varianza, que
ser analizado en un captulo posterior.

228
6. Herramientas inferenciales

6.2.6. Inferencias sobre la razn de varianzas


Como hemos visto en el apartado anterior, al analizar la diferencia de medias po
blacionales resulta de gran importancia conocer si las varianzas de las poblaciones
investigadas son coincidentes. En consecuencia, estaremos interesados en llevar a cabo
inferencias sobre el parmetro 2X
2Y , o ms concretamente, contrastar si esta expresin

es unitaria.
Supongamos dos poblaciones X e Y normales:

X N(X,X) , Y N(Y,Y)
y consideremos dos muestras independientes de cada poblacin (X1,...,Xn), Y1,...,Yn).
El estimador analgico del parmetro investigado ser

S2X
T =
S2Y
y definiremos un error relativo que -como ya hemos justificado en las inferencias sobre
la varianza- resulta ms adecuado para las caractersticas de dispersin. Dicho error
S2X
eRS2X/S2Y = S2Y S2X 2Y
2X2Y = S2Y2X

presenta esperanza unitaria y distribucin conocida, por lo cual no es necesario efec


tuar ningn ajuste sobre el mismo. Se define as la discrepancia tipificada:
S2X
2X
S2Y S2X2Y
d S2X = =
S2
S2Y2X
Y 2Y

expresin que se adapta a un modelo F de Snedecor con n 1 g.l. en el numerador y


m-1 en el denominador.

Aplicando el teorema de Fisher a las dos muestras, se tiene

2X 2n1; (m 1) S2Y
(n 1) S2X
2m1
2Y
Adems ambas variables son independientes por serlo las muestras, luego el cociente
de dos variables chi-cuadrado divididas por sus g.l. define una variable F de Snedecor.
As:

(n1)SX 2 S2
2 /X X
= S2Y
2X
2Y S2X 2Y Fn1m1
(m1)S2Y/2Y
m1
n1
= S2Y2X

229
6. Herramientas inferenciales

Gracias a la propiedad de inversin de la distribucin F, es sencillo comprobar que en el caso de


que las inferencias fuesen referidas a Y2X
2 se llegara a un modelo Fn1
m1 [Comprubese]

Este proceso resulta poco robusto, ya que la distribucin F se ver muy afectada por posibles
alteraciones en el supuesto de normalidad de las poblaciones investigadas.

6.2.7. Inferencias sobre otras caractersticas


Es evidente que las situaciones sealadas no agotan toda la casustica inferencial.
Sin embargo, s cubren los parmetros de mayor inters prctico.
En ciertas ocasiones podemos estar interesados en parmetros que aparecen rela
cionados mediante alguna expresin con las esperanzas o las varianzas poblacionales,
por lo cual resultaran aplicables los procedimientos anteriormente descritos, utilizan
do como punto de partida los estimadores adecuados en cada caso y explicitando los
correspondientes supuestos.

A modo de ilustracin, podramos estar interesados en llevar a cabo inferencias sobre el parmetro
b en un modelo uniforme U[0,b] (obsrvese que en este caso b = 2) o sobre la desigualdad en un
modelo de Pareto (es decir, la expresin 1 , que coincide con el ratio x0 ).

Por otra parte, existen situaciones en las que, por el propio carcter del parmetro
investigado, la metodologa inferencial cambia considerablemente. Este ser el caso de
las inferencias relativas a la mediana o, ms en general, a cualquier caracterstica de
posicin no central (cuantiles).
Las inferencias relativas a la mediana Me se abordan desde un marco no param
trico, esto es, sin explicitar supuestos sobre la poblacin de partida X. (Obsrvese que
bajo la hiptesis de normalidad se cumple Me = , por lo cual nos remitiramos a las
deducciones ya estudiadas para la media).
La caracterstica que identifica al parmetro Me es por definicin su probabili
dad acumulada FX(Me) = P(X Me) = 0,5. As pues, a partir de una m.a.s.
(X1,...,Xn) podemos tambin garantizar para una Xi cualquiera: P(Xi Me) =
0,5.
Dado que nuestro objetivo es llegar a un modelo probabilstico conocido que utilice
las informaciones muestral y poblacional, definiremos ahora una v.a. Z que recoge el
nmero de observaciones muestrales inferiores o iguales a Me. Dicha variable segui
r un modelo B(n,0,5) y en consecuencia podremos calcular cualquier probabilidad
asociada a valores concretos de Z, y a partir de ellas llevar a cabo inferencias (esti
maciones o contrastes) del parmetro Me.

La utilizacin de la mediana presenta como ventaja su robustez, pero en cambio supone prdidas
de eficiencia con respecto a otros procesos inferenciales. Para solucionar este inconveniente, en oca
siones se defiende la utilizacin de una media ajustada (trimmed mean) obtenida como promedio de
una muestra de la que se han eliminado las observaciones extremas (por exceso y por defecto).

230
6. Herramientas inferenciales

Figura 6.6.: Inferencias genricas


' $

Poblacin X Caractersticaspoblacionales



m.a.s Caractersticas

(X1 ,...,Xn ) muestrales
Discrepancia
d
& %

La media ajustada de nivel k para una muestra n se obtiene como promedio de sus n 2k obser
vaciones centrales. Puede comprobarse que la mediana se corresponde con el caso particular de nivel
n12 para n impar y n22 para n par.

De modo similar, para cualquier cuantil Q se tiene una probabilidad asociada pQ , por lo cual a
partir de la muestra garantizamos P(Xi Q) = pQ , definiendo ahora la variable Z: nmero de
observaciones muestrales inferiores a Q que sigue un modelo B(n, pQ).

6.2.8. Inferencias genricas sobre poblaciones


Cuando los procesos inferenciales no tienen como objetivo una caracterstica con
creta, el planteamiento cambia ligeramente respecto al visto en apartados anteriores
(figura 6.6).
En efecto, en este caso no estamos interesados en parmetros concretos sino en
caractersticas ms globales de la poblacin, tales como su distribucin de probabi
lidad. Es habitual tambin, en el caso de que nos interesen varias poblaciones, que
investiguemos la independencia entre ambas o su homogeneidad.
En este tipo de inferencias resulta de gran inters la distribucin chi-cuadrado, que
surge, siguiendo el esquema anterior, en los siguientes trminos: para cada elemento de
la muestra comparamos la informacin muestral (Cm ) con la correspondiente informa
cin terica poblacional (Cpi), construyendo de estei modo unos errores e = (Cm Cpi)
i
que, por depender de la informacin muestral, son aleatorios.
Dado que estos errores deben ser sintetizados y reducidos a un modelo probabilstico
terico, el procedimiento de tipificacin consiste en este caso en elevar los errores al
cuadrado (evitando as la compensacin de signos), y dividir entre la caracterstica
terica.
Una vez llevado a cabo este procedimiento para todos los componentes de la muestra,
se obtiene la expresin de la discrepancia:

231
6. Herramientas inferenciales

Tabla 6.5.: Inferencias sobre caractersticas genricas


Caracterstica Cmi Cpi Error e Expresin Grados de
investigada Ajustada Libertad
Distribucin ni npi ni npi r npi) 2 r1k
i=1 (ni
de i r=n de clases
np
k=n de parmetros
probabilidad estimados
) (r 1)(s 1)
nij ninjn r
i=1 s n n
Independencia nij ninjn nij n in j
ni nj 2 r, s=n de clases de
j=1 ( las dos caractersticas
investigadas
n ) (r 1)(s 1)
nij ninjn r
i=1 s ninj
Homogeneidad nij ninjn nij n
ni nj 2 r=n de poblaciones
j=1 ( s=modalidades de la
caracterstica investigada

n (Cmi Cpi)2
d= Cpi
i=1
que se distribuye, siempre que se garanticen ciertos tamaos muestrales mnimos,
segn un modelo chi-cuadrado con un nmero de grados de libertad igual a n (tamao
de muestra) menos k (nmero de restricciones).
El procedimiento descrito es aplicable a varias situaciones diferenciadas, que apare
cen sintetizadas en la figura 6.5.
En general estas expresiones son aplicadas al contraste de ciertas hiptesis (contras
tes de bondad de ajuste, contrastes de independencia y contrastes de homogeneidad)
que analizaremos con detalle en un captulo posterior, por lo cual nos limitamos aqu
a comentar brevemente sus rasgos ms destacables.
Las inferencias basadas en la distribucin chi-cuadrado se llevan a cabo agrupando
la informacin muestral en intervalos o clases y comparando las frecuencias observadas
en la muestra con las frecuencias esperadas (esto es, las asociadas a la caracterstica
poblacional investigada).
En concreto, cuando llevamos a cabo inferencias sobre la distribucin de probabi
lidad, denotamos por ni la frecuencia observada en el intervalo i-simo y por npi su
frecuencia esperada (calculada asumiendo que la variable sigue determinado modelo
probabilstico, que nos proporciona para cada intervalo su probabilidad pi).
Repitiendo el proceso para todos los intervalos se llega a la discrepancia tipificada:
r
i=1 npi) 2
(ni np
2r1k
i

232
6. Herramientas inferenciales

cuyos grados de libertad se obtienen como diferencia entre el tamao muestral (r clases
o intervalos) y el nmero de restricciones (al menos existe una:
r r
npi = ni = n
i=1 i=1

pero podra haber nuevas restricciones, k en general, si el modelo probabilstico inves


tigado depende de k parmetros que debemos estimar).

Las condiciones de convergencia hacia la distribucin chi-cuadrado exigen que ninguna de las fre
cuencias esperadas npi adopte un valor bajo, considerndose habitualmente 5 como frecuencia mnima
para un intervalo.

Si nuestro objetivo es investigar (en general contrastar) la independencia entre dos


poblaciones o caractersticas, debemos partir de la informacin de una muestra con
junta, agrupada en clases, para las dos variables investigadas. Para construir la dis
crepancia en este caso se comparan las frecuencias conjuntas observadas (nij ) con
las esperadas, que sern ni nj bajo la condicin de independencia, llegando as a la
n
expresin:
r s ( n )2
ninj
nij
i=1 ni nj (r1)(s1) (6.3)
j=1 n

cuyos grados de libertad se obtienen como producto de los asociados a cada una de
las
quecaractersticas
existen r clasesinvestigadas
sometidas a(para la primera
la restriccin caracterstica
ri=1 ni = n; desemodo
tienen r 1 para
anlogo g.l., ya
la
segunda se tienen s 1 g.l., ya que las s clases deben cumplir sj=1 nj = n).

La independencia puede ser investigada sobre caractersticas tanto cuantitativas como cualitati
vas, siendo aplicable en ambas situaciones la distribucin chi-cuadrado deducida, en la que tan slo
intervienen las frecuencias. Para que este modelo probabilstico quede garantizado es necesario que
ninguna de las frecuencias esperadas sea excesivamente pequea.

Por ltimo, la distribucin chi-cuadrado es aplicable al estudio de la homogeneidad


de varios colectivos o poblaciones respecto a una caracterstica. En este caso, aunque
se produce un cambio de planteamiento, las expresiones resultan muy similares a las
estudiadas anteriormente para la independencia (ecuacin 6.3), si bien en este caso
r representa el nmero de colectivos o poblaciones investigados, ni recoge el tamao
de muestra correspondiente al colectivo r y s indica las modalidades excluyentes que
presenta la caracterstica respecto a la cual se investiga la homogeneidad.

233
7. Estimacin
Cada da, los medios de comunicacin difunden noticias basadas en estimaciones:
la subida media de los precios durante el ltimo mes, la audiencia que ha tenido una
retransmisin deportiva en televisin, la proporcin de votos que obtendra un partido
poltico en las prximas elecciones, ... En todos estos ejemplos las noticias se basan en
informacin parcial, no exhaustiva, y por tanto los datos publicados no sern exactos,
pero sin embargo resultarn de gran utilidad.
As, en el caso de la subida media de precios, la informacin proporcionada por el
IPC (Indice de Precios de Consumo) no puede medir los precios de todos los bienes y
servicios consumidos y por tanto las noticias que se publican cada mes en los medios
de comunicacin corresponden a una estimacin realizada por el Instituto Nacional de
Estadstica (INE) a travs de un muestreo muy completo. De modo similar, las audien
cias de programas televisivos se estiman a partir de encuestas entre los espectadores
y la intencin de voto se estima mediante encuestas o sondeos electorales.
Es importante tener presente que el hecho de que las estimaciones no tengan carc
ter exacto no afecta a su veracidad ni a su utilidad: en el contexto socioeconmico nos
interesar disponer de aproximaciones fiables de la subida de precios, la renta perc
pita, la tasa de paro, ... y la calidad de las estimaciones depender bsicamente de
dos factores que ya hemos analizado en los temas precedentes: en primera instancia la
informacin muestral disponible (que ser la "materia prima" en la que se fundamenta
cualquier estudio inferencial) y en segundo lugar la "calidad" de las tcnicas aplica
das (trmino que abarca tanto las expresiones de los estimadores como el mtodo de
estimacin utilizado).

Como consecuencia de los condicionantes sealados, a menudo encontramos diferentes estimacio


nes para los mismos parmetros. As, distintos organismos e instituciones publican sus estimaciones y
predicciones referidas al crecimiento del PIB, el IPC o la tasa de paro, con resultados no coincidentes.

Analizando los comentarios anteriores llegamos a la conclusin de que disponemos


de algunas "garantas" para los resultados de nuestras estimaciones. Tal y como indica
la Figura 7.1 la primera de estas garantas ser el diseo muestral, ya que trabaja
mos con muestras aleatorias y a partir de ellas inferimos resultados para el conjunto
poblacional.
Adems, conocemos los requisitos exigibles a los estimadores por lo cual podre
mos saber hasta qu punto estamos trabajando con instrumental adecuado. Como
consecuencia de la propia definicin vista para estas propiedades, si el estimador es
insesgado garantiza que no introduce errores sistemticos y si es eficiente consigue una
dispersin mnima respecto al parmetro.

234
7. Estimacin

Figura 7.1.: Garantas del proceso de estimacin


Muestras aleatorias garantizan que la seleccin es probabils
tica

Estimadores y sus propiedades:


Insesgados: garantizan que no hay errores sistemticos
Eficientes: garantizan mnimo riesgo respecto al parme
tro
Suficientes: garantizan aprovechamiento de la informa
cin
Consistentes: garantizan la convergencia al parmetro

Discrepancia asociada al estimador con distribucin conoci


da: garantiza cierta fiabilidad en la estimacin.

La suficiencia por su parte es una garanta de aprovechamiento de la totalidad de


la informacin muestral mientras que la consistencia asegura la convergencia al valor
verdadero.
Por otra parte, en el captulo anterior hemos visto que es posible especificar una
distribucin probabilstica asociada a la discrepancia del estimador respecto al par
metro. Basndonos en estas distribuciones podremos efectuar afirmaciones probabi
lsticas, garantizando que cierta proporcin de las discrepancias se sita entre ciertos
mrgenes.
Este ltimo tipo de garanta aparece directamente relacionado con el procedimiento
de estimacin, para el que son posibles dos modalidades que estudiaremos con detalle
en los epgrafes que siguen: la primera de ellas -denominada estimacin puntual- pro
porciona una aproximacin concreta del parmetro desconocido mientras la segunda
-estimacin por intervalos- consiste en estimar un intervalo o banda de confianza.

7.1. Estimacin puntual y por intervalos


Un proceso global de estimacin consiste en utilizar de forma coordinada gran parte
de las tcnicas que hemos analizado en captulos anteriores. Gracias a ellas estamos ya
en condiciones de responder a preguntas del tipo qu caracterstica de la poblacin
tratamos de aproximar?, cul es la expresin ms adecuada como estimador?, qu
modelo probabilstico podemos llegar a obtener para la discrepancia asociada a ese
estimador?
Nos preocuparemos ahora de estudiar la estimacin de la caracterstica investigada
a la que llegaremos con la informacin muestral disponible, y de evaluar la fiabilidad
asociada a dicha estimacin.

235
7. Estimacin

Consideramos como punto de partida del proceso de estimacin una muestra alea
toria simple (X1,...,Xn) extrada de la poblacin investigada, a partir de la cual
definimos un estimador T = T(X1,...,Xn) que ser tambin una v.a.
Para cada muestra concreta (x1 ,...,xn), el estimador T proporciona una estimacin
puntual determinada t = T(x1,...,xn) que aproxima el parmetro desconocido y
por tanto conlleva un error concreto e = t .
Ser aceptable esta estimacin de ? Para responder a esta pregunta sera nece
sario conocer la magnitud del error cometido, objetivo que no resulta factible en la
prctica por ser dicho error funcin del parmetro desconocido.

Debemos tener presente que las propiedades estudiadas para los estimadores garantizan un buen
comportamiento probabilstico de los mismos pero no permiten efectuar ninguna afirmacin sobre
las estimaciones particulares. De este modo es perfectamente posible que, aun utilizando un estima
dor centrado, eficiente, suficiente y consistente cometamos errores de gran magnitud al estimar el
parmetro.
En definitiva, las propiedades de los estimadores avalan el instrumento utilizado pero no cada re-
sultado particular obtenido con ste. De hecho, a partir de la expresin nica de un estimador, cada
muestra concreta nos conducir a estimaciones diferentes, que llevan asociados los correspondientes
errores.

En el captulo anterior hemos analizado las distribuciones probabilsticas asociadas


a los procesos inferenciales relativos a diversos parmetros. No obstante, por tratar
se habitualmente de modelos continuos (normal, chi-cuadrado, t de Student o F de
Snedecor) es imposible cuantificar probabilidades para estimaciones concretas de un
parmetro desconocido .

Consideremos a modo de ejemplo que nuestro objetivo es estimar la renta esperada en determinada
poblacin. A partir de una m.a.s. de tamao n y dado que la media muestral -como ya hemos visto
con anterioridad- es un estimador adecuado de podramos enunciar afirmaciones del tipo:

Var (X ) =2n;lmnP (X>kX ) =0


E (X) =;
o bien, en trminos de las correspondientes discrepancias tipificadas:

E(dX)=0;Var(dX)=1;lmn P(|dX| >k)=0

Sin embargo, una vez que partimos de una muestra concreta no tiene sentido plantearse ese ti
po de afirmaciones, (habremos obtenido, por ejemplo, x = 50, y no resultar posible asignar una
probabilidad al error asociado a este valor concreto). En realidad para cada estimacin puntual slo
cabran dos grandes posibilidades excluyentes: haber estimado de forma exacta el valor de o bien
(alternativa ms habitual) haber cometido algn error en dicha estimacin.

Si queremos llegar a efectuar afirmaciones probabilsticas sobre un resultado inferen


cial, cabe la posibilidad de ampliar la ptica de la estimacin pasando a la construccin
de intervalos o bandas de confianza.
Este procedimiento, que aparece conectado de modo natural con la estimacin pun

236
7. Estimacin

tual, resulta sin embargo ms general. A grandes rasgos, la aportacin de la estimacin


por intervalos respecto a la puntual consiste en hacer explcito el error o discrepancia
inherente al proceso de estimacin, incorporando mrgenes -por exceso y por defecto
respecto a la estimacin puntual.

Siguiendo con el ejemplo anterior, la estimacin de la renta esperada se efectuara ahora adop
tando como punto de partida la media muestral a la que incorporamos mrgenes de error , cuya
determinacin estudiaremos ms adelante.
Al igual que ocurra en la estimacin puntual, cada muestra concreta llevar a unos valores par
ticulares de x y x + (47 y 53, por ejemplo) que determinan un intervalo en el que no podemos
asegurar que est contenido el parmetro . Sin embargo, la gran novedad es que ahora resulta posible
)
efectuar afirmaciones probabilsticas referidas a los intervalos genricos (X , X + .

Para clarificar las conexiones y diferencias entre la estimacin puntual y la estima


cin por intervalos, supongamos que nuestro objetivo es determinar la tasa de paro
en una poblacin. Como ya hemos visto en captulos anteriores se trata de un caso
particular de estimacin de la proporcin p, problema que resulta muy habitual en el
mbito econmico y del que por tanto pueden encontrarse otros muchos ejemplos (la
cuota de mercado de un producto, la participacin femenina en el mercado laboral, el
peso relativo de un sector econmico, ....).
A partir de una m.a.s. el estimador analgico de la proporcin poblacional sera
la proporcin muestral p = Xn donde n es el tamao muestral (nmero de activos
investigados para nuestro estudio) y X es la variable aleatoria que recoge el nmero
de activos que se encuentran en paro.
La proporcin muestral nos permite estimar la tasa de paro p tanto puntualmente
como por intervalos. En el primero de estos casos, el estimador nos proporciona un
valor nico, que queda determinado a partir de la muestra, mientras que la incorpo
racin de mrgenes de confianza -tal y como se indica en la figura 7.2- nos permitira
garantizar cierta probabilidad de que la tasa p se encuentre comprendida entre dos
valores aleatorios.
En principio podra parecer deseable maximizar esta probabilidad o confianza del
intervalo, pero ello nos llevara a aumentar su tamao, cosa que no resulta deseable.
En realidad, al llevar a cabo este tipo de estimacin debemos cuestionarnos en un
doble sentido: qu probabilidad podemos garantizar? pero tambin qu precisin
tiene el intervalo que facilitamos?
Ambas caractersticas, que denominaremos confianza y precisin respectivamente,
resultan de gran inters, y puede percibirse fcilmente la relacin de sustitucin entre
las mismas. Como muestra la figura, un afn por garantizar la mxima confianza
(probabilidad del 100%) conduce inevitablemente al intervalo [0,1] para la tasa de
paro. Dicho resultado no es en absoluto informativo, hasta el punto de que coincide
con el espacio paramtrico inicial, ya que por definicin se tiene p [0,1].
Frente a este caso extremo de mxima confianza con mnima precisin se encontrara
la situacin opuesta, en la que consideraramos prioritaria la obtencin de intervalos

237
7. Estimacin

Figura 7.2.: Estimacin puntual y por intervalos

precisos. La maximizacin de la precisin o minimizacin de la amplitud nos conducira


a intervalos con margen de error nulo, que coinciden con la estimacin puntual y a los
que resulta imposible asignar un nivel de confianza o probabilidad (por tanto el nivel
de confianza adoptara su valor mnimo, 0 %).
Entre los dos casos extremos descritos existen infinitas situaciones intermedias en las
que se presentaran distintas opciones de las caractersticas de precisin y confianza.
A la vista de los comentarios anteriores cabra preguntarse si una estimacin por
intervalos resulta siempre preferible a la estimacin puntual. La respuesta es nega
tiva puesto que, si bien la estimacin por intervalos presenta claras ventajas sobre
la puntual, la eleccin de uno u otro procedimiento depender de los objetivos que
persigamos en cada investigacin.

A modo de ilustracin, una empresa no estar demasiado interesada en una cifra concreta de ventas
esperadas sino que preferir conocer con ciertas garantas un intervalo en el que stas se encuentren
situadas. Este mismo razonamiento podra ser aplicable a la evolucin de precios, pero deja de ser
vlido si lo que se pretende es obtener un ndice que posteriormente pueda ser utilizado como deflac
tor, funcin sta que no puede desempear un intervalo.

En definitiva, aunque la estimacin por intervalos presenta la ventaja de garantizar


una probabilidad o nivel de confianza, no siempre es ste nuestro objetivo prioritario.
En muchas ocasiones resulta imprescindible disponer de un dato nico y as la propia
estadstica oficial muestra numerosos ejemplos en los que las estimaciones se llevan a
cabo puntualmente (IPC, tasa de paro, PIB, ...).
Esta opcin permite disponer de cifras precisas -no avaladas por ninguna probabi
lidad directa pero s por su mtodo de obtencin- que en ocasiones sern utilizadas
como deflactores o indicadores econmicos. Adems, en la estadstica oficial estos re-
sultados aparecen a menudo complementados con informacin relativa a su margen
de error, que permite la construccin de intervalos en el caso de que sta se considere

238
7. Estimacin

conveniente.

7.2. Intervalos de confianza. Construccin y


caractersticas
Una vez examinadas las ventajas de la estimacin por intervalos, nos ocuparemos
de su determinacin, estudiando tambin los factores que afectan a su precisin y su
nivel de confianza.

Definicin 7.1. Llamamos intervalo de confianza a un intervalo del espacio param


trico limitado por dos valores aleatorios T1 y T2 entre los que, con cierta probabilidad
se halle comprendido el verdadero valor del parmetro desconocido .
Llamamos nivel de confianza, que denotamos por 1, a la probabilidad o confianza
de que el parmetro se encuentre entre los lmites anteriores:

1=P(T1T2)

7.2.1. Construccin de intervalos de confianza


Se trata por tanto de determinar los valores que delimitan el intervalo, y que de
pendern tanto de la informacin muestral (X1,...,Xn) como del estimador T.
Dado que sera difcil determinar los valores extremos que podra presentar la mues
tra, la construccin de intervalos se lleva a cabo mediante la consideracin de valores
extremos para el estimador. As pues, el mtodo utilizado para la determinacin de
intervalos consiste en incorporar ciertos mrgenes de error al estimador T, hasta llegar
a obtener un recorrido aleatorio (T1,T2) cuya amplitud denotamos por A = T2 T1.
Cuanto ms reducida sea esta amplitud, calificaremos al intervalo de ms preciso.

En ocasiones el intervalo de confianza se obtiene aadiendo un mismo margen a derecha e izquierda


de la estimacin puntual, con lo cual el intervalo es simtrico respecto al punto, y su amplitud coin
cide con el doble del margen. No obstante, esta situacin no resulta aplicable a todos los parmetros
de inters.

Consideremos una poblacin que identificamos con una variable aleatoria X cuya
distribucin de probabilidad depende de cierto parmetro desconocido . El procedi
miento general que seguiremos para la construccin de intervalos de confianza para
aparece descrito en la figura 7.3.
La primera etapa, ya conocida, consiste en resumir la informacin muestral me
diante un estimador T(X1,....,Xn) y construir la discrepancia tipificada asociada a
este estimador. Para ello seguiremos la metodologa estudiada en el captulo anterior,
llegando a expresiones dT que son funcin tanto de la m.a.s. (X1,....,Xn) como del
parmetro investigado : dT = dT(X1,....,Xn ,) y que, en general, seguirn un mo

239
7. Estimacin

Figura 7.3.: Esquema de Estimacin por intervalos


9 6
POBLACIN X

m.a.s. Parmetro
(X1 ,...,Xn) desconocido

Estimador P (T1 T2) = 1-
T(X1,...,Xn) = ( )
T1
T2

dT(X1,...,Xn,) = P(adTb)=1
8 (adT)b

delo probabilstico conocido.

Las discrepancias tipificadas dT que hemos introducido en el captulo anterior son expresiones alea
torias construidas por comparacin de T y , cuyo modelo probabilstico es habitualmente conocido
y no depende del parmetro .
As, dada una v.a. X con distribucin FX (x), hemos estudiado las distintas expresiones tipificadas
dT (X1 ,....Xn ,), cuya distribucin de probabilidad es conocida (Normal, t de Student, chi-cuadrado
o F de Snedecor) y no depende de ningn parmetro desconocido.

La distribucin de dT aparecer en general tabulada. Por tanto, una vez fijado el


nivel de confianza 1 que deseamos garantizar para nuestra estimacin, es posible
determinar con ayuda de las correspondientes tablas un par de valores a y b tan
prximos como sea posible tales que se cumpla:

P(adT(X1,...,Xn,)b)=1
Dado que dT es una expresin aleatoria que resume la discrepancia entre T y
convenientemente tipificada, mediante la igualdad anterior garantizamos una proba
bilidad de que la discrepancia se encuentre en cierto recorrido [a, b].

Los niveles de confianza ms habituales son el 90 %, 95 % y 99 %. Una vez fijado un nivel de con
fianza determinado 1 , en principio existen infinitas posibilidades para determinar los valores a
y b que encierran esa probabilidad. Sin embargo, nuestro objetivo es obtener intervalos precisos por
lo cual intentaremos que a y b se encuentren lo ms prximos posible. En concreto, para expresiones
dT distribuidas simtricamente (caso de los modelos Normal o t de Student) el recorrido ptimo -en
el sentido de mxima precisin- se obtiene para valores opuestos, esto es, con a = b.

240
7. Estimacin

Mediante las etapas descritas hasta ahora hemos llegado a obtener intervalos cons
tantes [a, b] para la variable aleatoria dT. Se trata de un paso intermedio hacia nuestro
objetivo, que es la construccin de intervalos aleatorios para el parmetro .
Por tanto, debemos ocuparnos ahora de la etapa final de la figura 7.3, consistente en
pasar del intervalo constante [a, b] que incluye un (1 )% de la probabilidad de dT,
a otro intervalo con lmites aleatorios T1 y T2 entre los que, con probabilidad 1 ,
se encontrar el parmetro .
Dado que dT es una funcin continua e inyectiva de , a partir de su expresin
dT(X1,....,Xn ,) es posible obtener (igualando dT a los extremos constantes a y b)
un par de funciones de la muestra T1(X1,....,Xn) y T2(X1,....,Xn) tales que se
cumpla:

P(T1T2)=1
El proceso de obtencin de [T1,T2] a partir de [a,b] se basa en el siguiente razo
namiento: al igualar la discrepancia dT a su valor mnimo a, estamos asumiendo el
mximo error por defecto (subestimacin) y como consecuencia, debemos corregir T
al alza para compensar esa subestimacin de , llegando as al extremo superior del
intervalo T2.
Este razonamiento se aplicara de modo anlogo a la situacin opuesta en la que la
discrepancia dT adopta su valor mximo b, por lo cual al estimar corregiremos el
valor de T a la baja hasta llegar a T1. As pues, se tiene:

dT(X1,....,Xn,)=a =T2

dT(X1,....,Xn,) = b = T1

y con la obtencin de los lmites aleatorios T1 y T2 hemos concluido la construccin


de un intervalo de confianza (IC) para el parmetro .
En apartados posteriores deduciremos las expresiones de los intervalos de confianza
correspondientes a los parmetros de inters. Sin embargo, para ilustrar el proce
dimiento anteriormente descrito, recogemos aqu la construccin de un intervalo de
confianza para la esperanza .
Consideremos una poblacin X N(, ) con conocida y supongamos que desea
mos obtener un intervalo para con nivel de confianza 1 = 0,95. En tal situacin,
las etapas a seguir aparecen recogidas en el esquema de la figura 7.4.
A partir de la media muestral se construye la discrepancia tipificada (que en este
caso sigue una distribucin normal estndar) y se determina el intervalo [1,961,96],
que es el mnimo recorrido de dX que encierra la probabilidad pedida (1 = 0,95).
Una vez obtenido este recorrido constante, basta despejar el parmetro para llegar
a un intervalo aleatorio
[ ]
X 1,96n,X + 1,96n

241
7. Estimacin

Figura 7.4.: Etapas en la estimacin por intervalos para

que, con probabilidad del 95 %, incluye el verdadero valor esperado.

7.2.2. Precisin de los intervalos


Una vez que hemos comentado el procedimiento general de obtencin de intervalos
que garanticen cierto nivel de confianza 1- , pasamos a analizar su precisin, caracte
rstica que, como ya hemos comentado, evaluamos a travs de la amplitud A = T2 T1.
Los factores que determinan la precisin de un intervalo, recogidos en la figura 7.5,
son de dos tipos: por una parte, el nivel de confianza que queramos garantizar en
nuestra estimacin, y por otra la informacin disponible, que -en sentido amplio- hace
referencia tanto a la poblacin como a la muestra.
Ya hemos justificado que el nivel de confianza de un intervalo aparece inversamente
relacionado con su precisin, siendo imposible optimizar simultneamente ambas ca
ractersticas. En la prctica, la construccin de intervalos se lleva a cabo prefijando
un nivel de confianza 1 y buscando a continuacin la expresin del intervalo que,
garantizando dicho nivel de confianza, optimiza la precisin.
Como hemos visto en el apartado anterior, una vez fijado el nivel de confianza 1
se determinan las constantes a y b que, en el mnimo recorrido posible, encierran esa
probabilidad. Resulta evidente que a y b estarn ms distanciados cuanto mayor haya
sido la probabilidad 1 fijada; por tanto, para una situacin dada, el intervalo
ptimo al 99% ser siempre ms amplio (menos preciso) que el intervalo ptimo al
90 %.
Por lo que se refiere a la informacin disponible, podemos afirmar que, para un nivel
de confianza dado, el intervalo ser ms preciso (es decir, presentar una menor am

242
7. Estimacin

Figura 7.5.: Precisin del intervalo


9 6

Nivel de confianza Informacin


1 disponible

POBLACIN MUESTRA
Distribucin Tamao
Parmetros Seleccin
Estadsticos
8 7

plitud) a medida que mejoremos nuestra informacin, tanto poblacional (distribucin


de X y parmetros caractersticos) como muestral (tamao, mtodos de seleccin y
estadsticos utilizados).

7.2.2.1. Informacin sobre la poblacin


En primera instancia, nos interesa la informacin referida a la poblacin investigada,
esto es, su distribucin de probabilidad y sus parmetros. En la prctica, gran parte de
los procesos inferenciales se llevan a cabo partiendo del supuesto de normalidad, pero
resulta interesante estudiar la construccin de intervalos en poblaciones desconocidas.
Consideremos una poblacin X, desconocida tanto en lo que respecta a su distribu
cin FX(x) como al parmetro . En esta situacin no es posible garantizar modelos
probabilsticos para las discrepancias dT, por lo cual acudiremos a la desigualdad de
Chebyshev, que da lugar a la siguiente expresin:
1
P(|dTE(dT)|kdT)1 k2;k>0

Obsrvese que el enunciado de Chebyshev ira en realidad referido a la probabilidad de que dT


se desve de su valor esperado en menos de un cierto margen. No obstante, teniendo en cuenta que
dT es una funcin continua de T, la desigualdad estricta es equivalente a la condicin menor o igual.

Aunque hasta ahora utilizbamos la desigualdad de Chebyshev para aproximar


probabilidades, en este caso nos interesar el planteamiento opuesto, ya que desea
mos garantizar cierta probabilidad (coincidente con el nivel de confianza 1 ) pero
desconocemos el margen que debemos incorporar a la discrepancia.
As pues, igualaremos la probabilidad que deseamos garantizar para nuestro inter
valo con la cota de Chebyshev:

k= 1
1=1 k 12

243
7. Estimacin

obteniendo la constante k en funcin del nivel de confianza fijado.


Una vez determinado, este margen k proporciona un par de valores a y b entre los
cuales se encuentra dT con probabilidad de al menos 1-:

P(|dTE(dT)|kdT)1 P(adTb)1
y a partir de la expresin dT(X1,...,Xn ,), podremos despejar un intervalo aleatorio
(T1,T2) para , tal que:

P(T1T2)1
Estos intervalos basados en la desigualdad de Chebyshev sern -para niveles de
confianza dados- menos precisos que los obtenidos a partir de distribuciones probabi
lsticas conocidas, puesto que la ausencia de informacin inicial es un inconveniente
que conlleva un coste en trminos de precisin. As pues, la aplicacin de Chebys
hev nicamente es aconsejable cuando no existe otra alternativa, ya que cualquier
informacin adicional sobre X proporcionar informacin sobre dT y en consecuencia
mejorar la precisin de nuestro intervalo.

La construccin de intervalos basados en la desigualdad de Chebyshev sera un caso de estimacin


no paramtrica, en el sentido de que los intervalos no se basan en ningn modelo probabilstico
conocido.
Como veremos en apartados posteriores, en estas situaciones, la amplitud del intervalo de confian
za depender del nivel de confianza fijado y de la eficiencia de nuestros estimadores.

Si consideramos ahora que la poblacin X presenta una distribucin conocida (habi


tualmente normal), podremos obtener intervalos de confianza basados en los modelos
probabilsticos asociados a las discrepancias dT.
Dado que las caractersticas poblacionales afectan a las distribuciones de las dT,
tambin condicionarn la precisin de los intervalos. En general, obtendremos inter
valos ms precisos cuanto ms homogneas sean las poblaciones investigadas.

En un apartado posterior analizaremos la importancia que tiene en la estimacin de diversos


parmetros la informacin sobre la varianza poblacional. As, ya hemos visto que las inferencias
sobre la esperanza con 2 conocida conducen a un modelo normal mientras que si 2 es desconocida
debemos utilizar su estimacin S2, que conduce a una t de Student y, en general, a estimaciones
menos precisas.
A su vez, en las situaciones con 2 conocida, veremos que la amplitud del intervalo aumentar con
el valor de la varianza.

7.2.2.2. Informacin muestral


La informacin muestral abarca factores relevantes como el tamao de muestra
(n), los mtodos de seleccin empleados y las expresiones utilizadas como estadsticos
muestrales.

244
7. Estimacin

El tamao de la muestra resulta de gran importancia en los procesos de estimacin.


En primer lugar, ya hemos visto que los tamaos elevados de muestra permiten aplicar
los teoremas lmites, garantizando as la convergencia al modelo normal.
Adems, la expresin final de los intervalos de confianza para :

P(T1T2)=1
conduce a dos lmites aleatorios T1 y T2 que en general son funciones de n. En apartados
posteriores analizaremos la relacin entre la amplitud de un intervalo A = T2 T1 y
el tamao de muestra.
La seleccin muestral puede colaborar en gran medida a mejorar la precisin de
los intervalos. Nos referiremos aqu nicamente al muestreo aleatorio simple que es la
tcnica de seleccin ms sencilla y se adopta habitualmente como referencia, pero los
diseos muestrales ms elaborados contribuyen a mejorar la precisin de las estima
ciones.

Por ltimo, debemos tener presente que la informacin muestral debe ser resumida
mediante estadsticos o estimadores, por lo cual su definicin ser tambin de impor
tancia en la determinacin de los intervalos.
Las expresiones T(X1,...,Xn) utilizadas como estimadores sern las que resulten
en cada caso ms adecuadas segn los criterios estudiados en captulos anteriores (au
sencia de sesgo, eficiencia, suficiencia, consistencia) ya que estas propiedades deseables
se trasladan a las discrepancias tipificadas dT(X1,...,Xn ,) y tambin a la precisin
de los intervalos de confianza para .

7.2.3. Nivel de confianza: Interpretacin


Como hemos visto, el proceso de construccin de intervalos concluye con la de
terminacin de un recorrido aleatorio al que, con cierto nivel de confianza (1 ),
pertenecer el parmetro desconocido. Es importante tener presente que esta interpre
tacin probabilstica, vlida para la expresin [T1 ,T2] deja de serlo cuando se obtiene
una m.a.s. concreta (x1,...,xn) y a partir de la misma las estimaciones t1(x1 ,...,xn)
y t2(x1 ,...,xn) que ya no tienen carcter aleatorio.
En efecto, cada concrecin de un intervalo de confianza proporciona un recorrido
numrico concreto sobre el que no puede efectuarse ninguna afirmacin probabilstica.
Sin embargo, el mtodo de construccin de los intervalos de confianza garantiza que
si efectusemos numerosos estudios muestrales, que se concretaran en los correspon
dientes intervalos IC1, IC2, etc, entonces una proporcin (1-) % de ellos contendra
el verdadero valor del parmetro .
Esta interpretacin aparece ilustrada en la figura 7.6 donde representamos el par
metro que pretendemos estimar y los intervalos de confianza obtenidos a partir de
diferentes realizaciones muestrales.
Como puede apreciarse, la mayora de estos intervalos abarcan en su recorrido a
pero existen algunos (en la ilustracin, el tercero y el sptimo) en los que no se

245
7. Estimacin

Figura 7.6.: Nivel de confianza

encuentra el parmetro. As pues, la concepcin frecuencialista de la probabilidad nos


llevara a afirmar que la proporcin de intervalos estimados que contienen en su recorri
do el verdadero se aproxima al nivel de confianza 1 utilizado para su construccin.

Obsrvese que esta afirmacin probabilstica debe ser efectuada en relacin al intervalo aleatorio
y no al parmetro. As, sera incorrecto decir que tiene una probabilidad 1 de pertenecer
al intervalo ya que el parmetro, aunque desconocido, es un valor constante al que por tanto no
podemos asignar ninguna probabilidad.

7.3. Algunos intervalos de confianza particulares


El esquema expuesto anteriormente (figura 7.4) es aplicable a la construccin de
intervalos de confianza para los parmetros de inters, esto es, las caractersticas po
blacionales relativas a valores esperados, proporciones y varianzas.

7.3.1. Intervalos de confianza para la esperanza


Las inferencias sobre el parmetro se llevan a cabo habitualmente partiendo del
supuesto de normalidad que, adems de ser adecuado desde el punto de vista emprico,
proporciona distribuciones conocidas para las discrepancias normalizadas.
Dada una v.a. X N(, ) y partiendo de la informacin proporcionada por una
m.a.s. adoptaremos como punto de partida el estimador analgico media muestral,
que viene avalado por sus propiedades, a partir del cual construimos las discrepancias
estudiadas en el captulo anterior:

246
7. Estimacin

X

dX = N(0,1) , si 2 es conocida
n

XS
n
dX = tn1 , si 2 es desconocida

En el supuesto ms sencillo, con 2 conocida, se parte de la expresin tipificada con


distribucin normal estndar a partir de la cual, una vez fijado el nivel de confianza
1 , es posible determinar el valor k tal que:

P(kdXk)=1
Puede apreciarse que en este caso particular los valores que encierran la probabili
dad 1 son opuestos ya que, como consecuencia de la simetra del modelo normal,
sta es la opcin que, fijado el nivel de confianza, conduce al intervalo ptimo (de
mnima amplitud o mxima precisin).

A modo de ilustracin, los valores k para los niveles de confianza habituales son:

Nivel de confianza k
0,9 1,645
0,95 1,96
0,99 2,576

Teniendo en cuenta que en este caso la discrepancia viene dada por la expresin
X
dX =

n

es posible despejar el parmetro , llegando a la expresin:


)
X X kn
P ( k n +

que proporciona un intervalo aleatorio para con nivel de confianza 1 .


[ ]
X kn, X + kn

El procedimiento seguido hasta la obtencin de este intervalo final consiste en igualar la discre
pancia a cada uno de sus valores lmites k y +k. De este modo, si dX adoptase el valor k entonces
se obtendra la mxima discrepancia -por exceso- de la media muestral respecto a ; por tanto, el
lmite inferior del intervalo se obtiene al corregir el estimador media muestral en el mximo error por
exceso
X
n =k = X k
n

247
7. Estimacin

Con el razonamiento exactamente simtrico, se llegara al estimador considerado lmite superior:


X
=k = X + k
n
n

A partir de la expresin obtenida para el intervalo de confianza de se observa que


ste se encuentra centrado en X y presenta amplitud

A = 2k n

en la que pueden apreciarse tres factores: el nivel de confianza (que determina k), la
dispersin poblacional () y el tamao muestral (n).
Estudiemos ahora cmo se vera alterado el procedimiento descrito si la varianza
poblacional se desconoce, esto es, si la discrepancia tipificada viene dada por
X
dX = Sn
tn1

A partir de esta expresin, una vez fijado el nivel de confianza 1 podramos


obtener en las tablas de la distribucin t un par de valores simtricos k y k tales
que:

P(kdXk)=1
obtenindose a partir de la expresin anterior:
( )
X S X k S
P k +
n n
que conduce al siguiente intervalo de confianza para :
[ ]
X k n
S , X + kSn

Dicho intervalo sigue estando centrado en la media muestral pero presenta ahora
amplitud variable

S
A=2k n

dependiente de la dispersin muestral.

Al comparar esta amplitud con la asociada al IC para con conocida se aprecian dos cambios.
En primer lugar, el valor k aumenta, ya que para un mismo nivel de confianza el valor obtenido en
las tablas t de Student ser superior al del modelo normal (si bien estas diferencias se atenan al
aumentar n).
Por otra parte, la amplitud pasa de ser constante a variable, por lo cual no es posible comparar la
precisin de ambos tipos de intervalos.

248
7. Estimacin

Por ltimo, en ausencia de informacin sobre la distribucin poblacional y si los


tamaos de muestra no son suficientemente elevados para aplicar los teoremas lmites,
tampoco conoceramos la distribucin de la discrepancia, por lo cual deberamos acudir
a la desigualdad de Chebyshev:
1
P(|dXE(dX)|k)1
k2
La igualacin de la cota con el nivel de confianza exigido proporciona el resultado
1
k=

y, dado que la discrepancia dX tiene esperanza nula y dispersin unitaria, se obtiene
el intervalo:
[ ]
X 1 X + 1
n, n
que, como consecuencia de su obtencin, tiene un nivel de confianza de al menos 1.
Este intervalo presenta una mayor amplitud que los anteriormente vistos y para
situaciones con varianza desconocida podra ser aproximado mediante la dispersin
muestral.

7.3.2. Intervalos de confianza para la varianza


En ocasiones nuestro objetivo es aproximar la dispersin poblacional, obteniendo
intervalos de confianza para la varianza 2. En tales casos, partiendo de poblaciones
normales, la discrepancia se construye como un cociente entre la varianza muestral S2
y la varianza poblacional, ajustado por los grados de libertad (n 1) hasta obtener
la expresin

(n 1)S2 2
dS2 = 2 n1

Una vez fijado el nivel de confianza 1 sera necesario obtener un par de valores
k1 y k2 tales que: P(k1 dS2 k2)=1
Como consecuencia de la asimetra del modelo chi-cuadrado, el mtodo de determi
nacin de estos valores no coincide con el visto para los intervalos de . En concreto, la
opcin ms habitual consiste en determinar recorridos [k1 ,k2] que dejan a su izquierda
y a su derecha colas con idntica probabilidad 2 .
A partir de esos valores se llega a intervalos de confianza para 2 dados por la
expresin:
[ (n ]
1)S2 , (n 1)S2
k2 k1
que se encuentran prximos al ptimo.

249
7. Estimacin

Los extremos de este intervalo se obtienen al igualar la discrepancia normalizada a las constantes
k1 y k2 obtenidas anteriormente. En el primer caso se hace coincidir dS2 con su valor mnimo k1,
por lo cual la varianza muestral se corrige al alza multiplicando por el ndice n1 > 1, llegando al
k1
extremo superior (n1)S2
k1 ; la situacin contraria aparece al igualar la discrepancia a k2 y conduce al
(n1)S 2
lmite inferior k2
.

Otra posibilidad sera adoptar soluciones unilaterales que, aunque en ciertos casos
resultan interesantes, en general son poco informativas ya que proporcionan un slo
extremo para el intervalo.
As, cuando el nivel de confianza se acumula a la izquierda P[ (dS2 k)=1 ,
) se
(n1)S2
obtiene [0,k] con lo cual el intervalo de confianza para 2 es k ,+ que no
tiene cota superior.
Si en cambio se obtiene el valor k tal que P (dS2 k)=1, entonces el intervalo
para 2 resulta ser (0, (n1)S2 ]
k .
En cualquiera de las situaciones comentadas, los intervalos de confianza para la
varianza poblacional presentan un rasgo que los diferencia de los construidos para la
media. Se trata de la incorporacin de un coeficiente o margen de carcter multipli
cativo, que sustituye a los mrgenes aditivos considerados hasta ahora.

7.3.3. Intervalos de confianza para la proporcin


Cuando investigamos caractersticas cualitativas, aparece un caso particular de
la media poblacional: se trata de la proporcin, p, parmetro que -como ya hemos
comentado- presenta gran inters en anlisis inferenciales y se aproxima por la pro
porcin muestral.
En el captulo anterior hemos visto que para tamaos muestrales suficientemente
elevados es posible -gracias al teorema de De Moivre- construir discrepancias tipifica
das

dp=pp
p(1p)nN(0,1)

Aplicando ahora el procedimiento descrito para la construccin de intervalos se


obtiene la expresin: p(1
p) p)
[pk n ,p+k ]
p(1
n
que no puede ser determinada en la prctica ya que sus extremos dependen del par
metro desconocido p. Para solucionar este inconveniente, se suele sustituir la varianza
poblacional de p por su estimador insesgado, con lo cual se obtiene el intervalo:
[ ]
p(1 p) p(1 p)
p k , p + k
n1 n1

250
7. Estimacin

donde k ha sido calculado mediante las tablas de la distribucin normal para el nivel
de confianza 1 fijado.
El razonamiento anterior no resultar sin embargo aplicable para muestras de ta
mao pequeo. En estas situaciones, nicamente es posible afirmar que X (numerador
de la proporcin muestral) sigue una distribucin binomial B(n, p).
As pues, conocida la proporcin muestral p y dado un nivel de confianza 1 se
buscan dos valores de probabilidad p1 y p2 tales que:
2 ; P(X>np/p1)=
P (X<np/p2) =
2
con lo cual se obtiene directamente el intervalo de confianza [p1,p2] para p.

La estimacin de p puede tambin llevarse a cabo mediante la utilizacin de bandas grficas de


confianza. El mtodo consiste en seleccionar en el eje de abscisas el valor muestral p, para el cual
se obtienen en ordenadas los lmites inferior y superior para el parmetro p con un cierto nivel de
confianza y determinado tamao de muestra.

C. J. Clopper y E. S. Pearson (1934) elaboraron bandas grficas para la proporcin con niveles de
confianza del 95 % y el 99 % y para ciertos tamaos de muestra. Posteriormente autores como Clark
(1953) y Pachares (1960) construyeron mediante el mismo procedimiento bandas asociadas a nuevos
niveles de confianza y tamaos muestrales.
Partiendo del valor p observado en una muestra, estas grficas proporcionan bandas de confianza
que en general no son simtricas respecto a p, ya que para proporciones observadas bajas se incorpora
un mayor margen a la derecha y viceversa si la proporcin observada es cercana a 1. (A modo de
ilustracin, para n = 20 con p = 0,8 se llegara a una banda [0,55 , 0,95] mientras que para el mismo
tamao con p = 0,1 se obtiene el intervalo [0,01 , 0,33]).

7.3.4. Intervalos de confianza para combinaciones lineales de medias


A menudo nos interesa llevar a cabo inferencias sobre la diferencia, la suma u otra
combinacin lineal de esperanzas de dos poblaciones. Para mayor generalidad, con
sideremos el parmetro X + Y que deseamos aproximar mediante intervalos de
confianza.
Para la construccin de estos intervalos debemos tener presentes las diversas situa
ciones descritas en el captulo anterior para la diferencia de medias (muestras depen
dientes e independientes, poblaciones normales y desconocidas, varianzas conocidas y
desconocidas, etc.).
Si las muestras son dependientes se obtienen datos pareados, que se reducen a
una muestra nica sobre la cual resulta aplicable el procedimiento descrito para la
construccin de IC para la esperanza poblacional.
Por otra parte, en el supuesto de independencia, partiendo de muestras de tamaos
n y m la construccin de intervalos para X +Y se basa en el estimador insesgado
X + Y que conduce a la discrepancia tipificada:

X+Y(X+Y)
dX+Y =
22Xn+22Ym

251
7. Estimacin

cuya distribucin de probabilidad depende de la informacin disponible sobre las po


blaciones.
En el supuesto ms sencillo, con X N(X,X), Y N(Y,Y) y varianzas
conocidas, los intervalos de confianza para la combinacin de esperanzas vienen dados
por la expresin:
[X+Yk 22Xn + 22Y m , X+Y+k ]
22Xn + 22Y
m
donde k se determina en las tablas del modelo normal.
[Dedzcase la expresin anterior] [Cul sera el intervalo de confianza si las varian
zas fuesen desconocidas y coincidentes?].

Para poblaciones desconocidas la solucin consiste en aplicar la desigualdad de


Chebyshev, cuya cota igualamos al nivel de confianza deseado. Se llega entonces a la
expresin:
[X+Y1 22Xn +22Ym,X+Y+1 ]
22X
n +22Ym

[Comprubese]

7.3.5. Intervalos de confianza para la razn de varianzas


Como hemos visto, en la obtencin de los intervalos para combinaciones de medias
resulta importante conocer si las varianzas poblacionales son iguales. De ah que la
razn de varianzas sea tambin un objetivo inferencial.
Dadas dos poblaciones normales X N(X ,X) e Y N(Y ,Y) supongamos
que deseamos obtener un intervalo de confianza para la razn de varianzas 2X
2Y
.
Partiremos de la informacin suministrada por dos muestras aleatorias independien
tes de tamaos n y m respectivamente, a partir de las cuales es posible construir la
X 2Y que sigue una distribucin F de Snedecor con (n 1) y (m 1)
discrepancia S2
S2Y2X

grados de libertad.
Siguiendo el mismo procedimiento visto para la varianza, podemos construir inter
valos bilaterales o unilaterales. En el primer caso, buscaramos en las tablas de la F
dque:
dos valores k1 y k2 tales
P <k1 =2;P d
>k2
=2
S2XS2Y S2XS2Y

con lo cual se obtiene la expresin del intervalo bilateral para la razn de varianzas
2X
2
:
Y

252
7. Estimacin

[ ]
S2XS2Yk2 , S2XS2Yk1

[Cmo se obtendran los intervalos unilaterales?] [y los intervalos para 2Y


2X
]

7.3.6. Intervalos de confianza para la mediana


La construccin de intervalos para la mediana de una poblacin es un problema
de inferencia no paramtrica, dado que no es necesario en este caso asumir ningn
supuesto sobre la poblacin X de partida.
Teniendo en cuenta que la mediana (Me) es el parmetro poblacional que garantiza
FX(Me)=0,5, entonces para todo elemento Xi de una m.a.s. (X1,...,Xn) se cumple
P(Xi Me)=0,5.
Aprovechando la informacin muestral definiremos un intervalo aleatorio [Xa, Xb]
que, con el nivel de confianza deseado, contenga al valor mediano. En esta construccin
resultar til la variable Z: Nmero de observaciones muestrales menores o iguales a
Me distribuida segn un modelo B(n,0,5), ya que se cumple:
P(XaMeXb)=P(aZb)=bk=a (nk)
0,5n

y en consecuencia para cada nivel de confianza 1 determinaremos con las tablas


del modelo binomial (o con ayuda de un ordenador) dos cantidades a y b que poste
riormente conducen a un intervalo numrico [xa, xb] para la mediana.

Entre las distintas posibilidades para determinar los valores a y b de la variable binomial, optare
mos por aqulla que proporcione a y b ms prximos. Sin embargo, esta opcin no garantiza que el
intervalo [xa , xb] al que conduce sea ptimo en el sentido de maximizar la precisin.

El procedimiento descrito puede ser aplicado a la construccin de intervalos para cualquier cuantil
Q, con slo definir la variable aleatoria Z: nmero de observaciones muestrales inferiores al cuantil
Q que sigue un modelo B(n, pQ).

7.4. Determinacin del tamao muestral


Hasta ahora nos hemos ocupado de determinar intervalos de confianza para los par
metros de inters, analizando diversas situaciones con distintos niveles de informacin.
Consideramos ahora otra posibilidad habitual, consistente en determinar el tamao
muestral que permita obtener cierto intervalo.
Este planteamiento resulta de inters en el mbito econmico, ya que son frecuentes
las situaciones en las que el investigador debe determinar el tamao de muestra ne
cesario para que un intervalo cumpla ciertos requisitos (precisin y nivel de confianza).

253
7. Estimacin

Obsrvese que el tamao de muestra es determinante para conocer el presupuesto de una investi
gacin. De ah el inters de optimizar, buscando el mnimo tamao que garantice las condiciones de
precisin y confianza que se consideran necesarias en el intervalo buscado.

7.4.1. Tamao de muestra en intervalos para la esperanza


Consideremos una poblacin normal con varianza conocida para la que deseamos
estimar el valor esperado con un cierto nivel de confianza 1 . En ocasiones
podemos estar interesados en obtener el tamao de muestra n necesario para garantizar
determinada precisin en nuestras estimaciones.
Dado que los intervalos para la media son simtricos, su precisin puede ser cuanti
ficada indistintamente mediante la amplitud A o mediante su margen de error = A .
2
As pues, se obtiene:
)
A=2kn =kn n= ( k 2

En esta expresin se observa que el tamao muestral n aumenta con la dispersin
poblacional (), con el nivel de confianza (que determina el valor k) y con la precisin
(inverso del margen ).
Puede verse adems que este tamao aumenta cuando nos enfrentamos a mayor
incertidumbre sobre la poblacin, tal y como se recoge en la tabla comparativa que
sigue:

XN(,)
Situacin Margen
=kn
de error() Tamao
n = muestral
( )2
k

con
X desconocida
conocida =
n n = ( )2

con conocida

El tamao aumenta al enfrentarnos a poblaciones desconocidas, ya que para un nivel de confianza


dado se obtiene k < 1

1 90% 95% 99%

k 1,645 1,96 2,576


1 3,1623 4,4721 10

En las expresiones deducidas para el tamao muestral n aparece la dispersin po


blacional, caracterstica que en la prctica puede ser desconocida. Para solucionar
este inconveniente, la prctica ms habitual consiste en obtener una estimacin de la
dispersin mediante una muestra piloto, considerando a continuacin este parmetro
como conocido.

254
7. Estimacin

Debemos tener en cuenta que la realizacin de un estudio piloto para estimar la dispersin pobla
cional aumentar el presupuesto necesario para nuestra investigacin. Sin embargo, tambin presenta
ciertas ventajas, ya que en la medida en que detectemos errores en este estudio previo podremos
mejorar el diseo de la encuesta definitiva.

7.4.2. Tamao de muestra en intervalos para la proporcin


Supongamos que deseamos estimar la proporcin asociada a determinada caracters
tica poblacional con cierto nivel de confianza 1. Como hemos visto en un apartado
anterior, la expresin del intervalo viene dada por:
[ ]
p(1p)n,p+k p(1p)n
pk

con lo cual podemos obtener el tamao muestral necesario para garantizar un nivel
de confianza (1 ) y una precisin () concretos:
=k
p(1p)n k2p(1p)
n=
2
Puede verse que el tamao obtenido aumenta con las exigencias de confianza y
precisin para nuestro intervalo. Adems, esta expresin depende de la proporcin p
desconocida, problema que puede ser solucionado de dos formas:

Seleccionar una muestra piloto que proporcione una primera estimacin de p.

Sustituir el valor desconocido p(1 p) por su cota mxima, que es 0,25.

Esta segunda alternativa es la ms habitual y, como consecuencia de asumir la disper


sin mxima, conduce a valores de n que siempre proporcionan una precisin superior
a la inicialmente fijada.

Puede comprobarse fcilmente que la expresin de la dispersin p(1 p) alcanza su valor mximo
para p = 0,5. Dado que sta es la situacin ms desfavorable, en ocasiones podramos disponer de
informacin para acotar p y en consecuencia la dispersin.

255
8. Contraste de hiptesis
Nuestra vida cotidiana est repleta de decisiones y actuaciones basadas en hiptesis.
Si estos supuestos de partida son adecuados aumentarn nuestras posibilidades de xi
to mientras que, si partimos de hiptesis o supuestos inadecuados, nuestras decisiones
pueden llegar a tener consecuencias contrarias a las deseadas. De ah la importan
cia de aprovechar al mximo la informacin estadstica disponible, llevando a cabo
contrastes en los que nuestras hiptesis de partida se enfrentarn a la realidad, para
analizar si ambas informaciones son coherentes o contradictorias.
Dada la trascendencia del contraste de hiptesis, es importante prestar atencin a
todo el proceso, que incluye el enunciado de los supuestos de partida, el tratamiento
de la informacin muestral, la eleccion del estadstico de contraste y la conclusin
final, que consistir a decidir si debemos o no rechazar la hiptesis planteada.

8.1. Conceptos bsicos


El primer aspecto que nos planteamos en un problema de contraste es el relativo
a la formulacin de una hiptesis, que debera recoger un postulado o supuesto de
trabajo, elaborado a partir de teoras, experiencias previas, e incluso nuestras propias
convicciones.
Puede verse por tanto que el origen de las hiptesis es diverso, al igual que lo es
su naturaleza. A modo de ejemplo, nuestros supuestos podran ir referidos a caracte
rsticas de tipo tcnico (existencia de rendimientos a escala constantes), de compor
tamiento (la propensin marginal al consumo es del 80%), comerciales (se espera
una demanda de al menos 30.000 unidades de cierto producto), polticos (un 75%
de ciudadanos est a favor de la ampliacin de la UE), ... pero tambin podran ser
afirmaciones genricas sobre ciertos colectivos (el peso de cierto producto se distri
buye segn un modelo normal) o las relaciones entre varias caractersticas (el tipo
impositivo medio es independiente del nivel de inflacin, ...).
En un problema de contraste de hiptesis existen distintos tipos de informacin: la
informacin bsica, que consideraremos segura y no est sujeta a contraste (por ejem
plo, considerar que el modelo de distribucin de renta es conocido), la informacin
adicional, a priori o contrastable que nos permite establecer la hiptesis de traba
jo (todas las ilustraciones anteriores entraran en esta categora) y finalmente para
contrastar la hiptesis se utiliza la informacin muestral.
En funcin de la informacin bsica disponible cabe hacer una primera distincin
entre los contrastes:

Definicin 8.1. Se dice que un contraste es paramtrico si existe una informacin

256
8. Contraste de hiptesis

bsica que nos permite garantizar el modelo de probabilidad de la poblacin que se


va a contrastar.
Un contraste se dice no paramtrico cuando no hay informacin bsica y todos los
supuestos se incluyen en la hiptesis de trabajo

Los tests no paramtricos son enunciados ms globales relativos a una o varias dis
tribuciones poblacionales.

Esta distincin, que hemos propuesto de forma genrica para todos los procesos inferenciales, se
basa en el grado de desconocimiento sobre la poblacin, que es parcial para la inferencia paramtrica
y total para la no paramtrica.
Conviene tener presente este criterio de clasificacin ya que, como hemos visto, existen algunos
procedimientos inferenciales que, pese a ir referidos a parmetros tienen carcter no paramtrico (por
ejemplo, este es el caso de la estimacin por intervalos con desconocimiento del modelo poblacional
mediante la desigualdad de Chebyshev).

Una vez investigada su naturaleza cmo se decide si una hiptesis debe o no ser
rechazada? Algunas veces tenemos pruebas inequvocas sobre la validez de un supuesto
y entonces ste se incluye entre la informacin bsica o ncleo no contrastable. Sin
embargo, en la mayor parte de los supuestos asumimos cierto riesgo o incertidumbre
probabilstica, dado que en general las observaciones se hallan expuestas a variaciones
y por tanto podran haber sido generadas bajo la hiptesis enunciada pero tambin
bajo su complementaria o alternativa.
La filosofa del contraste de hiptesis se basa en recopilar informacin muestral que
nos permita decidir si las desviaciones observadas con respecto a la hiptesis terica
son demasiado elevadas o significativas como para poder atribuirlas al azar. En
este caso, la informacin muestral contradice claramente nuestro supuesto y debemos
rechazar nuestra hiptesis de partida.
En definitiva, las decisiones relativas a la hiptesis se basan en la informacin mues
tral disponible. Como consecuencia, se trata de un proceso de inferencia estadstica,
que lleva inherente el correspondiente riesgo inferencial.

8.1.1. Contraste de hiptesis e intervalos de confianza


Con los rasgos descritos hasta ahora qu analogas y diferencias existen entre los
procedimientos de contraste y los mtodos de estimacin? Para responder a este inte
rrogante, la figura 8.1 recoge un esquema en el que se analizan paralelamente ambas
tcnicas.
En principio, dado que tanto la estimacin como el contraste de hiptesis son proce
sos inferenciales, existen abundantes rasgos comunes a los dos mtodos. En realidad,
ambos procedimientos son similares en cuanto a la utilizacin de la informacin mues
tral y a los instrumentos o expresiones estadsticas que comparan dicha informacin
con las caractersticas poblacionales.

257
8. Contraste de hiptesis

Tabla 8.1.: Comparacin: estimacin y contraste

Estimacin Contraste
Aproximar caractersticas Contrastar supuestos
Objetivo
poblacionales desconocidas sobre la poblacin
Informacin Bsica Bsica
Muestral A priori o contrastable
Muestral
Herramienta Discrepancia Discrepancia
estimador-parmetro muestra-hiptesis
Resultado Estimacin puntual o Conclusin:
intervalo de confianza Rechazar o no rechazar
Garantas Nivel de confianza Nivel de significacin
Nivel crtico

Las expresiones de las discrepancias tipificadas estudiadas en captulos anteriores y sus correspon
dientes distribuciones probabilsticas siguen siendo vlidas para la realizacin de contrastes estadsti
cos, con la nica diferencia de que ahora evaluaremos dichas discrepancias bajo ciertas hiptesis que
deseamos contrastar.

Como consecuencia de su carcter inferencial, los resultados a los que lleguemos


tanto en estimacin como en contraste, sern afirmaciones probabilsticas basadas en
informacin parcial. De ah el inters de conocer sus garantas que vendrn me
didas en trminos de probabilidad (en el caso de los intervalos conocemos su nivel
de confianza y para los contrastes introduciremos el nivel de significacin y el nivel
crtico).
A pesar de las coincidencias sealadas, existen tambin diferencias notables entre
los mtodos de estimacin y contraste. Una de ellas es la informacin presente en
cada uno de los procesos ya que, adems de la informacin bsica y la muestral, un
contraste viene caracterizado por la existencia de informacin a priori o contrastable
que da lugar a un supuesto o hiptesis inicial.

Como consecuencia, en los contrastes de hiptesis el investigador se ve ms involucrado en el pro


blema ya que, adems de conocer el instrumental estadstico, para establecer la informacin bsica
necesita tener un conocimiento terico y emprico del marco de referencia.

Adems, los mtodos de estimacin y de contraste son diferentes en cuanto a su


objetivo: en estimacin se pretende aproximar un parmetro desconocido (mediante
un valor nico o un intervalo) mientras que en el contraste de hiptesis nuestro objeti
vo final es llegar a tomar una decisin (rechazar o no rechazar) sobre la hiptesis inicial.

Para ilustrar la conexin entre estimacin y contraste consideremos a modo de ejemplo la pro
duccin mensual de cierto mineral (X, datos expresados en miles de Tm.), variable aleatoria que

258
8. Contraste de hiptesis

se distribuye segn un modelo normal y cuyo valor esperado, segn la hiptesis de trabajo de la
empresa, es de 410 miles de Tm./mes.
Analizando esta informacin se aprecia que la hiptesis de normalidad se asume como informacin
bsica (no entra en este caso en el contraste) mientras el supuesto relativo a la produccin mensual
esperada ( = 410) es una informacin a priori que nos interesa contrastar.
Si disponemos de informacin muestral, podemos comenzar por analizar la validez del supuesto
utilizando el planteamiento ya conocido de la estimacin.
La estimacin puntual no resulta de gran ayuda ya que, aunque la poblacin sea normal con media
= 410, no cabe exigir que la media muestral coincida exactamente con este valor. As pues, sera
ms adecuado construir un intervalo de confianza para el parmetro , utilizando las expresiones
estudiadas en el captulo anterior.
Supongamos por ejemplo que, para un nivel de confianza del 95 %, el intervalo obtenido con nuestra
informacin muestral es [350, 390]. Teniendo en cuenta que el 95% de los intervalos contendran
al verdadero valor de la esperanza, en principio pensaramos que nuestro intervalo particular se
encuentra en esa proporcin.
Podemos observar sin embargo que el recorrido estimado [350, 390] no incluye el valor hipottico
de la produccin esperada ( = 410), hecho que nos llevara a pensar que el verdadero valor de se
sita por debajo de nuestro supuesto inicial y por tanto a rechazar la hiptesis = 410.
Siguiendo el mismo procedimiento, cul sera la conclusin si hubiramos obtenido el intervalo
[380, 420]? Parece claro que esta estimacin no contradice el supuesto de partida (el recorrido contiene
el valor hipottico 410), por lo cual no conllevara un rechazo de la hiptesis.
Hemos visto que los intervalos de confianza pueden conducirnos a una decisin sobre el rechazo
de una hiptesis. Sin embargo, conviene observar que en el proceso de construccin de intervalos no
hemos tenido en cuenta el supuesto que sometemos a contraste (los IC anteriores no cambiaran si la
hiptesis inicial hubiera sido = 400 o cualquier otra), hecho que permite apreciar hasta qu punto
estamos menospreciando el supuesto de partida.
Como consecuencia, la estimacin no es un mtodo recomendable cuando se pretende contrastar
una hiptesis: aunque desde un punto de vista instrumental pueda conducir a resultados vlidos, no
sucede lo mismo desde una ptica conceptual, dado que ignora por completo el supuesto planteado o
informacin a priori.

8.1.2. Contrastes de significacin


Una vez justificado que los procedimientos de estimacin no estn diseados para
contrastar una hiptesis, estudiaremos nuevas opciones que, utilizando adecuadamente
la informacin muestral, incorporen adems explcitamente el supuesto formulado.
Una opcin en este sentido consiste en estudiar la discrepancia entre muestra e
hiptesis, aplicando el siguiente razonamiento: debido a las variaciones aleatorias,
asumimos como aceptables ligeras desviaciones entre las observaciones muestrales y las
hiptesis poblacionales. Sin embargo, cuando estas discrepancias sean considerables,
su presencia ya no es atribuible nicamente al azar. As pues, la muestra resulta poco
verosmil bajo la hiptesis inicial y ello nos llevar a pensar que hemos partido de una
hiptesis falsa.
Evidentemente, necesitaremos algn criterio estadstico que nos permita decidir
si las discrepancias observadas son suficientemente elevadas para rechazar nuestra
hiptesis. Este criterio no es nico ya que se han desarrollado varios mtodos para el
contraste de hiptesis.

259
8. Contraste de hiptesis

Figura 8.1.: Contraste de significacin

El procedimiento ms habitual y el primero histricamente es el de los contrastes


de significacin, ampliamente utilizados y cuya descripcin puede resumirse en las
siguientes etapas:

Establecer la hiptesis

Definir la expresin de la discrepancia tipificada en la que se basa el contraste

Decidir, a partir de informacin muestral, rechazar o no rechazar la hiptesis

Los primeros desarrollos de los contrastes de significacin fueron llevados a cabo por Karl Pearson,
sobre 1900; sin embargo, la sistematizacin y desarrollo de este mtodo se deben a R.A. Fisher, hacia
el ao 1920.

A lo largo de las etapas sealadas, los contrastes de significacin estudian las dis
crepancias entre la informacin muestral y nuestra hiptesis hasta decidir si stas son
significativas para rechazar. El criterio de decisin ser probabilstico: diremos que
las discrepancias son significativas cuando stas resultan muy poco probables bajo el
supuesto de partida, y en caso contrario las calificaremos de no significativas.

En el ejemplo considerado con hiptesis = 410, una media muestral de valor x = 415 puede
resultar coherente con el supuesto de partida, ya que conduce a un error de magnitud 5 que, una
vez tipificado, proporciona una discrepancia de valor moderado. Por tanto, existirn probabilidades
razonablemente elevadas de que, con una produccin esperada de 410 miles de Tm/mes, se obtengan
muestras como la observada.
Ahora bien, si en la muestra se registrase una produccin media x = 200 nuestra conclusin
cambiara ya que bajo el supuesto = 410 resultara muy poco probable extraer muestras con
producciones medias tan bajas. As pues, este resultado nos hace dudar del valor = 410 o, en otras
palabras, es significativo para rechazar el supuesto planteado.

Como puede apreciarse en la figura 8.1, los valores significativos se presentan cuando la muestra
adopta valores muy alejados del supuesto inicial, esto es, en las colas sombreadas a derecha e izquier

260
8. Contraste de hiptesis

Figura 8.2.: Esquema del contraste de hiptesis

Informacin bsica

HIPTESIS


Discrepancia hiptesis muestra


Fijado Informacin muestral




(nivel de
METODO
CLSICO significacin)






Nivel MTODO



Valor crtico (RC) crtico DEL NIVEL



CRTICO




Informacin muestral

CONCLUSIN

da. Por el contrario, los valores centrales se corresponderan con informaciones muestrales compatibles
con la hiptesis.

Existen dos tcnicas alternativas para resolver los contrastes, esquematizadas en la


figura 8.2, que siguen procedimientos distintos para elaborar una conclusin de rechazo
o no rechazo de las hiptesis.
a) El procedimiento que denominamos tradicional o clsico se basa en determinar
una alta banda de tolerancia y admitir esas discrepancias como atribuibles al azar o
no significativas (por ejemplo el 95 % de las posibles), considerando las restantes (slo
un 5% de las mayores) como valores suficientemente atpicos o significativos para
rechazar la hiptesis.
La proporcin de las observaciones que vamos a considerar significativas debe ser
fijada de antemano en funcin del problema que estemos considerando y se denomina
nivel de significacin, que denotamos por . Esta probabilidad nos permite determi
nar un valor de la discrepancia, que denominamos valor crtico y marca el lmite o
separacin entre valores significativos y no significativos.

261
8. Contraste de hiptesis

El nivel de significacin representar la probabilidad de que, bajo la hiptesis de


partida, se presenten discrepancias superiores a las que marca el valor crtico. Dicha
probabilidad ser muy baja (usualmente del 1% o el 5%) de modo que, si nuestra
hiptesis de trabajo es cierta, al seleccionar muchas muestras, aproximadamente el
(1 )% de las veces apareceran discrepancias admisibles o no significativas.
Por tanto, si al seleccionar una muestra concreta la discrepancia supera al valor
crtico entonces sera poco verosmil justificar este resultado como fruto de la mala
suerte y asignarlo a ese % de casos: lo ms razonable en cambio sera pensar que la
discrepancia no se debe al azar y lo que nos ha fallado es la hiptesis de partida.
b) El otro procedimiento para llegar a conclusiones sobre nuestra hiptesis se co-
noce como mtodo del nivel crtico p, y a diferencia del anterior no impone ninguna
restriccin a priori sobre las discrepancias admisibles. En este caso se optimiza la infor
macin muestral en el sentido de obtener la probabilidad asociada al valor observado
de la discrepancia.
De este modo, definiremos el nivel crtico como la probabilidad de obtener, bajo
la hiptesis establecida, discrepancias iguales o mayores a la observada. Cuando este
nivel crtico p adopta valores muy bajos indica que nuestros resultados muestrales
resultan poco verosmiles bajo la hiptesis de partida, luego lo ms razonable sera
dudar sobre la validez de dicha hiptesis.
Si por el contrario el valor p es alto, indica que la muestra est muy identificada
con la hiptesis. Por tanto no sera lgico rechazar, ya que estaramos aplicando un
criterio muy rgido que no superaran la mayora de las muestras (o, dicho en otras
palabras, rechazaramos con pocos argumentos).

As, en el ejemplo anterior de la hiptesis = 410 para la produccin esperada, siguiendo el


procedimiento tradicional debemos fijar un cierto nivel de significacin que nos permitir delimitar
regiones de rechazo y de aceptacin (ms o menos amplias segn el valor de ) y conducir a reglas
de decisin del tipo:
Rechazar siempre que X < 390 o X > 430

No rechazar si 390 X 430

Se dispone as de un esquema general que delimita dos regiones complementarias en las que clasifica
mos la informacin muestral y segn en cul de ellas nos situemos decidiremos rechazar o no rechazar
la hiptesis inicial. Si ahora introducimos la informacin muestral en el problema, calculamos x = 415
y por lo tanto decidimos no rechazar la hiptesis.
En cambio, siguiendo el segundo procedimiento, la informacin muestral se considera en una etapa
previa a la regla de decisin.que la hiptesiserrores x =(415,
calcular la probabilidad de Asse si presenten es =de
410
al ymenos
en la muestra obtenemos
5 miles de Tm/mes:P X debemos
)
5
.
Este valor de p sera en nuestro caso elevado (por ejemplo p = 0,6) y a partir de l llegaramos a la
decisin de no rechazar el supuesto de partida.
[Cul sera el razonamiento si la informacin muestral proporcionase un resultado =200?]

Cabe preguntarse hasta dnde los resultados de p pueden ser calificados de "mo
derados" y a partir de qu valor pasan a ser suficientemente bajos para rechazar.
Evidentemente no existen respuestas exactas a estos interrogantes y en esta caracte
rstica reside precisamente una de las ventajas de este mtodo: el investigador, a la

262
8. Contraste de hiptesis

vista del nivel crtico obtenido decidir si rechaza o no la hiptesis pero adems, al
proporcionar el valor de p, da una idea del nivel de "fuerza" de su conclusin (as, una
hiptesis puede ser rechazada con p = 0,05, esto es, con un resultado significativo al
5%, pero evidentemente la conclusin de rechazar parece mucho ms slida si obte
nemos un nivel crtico p = 0,0001).

Hemos llamado al primer mtodo tradicional o clsico porque ha sido el usual durante muchas
dcadas y permiti resolver el problema del contraste mediante el uso de las tablas estadsticas dispo
nibles. Estas tablas estn calculadas para determinados niveles de significacin y resulta sumamente
complicado realizar interpolaciones o extrapolaciones (no lineales) de sus correspondientes funciones
de distribucin para obtener el nivel crtico asociado al resumen muestral observado.
Sin embargo, en pocas recientes este problema fue superado gracias al uso masivo del ordenador,
que realiza los clculos anteriores en un tiempo casi despreciable. As, hoy en da prcticamente todos
los programas informticos de estadstica proporcionan tanto el valor muestral de la discrepancia
asociada al contraste como su nivel crtico (p).
Si podemos disponer de las dos alternativas parece claro que el mtodo basado en el nivel crtico se-
ra preferible al clsico, ya que en ste ltimo la informacin muestral no se aprovecha completamente,
sino que se utiliza ms bien en un sentido cualitativo de rechazar o no rechazar la hiptesis.
De este modo, si para un contraste determinado dos investigadores seleccionan muestras, resul
tando una de ellas muy coherente con la hiptesis y la otra con una discrepancia en el lmite de
las significativas, ambos estudios conduciran a la misma conclusin (no rechazar). Sin embargo, el
mtodo del nivel crtico pondra de manifiesto que en el primer caso existe ms evidencia para la
conclusin que en el segundo (valor ms alto de p), y sin embargo esta diferencia entre las dos situa
ciones no se detecta en el mtodo tradicional.

Existen otros enfoques sobre los procedimientos de contraste de hiptesis estads


ticas, cuya metodologa resulta ms compleja y que estudiaremos en el anexo a este
captulo. Se trata del enfoque introducido por Neyman y Pearson y el mtodo de la
razn de verosimilitudes.

J. Neyman y E. S. Pearson (1928, 1933) propusieron una metodologa para seleccionar contrastes
ptimos. Esta propuesta introduce un cambio en el planteamiento del contraste, ya que la hiptesis
de trabajo (que en este enfoque se denomina hiptesis nula) se enfrenta a una alternativa (o hiptesis
alternativa), de modo que la eleccin del mejor test no depende slo de la hiptesis sino tambin de
la alternativa.
As, cuando comparamos varios tests para contrastar hiptesis no debemos tener en cuenta slo
el nivel de significacin (que mide probabilidad de equivocarnos al rechazar la hiptesis cuando
sea cierta) sino tambin la probabilidad del error contrario (equivocarnos al aceptar la hiptesis nula
cuando la correcta sea la alternativa). Al complementario de esta segunda probabilidad se la deno
mina potencia del test, y el criterio de optimizacin de Neyman y Pearson consiste en elegir, entre
todos los tests que tienen un mismo nivel de significacin, aqul que tenga una menor probabilidad
del segundo tipo de error (o bien que presente una potencia mayor).

263
8. Contraste de hiptesis

Figura 8.3.: Contraste de hiptesis

Etapas del contraste de hiptesis

Enunciado: Hiptesis (H0) y alternativa (H1)

Desarrollo:
Mtodo tradicional
Mtodo del nivel crtico

Conclusin: Rechazar o no rechazar

8.2. Metodologa del contraste de hiptesis


La secuencia seguida para el contraste de una hiptesis puede estructurarse en varias
etapas que, de forma simplificada (figura 8.3), denominamos enunciado o formulacin,
desarrollo y conclusin.

8.2.1. Enunciado
El enunciado de la hiptesis es, sin duda, un punto clave ya que traduce el su
puesto que deseamos someter a verificacin o contraste. Es importante insistir en que
las hiptesis se corresponden con nuestros postulados de trabajo, considerados vlidos
a priori, que sometemos al control de un test estadstico del que pueden salir refutados.

Como justificaremos ms adelante, los contrastes pueden llevarnos a rechazar un supuesto o hip
tesis pero nunca a aceptarlo. Ello se debe a que estamos utilizando tcnicas estadsticas, que pueden
conducirnos a la conclusin de que cierto supuesto es inadecuado (en este sentido rechazar sera equi
valente a detectar contraejemplos) pero en cambio nunca servirn para demostrar la validez general
de un supuesto. De ah que evitemos el uso del trmino aceptar, utilizando en su lugar no rechazar.

El enunciado de una hiptesis debe reflejar fielmente un supuesto del investigador.


En la investigacin econmica, a menudo se enuncian como hiptesis ciertos postula
dos tericos relativos al comportamiento de los agentes econmicos (por ejemplo, el
principio de la utilidad marginal decreciente, la ley de consumo keynesiana, ...).
Lgicamente nos interesan tan slo las hiptesis que puedan ser contrastadas em
pricamente mediante la aplicacin de tcnicas estadsticas a la informacin muestral,
que se denominan hiptesis estadsticas. En los problemas paramtricos, esto es, para
poblaciones conocidas, dichas hiptesis van habitualmente referidas a algn parmetro
o caracterstica poblacional (la esperanza , la varianza 2, la razn de dos varianzas

264
8. Contraste de hiptesis

2Y ,
2X la proporcin p, ...) mientras que en los problemas no paramtricos las hiptesis

suelen ser ms amplias (supuestos referidos al modelo de probabilidad de la poblacin,


la independencia entre v.a., la homogeneidad, ...) y, en general, los procedimientos son
menos eficientes.
El supuesto o hiptesis que queremos contrastar se denomina habitualmente hi
ptesis nula, H0 y enfrentamos a l las restantes posibilidades, que aglutinamos en
la hiptesis alternativa, H1. A modo de ejemplo, consideremos el siguiente contraste
paramtrico: dada X N(,10) queremos contrastar cierto valor esperado concre
to ( = 410), por lo cual incluimos en la alternativa todas las posibles esperanzas
diferentes a ese valor:

H0:=410
H1:=410
Por su parte, en situaciones de inferencia no paramtrica, podramos someter a con
traste un modelo determinado, por ejemplo N( = 410, = 10), frente a la alternativa
de otra distribucin cualquiera. En este caso la formulacin sera:

H0:F(x,,)=F0(x)
H1:F(x,,)=F0(x)
donde F0(x) N( = 410, = 10).
Es importante tener presente que la hiptesis nula ser siempre un supuesto avalado
por la informacin a priori que en principio suponemos verdadero, designando como
alternativa a su complementario. Esta distincin resulta de gran trascendencia, ya
que el papel de ambas hiptesis en el desarrollo de los contrastes no es en absoluto
simtrico.

A menudo se ilustra el papel de las hiptesis nula y alternativa acudiendo a una comparacin con
los procesos judiciales: una vez enunciada nuestra hiptesis de trabajo, adoptaramos como principio
su inocencia o validez, de modo que una hiptesis ser inocente o vlida mientras la muestra no
demuestre lo contrario.
Siguiendo con este paralelismo, la metodologa del contraste de significacin consiste en evaluar
en qu medida la muestra pone en evidencia la culpabilidad o falsedad de H0.

A modo de ilustracin, si deseamos llevar a cabo un anlisis inferencial sobre cierta funcin de
demanda D = 1 + 2 P, la teora econmica nos llevara a enunciar como hiptesis nula H0 : 2 0
frente a la alternativa H1 : 2 > 0 y no viceversa. De igual modo, si la informacin a priori nos lleva
a defender el supuesto de un aumento en el ahorro medio de un perodo A respecto a otro B, el
contraste deber ser formulado como H0 : A B frente a H1 : A < B .

Tanto la hiptesis nula como la alternativa pueden ser clasificadas en simples o com
puestas. Una hiptesis (o su alternativa) se dice simple cuando de ser cierta especifica
plenamente la poblacin; por el contrario las hiptesis son compuestas cuando, incluso
siendo ciertas, no determinan a la poblacin investigada.

265
8. Contraste de hiptesis

En realidad, en el caso de contrastes genricos las definiciones anteriores deben ser consideradas
de una forma ms amplia, no limitndonos a una determinacin del modelo sino a la nitidez de la
hiptesis. El ejemplo propuesto sobre la normalidad encaja perfectamente en la definicin establecida,
pero si consideramos el contraste: H0 : X eY son poblaciones independientes frente a la alternativa
H1 : existe relacin entre X eY, la hiptesis nula de ser cierta es ntida y por tanto sera simple,
aunque no especifique el modelo probabilstico de ninguna de las dos poblaciones.

Consideremos nuevamente el ejemplo de la produccin mensual de mineral X, que se distribuye


segn un modelo normal con varianza determinada.

Supongamos que la informacin bsica establece nicamente dos posibilidades para la produc
cin media: = 410 o = 350 y la empresa, con informacin adicional, defiende el supuesto
= 410. Entonces el enunciado del contraste sera:

H0:=410
H1:=350
tratndose en ambos casos de hiptesis simples.

Si no existe informacin bsica sobre la produccin media y la informacin adicional nos lleva
a defender que sta ser de al menos 410 miles de Tm/mes, el enunciado sera:

H0:410
H1:<410
siendo ambas hiptesis compuestas.
[Clasificar las siguientes hiptesis y enunciar las correspondientes alternativas: 2X 2Y; X = Y;
p0,2 ; pX =pY]

Podemos llevar a cabo la siguiente formalizacin del problema de contraste de hiptesis:

Hiptesis referidas a parmetros Supongamos una poblacin X cuya funcin de distribucin


FX (x, ), depende de uno o ms parmetros. En lo que sigue nos referiremos a un parmetro aunque
el razonamiento sera vlido para un vector paramtrico .
La informacin bsica de nuestra investigacin debe proporcionarnos los posibles valores del pa
rmetro o su recorrido. Este conjunto de posibles valores de se denomina espacio paramtrico y se
denota por .
En la segunda etapa de la formulacin, la informacin contrastable nos permite establecer el valor
o los valores tericos que debemos asumir para el parmetro. Estos valores que constituyen nuestra
hiptesis nula forman un subconjunto 0 del espacio paramtrico y por tanto la hiptesis alternativa
estar formada por el subconjunto complementario 1 = 0.
As pues las hiptesis nos conducen a una particin del espacio paramtrico y el contraste puede
enunciarse en los siguientes trminos

H0:o frentea H1:1(=01)

Si 0 consta de un solo elemento entonces la hiptesis es simple (de ser cierta queda determinado
el valor del parmetro y en consecuencia tambin la distribucin de la poblacin), y si por el contrario
0 consta de dos o ms elementos entonces se dice que la hiptesis es compuesta. La clasificacin de
la hiptesis alternativa se hace en los mismos trminos.
A partir de la informacin muestral pretendemos contrastar si rechazamos que el parmetro se
site en el subespacio 0 o por el contrario no tenemos razones para este rechazo.

266
8. Contraste de hiptesis

Hiptesis genricas Cuando las hiptesis tienen carcter genrico admiten una mayor diversidad
de posibilidades, por lo que no pueden ser formalizadas con tanta concrecin como en el caso anterior.
Sin embargo, sustituyendo el espacio paramtrico por otro tipo de espacios la idea de establecer una
particin del mismo y su formulacin se mantiene.
En esta situacin, recoger todas las especificaciones asociadas al contraste que se plantea, inclu
yndose en 0 las favorables a la hiptesis de partida. As, si queremos contrastar que una poblacin
se distribuye segn un modelo de Poisson de parmetro frente a la alternativa de que se trata
de cualquier otro modelo, entonces el espacio paramtrico es sustituido por el de todos los posibles
modelos de probabilidad (con los infinitos parmetros admisibles) y el subconjunto correspondiente
a la hiptesis nula est constituido por un nico punto.
Si por ejemplo estamos realizando un contraste de independencia entre dos poblaciones, el espacio
paramtrico ser sustituido por el conjunto de todas las posibles relaciones entre esas variables (rela
cin lineal, hiperblica, independencia, etc.) y el subconjunto correspondiente a la hiptesis constar
de un nico elemento {independencia}, mientras las restantes posibilidades se incluyen en la alterna
tiva.

La hiptesis nula de un contraste se corresponde habitualmente con un supuesto


ms concreto que su alternativa. La concrecin mxima tiene lugar en el caso de
hiptesis nulas simples, como por ejemplo H0 : = 0 que sern rechazadas cuando
la informacin muestral se desva mucho del supuesto.
A menudo esta desviacin puede presentarse en cualquiera de las dos direcciones, con
lo cual se rechaza en las colas derecha e izquierda. En tales situaciones los contrastes
se denominan bilaterales o de dos colas (por ejemplo, frente a la hiptesis anterior
podramos plantear la alternativa bilateral H1 : = 0).
Por lo que se refiere a las hiptesis compuestas, stas podran estar formadas por un
nmero finito de elementos, aunque en la prctica resulta usual que dichas hiptesis
hagan referencia a subintervalos del tipo H0 : 0 o H0 : 0.
En tales casos, la formulacin de la hiptesis nula suele incluir en su enunciado el
signo igual, mientras que la alternativa aparece con desigualdad estricta. El rechazo
de la hiptesis tiene lugar cuando nos desviamos considerablemente en la direccin de
la alternativa, por lo cual los contrastes se denominan unilaterales o de una cola.

8.2.2. Desarrollo
Como hemos justificado en el epgrafe anterior, los contrastes de significacin se
basan exclusivamente en la hiptesis nula, ya que la alternativa se introduce como
contrapunto para efectuar un contraste estadstico pero no influye en nuestras conclu
siones.
Una vez formulada la hiptesis nula, su contraste se basa en la informacin mues
tral suministrada por una o varias muestras. Generalmente los contrastes se centran
en una poblacin X y para ello seleccionamos una muestra aleatoria de tamao n
(X1,...,Xn) de esa poblacin, pero si queremos llevar a cabo contrastes referidos a
dos poblaciones X e Y (igualdad de medias, independencia, homogeneidad, ...) enton
ces seleccionaremos muestras aleatorias de tamaos n y m, (X1,...,Xn), (Y1,...,Ym)
de las respectivas poblaciones.

267
8. Contraste de hiptesis

Para contrastar la hiptesis poblacional con la informacin muestral utilizaremos las


expresiones de las discrepancias tipificadas (que en general denotamos por d) deducidas
en el captulo 6 tanto para el caso de inferencias paramtricas como no paramtricas.
Las discrepancias tipificadas sern expresiones aleatorias que, bajo la hiptesis H0,
suelen seguir modelos probabilsticos conocidos.

A modo de ejemplo, recogemos dos contrastes habituales y sus correspondientes discrepancias


tipificadas:

H0:=0

X
0 N(0,1)
dX/H0 =
n

H0 : Independencia de X e Y

r
i=1 s ninjn )
n ij
dIND/H0 = ni nj 2 2(r1)(s1)
j=1 ( n

Como vemos, la aleatoriedad de estas discrepancias depende exclusivamente de la intervencin del


azar en la seleccin de la muestra. Dicha aleatoriedad debe ser repartida entre la tolerancia para
aceptar la hiptesis nula y la que asignamos a su rechazo y dado que la hiptesis nula es asumida
inicialmente como vlida este reparto ser asimtrico a favor de la hiptesis contrastada.

Llegados a este punto tendremos que diferenciar las metodologas segn que el pro
cedimiento utilizado sea el clsico o el basado en el nivel crtico. En el mtodo del nivel
crtico la fase de desarrollo concluye con la construccin de la discrepancia, mientras
que en el mtodo tradicional el paso siguiente ser fijar el nivel de significacin , en
funcin de la seguridad que nos merece nuestra hiptesis.

Supongamos que somos totalmente rgidos y para aceptar la hiptesis exigimos discrepancia nula.
Como esta variable es continua la probabilidad de un punto es nula y por tanto en trminos de
probabilidad nunca aceptaramos la hiptesis. Parece claro que esta forma de proceder no sera en
absoluto recomendable.
Imaginemos ahora que queremos ser imparciales y asignamos el 50% de esa componente de azar
para rechazar y el mismo porcentaje para no rechazar. En este caso si la hiptesis nula es cierta
tendremos una probabilidad del 50 % de confundirnos y rechazarla, es decir, la misma que de actuar
correctamente (no rechazar una hiptesis que es cierta). Este razonamiento equivale a ignorar la
informacin adicional que nos llev a enunciar la hiptesis, cosa que no parece lgica si tenemos
cierta conviccin en nuestra informacin a priori (basada en teora, experiencia, etc.).
La pregunta clave sera entonces en cunto estaramos dispuestos a valorar la fiabilidad de nuestra
hiptesis? Con un planteamiento neutral (valoracin nula) llegaramos al 50 % anterior, pero si tene
mos una alta seguridad en nuestro postulado inicial, el margen a favor de mantener nuestra hiptesis
podra situarse en el 95 % o el 99 %, niveles de confianza habituales.
En estos casos estamos manteniendo un nivel de significacin del 5% o el 1%, lo cual significa
que estamos muy seguros de nuestra hiptesis y que, aunque el azar intervenga en la seleccin de la
muestra, vamos a ser muy tolerantes con l ya que, de ser cierto el supuesto inicial, slo asumimos
un riesgo del 1% de equivocarnos y rechazarlo.

268
8. Contraste de hiptesis

Obsrvese sin embargo que un nivel tan bajo tiene tambin sus implicaciones negativas, ya que
podemos estar considerando como azar desviaciones que pudieran ser atribuibles a otras circunstan
cias. Dicho de otro modo, nuestra elevada tolerancia podra llevarnos a no rechazar hiptesis incluso
cuando stas son falsas.
A la vista de estos comentarios, parece claro que el nivel de significacin debera depender de
nuestra seguridad en el supuesto planteado y por lo tanto asumimos un tratamiento asimtrico para
las decisiones de rechazar y no rechazar. Cuando realizamos un experimento no debemos esperar que
pueda conducirnos a cualquier decisin, sino que el resultado natural sera no rechazar, y solamente
si aparecen discrepancias demasiado elevadas para ser asumidas decidiremos rechazar.

En definitiva, la metodologa del contraste de hiptesis estadsticas est diseada de modo que
cuando tomemos la decisin de rechazar, sta se encuentre estadsticamente avalada. Sin embargo,
cuando no rechazamos ello no significa que la estadstica est avalando la decisin de aceptar, sino
nicamente que la estadstica se abstiene y es la seguridad con la que hemos planteado nuestra
hiptesis (esto es, la informacin adicional o complementaria) la que garantizar nuestra decisin.
En definitiva, aceptamos por un conocimiento profundo del problema econmico y no porque la
distribucin de las discrepancias as nos lo aconseje.
Siguiendo con el mismo razonamiento, parece claro que si queremos equilibrar ms las responsa
bilidades deberemos elevar el nivel crtico.

Una vez fijado el nivel de significacin (en general 5 % o 1 %) es posible determinar


reglas de decisin del test, con las que concluye el desarrollo del mtodo tradicional o
clsico.
A partir de la distribucin de la discrepancia tipificada d y fijado un nivel de sig
nificacin , podemos determinar las constantes k que recogen los valores crticos a
partir de los cuales rechazaremos la hiptesis:
Contraste Bilateral: P(d>k2/H0) = P(d<k1/H0) = 2
P(|d| > k/H0) = si la distribucin es simtrica

Contraste Unilateral: P(d > k/H0) = si rechazamos en la cola derecha y


P(d < k/H0) = si rechazamos en la cola izquierda

La expresin P(d > k/H0) representa la probabilidad de que la discrepancia supere determinado valor
cuando la hiptesis nula es cierta. Obsrvese sin embargo que esta notacin, habitual en el contraste
de hiptesis estadsticas, no es completamente correcta, ya que las probabilidades anteriores no son
realmente probabilidades condicionadas, al no tener la hiptesis carcter aleatorio.

A travs de este proceso hemos pasado de una particin del espacio paramtrico a otra particin
sobre la recta real. En los problemas de contraste paramtrico ser muy til esta transformacin, que
permite expresar las reglas de decisin en trminos de la muestra.
En principio, la regin crtica o de rechazo sera un subconjunto del espacio muestral, integrado
por todas las muestras (x1,...,xn) de n que conducen al rechazo de H0. Sin embargo, teniendo
en cuenta que la informacin muestral aparece resumida mediante las discrepancias, resultar ms
operativo definir la regin crtica como un cierto recorrido de la recta real asociado a las discrepancias
o bien, si el contraste va referido a parmetros, a los correspondientes estimadores.

Los valores crticos delimitan la regin crtica (RC) en la que se producir el rechazo
de nuestra hiptesis y su complementaria, la regin de aceptacin (RA). Adems, en

269
8. Contraste de hiptesis

el caso de que las hiptesis vayan referidas a parmetros es posible obtener a partir
de estos valores crticos (k) unas nuevas constantes C que definen las regiones crtica
y de aceptacin en relacin al estimador T.

8.2.3. Conclusin
La conclusin es la ltima etapa del procedimiento y abarca los pasos que se realizan
desde la seleccin de una muestra particular hasta la decisin de rechazar o no la
hiptesis.
Una vez que se selecciona una muestra concreta (x1,...,xn), sobre ella la discre
pancia tipificada adoptar un valor determinado d, cuyo papel es distinto segn que
sigamos el mtodo clsico o el del nivel crtico.
En el mtodo clsico la conclusin se reduce a comprobar si este valor d de la dis
crepancia se sita dentro de la regin crtica. En caso afirmativo, la decisin final ser
rechazar la hiptesis al nivel de significacin establecido (el resultado es significativo
a ese nivel) mientras que en el supuesto contrario no existe evidencia para rechazar la
hiptesis.
En el mtodo del nivel crtico no hemos introducido ningn valor de y por tanto
no es posible determinar una regin de rechazo. El procedimiento consiste entonces en
utilizar el valor muestral de la discrepancia d, con el cual podemos calcular el nivel
crtico p:
Contraste Bilateral: p = P(|d| > |d|/H0) si la distribucin es simtrica y
p = 2P(d>d/H0) o p = 2P(d<d/H0) en otro caso
Contraste Unilateral: p = P(d > d/H0) o p = P(d < d/H0), segn el
enunciado de la hiptesis
La regla de decisin se establecer a partir de los datos observados, de modo que un
mayor nivel crtico indicar una mayor conformidad de la evidencia emprica (muestra)
con la hiptesis de trabajo, y en cambio los niveles crticos bajos van asociados a
grandes discrepancias. Esto es:
Si la informacin muestral no discrepa significativamente del supuesto de partida
no existen razones para rechazar la hiptesis (valor de p alto).
Si la informacin muestral no es compatible con el supuesto de partida, los
resultados pueden ser calificados de "significativos" para rechazar la hiptesis
(valor de p bajo).

Los comentarios anteriores ponen de manifiesto el distinto papel de la informacin muestral en los
dos procedimientos de contraste. En el mtodo clsico esta informacin se utiliza tan slo de forma
cualitativa: una vez determinadas dos categoras correspondientes a la regin crtica (RC) y la regin
de aceptacin (RA), nuestra conclusin se limitar a observar a cul de ellas nos conduce la muestra
observada.
Por el contrario, en el mtodo del nivel crtico la informacin muestral es el punto de partida para
llegar a una decisin, es decir, para evaluar si el resultado debe ser considerado significativo.

270
8. Contraste de hiptesis

Figura 8.4.: Regiones crticas

Es posible establecer una conexin entre el mtodo del nivel crtico y el mtodo clsico en los
siguientes trminos: dado un nivel crtico p, la conclusin sera rechazar para valores de significacin
superiores a l. En cambio, para niveles de significacin inferiores a p, la hiptesis no se rechazara.

As, si nuestra muestra conduce a un nivel crtico p = 0,07 la conclusin debera ser rechazar la
hiptesis para cualquier nivel de significacin superior (10 %, por ejemplo). Ello se debe a que el valor
muestral que lleva asociado el nivel crtico obtenido se encuentra necesariamente dentro de la regin
crtica fijada al 10 %.
Sin embargo no rechazaramos para niveles inferiores (5%, 1%) ya que stos llevan asociadas
regiones crticas ms pequeas, en las que no se encontrara situada nuestra informacin muestral.
(figura 8.4)
Obsrvese que hemos utilizado tres trminos: valor crtico, nivel crtico y nivel de significacin,
que -aunque puedan resultar similares- tienen significados distintos. As, cuando hablamos de niveles
criticos o niveles de significacin nos estamos refiriendo a probabilidades, mientras que los valores
crticos son valores de la discrepancia que delimitan la regin crtica de un contraste.
El nivel de significacin es una probabilidad asociada a la regin crtica del contraste, esto es,
delimita la regin de los valores significativos para rechazar. Por el contrario el nivel crtico es una
probabilidad asociada a la muestra, a partir de la cual el investigador deber llevar a cabo su decisin.

Los procedimientos descritos sern aplicados a los contrastes habituales en los apar
tados que siguen. No obstante, conviene llevar a cabo una reflexin general sobre la
importancia del supuesto o hiptesis como punto de partida del proceso.
En efecto, hemos visto que los contrastes comienzan con un enunciado terico que
sometemos a un test y finalizan con una conclusin basada en la informacin mues

271
8. Contraste de hiptesis

tral. Desde un punto de vista prctico, el investigador podra plantearse espiar los
datos, es decir, examinar la informacin muestral antes de establecer su supuesto,
pero esta posibilidad invalidara el planteamiento ya que la hiptesis o informacin a
priori quedara desvirtuada.

En pocas recientes algunos paquetes estadsticos han puesto de moda una tcnica llamada anlisis
exploratorio de datos que podramos resumir de modo simple mediante el interrogante dado este
conjunto de datos qu podemos afirmar?. Este tipo de anlisis puede ser til para llevar a cabo
una sntesis de la informacin muestral, pero desde el punto de vista del mtodo cientfico resulta
peligroso, ya que puede inducir a confusin entre las informaciones a priori y a posteriori, con lo cual
el investigador planteara directamente hiptesis para rechazar o hiptesis para validar.

8.3. Contrastes de hiptesis bsicas


En todos los desarrollos inferenciales que hemos estudiado nos basamos en una serie
de hiptesis acerca de la muestra y de la poblacin: hemos supuesto la utilizacin de
muestras aleatorias simples (m.a.s.) que llevan implcitas las hiptesis de aleatoriedad,
independencia entre componentes e idntica distribucin y en muchos casos tambin
partamos de que la poblacin se distribua segn un modelo normal.
Estos supuestos o hiptesis estructurales de trabajo suelen incluirse entre la informa
cin bsica en los estudios inferenciales. En este apartado estudiamos estas hiptesis
desde una doble vertiente: en primer lugar cmo podemos contrastar empricamente
estos supuestos, y en segundo lugar analizar las consecuencias que se derivan de la no
verificacin de las hiptesis bsicas.

8.3.1. Hiptesis de m.a.s.


Hasta ahora hemos basado los desarrollos inferenciales en m.a.s., esto es, un pro
ceso de seleccin aleatorio con variables muestrales independientes e idnticamente
distribuidas.
Estos tres supuestos aparecen estrechamente relacionados, de forma que cuando la
poblacin es infinita o el muestreo es con reposicin, la no verificacin de cualquiera
de ellos nos lleva a la invalidacin de los otros.

Naturalmente cuando trabajamos con poblaciones finitas y mtodos de muestreo sin reposicin,
el proceso de seleccin de la muestra puede ser aleatorio, pero en cambio las variables muestrales no
son independientes (los valores que pueden tomar dependen de las observaciones anteriores) ni estn
idnticamente distribuidas (el sistema de probabilidades ir cambiando en cada seleccin).

Hemos aclarado algunas veces el concepto aleatorio identificndolo con estocs


tico y nos hemos planteado cmo seleccionar una muestra aleatoria. La respuesta
consiste en utilizar tablas de nmeros aleatorios, una vez indexadas las unidades (va
lores) poblacionales, ya que la aleatoriedad de la tabla garantiza la de la muestra.

272
8. Contraste de hiptesis

Sin embargo, hasta ahora no nos hemos ocupado de medir el nivel de aleatoriedad
de la muestra o contrastar si es asumible o no que los datos muestrales son aleatorios
o, equivalentemente, que se trata de una m.a.s.
Para llevar a cabo este contraste enunciamos la hiptesis nula H0: los datos cons
tituyen una m.a.s. frente a la que podran formularse diferentes alternativas. As, la
hiptesis H1 podr venir dada por violaciones de hiptesis concretas (no aleatorie
dad, no independencia, distribuciones no idnticas) o bien ser explicitada en trminos
amplios (los datos no constituyen una m.a.s.).

8.3.1.1. Test de rachas


El test de rachas se construye asociando a una poblacin dos categoras alternativas
y clasificando segn este criterio los elementos que forman parte de la muestra selec
cionada. De este modo se obtendr una secuencia de categoras ordenadas segn las
observaciones muestrales.
Cada vez que se produce un cambio de categora decimos que hay una nueva racha;
posteriormente observamos las rachas que se presentan, esperando que si la muestra
es aleatoria stas sean un nmero moderado. Si por el contrario el nmero de rachas
es excesivamente elevado o muy pequeo rechazamos la hiptesis de que las muestras
hayan sido seleccionadas al azar.

A modo de ilustracin supongamos que se lanza diez veces una moneda. Si todos los resultados
fueran caras o todos cruces parece poco creible que el comportamiento de la moneda fuese aleatorio, y
se dira lo mismo si se observan dos rachas (k caras y nk cruces consecutivas). Adems, aunque nos
resulte llamativo, tampoco parece justificado por el azar un nmero excesivo de rachas (por ejemplo,
si se presentasen diez rachas esto significara que se iran alternando sistemticamente caras y cruces,
que sera un efecto contrario al comportamiento azaroso).
Por el contrario, si obtuvisemos un nmero intermedio de rachas (cinco o seis rachas de diferente
longitud) entonces s podramos asumir la hiptesis de aleatoriedad.
Cmo se puede trasladar este proceso a una variable aleatoria cualquiera? Se trata de definir
sobre dicha variable dos categoras y observar las rachas que se producen con las mismas.

En el caso de que trabajsemos con variables dicotmicas la asignacin de estas ca


tegoras sera automtica, al presentarse slo dos posibilidades. Si en cambio partimos
de una variable aleatoria arbitraria, dado un conjunto de observaciones de la misma
podemos calcular la mediana de esos datos y establecer las categoras menor que la
mediana y mayor que la mediana.
Teniendo en cuenta que la mediana es el punto central de la distribucin tendramos
tantos elementos inferiores como superiores con lo cual se presentaran secuencias del
tipo ABAABABBBA . . ., 01101001110..., + + + + + ..., etc. La
forma de denotar las categoras sera secundaria y por comodidad vamos a considerar
el valor 0 si xi < Me y 1 si xi > Me (no incluimos los valores que tengan una
coincidencia exacta con la mediana).
Denotemos por n0 el nmero de ceros observado en la secuencia, por n1 los co
rrespondientes unos, y n = n0 + n1. A partir de nuestra secuencia de unos y ceros

273
8. Contraste de hiptesis

observaremos las rachas, definidas como secuencias de observaciones consecutivas de


la misma categora hasta la aparicin de una categora distinta.
Cabe preguntarse qu sucedera si las muestras con las que trabajamos no fuesen
m.a.s.? Podran presentarse muestras con cierta tendencia, esto es, muchos ceros al
principio y unos al final o viceversa), en cuyo caso apareceran pocas rachas. Tambin
podran obtenerse muestras en las que se presentasen alternativamente ceros y unos,
con lo cual el nmero de rachas sera elevado.
Si en vez de plantear este esquema sobre una muestra concreta lo hacemos sobre una
muestra genrica, el nmero de rachas ser una v.a. R. Este razonamiento conduce a
una regla de decisin basada en el nmero de rachas observado r , y nos llevar a
rechazar la hiptesis nula si r sobrepasa cierto valor r2 o bien es inferior a r1, siendo
estos valores tales que P(R / [r1,r2]/H0) . Se trata de un contraste bilateral,
puesto que podemos rechazar la hiptesis tanto por un nmero excesivamente bajo
como alto de rachas.

La funcin de probabilidad de R (y por tanto la determinacin de los lmites de la regin crtica


r1 y r2) depende del tamao muestral y viene dada por la siguiente expresin:
( )( )

n11m1 n01m1
2








( ) sires par (r= 2m)

n


n1
P(R = r) = ( ( )

n11
m )(n01
m1) n11
m1 )(n01

+

m




( ) si r es impar (r = 2m+ 1)

n


n1
2n0n1 + 1 y Var(R) = 2n0n1 (2n0n1 n0 n1)
n0+n1
con E(R) =
(n0+n1)2(n0+n1 1)
Los lmites r1 y r2 pueden ser obtenidos como: P(R<r1 /H0) = P(R>r2/H0) = 2 .
Si resolvemos el problema por el mtodo del nivel crtico, calcularamos p = P(R r/H0), y si
esta probabilidad (o su complementaria) fuesen muy bajas estarian indicando que, bajo el supuesto
de aleatoriedad de la muestra, la presencia de un nmero tan reducido (o tan elevado interpretando
el complementario) de rachas no es atribuible al azar, y en consecuencia rechazamos la hiptesis. As
pues, el nivel crtico viene dado en este caso por el doble de la probabilidad correspondiente a la cola
ms pequea, es decir: p = 2P(R r/H0) o p = 2P(R r/H0) segn los casos.

En ciertas situaciones el test de rachas puede plantearse como un contraste unilateral. Este es el
caso cuando la hiptesis alternativa indica la existencia de una tendencia en algn sentido, que ira
asociada a una sola cola.

En el caso de que el tamao muestral n sea elevado, la proporcin de unos (p) y de ceros (1 p)
puede considerarse como un valor fijo. Wald y Woldfowitz demostraron que la distribucin de R es
asintticamente normal con caractersticas E(R)=2np(1 p) y V ar(R)=4np2(1 p)2, con lo cual
se obtiene la discrepancia tipificada asociada al estimador de rachas:

R 2np(1 p)
dR = 2np1p) N(0,1)

274
8. Contraste de hiptesis

La regla de decisin del test es anloga al caso de la distribucin exacta.

8.3.1.2. Test de rangos


Un planteamiento alternativo para contrastar la hiptesis nula H0: los datos consti
tuyen una m.a.s. es el test de rangos, que consiste en comparar la muestra observada
(x1 ,...,xn) con la misma muestra ordenada. En concreto, para cada observacin xi
de la muestra compararemos la posicin que ocupa en el proceso de seleccin, i, con
la posicin que ocupa en la ordenacin, que denominamos rango ri1.
Qu comportamiento cabra esperar bajo la hiptesis nula de aleatoriedad? Parece
claro que en ese supuesto la posicin y el rango seran independientes, mientras que
la existencia de relaciones entre i y ri ira en contra de la hiptesis nula.
Para estudiar la situacin trabajamos con las diferencias cuadrticas (i ri)2, que
n(n21)
6 n
se resumen bajo la expresin r = 1 (i ri)2, denominada coeficiente
i=1
de correlacin de Spearman.

Es interesante destacar dos caractersticas de esta expresin:


n
(i i)(ri r)
i=1
r= ; 1 r 1
n n

(i i) (ri r)
i=1 i=1

en primer lugar, su coincidencia con el coeficiente de correlacin muestral: y en segundo lugar que,
para tamaos muestrales elevados, dicha expresin converge bajo la hiptesis nula a un modelo normal

0, )
N ( 1n1

dr Definimos
= rn 1eneste caso laAs,
N(0,1). discrepancia tipificada
se observar el valorasociada al dr
muestral testque,
de los rangos
si H0 como
es cierta,

debera adoptar valores cercanos a 0.


El nivel crtico vendr dado para cada valor dr por la probabilidad P(|dr| > |dr|/H0)
que, si es suficientemente baja, permitir calificar nuestro resultado de significativo
para rechazar la hiptesis de m.a.s.

Si el tamao muestral es inferior a 30 la aproximacin normal no resulta adecuada pero es posible


recurrir a la transformacin r
n 2 1r2 tn2.

Este contraste resulta de gran inters en el mbito de las series temporales, cuando deseamos
estudiar si una serie presenta o no tendencia. En tal situacin, la hiptesis nula sera H0: la serie no
tiene tendencia, equivalente al supuesto de m.a.s.

1En el caso de que varias observaciones sean coincidentes y por tanto ocupen el mismo lugar en
la ordenacin, la solucin ms frecuente consiste en asignar a todas estas observaciones el rango
promedio.

275
8. Contraste de hiptesis

Los tests considerados no agotan todas las posibilidades para contrastar la aleato
riedad de una muestra. Un mtodo que se utiliza habitualmente cuando los datos se
generan en un soporte temporal consiste en estudiar la correlacin entre las obser
vaciones. Si las observaciones fuesen independientes y consideramos los conjuntos de
datos (x1 ,...,xn1) y (x2 ,...,xn) stos presentaran una correlacin nula. Podramos
considerar cualesquiera otros subconjuntos de esas observaciones (por ejemplo los n2
primeros datos y los n2 ltimos) de modo que, si entre alguno de estos subconjuntos en
contramos correlacin (en este caso se denomina autocorrelacin) entonces el proceso
generador de la muestra no sera aleatorio sino que presentara un patrn determinista
o sistemtico.

La distribucin de la discrepancia tipificada asociada al coeficiente de autocorrelacin sera anloga


a la desarrollada en los prrafos anteriores para el coeficiente de Spearman: para valores pequeos de
n se realiza el ajuste a la distribucin tn2 y para tamaos grandes de n se utiliza la aproximacin
normal.

8.3.1.3. Consecuencias del incumplimiento del supuesto de m.a.s.


Si rechazamos la hiptesis de muestreo aleatorio simple (m.a.s.) gran parte de los
procesos inferenciales descritos tendrn que ser revisados.
En primer lugar no podramos obtener la funcin de verosimilitud como producto de
las funciones de densidad marginales, por lo que deberemos revisar la expresin de esta
funcin. En consecuencia, si estamos utilizando un EMV ste debe ser recalculado.
La no verificacin de la independencia entre los componentes muestrales afectar a
la varianza del estimador y en consecuencia a las propiedades de mnima varianza y
eficiencia.
Para obtener las distribuciones de las discrepancias no podremos basarnos en la
propiedad de reproductividad. Las aproximaciones de Chebyshev y TCL deben ser
revisadas, pues debemos tener en cuenta la covarianza entre las variables muestrales.
Adems, para garantizar que la discrepancia tipificada asociada a la varianza mues
tral sigue un modelo 2n1 necesitamos que las v.a. muestrales sean independientes.

Hemos enumerado slo algunas de las consecuencias directas de la no verificacin


del supuesto de m.a.s.; no pretendemos ser exhaustivos sino solamente sealar cmo
el rechazo de esta hiptesis nos conducira a una revisin profunda de las tcnicas
inferenciales.

8.3.2. Contrastes de bondad de ajuste. Test de normalidad


Existen varios contrastes de carcter general relativos al modelo probabilstico de
la poblacin, que se conocen como contrastes de bondad de ajuste , y se refieren a
la aproximacin de los datos a un modelo probabilstico terico. Adems, dada la

276
8. Contraste de hiptesis

importancia de la distribucin normal en los procesos inferenciales, consideraremos en


este apartado varios contrastes especficos para este modelo.
En los contrastes de bondad de ajuste no existe informacin bsica por lo que se
trata de contrastes en un contexto no paramtrico. La informacin complementaria
nos llevar a establecer la hiptesis nula de que el modelo de probabilidad de la
poblacin X es uno determinado F0(x), es decir H0 : F(x) = F0(x), y la hiptesis
complementaria o alternativa ser que el modelo es otro diferente H1 : F(x) = F0(x).
Supongamos que la informacin muestral consta de un conjunto de datos (x1,...,xn)
que proceden de la observacin de una m.a.s. de tamao n de la poblacin X, con los
que se pretende contrastar la hiptesis.
Existen diversos tipos de contrastes que en sntesis persiguen evaluar la discrepancia
entre la distribucin de frecuencias observadas y la distribucin terica. Cuando esta
discrepancia es muy elevada entonces rechazaremos la hiptesis de que el modelo es el
especificado y de lo contrario diremos que los datos no son significativos para rechazar
la funcin de distribucin especificada.

Este tipo de tests suelen basarse en el hecho de que la funcin de distribucin muestral converge en
probabilidad a la poblacional (distribucin origen que da lugar a la muestra). Este resultado, aunque
admite diversos enunciados, suele conocerse como lema de Glivenko-Cantelli.

8.3.2.1. Test de Bondad de Ajuste


El test de la 2 se construye a partir de las discrepancias entre el histograma de la
distribucin de frecuencias de la muestra y el que se obtendra calculando la frecuencia
terica que correspondera a esos mismos valores bajo el supuesto de que la hiptesis
nula es correcta.

Karl Pearson (1857-1936) se plante la necesidad de un criterio para evaluar hasta qu punto una
curva ajustada a un conjunto de observaciones era vlida. As ide la medida chi-cuadrado (1900),
estudiando adems su distribucin que posteriormente se revel como un instrumento de gran utili
dad en diversas aplicaciones estadsticas.

Supongamos que se toma una m.a.s. (X1,...,Xn) cuyos valores agrupamos en r


clases
los poro n1,...,nr(
intervalos I
1 ,...,Ir y representemos las frecuencias absolutas de esos interva
ri=1ni= n
).

En este contraste es necesario tener presente que, cuando la distribucin es continua, los intervalos
deben abarcar todo el recorrido de la variable.

Cada uno de esos intervalos ser del tipo Ii = (ai, bi] por lo que, de ser cierta la
hiptesis nula, la probabilidad de que una observacin pertenezca a ese intervalo ser:

pi= P(X Ii) = P(ai < X bi) = F0(bi) F0(ai)

277
8. Contraste de hiptesis

Como la muestra consta de n observaciones, el nmero de xitos en el intervalo


Ii seguira un modelo multinomial M(n,pi), y en consecuencia su esperanza ser
npi. Para cada intervalo, podemos evaluar el error aleatorio asociado al mismo como
diferencia entre la frecuencia observada y la terica que postula nuestra hiptesis:
ei = ni npi.
Tal y como ya hemos descrito en el captulo 6, la discrepancia tipificada asociada
a las frecuencias ni sigue una distribucin que, para valores elevados de n, es aproxi
madamente 2 con r-1 g.l.
r
i=1 (ni npi)2
dn = 2r1
npi

Hasta aqu estamos suponiendo una m.a.s. por lo que las frecuencias de cada intervalo son aleato
rias y en consecuencia tambin lo ser la discrepancia tipificada asociada a este estadstico.

Si la especificacin de la distribucin incluye parmetros desconocidos, entonces


pi = pi(). La discrepancia anterior sigue siendo vlida siempre que los parmetros
se estimen a partir de la muestra por el mtodo de mxima verosimilitud; los EMV
sern
ni
pi=
n
y cada parmetro acta como una restriccin que limita el nmero de g.l., por lo
que si estimamos h parmetros la discrepancia anterior seguir aproximadamente una
distribucin 2r1h.
Si partimos ahora de una muestra concreta (x1,...,xn) debemos calcular sobre esos
datos el valor de la discrepancia:
r
dn = (ni npi)2
npi
i=1

si la discrepancia entre las frecuencias observadas y las tericas es tolerable no recha


zaremos la hiptesis, pero si por el contrario es elevada la rechazaremos. El lmite de
tolerancia d0 puede ser obtenido a partir de las tablas de la 2 para un cierto nivel de
significacin (P(dn > d0/H0) = ).
Sin embargo, la prctica ms habitual para construir la regla de decisin del test
consiste en calcular el nivel crtico asociado al contraste, es decir, obtener la probabili
dad asociada al valor muestral d: p = P (dn > d/H0); cuando esta probabilidad sea
baja significar que la discrepancia observada es muy alta y por tanto las frecuencias
observadas discrepan mucho de las correspondientes al modelo terico postulado, por
lo que tendramos evidencia significativa para rechazar la hiptesis.

Cuanto mayor sea el nmero de intervalos en los que agrupemos los valores muestrales, tanto ms
fino ser el contraste. Sin embargo, el proceso de convergencia a la 2 exige que la frecuencia esperada
de cada intervalo sea mayor o igual que 5, con lo cual si para algn i el producto npi < 5 debemos

278
8. Contraste de hiptesis

proceder a reagrupar los intervalos.

A modo de ilustracin, supongamos que deseamos contrastar sobre la v.a. X la hiptesis H0 : X


U(0,100), a partir de la siguiente informacin muestral agrupada en intervalos:

Intervalo Frecuencia observada ni


(0,10] 9
(10,20] 11
(20,50] 12
(50,100] 20

Para contrastar el supuesto de uniformidad de X deberamos comparar las frecuencias observadas


(ni) con las tericas (npi) teniendo en cuenta que bajo la hiptesis nula la probabilidad de cada
intervalo se obtiene como

biai
pi=P(ai<Xbi)= 100

Intervalo n i npi
(0,10]9 5,2
(10,20] 11 5,2
(20,50] 12 15,6
(50,100] 20 26
Total 52 52

A partir de la informacin anterior se obtiene la discrepancia


r (ninpi)2
dn = i=1 npi
= 11,4615

que lleva asociado un nivel crtico

p = P(241 > 11,4615) = 0,00947


que es suficientemente bajo para calificar el resultado de significativo y rechazar la hiptesis de uni
formidad propuesta para X.

El contraste de normalidad de una poblacin podra tratarse como un caso parti


cular del test anterior, donde la hiptesis nula sera H0 : F(x) N(, ). Cuando
los parmetros y se estiman a partir de la muestra la distribucin chi-cuadrado
presenta n 3 g.l.

Una de las ventajas del contraste de bondad de ajuste mediante la chi-cuadrado es que, en el
caso de que la conclusin sea el rechazo de la hiptesis, este test permite detectar las observaciones
causantes de dicho rechazo. Para ello bastara examinar las discrepancias individuales que aparecen
agregadas en la expresin final chi-cuadrado y de este modo podremos saber si dichas discrepancias
son homogneas o bien existe un nico valor extremo, que incluso podra deberse a errores en la
muestra.

279
8. Contraste de hiptesis

As, en el ejemplo anterior se observa que la mayor discrepancia corresponde al intervalo (10,20]
en el que se han registrado 11 observaciones muestrales cuando la frecuencia terica sera aproxima
damente la mitad [Comprubese que para este intervalo se obtiene npi = (52)(0,1) = 5, 2].

8.3.2.2. Test de Kolmogorov-Smirnov


El test de Kolmogorov-Smirnov (K-S) basa la discrepancia entre la muestra y la
poblacin en la funcin de distribucin en vez de la funcin de probabilidad del test
chi-cuadrado.
Consideremos una poblacin X para la cual establecemos la hiptesis de que su
distribucin es una determinada: H0 : F(x) = F0(x).
Para contrastar este supuesto disponemos de una muestra particular de esa pobla
cin (x1,...,xn) para la cual construimos la f.d. de la muestra que comparamos con
nuestra hiptesis nula.
Vamos a establecer la hiptesis adicional de continuidad para la variable, de forma
que la probabilidad de cualquier punto es nula y por tanto la probabilidad de que dos
valores muestrales coincidan tambin ser cero.
Podemos suponer que cada valor muestral se repite una nica vez, y disponemos
estos valores ordenados de forma creciente: x1 < < xn.
Denotemos por Sn(x) la f.d. muestral que vendr dada por:


0in six<x1
Sn(x) = 1 si xi x<xi+1


sixn x
Definimos el error de estimacin de la distribucin poblacional a partir de la muestral
como el supremo de las diferencias en todo el recorrido:
sup
Dn = <x<+ |Sn(x) F0(x)|

Cuando esta diferencia mxima es pequea quiere decir que ambas f.d. se aproximan,
por lo cual no podramos rechazar la hiptesis nula. Si por el contrario la diferencia
no fuese admisible rechazaramos la hiptesis.
En el caso de una muestra genrica, el supremo anterior ser una v.a. cuya distri
bucin de probabilidad exacta para tamaos pequeos de n, bajo el supuesto de que
la hiptesis nula es cierta, fue obtenida por Massey (1952). Para tamaos elevados
de muestra la probabilidad de que Dn sea mayor que el valor observado se aproxima
mediante la expresin:

lm P (Dn > Dn/H0)=2 (1)i1e2i2Dnn2
n i=1

En cualquiera de los dos casos podemos obtener el nivel crtico que nos indica si
debemos o no rechazar la hiptesis de que la poblacin sigue un modelo determinado.

280
8. Contraste de hiptesis

Figura 8.5.: Test de Kolmogorov-Smirnov

Podemos observar que esta expresin depende (adems del valor) nicamente de n
(nmero de observaciones) y no de la distribucin terica supuesta. Esto significa que
el lmite de tolerancia admisible para rechazar una hiptesis de poblacin exponencial,
gamma o normal es la misma.
Para determinar Dn debemos calcular todas las diferencias entre la distribucin
muestral y la terica. Las mayores de estas diferencias se encontrarn en los puntos de
salto de la distribucin muestral por lo que nos bastar con observar las desviaciones en
los puntos (x1,...,xn). Sin embargo, debemos tener en cuenta que Sn(xi) = Sn(x+i)
(dado que la f.d. muestral es escalonada) por lo que para calcular la desviacin suprema
es necesario contemplar las 2n diferencias:
Sn ) F0(xi) Sn + )
(x , (x F0 (xi ) ,i = 1,...,n
i i

A.N. Kolmogorov introdujo en 1933 el estadstico Dn para el que elabor las primeras tablas de
probabilidad. Por su parte, N.V Smirnov (1939) public tablas ms precisas y posteriormente (1944)
lleg a acotar las probabilidades del estadstico de Kolmogorov.

El test K-S establece ciertas restricciones al modelo supuesto para la poblacin.


En concreto, hemos hecho explcito que debe tratarse de un modelo continuo, pero
adems los parmetros de la distribucin supuesta deben ser conocidos para poder
calcular la distribucin anterior.
Sin embargo, dada la importancia de la distribucin normal existe una correccin
de la distribucin de K-S, debida a Lilliefors (1967), que nos permite aplicar este test
cuando se estiman los parmetros a partir de la muestra.

Como puede apreciarse en la tabla que sigue, dados un tamao muestral n y un nivel de significacin
, las tablas de Lilliefors proporcionan valores crticos inferiores a los de Kolmogorov-Smirnov. Este
hecho se debe a que el desconocimiento de los parmetros poblacionales debe ser compensado siendo
ms estrictos en el contraste, es decir, admitiendo menores desviaciones.

281
8. Contraste de hiptesis

Tamao K-S Lilliefors K-S Lilliefors


muestral
5 ( 0,565
= 0,05) ( 0,337
= 0,05) ( 0,669
= 0,01) ( 0,405
= 0,01)

10 0,41 0,258 0,49 0,294


15 0,338 0,22 0,404 0,257

8.3.2.3. Test de normalidad de Jarque-Bera


El contraste de normalidad desarrollado por C.M. Jarque y A.K. Bera (1980) se basa
en el estudio de la forma de la distribucin, examinando sus discrepancias respecto a
la curva campaniforme caracterstica del modelo normal.
Estas discrepancias respecto a la normalidad deben ser evaluadas mediante dos
caractersticas de forma: la simetra y la kurtosis o apuntamiento. Para ello suelen
emplearse los coeficientes g1 y g2 que se definen e interpretan como sigue2:

Caracterstica Simetra Kurtosis


=1n ni=1 ( 1nni=1 ( )
XiX) XiX
g1 g2 =
S3 3 4S43
g=0 Distribuciones simtricas Distribuciones mesocrticas
g>0 Distr. con asimetra positiva Distribuciones leptocrticas
g<0 Distr. con asimetra negativa Distribuciones platicrticas

El contraste de normalidad de Jarque-Bera se basa en una discrepancia definida por


la expresin:
)
n
6(
dJB = g21 + 14g22

en la que aparece el tamao muestral n y los coeficientes muestrales g1 y g2 de Fisher


elevados al cuadrado. Bajo la hiptesis nula de normalidad esta expresin se distribuye
segn un modelo chi-cuadrado con 2 grados de libertad.

Para tamaos elevados de muestra la distribucin de g1 es aproximadamente normal con


6
E(g1 )=0 y Var(g1) =
n

Por su parte, la medida de apuntamiento g2 es asintticamente normal con esperanza nula y

2Enel captulo 2 hemos definido los coeficientes de asimetra y apuntamiento 1 y 2 de Fisher, que
para una variable aleatoria X vienen dados por las expresiones

1= 3
3y2= 4
43
Para el contraste de normalidad examinamos las correspondientes caractersticas muestrales:
g1= m3
S3yg2= m4
S4
3

282
8. Contraste de hiptesis

24
Var(g2) =
n
y de ah que se combinen ambas medidas en un contraste conjunto:
6g1+
n 2 24g
n 22
2 2

La discrepancia dJB resume las caractersticas de forma de la muestra, y adoptar


valores bajos si la distribucin observada es aproximadamente simtrica y mesocr
tica. En otro caso, a medida que se detectan asimetras (positivas y negativas) o
desviaciones en la kurtosis (distribuciones platicrticas o leptocrticas) la discrepan
cia aumenta de valor. Para llegar a una conclusin del contraste, bastara con calcular
el nivel crtico asociado al resultado muestral: p = P (dJB > dJB/H0), que si es sufi
cientemente bajo conduce al rechazo de la hiptesis de normalidad.

Los mtodos anteriores no agotan las posibilidades para contrastar un modelo probabilstico. As,
la normalidad puede ser contrastada mediante el mtodo de Shapiro y Wilks, que estudia si una
muestra representada en papel probabilstico normal puede ser ajustada adecuadamente a una recta.

8.4. Algunos contrastes paramtricos


Cuando la poblacin investigada sigue un modelo probabilstico conocido las in
ferencias sobre dicha poblacin son de tipo paramtrico. Dichos contrastes suelen ir
referidos a los parmetros poblacionales y podrn ser resueltos mediante cualquiera
de los dos procedimientos descritos anteriormente: el tradicional o clsico y el del nivel
crtico. Ambos mtodos difieren como hemos visto en su desarrollo, pero coinciden sin
embargo en la herramienta utilizada para analizar las discrepancias entre hiptesis y
muestra.
Siguiendo el esquema general, deberemos comenzar por enunciar la hiptesis que
deseamos contrastar sobre el parmetro de inters, con su correspondiente alternativa.
Como ya hemos visto, en el desarrollo de un contraste de hiptesis nos interesa
distinguir entre contrastes unilaterales y bilaterales. As pues, para un parmetro
genrico , podramos plantear las siguientes situaciones:

H0:=0 H0:0 H0:0

H1:=0 H1:<0 H1:>0


La primera posibilidad se corresponde con un contraste bilateral o de dos colas, en
el que la hiptesis alternativa se sita tanto a izquierda como a derecha de la hiptesis
planteada H0. Por el contrario, los otros contrastes son unilaterales ya que ahora la
alternativa se correspondera con una sola cola (la izquierda en el primer caso y la
derecha en el segundo).

283
8. Contraste de hiptesis

Figura 8.6.: Mtodos de contraste de hiptesis

Es evidente que las tres situaciones comentadas no agotan la casustica de los contrastes. Sin
embargo, son suficientes para describir la metodologa de los contrastes de significacin, ya que otros
posibles enunciados se resolveran de modo similar.
As, si planteamos un contraste de hiptesis nula simple frente a alternativa simple:
H0 : = 0
H1 : = 1
el espacio paramtrico tendra dos regiones (cada una de ellas con un valor nico) por lo cual el
planteamiento sera de una sola cola (a la derecha si 1 < 0 y a la izquierda en caso contrario).
Obsrvese que en todos los casos se incluye en la hiptesis nula el valor concreto del parmetro 0
que marca su lmite con la alternativa.

En los apartados que siguen desarrollamos los contrastes referidos a los parmetros
ms habituales, tanto por el mtodo clsico como por el del nivel crtico. En sntesis,
para un contraste bilateral el esquema de trabajo es el ilustrado en la figura 8.6.
Por su parte, los contrastes de hiptesis unilaterales se resolveran segn el mismo
esquema de trabajo, con la salvedad de que consideraramos una sola cola, tanto en
la regin crtica como en la probabilidad calculada como nivel crtico.

Como podemos apreciar en los esquemas anteriores, el mtodo del nivel crtico empezara respon
diendo a la pregunta qu dice la muestra? Para evaluar si la muestra dista mucho del valor hipottico
se calcula la discrepancia tipificada d y su correspondiente nivel crtico p.
Por el contrario, el mtodo clsico proporciona reglas de decisin, estableciendo regiones crticas
o de rechazo de una hiptesis. Slo al final del proceso se aplica dicha regla genrica a la muestra
concreta para obtener una conclusin relativa a la hiptesis planteada.

284
8. Contraste de hiptesis

8.4.1. Contrastes sobre la media


Consideremos una poblacin normal X N(, ) en la que deseamos contrastar
algn supuesto inicial sobre el valor esperado . Bastara con aplicar el planteamiento
general recogido en los esquemas anteriores, distinguiendo en cada caso si se trata de
contrastes bilaterales o unilaterales.
Las situaciones ms habituales son las descritas a continuacin:

Enunciado I:
H0 : = 0
H1 : = 0

Al contrastar la hiptesis H0 : = 0 frente a la alternativa H1 : = 0, si fijamos


un nivel de significacin , es posible obtener un valor k de la discrepancia tal que se
cumpla:

P(|dX| > k/H0) =

Como ya hemos justificado en temas anteriores, el clculo de k se efectuara en las tablas de la


distribucin N(0,1) siempre que fuese conocido. En otro caso, para pequeos tamaos de muestra
deberamos acudir a las tablas t de Student con n 1 g.l. Obsrvese que, en cualquiera de los dos
casos, el valor k es ms elevado cuanto menor sea nuestro nivel de significacin .

A partir de este valor k se obtiene la regin crtica para la discrepancia dX :

(,k) (k,+)

y equivalentemente la regin crtica para el estimador sera:


( (0
,0 k n ) + k n,+)
sies conocido
( (0
S )
,0 k n + k S ,+
n ) sies desconocido

Como consecuencia, si con nuestra informacin disponible se obtienen una discre


pancia dX y una media muestral X incluidas en la correspondiente regin crtica, la
conclusin sera el rechazo de la hiptesis, y viceversa en el caso contrario.
Cuando el contraste se resuelve por el procedimiento del nivel crtico bastar con
evaluar el nivel p, esto es, la probabilidad de que, siendo la hiptesis cierta, se presenten
discrepancias respecto a ella tanto o ms elevadas que las observadas en la muestra:
|dX| > dX /H0 )
p= P (
Cuando el valor d de la discrepancia sea elevado, la probabilidad p resultar baja y en consecuencia
rechazaremos la hiptesis = 0 . Tales situaciones se presentan cuando la media muestral observada

285
8. Contraste de hiptesis

Figura 8.7.: Regin crtica para contrastes sobre la media

es muy distinta de la hipottica 0 , y de ah que el resultado sea calificado de significativo para


rechazar.
Si por el contrario el valor de la media muestral fuese muy similar al hipottico, se obtendra una
discrepancia cercana a 0, a la que se asocia un nivel crtico elevado. En este caso es perfectamente
admisible que las desviaciones observadas se deban al azar, y no existen razones fundadas para re-
chazar la hiptesis.

Consideremos de nuevo el ejemplo inicial donde la hiptesis de produccin esperada era H0 : =


410 frente a H1 : = 410. Si asumimos que la poblacin es normal con = 20, cul sera la
conclusin adoptada si en una muestra de 16 observaciones se obtiene x = 430?
Plantearemos en primer lugar la obtencin de la regin crtica al nivel de significacin = 0,05:
puede comprobarse fcilmente que el valor crtico de la discrepancia es k = 1,96, ya que se cumple
P(|dX| > 1,96/H0 )=0,05.
Como consecuencia la regin crtica puede ser definida sobre la media muestral:
( ( )
,4101,96 16 20 ) 410+1,96 16,+
20

es decir

(,400,2) (419,8,+)
con lo cual el valor observado x = 430 pertenece a la regin crtica y conduce al rechazo de la hiptesis.

Mediante el enfoque del nivel crtico llegaramos a la misma conclusin ya que, asumiendo como
cierta la hiptesis nula, se obtendra: =P
P(|dX|>|dX|/H0)=P ( n ( )
X
X >4 =0,0000


>4304102016 ) n

y dicho resultado nos informa de que, asumiendo una produccin esperada de 410 miles de Tm/mes,
sera inverosmil una muestra como la observada (la probabilidad p es muy baja); por tanto el resul
tado es claramente significativo para rechazar.
[Estudiar cul sera la conclusin en el caso de que en la muestra se hubiera observado x = 415]

286
8. Contraste de hiptesis

Enunciado II:
H0 : 0
H1 : <0

Si planteamos ahora un contraste unilateral del tipo H0 : 0 frente a H1 : <0


el mtodo clsico nos llevara, una vez fijado el nivel de significacin , a buscar un
valor de k de tal que:

P(dX < k/H0) = dX (,k)


Como muestra la condicin anterior, en este caso nos preocuparn nicamente las
discrepancias que apoyen la hiptesis alternativa, esto es, los valores del estimador
muy inferiores a los hipotticos que pertenecen a la regin crtica (,k). En efecto,
adoptando como representante de H0 su valor menos favorable (0, que es el lmite
inferior supuesto para la esperanza), se obtendra la correspondiente regin crtica
para la media muestral X representada por la cola de la izquierda:
(0 ,+
+ kn )
sies conocido
(0
+ k S ,+
n ) si es desconocido

Obsrvese que para los niveles de significacin habituales (1 %, 5 % o 10 %) el valor k (obtenido en


las tablas de la Normal o la t, segn los casos) es negativo.

Las consideraciones anteriores son tambin vlidas en el caso de que el contraste se


lleve a cabo por el mtodo del nivel crtico. Este evaluar la probabilidad de que, siendo
cierta la hiptesis (esto es, siendo la esperanza al menos 0), las desviaciones por defec
to respecto a ella sean tan notables como las observadas, esto es: p = P (dX < dX/H0)
.

Como puede verse, la expresin de clculo del nivel crtico depende de la formulacin de las hi
ptesis, pues pretende evaluar la probabilidad de distanciarnos tanto o ms que la muestra de la
hiptesis nula y, segn cules sean los enunciados, se traducir en la probabilidad de dos colas, de la
cola a la derecha o de la cola a la izquierda.

Enunciado III:
H0 : 0
H1 : >0

Este contraste es tambin unilateral y se plantea en trminos simtricos al enunciado


anteriormente visto, por lo cual conduce a una regin crtica y un nivel crtico asociados
a la cola de la derecha [Indicar cmo se resolvera este contraste por los mtodos clsico
y del nivel crtico]

287
8. Contraste de hiptesis

Enunciado IV:
H0 : = 0
H1 : = 1

Para el contraste de una hiptesis simple frente a una alternativa tambin simple,
nos remitimos a la descripciones anteriores, ya que cuando 1 < 0 el planteamiento
coincidira con el visto para el enunciado II y en caso contrario (1 > 0) con el III.

8.4.1.1. Extensin a poblaciones desconocidas


Los contrastes anteriores sobre un valor esperado asuman la normalidad para la
poblacin de partida. Adems, en el caso de que el tamao muestral sea suficientemente
elevado, el teorema central del lmite garantiza un comportamiento aproximadamente
normal para la media muestral y para la discrepancia dX aun partiendo de poblaciones
desconocidas.
Por otra parte, en temas anteriores hemos contemplado la posibilidad de llevar a
cabo inferencias sobre a partir de poblaciones desconocidas mediante la desigualdad
de Chebyshev, planteamiento que resulta tambin aplicable al contraste de hiptesis,
que sera en este caso de tipo no paramtrico.
Consideremos por ejemplo el primero de los enunciados anteriores donde la hiptesis
nula es H0 : = 0 frente a la alternativa H1 : = 0. Una vez fijado el nivel de
significacin , se trata de buscar un valor k tal que:

P(|dX| > k/H0) =


y la desigualdad de Chebyshev aplicada a las discrepancias dX garantiza que para
cualquier k > 0:
1
P(|dX| k/H0)
k2
con lo cual, para garantizar que nuestro nivel de significacin no exceder el fijado
debemos considerar un valor k = 1 a partir del cual se obtiene la regin crtica para
X:
( ) ( )
,0kn 0+kn,+

que, en caso de que 2 fuese desconocido, podra ser aproximada mediante la corres
pondiente estimacin muestral con S2.
De modo similar, la desigualdad de Chebyshev permitira llegar a obtener cotas
superiores para el nivel crtico:
|dX| > dX
p= P ( /H0) ( 1 )
dX 2

Puede observarse que en ambos mtodos estamos costeando la ausencia de infor

288
8. Contraste de hiptesis

macin poblacional ya que, para rechazar una hiptesis al mismo nivel de significacin,
la evidencia muestral debe ser ahora ms fuerte. Este hecho se debe a que con distri
bucin desconocida sern mayores los errores debidos al azar, con lo cual admitiremos
mayores discrepancias, llegando por tanto a regiones crticas menores. Alternativa
mente, si optamos por el mtodo del nivel crtico solamente podramos llegar a una
cota superior para la probabilidad p.

A modo de ilustracin, analicemos cmo afectara la no normalidad al contraste anteriormente


desarrollado H0 : = 410 frente a la alternativa H1 : = 410, donde seguimos asumiendo = 20 y
una observacin muestral x = 430 obtenida a partir de 16 observaciones.
Tal y como hemos visto, la regin crtica a un nivel de significacin no superior a = 0, 05 vendra
dada ahora para X por:
( ( )
16 )
,410 4,4721 20 410 + 4,4721 16,
20 +

es decir , (,387,64)(432,36,+) donde k = 4,4721 ha sido obtenida como 10,05 y, conscientes


de no poder garantizar ninguna distribucin para dX , hemos asumido como vlida una mayor discre
pancia debida al azar de modo que el valor muestral x = 430 no pertenece a la regin crtica y por
tanto no conduce al rechazo de la hiptesis.
Siguiendo el enfoque del nivel crtico llegaramos a la misma conclusin ya que, asumiendo como
cierta la hiptesis nula, se obtendra:
P(|dX|>|dX|/H0)=P (Xn
>4
142 =0,0625
)

es decir, podemos garantizar que el nivel crtico no supera el 6,25 % sin que este resultado pueda ser
calificado de significativo para rechazar a los niveles habituales (5 % y 1 %).
A la vista de los resultados anteriores podemos concluir que un valor medio de 430 en la muestra
es suficientemente significativo para rechazar la hiptesis = 410 cuando la poblacin es normal
pero no as en el caso de que estemos trabajando con una poblacin desconocida.

8.4.2. Contrastes sobre la varianza


Asumiendo el supuesto de normalidad para la poblacin X y siguiendo la misma
metodologa vista para , planteemos algunos contrastes habituales para la varianza:

Enunciados unilaterales: Supongamos que deseamos llevar a cabo un contraste


unilateral sobre la varianza en los siguientes trminos:

H0 : 2 20
H1 : 2 > 20

Si seguimos el mtodo clsico, una vez fijado el nivel de significacin deberamos


buscar el valor k que garantice: P (dS2 > k/H0) = . Teniendo en cuenta que bajo
H0 la discrepancia es en este caso

(n1)S220 2n1
dS2/H0 =

289
8. Contraste de hiptesis

Figura 8.8.: Regin crtica para contrastes sobre la varianza

dicho valor se determinar en las tablas chi-cuadrado con n-1 g.l.


Se llega as a las siguientes regiones crticas para la discrepancia y para la varianza
muestral:
RC para dS2: (k,+)
,+)
k20
RC para S2: (
n1
que, como consecuencia del enunciado de la hiptesis, se corresponden con las colas
de la derecha (figura 8.8)
De modo similar, si llevamos a cabo el contraste por el mtodo del nivel crtico,
bastara con calcular la probabilidad asociada a la cola derecha del valor observado d:
p = P (dS2 > dS2/H0) ya que en este caso nos preocupan nicamente las discrepancias
por exceso, que son las que apoyan la alternativa.
Este razonamiento resulta aplicable a otros contrastes unilaterales, tanto de hip
tesis simples como compuestas.
[Cmo se resolvera el contraste de la hiptesis 2 = 36 frente a la alternativa
2=60?]

Enunciado bilateral:
H0:2=20
H1 :2=20

La resolucin por el mtodo clsico se lleva a cabo buscando en las tablas de la


distribucin chi-cuadrado con n1 g.l dos valores k1 y k2 de la discrepancia tales que:
P(dS2 < k1/H0) = P(dS2 > k2/H0) =2

La regin crtica ser en este caso bilateral:


RC para dS2: (0,k1) (k2,+)

290
8. Contraste de hiptesis
( ( )
0,k120n1) k220n1,+
RC para S2:

En el tema de estimacin hemos visto que la construccin de intervalos de confianza para 2 se


llevaba a cabo multiplicando su estimador S2 por los ndices
n
k1 1 > 1 y n1
1
k2 <

Ahora la determinacin de la regin crtica para S2 se realiza incorporando al valor hipottico 20


los inversos de ambas expresiones

k1 k2
n1< 1 y 1
n1>

Cmo se resolvera este contraste por el mtodo del nivel crtico? Por tratarse de
un contraste bilateral debemos tener presentes las discrepancias en los dos sentidos,
con lo cual se obtienen niveles crticos dados por:
P (dS2 < dS2/H0) si la menor probabilidad se encuentra en la cola de la izquierda

P (dS2 > dS2/H0) si la menor probabilidad se encuentra en la cola derecha

Obsrvese que en realidad este planteamiento coincide con el de los contrastes bilaterales para ,
si bien en aquel caso el clculo resultaba ms sencillo al tratarse de una distribucin simtrica, que
permita la utilizacin de discrepancias en valor absoluto.

8.4.3. Contrastes sobre la proporcin


En el mbito econmico son habituales los supuestos sobre proporciones poblacio
nales (tasas de actividad, participaciones sectoriales,...) en los que interesar conocer
si son bilaterales o unilaterales. A modo de ilustracin nos centraremos en un contras
te bilateral, pero la descripcin resulta fcilmente trasladable a los contrastes de una
sola cola.

Enunciado bilateral:
H0 : p = p0
H1 : p = p0

El desarrollo de este contraste ser distinto segn el tamao de la muestra en la


que nos basemos. Comenzando por las muestras de tamao elevado, el planteamiento
sera muy