Está en la página 1de 188

e-UMAB

Estadística
y
Verdad

C. Radhakrishna Rao

Electronic-University Mathematical Books


2

U
UNIVERSITAT DE BARCELONA

B
e-UMAB

Estadística
y
Verdad

C. Radhakrishna Rao

Electronic-University Mathematical Books


2

U
UNIVERSITAT DE BARCELONA

B
Consejo editor:

T. Aluja
M. J. Bayarri
F. Carmona
C. M. Cuadras (coordinador)
F. R. Fernández
J. Fortiana
G. Gómez
W. González-Manteiga
M. J. Greenacre
J. M. Oller
J. Puerto
A. Satorra

e-UMAB
Electronic-University Mathematical Books

© de esta edición electrónica PUBLICACIONS DE LA UNIVERSITAT DE BARCELONA, 2004

ISBN: 84-475-2641-0

D.L.: B-12.797-2004
Agradezco a mi madre A. Laxmikanthamma el haberme inculcado gran interés
por la búsqueda del conocimiento. Ella, en mi adolescencia, me despertaba cada
dı́a a las cuatro de la madrugada y encendı́a la lámpara de aceite para que yo
pudiera estudiar durante las tranquilas horas de la ma ñana cuando la mente se
encuentra despejada.
ÍNDICE GENERAL

PRESENTACIÓN DE LA EDICIÓN ESPAÑOLA . . . . . . . . . . . . . . . . . . . . . . . 9

PREÁMBULO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

PREFACIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

PREFACIO A LA SEGUNDA EDICIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

PREFACIO A LA EDICIÓN ESPAÑOLA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

SRINIVASA RAMANUJAN — UN CASO ENIGMÁTICO . . . . . . . . . . . . . . . 21

INCERTIDUMBRE, AZAR Y CREATIVIDAD . . . . . . . . . . . . . . . . . . . . . . . . . 27


1.1. La cuantificación de la incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2. El azar y los números aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.2. 1.2.1. Un libro sobre N úmeros Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.2. 1.2.2. Técnica de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.2. 1.2.3. Encuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2. 1.2.4. Diseño de Experimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.2. 1.2.5. Codificación de mensajes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.2. 1.2.6. El azar como herramienta en la construcci ón de modelos . . . . . . 40
1.2. 1.2.7. Su uso en la resoluci ón de problemas complejos . . . . . . . . . . . . . . . 40
1.2. 1.2.8. Falacias sobre las secuencias aleatorias . . . . . . . . . . . . . . . . . . . . . . 40
1.2. 1.2.9. Obteniendo respuestas a preguntas delicadas . . . . . . . . . . . . . . . . . 42
1.3. Del determinismo al orden en el desorden . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.4. Azar y Creatividad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Referencias .......................................................... 49
Apéndice: Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
A.1. Azar y Caos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
A.2. Creatividad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
A.3. Azar y Necesidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
A.4. Ambigüedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6 ESTADÍSTICA Y VERDAD

EL DOMINIO DEL AZAR O LA EVOLUCIÓN DE LA ESTADÍSTICA . 63


02.1. Antecedentes históricos: Datos y Estadı́stica . . . . . . . . . . . . . . . . . . . . . . 63
01.2. 2.1.1. ¿Qué es la Estadı́stica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
01.2. 2.1.2. Antecedentes hist óricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
01.2. 2.1.3. La Estadı́stica y las sociedades estadı́sticas . . . . . . . . . . . . . . . . . . 66
02.2. El control de la incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
01.2. 2.2.1. Tres tipos de razonamiento l ógico . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
01.2. 2.2.1. 2.2.1.1. Deducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
01.2. 2.2.1. 2.2.1.2. Inducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
01.2. 2.2.1. 2.2.1.3. Abducci ón . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
01.2. 2.2.2. Cuantificación de la incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . 76
02.3. El futuro de la Estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS:


EXAMEN CRUZADO DE DATOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
03.1. Desarrollo histórico del análisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . 81
03.2. Examen cruzado de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
01.2. 3.2.1. Edición de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
01.2. 3.2.2. Mediciones y registro de errores, datos atı́picos (outliers) . . . . . 89
01.2. 3.2.3. Falsificación de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
01.2. 3.2.4. Lazzarini y una estimaci ón de π . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
01.2. 3.2.5. Rechazo de datos an ómalos (outliers) y uso selectivo de datos . 99
01.2. 3.2.6. Análisis de la Regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
01.2. 3.2.7. Técnicas gráficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
03.3. Especificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
03.4. Meta Análisis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
03.5. Análisis inferencial de datos y observaciones finales . . . . . . . . . . . . . . . 107
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS:


DISTRIBUCIONES AFECTADAS Y NEBULOSAS . . . . . . . . . . . . . . . . . . . . . 113
04.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
04.2. Truncamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
04.3. Distribuciones Afectadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
04.4. Muestreo p.p.t. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
04.5. Distribución binomial afectada: dos teoremas empı́ricos . . . . . . . . . . . 120
04.6. Alcoholismo, tamaño familiar y orden de nacimiento . . . . . . . . . . . . . . 127
04.7. La paradoja del tiempo de espera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
04.8. Modelos deteriorados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
04.9. Una historia de huesos rotos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10. La distribución de los apagones en Calcuta . . . . . . . . . . . . . . . . . . . . . . . 136
4.11. Distribuciones nebulosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Referencias .......................................................... 138


c Publicacions de la Universitat de Barcelona
ÍNDICE GENERAL 7

LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA


BÚSQUEDA DE LA VERDAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
05.1. Estadı́stica y Verdad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
05.1. 05.1.1. Las leyes Cientı́ficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
05.1. 05.1.2. Toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
05.1. 05.1.3. La Ubicuidad de la Estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
05.2. Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
05.1. 05.2.1. Un nuevo poema de Shakespeare: Una oda a la estadı́stica . . . 148
05.1. 05.2.2. Autorı́as controvertidas: los artı́culos del Federalista . . . . . . . . 150
05.1. 05.2.3. Kautilya y el Arthaś āstra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
05.1. 05.2.4. Asignar fecha a una publicaci ón . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
05.1. 05.2.5. Cronologı́a de los trabajos de Plat ón . . . . . . . . . . . . . . . . . . . . . . 151
05.1. 05.2.6. Filiaci ón de Manuscritos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
05.1. 05.2.7. El árbol evolutivo de un lenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . 152
05.1. 05.2.8. Épocas Geológicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
05.1. 05.2.9. Área geográfica común de reproducción de las anguilas . . . . . 155
05.1. 5.2.10. ¿Son heredables los caracteres adquiridos? . . . . . . . . . . . . . . . . 155
05.1. 5.2.11. La importancia de ser zurdo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
05.1. 5.2.12. Ritmos circadianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
05.1. 5.2.13. Paternidad controvertida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
05.1. 5.2.14. La sal y la Estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
05.1. 5.2.15. Economizaci ón de recursos en análisis sanguı́neos . . . . . . . . . . 163
05.1. 5.2.16. Fábricas de maquinaria industrial para incrementar la
05.1. 5.2.16. producción de alimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
05.1. 5.2.17. Dı́gitos decimales olvidados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
05.1. 5.2.18. El factor Rhesus: un modelo de investigaci ón cientı́fica . . . . . . 167
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

LA ESTADÍSTICA DE DOMINIO PÚBLICO . . . . . . . . . . . . . . . . . . . . . . . . . . . 171


06.1. Ciencia para todos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
06.2. Datos, información y conocimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
06.3. La revolución de la Información y la importancia de comprender la
06.3. Estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
06.4. Números lúgubres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
06.5. La predicción del tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
06.6. Sondeos de opinión pública . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
06.7. Superstición y procesos psicosomáticos . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
06.8. La Estadı́stica y la Ley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
06.9. Percepción extrasensorial y coincidencias asombrosas . . . . . . . . . . . . . 187
6.10. Difundamos la terminologı́a estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
6.11. La estadı́stica como una tecnologı́a clave . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

ÍNDICE DE MATERIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191


c Publicacions de la Universitat de Barcelona
PRESENTACIÓN A LA EDICIÓN ESPAÑOLA

Fue durante el congreso sobre Statistical Data Analysis and Inference, Neuchâtel
(Suiza), agosto de 1989, cuando tuvimos ocasión de conocer el libro Statistics and
Truth de C. R. Rao. Tras leer buena parte del libro, enseguida nos dimos cuenta de
la importancia y profundidad de su contenido, y ası́ se lo comentamos al Profesor
Rao. Él entonces nos sugirió que lo tradujéramos al español y nosotros aceptamos
inmediatamente. “¡No sabı́amos el trabajo que se nos vendrı́a encima! Pero creı́mos
que serı́a magnı́fico facilitar al público hispanoparlante la lectura de tan interesante
obra.
El libro es, en esencia, una amena disertación de cómo acercarse a la Verdad por
los caminos del Azar, que ya no debe ser más el resultado de nuestra ignorancia. El
Azar forma parte de la Ciencia y de la Vida, como bien se demuestra a lo largo de
la obra, desde una perspectiva histórica, filosófica y metodológica. La medida de la
incertidumbre es parte esencial de la Estadı́stica, cuyo objeto es el estudio adecuado de
las leyes del Azar y de cómo extraer e interpretar la información contenida en los datos.
El Profesor Rao nos presenta todas estas ideas de forma convincente, ilustrándolas
con numerosos ejemplos de aplicación a la biologı́a, medicina, industria, economı́a,
derecho, etc., de un modo tan claro y entretenido que sólo él, con su insuperable
prestigio cientı́fico y dilatada experiencia, serı́a capaz de escribir.
Esta traducción cuenta con la autorización de A. P. Mitra, Director General del
Council of Scientific & Industrial Research de la India. Tal autorización llevó cierto
tiempo, que junto con el exceso de trabajo (¡cómo está cambiando la universidad
española!) y la dificultad inherente de la traducción (contiene docenas de citas y
párrafos cuyo contenido no nos fue fácil expresar) parecieron poner impedimentos
a la finalización de la misma. El desarrollo de la Estadı́stica ha sido tan rápido estos
últimos años, que todavı́a no existe término equivalente para algunas palabras como
outlier y bootstrap, de las que hemos optado por mantener la voz inglesa junto con una
posible traducción.
Esta versión traducida de Statistics and Truth ha sido posible con la ayuda de
Mercè Aicart, responsable de la preparación del original, y de M. Joaniquet, que
10 ESTADÍSTICA Y VERDAD

ha aceptado la publicación de su primera versión en PPU, S. A. También estamos


agradecidos por la colaboración encontrada en el Departamento de Estadı́stica de la
Universidad de Barcelona.

Barcelona, noviembre de 1993

La segunda edición es una versión completamente revisada de la primera,


actualizando algunos aspectos y añadiendo un capı́tulo.

Barcelona, noviembre de 2002

C. M. Cuadras y J. M. Oller


c Publicacions de la Universitat de Barcelona
PREÁMBULO

A comienzos del año 1987, el CSIR (Council of Scientific & Industrial Research)
instituyó un ciclo de conferencias selectas cuyo objetivo era invitar a cientı́ficos
eminentes de la India y del extranjero para impartir tres conferencias sobre temas de
su propia elección. Dichas conferencias, conocidas como Conferencias Selectas del
CSIR, tenı́an que ser celebradas en diferentes lugares del paı́s. El primer ciclo de las
mismas ha sido dedicado a la memoria del genio matemático Srinivasa Ramanujan.
Es un buen augurio que las primeras de dichas conferencias (Conferencias del
CSIR a la memoria de Ramanujan) empezara con nada menos que el profesor C.
Radhakrishna Rao, National professor (y actualmente Eberly professor de Estadı́stica
en la Universidad de Pennsylvania), un distinguido cientı́fico de ámbito internacional.
Las conferencias fueron impartidas en el Laboratorio Nacional de Fı́sica, en
Delhi, en el Instituto de Investigación Central del Cuero, en Madras, y en el
Instituto Estadı́stico de la India, en Calcuta, y fueron ampliamente valoradas por los
profesionales de la estadı́stica, fı́sicos, quı́micos y biólogos, estudiantes de diversas
edades ası́ como profesionales y funcionarios. El alcance de dichas conferencias fue
amplio y se difundió por diversas áreas de las actividades humanas, tanto cientı́ficas
como administrativas.
Facilitando que las conferencias sean ahora publicadas, el CSIR espera que una
más amplia comunidad de cientı́ficos del mundo entero pueda beneficiarse de la
experiencia y conocimientos de un hombre de renombrado talento como el profesor
Rao.
Quiero expresar mi gratitud por los esfuerzos del Dr. Y. R. Sarma para la edición
e impresión rápida de dicho volumen.

A.P. MITRA
New Delhi Director General
31 de Diciembre de 1987. Council of Scientific & Industrial Research
PREFACIO

Considero un gran honor haber sido elegido para impartir las Conferencias en
Memoria de Ramanujan bajo los auspicios del CSIR (Council of Scientific & Industrial
Research). Aprovecho esta ocasión para agradecer al Dr. A. P. Mitra, Director General
del CSIR, el haberme proporcionado este honor y darme la oportunidad de participar
en la conmemoración del centenario del nacimiento de Ramanujan.
Impartı́ tres conferencias, la primera en Delhi, la segunda en Calcuta y la tercera
en Madras, como estaba previsto, las cuales he recopilado en cuatro capı́tulos para
poder ser publicadas. Al principio de cada conferencia he introducido algunas palabras
acerca de la vida y el trabajo de Ramanujan, el genio matemático fuera de lo común,
quien ya era una figura legendaria en mi juventud. Sirva esta introducción para
llamar la atención de las jóvenes generaciones sobre los resultados de Ramanujan,
para remarcar la necesidad de la reforma de nuestro sistema educativo y reorganizar
nuestros institutos de investigación, para fomentar la creatividad y la originalidad entre
los estudiantes.
Cuando yo era un estudiante, la estadı́stica se encontraba en sus principios
y he podido observar de cerca su evolución durante los últimos 50 años como
una disciplina independiente de gran importancia y un poderoso instrumento para
adquirir conocimiento en cualquier campo de investigación. La razón explicativa de
tan fenomenal desarrollo no es difı́cil de encontrar.
La Estadı́stica, como método de aprendizaje a partir de la experiencia y toma de
decisiones bajo incertidumbre, debe haber sido practicada desde los principios de la
humanidad. Pero el razonamiento inductivo implicado en estos procesos nunca fue
sistematizado debido a la naturaleza incierta de las conclusiones derivadas a partir
de los datos proporcionados o información. El cambio de dirección ocurrió sólo a
principios del presente siglo, al percibir que el razonamiento inductivo puede ser hecho
preciso cuantificando la cantidad de incertidumbre implicada en las conclusiones
inferidas. Esto preparaba el terreno para establecer, mediante un proceso puramente
deductivo, una estrategia óptima que implicara mı́nimo riesgo, para cada situación de
incertidumbre considerada. Una vez que este mecanismo fue formulado, se abrieron
14 ESTADÍSTICA Y VERDAD

las compuertas, y dejaron de haber barreras para las aplicaciones que aguardaban
impacientemente los nuevos métodos, que podrı́an finalmente dar resultados.
Desde los tiempos de Aristóteles hasta mediados del siglo XIX el azar era
considerado, tanto por los cientı́ficos como por los filósofos, un indicio de nuestra
ignorancia que hacı́a nuestras predicciones imposibles. Hoy en dı́a se reconoce que el
azar es inherente a todos los fenómenos naturales, y la única forma de comprender la
naturaleza y efectuar predicciones óptimas (con mı́nimo error) es estudiar las leyes (o
la estructura ı́ntima) del azar y formular reglas de decisión apropiadas. Éste puede
aparecer como un obstáculo o llegar a ser irritante en nuestra vida corriente, pero
también puede ser una ayuda y fuente de creatividad. Estamos ahora aprendiendo a
utilizar el azar en beneficio de toda la humanidad.
He escogido hablar de los fundamentos y del desarrollo moderno y futuro de
la estadı́stica, debido a mis contactos con estadı́sticos durante los últimos 45 años,
ya sea como profesor, investigador y asesor en estadı́stica, o bien como director
administrativo de los asuntos académicos de una gran organización dedicada a la
estadı́stica. Además, crecı́ en un perı́odo de intenso desarrollo en la historia de la
moderna estadı́stica.
Como estudiante me especialicé en matemáticas —la lógica de deducir
consecuencias a partir de premisas dadas. Más tarde estudié estadı́stica, —una
aproximación racional al aprendizaje a partir de la experiencia. He logrado darme
cuenta de la importancia de ambas en todas las empresas humanas tanto si se trata
de un avance del conocimiento natural como si es una forma eficiente de la gestión de
nuestras tareas diarias. Creo que:

Todo conocimiento es, en último término, historia.


Todas las ciencias son, en lo abstracto, matem áticas.
Todos los juicios son, en su l ógica, estadı́sticos.

El tı́tulo de mis lecciones, Estadı́stica y Verdad, y su contenido general, tienen


cierto parecido a Probabilidad, Estadı́stica y Verdad, las conferencias de R. von Mises,
recopiladas y publicadas hace varios años. Desde que este último libro apareció, han
habido nuevos desarrollos en nuestro pensamiento y nuestra actitud hacia el azar. Nos
hemos reconciliado con la idea del “Dios jugador de dados” y aprendido a planificar
nuestras vidas de acuerdo con las incertidumbres que nos rodean. Hemos empezado a
comprender y aceptar el papel beneficioso del azar en situaciones que escapan a nuestro
control o extremadamente complicadas de tratar. Para remarcar esto, he escogido el
subtı́tulo, Aprovechando el Azar.
El Dr. Joshi, director del National Physical Laboratory, me recordó que cuentan
que Thomas Huxley dijo que un hombre de ciencia era más peligroso que beneficioso


c Publicacions de la Universitat de Barcelona
PREFACIO 15

pasados los sesenta. Estadı́sticamente hablando quizá sea cierto. A medida que
envejecemos tendemos a apegarnos a nuestras ideas pasadas y tratamos de propagarlas.
Esto puede no ser beneficioso para la Ciencia. La Ciencia avanza cambiando, gracias
a la introducción de nuevas ideas. Éstas pueden surgir sólo en las desinhibidas mentes
jóvenes, capaces de concebir lo que puede parecer imposible pero que puede ser el
núcleo de un cambio revolucionario. Pero estoy tratando de imitar a lord Rayleigh, un
cientı́fico que se mantuvo activo toda su vida. A la edad de sesenta y siete años (que es
exactamente mi edad actual) cuando su hijo (también un famoso fı́sico) le preguntó su
opinión sobre la observación de Huxley, Rayleigh respondió:

Esto puede ser cierto si uno se entretiene en criticar el trabajo de los j óvenes,
pero no veo porqué esto tiene que ser necesariamente ası́ si uno sigue trabajando
en las cosas en las que se es experto.

Sin embargo J. B. S. Haldane solı́a decir que los cientı́ficos indios eran demasiado
corteses y no criticaban su trabajo entre ellos, lo que no es bueno para el progreso
cientı́fico.
Es para mı́ un placer agradecer al Dr. Y. R. K. Sarma del Indian Statistical Institute
la generosa ayuda que me prestó para la edición, en forma de libro, de las Conferencias
a la memoria de Ramanujan, que di en varios lugares ası́ como el haber procurado su
publicación final.
El trabajo contenido en este libro, está financiado parcialmente por el Centro de
Investigaciones Cientı́ficas de la Fuerza Aérea, proyecto AFSO-88-0030.
Deseo agradecer a Phyllis J. Straub por su paciencia y diligencia en la
mecanografı́a del manuscrito.

Calcuta,
31 de Diciembre de 1987. C. R. Rao


c Publicacions de la Universitat de Barcelona
PREFACIO A LA SEGUNDA EDICIÓN

La primera edición es una recopilación de diferentes conferencias impartidas


durante las celebraciones del centenario de Ramanujan. El material está ahora
reorganizado para proporcionar conexiones apropiadas entre capı́tulos y presentar una
exposición coherente de la evolución de la estadı́stica como disciplina independiente.
Se ha añadido un nuevo capı́tulo titulado La Estadı́stica de Dominio Público.

C. R. Rao
State College
Primero de Junio de 1991.
PREFACIO A LA EDICIÓN ESPAÑOLA

El presente libro es la versión española de la segunda edición ampliada de mi obra


Statistics and Truth, publicada primeramente en 1989 por el Council of Scientific &
Industrial Research de la India. Los temas cubiertos en la primera edición han sido
reorganizados en la segunda edición, para proporcionar una disquisición coherente de
la evolución de la estadı́stica como una disciplina separada, resaltando su significación
filosófica y lógica, ası́ como sus aspectos técnicos. Se ha añadido un capı́tulo nuevo
sobre la Estadı́stica de Dominio Público, dirigido tanto a personas no necesariamente
expertas en estadı́stica, pero que deben tomar decisiones, como a gobernantes, polı́ticos
y jueces, en el que se subraya la utilidad de la estadı́stica.
Soy consciente de que la traducción de un libro de una lengua a otra es una tarea
sumamente difı́cil. El Profesor C. M. Cuadras ha asumido la responsabilidad de llevar a
cabo la labor de organizar la traducción de Statistics and Truth al castellano. Es motivo
de gran satisfacción para mı́ poder agradecer tanto a él como a su colega y colaborador,
Profesor J. M. Oller, sus esfuerzos en hacer accesible mi libro a tan amplia audiencia.

State College,
10 de Diciembre de 1993 C. R. Rao
SRINIVASA RAMANUJAN—UN CASO ENIGMÁTICO1

Considero un gran honor haber sido invitado a impartir las conferencias en


memoria de Ramanujan organizadas por el CSIR.
Acepté esta responsabilidad con gran placer, especialmente porque la vida
de Ramanujan ha sido una gran fuente de inspiración para los estudiantes de
mi generación. El centenario del nacimiento de este gran genio, que estamos
celebrando este año, es significativo en muchos aspectos. Nos recuerda que la tradición
matemática, que empezó con el fundamental descubrimiento del cero y de los números
negativos, todavı́a existe en la India. Será un recuerdo para las nuevas generaciones de
lo mucho que ellos pueden enriquecer sus vidas a través del pensamiento creativo.
Por último, espero que ello genere una conciencia nacional de la importancia de las
matemáticas como un ingrediente clave del progreso de las ciencias y las artes, y nos
recuerde que deberı́amos renovar todos nuestros esfuerzos para promover el estudio y
la investigación de las matemáticas en nuestro paı́s.
En 1986, el presidente de los Estados Unidos de América proclamó la semana
del 14 al 20 de Abril como la semana de la Concienciación Nacional de las
Matemáticas para mantener el interés de los estudiantes americanos por estudiar
matemáticas. El fantasma del Sputnik soviético todavı́a obsesiona a los Estados Unidos
y cualquier tendencia a negligir el desarrollo de las matemáticas es contemplado
como un paso atrás para el desarrollo cientı́fico y tecnológico de la nación. Más que
el establecimiento de una semana de Concienciación Nacional de las Matemáticas,
lo que necesitamos en la India es una proclamación que nos haga conscientes de
nuestro escaso desarrollo en dicho campo. Dediquemos el centenario del nacimiento
de Ramanujan al progreso de las matemáticas en la India. Que no se diga que nuestra
contribución a las matemáticas empezó con la invención del número cero y acabó aquı́.
Me gustarı́a decir unas cuantas palabras acerca de Srinivasa Ramanujan, en
la medida en que su vida y trabajo tienen algo que ver con el contenido de

01. Las observaciones iniciales de cada conferencia acerca de Ramanujan han sido agrupadas como parte del
prefacio.
22 ESTADÍSTICA Y VERDAD

mis conferencias. Ramanujan apareció como un meteoro en el firmamento de las


matemáticas, resplandeció durante un corto perı́odo de tiempo y desapareció con igual
rapidez a la edad de 32 años. Durante este tiempo, introdujo a la India en el mundo
de la matemática moderna. Las contribuciones de Ramanujan en diversos campos de
las matemáticas son profundas y permanentes, y es considerado como uno de los
más grandes matemáticos de la historia. Ramanujan no trabajó en dicho campo como
lo hacen otros matemáticos. Él descubrı́a y creaba matemáticas. Esto hace de él un
fenómeno y un enigma, y de su proceso creativo, un mito y un misterio.
A su muerte dejó un raro y extraño legado: cerca de 4.000 fórmulas escritas
en las páginas de tres cuadernos de notas y algunos pedazos de papel. Suponiendo
que la mayor parte de su trabajo fue producido durante un perı́odo de 12 años,
Ramanujan estuvo descubriendo una nueva fórmula o un nuevo teorema cada dı́a,
lo que sobradamente significa batir el récord de cualquiera, incluso en una actividad
menos creativa. Éstos no son teoremas ordinarios; cada uno de ellos es el núcleo
generador de una teorı́a genuinamente nueva. Éstas no son un número aislado de
aparentemente fórmulas mágicas sacadas de la manga sino algo que ha influido
profundamente en la investigación matemática actual y también en el desarrollo de
nuevos conceptos en fı́sica teórica, desde la teorı́a de super-cuerdas, en cosmologı́a, a
la mecánica estadı́stica de complicados sistemas moleculares.
El trabajo de su último año de vida, mientras estaba gravemente enfermo, fue
descubierto en 1976, en la biblioteca del Trinity College, Cambridge. Los resultados
registrados en este “Cuaderno perdido” por sı́ solos pueden ser considerados como
el equivalente al trabajo de un gran matemático durante toda su vida. Comentando la
originalidad, profundidad y actualidad de las contribuciones de Ramanujan, el profesor
Askey de la Universidad de Wisconsin dijo:

“Sólo una pequeña parte de su trabajo parece poder ser previsible a primera
vista, y después de comprenderlo, hay todavı́a una gran parte de su trabajo
sobre la cual no es arriesgado predecir que no habrı́a sido descubierta por
nadie que haya vivido en este siglo. Además, algunas de las fórmulas que
Ramanujan encontró, nadie las ha podido comprender o probar. Probablemente
nunca entenderemos cómo Ramanujan las obtuvo.”

Es difı́cil comprender la creatividad de Ramanujan, sin parangón en los anales


de la investigación cientı́fica o artı́stica de calidad. Ramanujan conocı́a las misteriosas
leyes que gobiernan el conjunto infinito de los enteros, de la misma forma que los
cientı́ficos tratan de descubrir las ocultas leyes que gobiernan los fenómenos naturales
del universo, pero en un estilo que impondrı́a respeto y frustrarı́a a cualquier cientı́fico.
Fijémonos en la conjetura de Ramanujan en 1919, poco antes de su muerte, acerca


c Publicacions de la Universitat de Barcelona
SRINIVASA RAMANUJAN—UN CASO ENIGMÁTICO 23

de la función p(n), definida por combinatoria, como el número de distintas formas


de expresar a un entero como suma de sus partes integrales ignorando el orden de las
partes:

“Si 24n − 1 ≡ 0 mod (5a 7b 11c )


(1)
entonces p(n) ≡ 0 mod (5a 7b 11c ) ”

La idea yacente en esta fórmula es soberbia y la forma del resultado es un hermoso


descubrimiento, máxime cuando durante el siglo XIX no se conocı́a ningún resultado
de esta naturaleza que se basara en las teorı́as generales de las funciones elı́pticas
y modulares. Fue demostrado por otro matemático indio, Chowla, que la conjetura
es falsa porque no se cumple para n = 243. La fórmula necesita sólo una ligera
modificación:

“Si 24n − 1 ≡ 0 mod (5a 7b 11c )


  (2)
entonces p(n) ≡ 0 mod 5a 7(b/2) + 1 11c ”

donde b en el exponente del 7 en la segunda lı́nea de (1) debe ser sustituido por
(b/2) + 1, tal como fue demostrado por Atkin (1967), [Glasgow Math. J., vol. 8,
pp. 14-32]. El que Ramanujan no hallara la fórmula correcta, a la que habrı́a llegado
empleando razonamientos matemáticos, es una cuestión relativamente sin importancia;
que él concibiera la idea de tal propiedad, muestra los inexplicables procesos mentales
subyacentes a su descubrimiento.
¿Cómo surge una idea brillante? ¿Qué tipo de preparación necesita una mente para
volverse creativa? Los genios ¿nacen o se hacen? Tal vez no haya respuestas definitivas
a estas preguntas. A pesar de todo, incluso si dichas respuestas pudieran ser halladas,
quizás no serı́amos capaces de explicar la rapidez con que las ideas brillantes emanaban
del cerebro de Ramanujan. Todo ello resulta más intrigante debido a que Ramanujan
no tenı́a educación formal en matemática avanzada, nunca habı́a sido iniciado en
la investigación matemática y no era consciente de las áreas problemáticas ni de
las tendencias modernas de las matemáticas. Estableció teoremas sin demostración,
y sin indicar cuál era su motivación. Él mismo no podı́a explicar cómo obtenı́a
los resultados. Solı́a decir que la diosa Namakkal le inspiraba las fórmulas en
sueños. Frecuentemente, al levantarse de la cama, anotaba algunos resultados y
rápidamente los verificaba, a pesar de que no siempre era capaz de proporcionar
una demostración rigurosa. Muchos de los teorema propuestos por Ramanujan han
resultado ser correctos. ¿Tiene lugar la creatividad a nivel subconsciente?
El profesor P. C. Mahalanobis fue un contemporáneo de Ramanujan en Cambridge
(Inglaterra). Solı́a narrar varias anécdotas relacionadas con Ramanujan que han


c Publicacions de la Universitat de Barcelona
24 ESTADÍSTICA Y VERDAD

sido recopiladas en la biografı́a, Ramanujan, el hombre y el matem ático de S. E.


Ranganathan. Citaré textualmente una de las anécdotas recordadas por el profesor
Mahalanobis escrita en el citado libro:

“En una ocasión fui a la habitación de Ramanujan. Era a comienzos de la


Primera Guerra Mundial. Tenı́a en mi mano un ejemplar de la publicación
mensual “Strand Magazine” que en aquel tiempo solı́a publicar cierto número
de pasatiempos propuestos a los lectores. Ramanujan estaba removiendo algo en
una sartén sobre el fuego para nuestro almuerzo. Yo estaba sentado cerca de una
mesa hojeando las páginas de la revista. Me interesé en un problema acerca de
una relación entre dos números. He olvidado los detalles, pero recuerdo el tipo de
problema. Dos oficiales británicos viviendo en dos diferentes casas en una larga
calle habı́an muerto en la guerra; los números de las puertas de sus casas estaban
relacionados de una determinada manera. Se trataba de hallar estos números. No
era en absoluto difı́cil. Encontré la solución en unos pocos minutos por tanteo y
error.
Dije, bromeando: Tengo aquı́ un problema para tı́.
Ramanujan : ¿Qué problema? Dime (continuó removiendo la sartén). Leı́ la
pregunta del “Strand Magazine”.
Ramanujan: Por favor apunta la solución (dictó una fracción continua).
El primer término fue la solución que yo habı́a encontrado. Cada término
sucesivo representaba una diferente solución para el mismo tipo de relación
entre los dos números, a medida que el número de casas en la calle crecı́a
indefinidamente. Yo estaba asombrado. Pregunté: ¿Cómo intuiste la solución?
Ramanujan: Inmediatamente que oı́ el problema fue claro para mi que la solución
era obviamente una fracción continua; entonces pensé ¿qué fracción continua? y
la respuesta vino a mi mente. Fue ası́ de simple.

Según Ranganathan, la primera vez que Ramanujan mostró tener algún interés
por las matemáticas fue a la edad de 12 años. Se dice que preguntó a un amigo,
que estudiaba en una clase más avanzada de la Escuela Superior de la ciudad de
Kumbakonam, acerca de la “verdad más fundamental” en Matemáticas. Se cree que
éste le presentó el Teorema de Pitágoras y el problema de Acciones en Bolsa como
las “verdades más fundamentales”! El teorema de Pitágoras pertenece a la auténtica
matemática donde las conclusiones son obtenidas a partir de premisas dadas a través de
una serie de razonamientos deductivos y no hay ninguna duda acerca de la corrección
de las mismas. El problema de acciones en bolsa pertenece a la probabilidad, ahora una
floreciente rama de las matemáticas, donde las conclusiones obtenidas son inciertas;


c Publicacions de la Universitat de Barcelona
SRINIVASA RAMANUJAN—UN CASO ENIGMÁTICO 25

sin embargo, la cantidad de incertidumbre puede ser evaluada exactamente. Ambas


son estimulantes áreas de estudio e investigación y es, quizás, la familiaridad con el
teorema de Pitágoras más que con el problema de acciones que cotizan en bolsa, lo
que podrı́a haber conducido a Ramanujan a profundizar en las matemáticas.
Ramanujan registró muchos de sus resultados en cuadernos de notas, sin
demostraciones. Se dice que obtenı́a todas sus deducciones en una pizarra usando tiza y
escribiendo sólo el resultado final en papel. Cuando se le preguntó por qué no utilizaba
papel, contestó que gastarı́a tres fajos de papel por semana y que no tenı́a dinero para
ello.
Ramanujan habı́a publicado 5 artı́culos en revistas indias antes de ir a Cambridge
en 1914 para trabajar con G. H. Hardy. Hay en total 37 artı́culos publicados por él
mismo, o conjuntamente con G. H. Hardy, distribuidos durante el corto perı́odo de sus
años activos, como sigue:

Perı́odo −1914 1914 1915 1916 1917 1918 1919 1920 1921
Número
de artı́culos 5 1 9 3 7 4 4 3 1

Ramanujan murió en 1920 a la edad de 33 años. Durante los dos o tres últimos
años de su vida su salud fue declinando. A pesar de ello, continuó trabajando y
dejó tras sı́ numerosos resultados anotados en un cuaderno, descubierto hace unos
pocos años. Este “cuaderno perdido” tiene nuevos teoremas que han abierto nuevas
áreas de investigación en teorı́a de números.
Como el Dr. Askey dijo, “Ramanujan no es importante sólo como matemático sino
porque nos muestra lo que la mente humana puede hacer”. Contemplemos la misteriosa
fórmula que Ramanujan escribió sin ninguna demostración para calcular el número π:

   
1 1 3
∞  4n + 2
1 √  4 n 2
n 4 n 1
=2 2 (1103 + 26390n) .
π n=0
(1)n (1)nn! 99

No fue hasta 1985 que un cientı́fico informático calculó π con 17 millones de


cifras, usando una versión de la fórmula de Ramanujan, y probó que su inspiración era
correcta.2

02. Mediante otra versión de la misma fórmula, en 1987 los hermanos J. M. Borwein y P. B. Borwein calcularon
el número π con 100 millones de cifras. El récord mundial, conseguido en octubre de 1995, basado también en una fórmula
de Borwein, está en 6,442,450,938 cifras. N. del T.


c Publicacions de la Universitat de Barcelona
26 ESTADÍSTICA Y VERDAD

Naturalmente, Ramanujan fue un caso enigmático que floreció en el ambiente más


o menos hostil en que vivió: un sistema educativo rutinario encargado de producir
oficinistas para el trabajo administrativo, cuya pobreza forzaba a los estudiantes
brillantes a obtener buenos resultados académicos y a emplearse para vivir, faltando
el apoyo institucional, u otras oportunidades, para la investigación. Refiriéndose a los
logros de Ramanujan en matemáticas, Jawaharlal Nehru escribió en su “Discovery of
India” (Descubrimiento de la India):

La breve vida de Ramanujan y su muerte son un sı́mbolo de las condiciones


de la India. De millones, ¿cuántos logran alguna educaci ón? ¿Cuántos viven
al borde de la inanición? Si la vida abriera sus puertas a ellos y les ofreciera
comida y condiciones saludables de vivir y educarse, ası́ como oportunidades
para desarrollarse, ¿cu ántos de entre estos millones serı́an eminentes cientı́ficos,
educadores, técnicos, industriales, escritores y artesanos ayudando a construir
una nueva India en un mundo nuevo?

Jawaharlal Nehru era un visionario. Las condiciones de vida en la India parecen


haber mejorado mucho durante estos años y el nivel cientı́fico medio actual de
la India es en realidad comparable al de cualquier paı́s desarrollado. Pero hay un
sentimiento general de no haberse alcanzado el deseado nivel óptimo. Espero que
nuestras instituciones gubernamentales y académicas lo analizarán (con la ayuda de
estadı́sticos!) y harán lo que sea necesario para situar a la India a la vanguardia de los
más innovadores y sofisticados logros cientı́ficos.


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD

1.1. La cuantificación de la incertidumbre

Las nociones de incertidumbre y de aleatoriedad han desconcertado a la


humanidad durante largo tiempo. Nos enfrentamos a incertidumbres constantemente
en el ambiente fı́sico y social en que vivimos. Soportamos las incertidumbres y
sufrimos las catástrofes de la naturaleza. La realidad no es tan determinista como
Goethe deseaba,

“Grandes, eternas e inmutables leyes determinan los


caminos que todos recorremos sin rumbo fijo”.

o como Einstein, el más grande fı́sico de los últimos tres siglos o tal vez de todos los
tiempos, pensaba:

“Dios no juega a los dados con el Universo”.

Algunos teólogos argumentan que nada es aleatorio para Dios porque él causa todo lo
que ocurre; otros dicen que incluso Dios está a merced de sucesos aleatorios. En su
libro “El jardı́n de Epicuro” Anatole France observa,

“El azar es quizás el pseudónimo de Dios


cuando no desea firmar”.

Filósofos desde la época de Aristóteles reconocı́an el papel del azar en la vida, y lo


atribuı́an a algo que violaba el orden y permanecı́a más allá de sus posibilidades de
comprensión, sin considerar la posibilidad de estudiar el azar o medir la incertidumbre.
Los filósofos indios no encontraron la necesidad de pensar acerca del azar ya que
creı́an en las antiguas enseñanzas indias del Karma, que es un sistema rı́gido de causas
y efectos para explicar el destino de los hombres a partir de sus acciones en vidas
anteriores.
28 ESTADÍSTICA Y VERDAD

Toda vida humana está basada en previsiones, tanto si nos matriculamos en un


colegio, aceptamos un trabajo, nos casamos o invertimos dinero. Ya que el futuro es
imprevisible cualquiera que sea la información que tengamos, no hay ningún sistema
infalible para tomar decisiones correctas. Sucesos inesperados y el inevitable error en
la toma de decisiones han conducido a la humanidad a depender de pseudociencias,
tales como la astrologı́a, para buscar respuestas, solicitando el consejo de adivinos o
volviéndose vı́ctimas de la superstición y la brujerı́a. Todavı́a parecemos confiar en
viejas creencias:

Es una verdad evidente: todos deberı́amos estar atentos


a la espera de la mejor oportunidad.
Plauto (220 a.C)

Esto mismo se repite hoy en dı́a en frases como:

“La suerte puede ganar lo que se perdió por malasuerte”.


Robert Southwell (1980)

“Es mejor ser afortunado que ser bueno”.


(de un comentarista de partidos de tenis en Wimbledon)

Nuestros éxitos o fracasos son explicados más en términos de azar que por nuestras
habilidades y esfuerzos.
La incertidumbre, en una situación dada, puede presentarse de diversas formas.
Puede ser debido a

∗ falta de información
∗ errores desconocidos en los datos disponibles
∗ tecnologı́a inadecuada para la obtención de la información requerida
∗ imposibilidad de realizar las medidas necesarias
∗ ...

La incertidumbre es inherente también a la naturaleza, como por ejemplo, en


el comportamiento de las partı́culas fundamentales en fı́sica, genes y cromosomas
en biologı́a, y de los individuos en una sociedad sometidos a tensiones y estrés,
que necesita, por tanto, el desarrollo de teorı́as basadas en el azar más que en leyes
deterministas, tanto en ciencias fı́sicas, como biológicas y sociales.
¿Qué criterios usamos para tomar decisiones en situaciones de incertidumbre?
¿Cómo efectuamos la generalización desde unos datos particulares observados hasta


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 29

lograr descubrir nuevos fenómenos o postular nuevas teorı́as? ¿Es el proceso implicado
un arte, una tecnologı́a o una ciencia?
Intentos de responder a estas preguntas empezaron sólo a comienzos del presente
siglo, tratando de cuantificar la incertidumbre. No se han conseguido éxitos completos
en este esfuerzo pero los logros obtenidos han producido una revolución en todas las
esferas del saber humano. Todo ello ha abierto nuevas áreas de investigación y ha
ayudado al avance del conocimiento de la naturaleza y del bienestar humano. También
ha cambiado nuestra forma de pensar y ha permitido remarcables descubrimientos de
los secretos de la naturaleza, que nuestros prejuicios acerca del determinismo y nuestra
incapacidad para manejar el azar habı́an impedido anteriormente.
Una descripción completa de estos avances y las razones para el largo retraso en
la concepción de estas ideas están expuestas en el siguiente capı́tulo.

1.2. El Azar y los números aleatorios

De forma chocante, la metodologı́a utilizada para explorar la incertidumbre


implica el uso de números dispuestos al azar, como la secuencia de números que
obtenemos cuando extraemos fichas numeradas del 0 al 9 de una bolsa, reemplazando
cada vez la ficha extraı́da y mezclándola con las de la bolsa. Se supone que tales
secuencias presentan la máxima incertidumbre (caos o entropı́a) en el sentido que no
hay ningún método para predecir los resultados de la siguiente secuencia. Veremos
cómo estas series de números, llamados números aleatorios, son generados y cuán
indispensables son para realizar ciertas investigaciones y resolver problemas que
implican complejos cálculos.

1.2.1. Un libro sobre Números Aleatorios

En 1927, un estadı́stico cuyo nombre era L. H. C. Tippett, escribió un libro titulado


“Números Muestreados al Azar”. El contenido de dicho libro son 41.600 dı́gitos (del
0 al 9) dispuestos en conjuntos de 4 en varias columnas y distribuidos a lo largo de
26 páginas. Se dice que el autor tomó las cifras de las superficies de las parroquias
aparecidas en el Censo Británico, omitiendo los dos primeros y el último dı́gito de
las cifras de la superficie y colocando los números truncados uno detrás de otro
mezclándolos adecuadamente hasta obtener los 41.600 dı́gitos. Este libro que no es
nada más que una fortuita colección de números, se convirtió en un “best seller” en
el mundo de los libros técnicos. Una reproducción de una página tı́pica del citado


c Publicacions de la Universitat de Barcelona
30 ESTADÍSTICA Y VERDAD

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32
1

9
7 8 1 6 6 5 7 2 0 8 0 2 6 3 1 4 0 7 0 2 4 3 6 9 9 7 2 8 0 1 9 8
3 2 0 4 9 2 4 3 4 9 3 5 8 2 0 0 3 6 2 3 4 8 6 9 6 9 3 8 7 4 8 1
2 9 7 6 3 4 1 3 2 8 4 1 4 2 4 1 2 4 2 4 1 9 8 5 9 3 1 3 2 3 2 2
8 3 0 3 9 8 2 2 5 8 8 8 2 4 1 0 1 1 5 8 2 7 2 9 6 4 4 3 2 9 4 3
5 5 5 6 8 5 2 6 6 1 6 6 8 2 3 1 2 4 3 8 8 4 5 5 4 6 1 8 4 4 4 5

2 6 3 5 7 9 0 0 3 3 7 0 9 1 6 0 1 6 2 0 3 8 8 2 7 7 5 7 4 9 5 0
3 2 1 1 4 9 1 9 7 3 0 6 4 9 1 6 7 6 7 7 8 7 3 3 9 9 7 4 6 7 3 2
2 7 4 8 6 1 9 8 7 1 6 4 4 1 4 8 7 0 8 6 2 8 8 8 8 5 1 9 1 6 2 0
7 4 7 7 0 1 1 1 1 6 3 0 2 4 0 4 2 9 7 9 7 9 9 1 9 6 8 3 5 1 2 5
5 3 7 9 7 0 7 6 2 6 9 4 2 9 2 7 4 3 9 9 5 5 1 9 8 1 0 6 8 5 0 1

9 2 6 4 4 6 0 7 2 0 1 2 3 9 2 0 7 7 6 6 3 8 1 7 3 2 5 6 1 6 4 0
5 8 5 8 7 7 6 6 3 1 7 0 0 5 0 0 2 5 9 3 0 5 4 5 5 3 7 0 7 8 1 4
2 8 8 9 6 6 2 8 6 7 5 7 8 2 3 1 1 5 8 9 0 0 6 2 0 0 4 7 3 8 1 5
5 1 3 1 8 1 8 6 3 7 0 9 4 5 2 1 6 6 6 5 5 3 2 5 5 3 8 3 2 7 0 2
9 0 5 5 7 1 9 6 2 1 7 2 3 2 0 7 1 1 1 4 1 3 8 4 4 3 5 9 4 4 8 8

7 9 0 0 5 8 7 0 2 6 0 6 8 8 1 3 5 5 0 9 4 3 2 4 0 0 3 0 4 7 5 0
3 6 9 3 9 2 1 2 0 5 5 7 7 3 6 9 7 1 6 2 9 5 6 8 1 3 1 2 9 4 3 8
0 3 8 0 3 3 3 8 0 1 3 8 4 5 6 0 4 2 0 3 6 4 9 6 3 8 0 6 0 3 4 7
0 2 4 6 4 4 6 9 9 7 1 9 8 3 1 6 1 2 8 5 0 3 5 7 2 3 8 9 2 3 9 0
7 2 6 6 0 0 8 1 6 8 9 7 2 8 5 1 4 6 6 6 0 6 2 0 4 5 9 6 3 4 0 0

9 3 1 2 4 7 7 9 5 3 3 7 8 9 1 8 4 5 5 0 3 9 9 4 5 5 7 3 9 2 2 9
6 1 1 1 6 0 9 8 0 9 6 5 7 3 5 2 6 8 4 7 3 0 3 4 9 9 7 7 3 7 7 0
2 3 1 0 4 4 7 6 9 1 4 8 0 6 7 9 2 6 6 2 2 0 6 2 0 5 2 2 9 2 3 4
9 8 2 6 8 8 5 7 8 6 7 5 6 6 4 2 5 4 7 1 8 8 2 0 4 3 0 8 2 1 0 5
6 7 0 3 8 2 4 8 6 0 6 4 6 9 6 2 0 0 5 3 8 1 8 8 6 4 9 4 4 5 0 9

1 1 1 0 9 4 8 6 6 5 3 3 3 9 5 4 1 9 4 4 1 5 1 6 1 6 8 2 3 4 0 4
9 6 5 1 1 4 5 6 5 6 1 3 0 3 5 7 4 2 4 4 3 3 4 1 9 6 0 5 3 5 6 7
8 3 5 0 5 7 2 8 4 3 3 8 0 8 2 4 7 8 9 9 1 3 0 7 5 8 1 4 8 6 8 8
6 9 8 2 5 1 2 6 7 7 3 6 3 3 8 3 6 2 1 5 3 4 4 1 8 5 7 8 2 2 7 7
6 4 9 0 7 6 4 4 7 0 8 5 8 3 6 1 5 6 6 2 4 1 4 1 9 8 7 7 3 7 4 7

8 5 7 0 2 1 5 0 8 1 4 0 4 3 5 5 5 3 2 1 2 5 4 8 0 2 8 0 7 5 4 3
9 1 6 9 0 4 0 8 4 3 5 3 6 1 2 2 8 9 1 3 9 9 3 0 4 1 6 9 6 0 3 2
2 1 2 7 0 1 6 2 6 1 7 6 4 9 6 9 8 1 8 5 9 3 1 2 8 7 4 8 8 5 7 5
8 0 9 0 9 8 7 2 1 9 6 8 0 2 6 3 0 0 8 1 2 6 6 2 6 8 3 1 3 1 0 6
2 9 5 9 9 0 1 1 1 4 4 8 4 3 4 6 7 0 1 9 8 1 4 8 1 5 5 7 8 4 0 0

Tabla 1.1: Parte de la página XIV de números aleatorios simples de Tippett


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 31

N B B N B N B B N N N N N B N N N B B N B B B N N
N B N N N N N B B N B N B B B N N B B B B B B B N
B B N B B B N N B N B B B N N N N N B B N B N B B
N B B B B N N B N N B B N N B N B B N N B N N B N
B N B N B N B N N B N N N N B N N N N N N N B N B
B N B N N B N B N N B N B N B N B N N N B B N N N
N B B N N N B B N B N B N N B N B N N N B N B N B
N N N B B B B B N B B N B B B B B B N N N N B B N
N N N B B N B B B N N N B B B B B N N B N N N B B
B B N N B B B N B N N N B N B N B B B B B N B N B

N B N N N B B B N B N B N N N B N N B B B N B N N
B N B N B B B N B N B B N B B N B B B N N N N B N
B B B B N N N B B B B B B B B N N N N B B B N N B
N B N B N N N N B B N B B B B N B N N B B N N N N
N N B N N N N B B B N B N B B N B N B B N N N B N
B B B N B N B B B B B B B B N N N B N B B B B N N
B B N B N B B B N N N N N B B N B N B B B B B N B
N N N B N N B B B N N B B N N N N B N B N N N N N
B B N B N B N B B B B N N N B N N B N N B N B B N
N B N B N N N B N N N N N N N N N B N B B B B B N

N B N B N B B N N N N N B B N N B N B N B B N N N
N B N B N B B N N N N N B B N N B N B N B B N N N
B B B N B B N N N N B B B B N N B B B N N N N N N
B N N B B N N N B N B B N N N B B N B B B B N N N
N N N N B B N B N N B B N B B N N N B B N B N B B
B B N B N B N B N B B N B B N B N B N B N N N B B
N B N B N B B B B B N B B B N N N B N B N B N B B
N N N N B B N B B N B B N N B N B B B B N N N B N
B N B N N B N B B B B B N B N B B B N N N N N B B
B N B N N N N N B B B N N B B B N B N B N B B N N

B N B B B N N N N B B N N N B N B B B B B N N B N
B N B N N B N N B B B B B B B B N N B N N N B B N
B N N B B N N N N N N B B N N N B B B N B N N B B
B B N N B B B B N N B B B N B N N B N B N B N N B
B N B N B B N B N B B N N N N B N B B B N B N N B
N B B N N B N N N N B B B B N N B B B B N B N B B
N B N B N N B N N B B N B N B N B B B B B N N B N
N N B N B B N B N N B B B N N N N N B B N B N B B
B B B N B N N B N N N B N N B N B B B B B B B B B

Tabla 1.2: Datos sobre el color de sucesivas bolas sacadas de una bolsa que
contiene igual número de bolas blancas y negras


c Publicacions de la Universitat de Barcelona
32 ESTADÍSTICA Y VERDAD

Enero

H V V H H V V V V H V H V H V V V H H V H H V H H
H V H V V V V V V H V V V V V H H H H V V H V V V
V V V V V V V V H V V V H H H V V H V V H H H V H
H V H V V V H V V V H H V V H V H H V V H V H V V
H H V H V V H V H H H V V H H V H V H H H V V V H
H H V H V H V V V V V H V H H V H V H V V H V V H
H H H H H H H H V V H V V V H V V V V H H V H H H
H V H V V V V H H H H V H H H V V V V V

Febrero

H H V H H
H H V V V H H H H V H H H V H H V H H V H H V H H
V V V H V H H V H V H H V H V V H V H V V V H V V
H V V H H H V V V H H H H H V V V H H H V V H H V
V H V H V H V V V V H H V V H H V V H V H V V H V
H H

Marzo

V H H H V V V V V V V H V H H H H H V V V H V
V H V H H V H V H H H H H V V H V H H V H V V H V
V H H H H H V V H V H V V H H V V V V V V V H H V
V V H H V V V V H V H H V H V

Abril

H V H H H H V V V
H H V H V V H H H V H V V V H H V H H V V H H V H
H V H V V V V V H V V V V V V H H V V V H V H V H
V V H V V V V H H V H V V V V V V V H H H V V H V
H V H H V V H V H H V V H V H V H V H V H H V H V
H H H H V H V V V H H V H H H V V H H H V V V H H
H H V H H H V V V H H V H V H V H V H V V V H V H
V H V V H H V V H H H V V H V V V V V V H V V H H

Julio

H V V V V H V V V V H H V H H H H V V H H V H V V
H H H V V H V H V V H V H V V H V H V V V V V V V
V H V H H V V V V V H V H V V V H V V H H V H V H
V H V V H H H V V V V V V H V V V H H V V V V H H
H V H H V V H V H H H H H H H V V V V H H H H V V
H H V V V V V V V H V V V V H H V V H H H H H V V
H

Octubre

V V V H H H H V H H V V H V V H V V H V V V V V
V H V H V H H H H V H V H H H H V H V V V H H H V
V H V V H V V H H H H H V H H H V V V V V H V V H
H V V H H V H V V H H V V H H V V H H V H H H V H
H V V H H V V H V V V V V V H H V H H V V H H V H
H H V V H H H H V H H H V H H H H V H V H H V H H
V V H V V H H H V H V H H V H V V V H H H H H H H
V H V H V V V H H H V H H V H V V H V H V V V H V
V H H H V V H V H H V H H H V V V H H V V H V V V
V H V V H H V V V H H H V V H H H H H H H H H V H
V V H V V V H V H H

Tabla 1.3: Datos sobre el sexo de sucesivos niños nacidos en un hospital indio
observados durante ciertos periodos de algunos meses de 1956


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 33

libro puede verse en la tabla 1.1. Ésta fue seguida por otra publicación de dos grandes
pioneros de la Estadı́stica, R. A. Fisher y F. Yates, la cual contenı́a 15.000 dı́gitos
formados listando los dı́gitos del 15 al 19 de tablas logarı́tmicas de 20 cifras.
¡Un libro de números aleatorios! Una colección fortuita y sin sentido de números,
ni realidad ni ficción. ¿Para qué sirve? ¿Por qué los cientı́ficos están interesados
en ellos? Esta habrı́a sido la reacción de los cientı́ficos y personas no expertas
a principios de siglo. Pero un libro de números al azar es una invención tı́pica
del siglo veinte, cuando ha aparecido la necesidad de los números aleatorios para
resolver problemas del mundo real. Ahora la producción de números aleatorios es una
industria multimillonaria en todo el mundo, implicando considerable investigación y
sofisticados ordenadores de alta velocidad.
¿Qué es una secuencia de números aleatorios? No hay una definición sencilla,
excepto una poco precisa, mencionada anteriormente, como aquella que no sigue
ningún particular patrón.1 ¿Cómo se puede generar una secuencia tan ideal de
números? Por ejemplo, se puede tirar una moneda un número de veces y recordar la
secuencia de 0’s (para cruces) y 1’s (para caras) tal como sigue:

011010 · · ·

Si no se es un mago que pueda ejercer cierto control sobre las tiradas, se


obtendrá una secuencia aleatoria de los llamados dı́gitos binarios (0’s y 1’s). Tal
secuencia también puede ser obtenida mediante bolas blancas y negras contenidas
en una bolsa en igual número, escribiendo 0 para las negras y 1 para las blancas.
Cuando yo daba clases el primer año en el Instituto Indio de Estadı́stica, acostumbraba
a enviar a mis estudiantes al Hospital Bon-Hooghly cercano al Instituto en Calcuta para
que tomaran un registro de los nacimientos de niños y niñas. Escribiendo V para los
niños nacidos y H para las niñas, obtenemos una secuencia binaria como la obtenida
por repetidas tiradas de una moneda o bolas extraı́das. Mientras ésta es una secuencia
natural de un fenómeno biológico, las otras son generadas artificialmente. 2
La tabla 1.2 da la secuencia de 1000 bolas sacadas de una bolsa que contiene 500
bolas blancas (B) y 500 negras (N) según el color de la bola, blanca o negra. La tabla
1.3 da la secuencia de 1000 recién nacidos en un hospital según el sexo, niños (V)
ó niñas (H).

01. Técnicamente hablando, una secuencia de sı́mbolos al azar es aquella que no puede ser registrada por medio
de un algoritmo de una forma más corta que la secuencia misma.
02. El número π, del que ya se conocen 6,442,450,983 dı́gitos decimales, ha sido propuesto como un generador
natural de números aleatorios (Y. Dodge, International Statistical Review, 64(3), 329-344, 1996). N. del T.


c Publicacions de la Universitat de Barcelona
34 ESTADÍSTICA Y VERDAD

Número Frecuencias
Niño varón Blanco Esperado
0 5 4 6.25
1 27 34 31.25
2 64 65 62.50
3 65 70 62.50
4 30 22 31.25
5 9 5 6.25
Total 200 200 200.00

Tabla 1.4

Podemos sumarizar los datos de la tablas 1.2 y 1.3 en una forma que se conoce
como distribución de frecuencias. Las frecuencias de 0, 1, 2, 3, 4, 5 niños varones
en sucesiones de 5 nacimientos consecutivos, y de bolas blancas en sucesiones de 5
extracciones consecutivas de bolas, vienen dadas en la tabla 1.4.
Las frecuencias esperadas son valores teóricos, que se observarı́an como un
promedio, si el experimento con 200 pruebas se repitiera muchas veces. Las
frecuencias pueden ser representadas gráficamente en forma de histogramas (Figura 1).

Histograma para dos conjuntos de datos

0 1 2 3 4 5 0 1 2 3 4 5

n = 200 n = 200

Figura 1: Histogramas de las frecuencias de distribuciones de la tabla 1.4.

Como puede verse, los dos histogramas son similares, indicando que el mecanismo
fortuito de determinación del sexo es el mismo que el de la extracción de bola blanca
o negra de una bolsa con igual número de bolas de los dos colores o similar al de la
tirada de una moneda. Un simple ejercicio como el anterior puede proveer las bases


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 35

para la formulación de una teorı́a sobre la determinación del sexo. Dios lanzando una
moneda! De hecho los tests estadı́sticos mostraron que los nacimientos de niños y
niñas proveen una secuencia binaria de más confianza que la generada artificialmente.
Quizás Dios está lanzando una moneda perfecta. En la India se produce un nacimiento
cada segundo, lo que constituye una barata y conveniente forma de generar secuencias
binarias aleatorias.
En la práctica, además de los ordenadores, recursos naturales como el diodo
de polarización invertida, son utilizados para generar números aleatorios basados
en la teorı́a de la mecánica cuántica que postula la aleatoriedad de ciertos
eventos a nivel atómico. Nótese que la teorı́a misma es verificable comparando los
números ası́ observados con secuencias generadas mediante estrategias artificiales.
Sin embargo, los matemáticos creen que para construir una secuencia de números
aleatorios válida (satisfaciendo muchos requerimientos) no se deberı́an usar
procedimientos aleatorios sino convenientes procedimientos determinı́sticos! (Ver
Hull y Dobell (1962) para una excelente discusión sobre este tema). Los números
ası́ generados son descritos como pseudo-aleatorios, y mostraron servir al propósito
deseado en la mayorı́a de las aplicaciones prácticas.
Ya hemos visto como secuencias aleatorias de números generados artificialmente
nos capacitan para descubrir, por comparación, mecanismos fortuitos similares en
la naturaleza y explicar la causa de sucesos naturales tales como la secuencia de
nacimientos de niños y niñas. Hay varias formas de aprovechar el azar: profundizar
sobre preguntas desconcertantes, resolver problemas demasiado complejos para
admitir una solución exacta, generar nueva información y quizá también para ayudar a
la creatividad y desarrollar nuevas ideas. Brevemente describiré algunas de ellas.

1.2.2. Técnica de Monte Carlo

Karl Pearson, matemático británico y uno de los pioneros en el desarrollo de


la teorı́a y métodos estadı́sticos, fue el primero en concebir el uso de los números
aleatorios para resolver problemas en probabilidad y estadı́stica, cuya complejidad
era demasiado grande para permitir una solución exacta. Si conocemos la distribución
conjunta de cierto número de variables, por ejemplo X1 , X2, . . . , Xp, ¿como podemos
hallar la distribución de una función de las mismas f (X1, . . . , Xp)? El problema tiene
una solución formal en la forma de una integral múltiple indefinida, pero el cálculo
suele ser difı́cil. Descubrió que los números aleatorios eran útiles para encontrar una
solución aproximada a tal tipo de problemas y animó a L. H. C. Tippett a preparar una
tabla de números aleatorios para ayudar a otros en tales estudios. Karl Pearson dijo,


c Publicacions de la Universitat de Barcelona
36 ESTADÍSTICA Y VERDAD

“El registro mensual del juego de la ruleta en Monte Carlo puede proporcionarnos
material para el análisis de los fundamentos del conocimiento”.

Este método, llamado simulación o técnica de Monte Carlo, se ha convertido hoy


en dı́a en un recurso estándar en estadı́stica y en todas las ciencias para resolver
problemas numéricos complicados. Se generan números aleatorios y se efectúan
simples cálculos con los mismos.

. . . . . .
.
. . .. .
. .. .
. . . .
. . .
. . .
.
.
. . . .
. . . . . ..

número de puntos dentro de la figura am


área de la figura ≈ =
número total de puntos en el cuadrado m
am
Teorema: verdadera proporción del área cuando m ∞.
m

Figura 2: Cómo encontrar el área de una figura complicada. Método de


simulación o de Monte Carlo

El principio básico del método de simulación es sencillo. Supongamos que


deseamos saber que proporción de la superficie de un cuadrado es interior a la curva
cerrada dibujada dentro del mismo (ver figura 2). Vemos que el dibujo es complicado
y no hay una forma sencilla de usar un planı́metro para medir dicha área. Ahora,
consideremos el cuadrado y llamemos a cualquier par de lados adyacentes los ejes x e
y. Elijamos ahora un par de números al azar (x, y) ambos en el intervalo (0, b), donde b
es mayor que la longitud de cualquier lado del cuadrado, y dibujemos dicho punto con
coordenadas (x, y) en el cuadrado. Repitamos el proceso varias veces y supongamos
que en un determinado momento, a m es el número de puntos que han caı́do dentro de la
figura limitada por la curva cerrada y m el número total de puntos que han caı́do dentro
del cuadrado. Hay un teorema, llamado la ley de los grandes números, demostrado
por el famoso probabilista ruso A. N. Kolmogorov, que asegura que el cociente a m /m
tiende a la verdadera proporción de la superficie limitada por el dibujo respecto de


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 37

la total del cuadrado, a medida que m crece, siempre que los pares (x, y), escogidos
para determinar los puntos, sean verdaderamente aleatorios. El éxito (o precisión) de
este método depende de la medida en que podamos confiar en el generador de números
aleatorios y en cuantos números podamos producir fijados unos determinados recursos.
Bajo el liderazgo de Karl Pearson el método fue utilizado por alguno de
sus estudiantes para encontrar la distribución de algunos estadı́sticos muestrales
complicados, pero no se popularizó de inmediato, excepto quizás en la India, en el
ISI,3 donde el profesor P. C. Mahalanobis explotó los métodos de Monte Carlo, que el
llamaba muestreo aleatorio experimental, para resolver cierta variedad de problemas
tales como determinar el plan de muestreo óptimo en trabajos de inspección, y el
tamaño y la forma óptima de gráficas en trabajo experimental.
La razón del retraso en reconocer las potencialidades de este método puede ser
atribuido a la no disponibilidad de instrumentos para producir verdaderos números
aleatorios y en cantidad suficiente, lo cual afecta a la precisión de los resultados.
También, en ausencia de instrumentos estándar para generar números aleatorios, los
editores de revistas eran reticentes a publicar artı́culos que contuvieran resultados de
simulaciones. Ahora la situación es completamente diferente gracias a la aparición
de los generadores de auténticos números aleatorios y el fácil acceso a ellos.
Somos capaces de acometer investigaciones de problemas complejos y dar al menos
soluciones aproximadas para uso práctico. Los editores de revistas insisten en que
todo artı́culo sometido deberı́a contener resultados de simulaciones incluso cuando
las soluciones exactas son posibles! Es un hecho que el carácter mayoritario de
la investigación en estadı́stica, quizás también en otros campos, está cambiando
gradualmente, haciendo mayor énfasis en lo que se llama “number crunching
methods”, de los cuales un ejemplo tı́pico es el “método bootstrap” en estadı́stica,
defendido por Efron, que se ha hecho muy popular. Hacemos que los números trabajen.
En India, debido a razones desafortunadas, no hemos sido capaces de explotar la
programación basada en métodos de simulación para el trabajo de investigación y
perdimos la oportunidad de estar a la cabecera de la investigación cientı́fica mundial,
como ası́ éramos considerados antes de la llegada de los ordenadores.

1.2.3. Encuestas

El siguiente, y quizás el más importante, uso de los números aleatorios


es la generación de datos en encuestas y en trabajo experimental. Consideramos

03. ISI, Instituto Indio de Estadı́stica, fundado por P. C. Mahalanobis.


c Publicacions de la Universitat de Barcelona
38 ESTADÍSTICA Y VERDAD

una población grande de individuos cuyos ingresos medios deseamos conocer. Un


detallado registro o la obtención de información de cada individuo y el procesamiento
de los datos no sólo consume tiempo y dinero sino que también es indeseable debido
a las dificultades organizativas en la obtención de datos precisos. Por otra parte,
un conjunto de datos de una pequeña proporción de individuos (una muestra de
individuos) puede ser obtenida más expeditivamente y bajo condiciones controladas
para asegurar la precisión de los datos. Entonces surge la pregunta de ¿cómo debemos
escoger la muestra de individuos para obtener datos a partir de los cuales obtener
una suficientemente precisa y válida estimación del ingreso medio? Una respuesta nos
la proporciona el simple método de la loterı́a usando números al azar. Etiquetamos
todos los individuos con números 1,2, 3 . . ., generamos cierta cantidad de números
aleatorios en el rango 1-N (donde N es el número total de individuos) y seleccionamos
los individuos correspondientes a estos números. Esto se llama una muestra aleatoria
simple de individuos. De nuevo, la teorı́a estadı́stica nos dice que el promedio de
los ingresos de los individuos en una muestra aleatoria tiende al verdadero valor a
medida que el tamaño muestral aumenta. En la práctica, el tamaño muestral puede
ser determinado para asegurar un margen de precisión dado. Por ello, los números
aleatorios nos capacitan para adquirir datos muestrales que contienen la información
deseada y procesar los datos de una determinada forma para hacer estimaciones de
parámetros desconocidos.

1.2.4. Diseño de Experimentos

La aleatorización es un aspecto importante de los experimentos cientı́ficos


tales como los diseñados para contrastar si el medicamento A es mejor que el B
para el tratamiento de determinada enfermedad o decidir qué variedad de arroz
tiene mayor rendimiento entre un conjunto de variedades estudiado. El objeto de
estos experimentos es generar datos que proporcionen comparaciones válidas de los
tratamientos en consideración. R. A. Fisher, el estadı́stico que inició el estudio del
diseño de experimentos, mostró que asignando individuos al azar a los fármacos A
y B, en un experimento médico, y asignando las variedades de arroz en terrenos
experimentales al azar, en experimentos agrı́colas, podemos generar datos válidos para
la comparación de tratamientos. Esto, de hecho, desconcertó a algunos estadı́sticos
que habı́an desafiado el principio de aleatorización, pero que no habı́an propuesto una
metodologı́a alternativa sin efectuar hipótesis adicionales.


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 39

1.2.5. Codificación de mensajes

Los números aleatorios, y en grandes cantidades, también se necesitan en


criptologı́a o la forma secreta de codificación de mensajes para ser transmitidos y para
mantener la confidencialidad de transacciones bancarias particulares.
Las comunicaciones al más alto nivel diplomático y militar, donde el secreto es
extremadamente importante, están codificadas de tal forma que cualquier conexión
ilegal en las lı́neas de transmisión pueda registrar algo que parezca sólo una secuencia
de números aleatorios. Para conseguir esto, primero una hilera de dı́gitos binarios
aleatorios llamada la hilera clave, es generada de modo que sólo es conocida por
el emisor y el receptor, pero por nadie más. El emisor convierte su mensaje en una
hilera de dı́gitos binarios en la forma usual convirtiendo cada carácter en su código
estándar de 8 bits (la letra “a” por ejemplo es 0110 0001). El emisor entonces sitúa
la hilera del mensaje bajo la hilera clave y obtiene una hilera codificada cambiando
todos los bits del mensaje por sus alternativos en todos los sitios donde el bit clave es
1 y dejando los otros sin cambiar. La hilera codificada que parece ser una secuencia
binaria al azar es transmitida. El mensaje recibido es decodificado mediante la hilera
clave que es conocida por el receptor, haciendo los cambios en el mismo sentido que
en la codificación. He aquı́ un ejemplo.


Llave 0 1 0 0 0 1 1
Emisor
Mensaje 1 0 1 1 0 0 0

Mensaje Codificado 1 1 1 1 0 1 1 Mensaje Transmitido


Llave 0 1 0 0 0 1 1
Receptor
Mensaje Decodificado 1 0 1 1 0 0 0

Los bancos usan códigos secretos basados en los números aleatorios para
garantizar la privacidad de las transacciones hechas mediante cajeros automáticos.
Para este propósito un número aleatorio es generado como una clave con la norma
de convertir un mensaje en un código que sólo es descifrable con el conocimiento
de la misma. Más tarde, después de dar dicha clave al computador central y al cajero
automático, los dos mecanismos pueden comunicarse por teléfono de forma segura.
Tras recibir el mensaje del cajero automático que espera el número del cliente y la
cantidad de dinero que quiere retirar, el computador central verifica la cuenta del cliente
y da instrucciones al cajero automático para hacer o no el pago.


c Publicacions de la Universitat de Barcelona
40 ESTADÍSTICA Y VERDAD

1.2.6. El azar como herramienta en la construcción de modelos

Las primeras aplicaciones de los números aleatorios para resolver problemas


estadı́sticos, prepararon el camino para su uso en la construcción de modelos y
predicción. Algunas de las áreas donde se desarrollan tales modelos son: el pronóstico
del tiempo, el estudio de la demanda de los bienes de consumo, las futuras necesidades
de la sociedad en términos de servicios tales como viviendas, escuelas, hospitales,
facilidades de transporte, etc. Mandelbrot (1982) proporciona una historia fascinante
de fractales aleatorios en la construcción de modelos de complicadas curvas, como la
irregular lı́nea costera de un paı́s o las complejas formas de los objetos naturales.

1.2.7. Su uso en la resolución de problemas complejos

Algunos de las actuales aplicaciones de los números aleatorios, que inició una gran
demanda de generadores de los mismos, es la resolución de problemas complicados
tales como el problema del vendedor viajante, donde se trata de determinar la
trayectoria más corta a seguir para visitar un determinado número de lugares,
comenzando desde un sitio determinado y volviendo al punto de partida.
Otro interesante ejemplo es la programación del juego del ajedrez. Aunque el
ajedrez es un juego potencialmente analizable de forma determinista, los programas
de la Inteligencia Artificial (IA) a veces incorporan movimientos al azar como una
forma de evitar la terrible complejidad del juego.
El ámbito de aplicación de los números aleatorios y el concepto de azar parecen
ser ilimitados.

1.2.8. Falacias sobre las secuencias aleatorias

Una interesante propiedad de los números aleatorios es que, al igual que el


concepto hindú de Dios, carecen de modelo a la vez que los incluyen a todos. Esto es,
si nosotros vamos generando números estrictamente aleatorios, encontraremos tarde
o temprano cualquier patrón previamente dado. Ası́, si vamos tirando una moneda, no
deberemos sorprendernos si aparecen, alguna vez, 1.000 caras en tiradas sucesivas. Del
mismo modo cabe considerar el mono proverbial que, si permitimos que mecanografie
continuamente, puede producir las obras completas de Shakespeare en un periodo
de tiempo largo, aunque finito. (La probabilidad de producir únicamente el drama
“Hamlet”, con sus 27.000 letras y espacios, es aproximadamente la unidad dividida por
1041.600 . Esto da alguna idea de cuánto hemos de esperar para que tal suceso ocurra).


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 41

La estructurada pero sin estructura naturaleza de una secuencia de números


aleatorios tiene algunos errores de concepción incluso a nivel filosófico. Uno es el
llamado “La Falacia del jugador”, ejemplificada por la anécdota de Polya sobre un
doctor que conforta a su paciente de la siguiente forma:

“Usted tiene una seria enfermedad. De diez personas que tienen esta
enfermedad sólo una sobrevive. Pero no se preocupe. Es afortunado por venir
a verme, ya que recientemente he tenido nueve pacientes con esta enfermedad y
todos ellos han muerto”.

Semejante opinión fue seriamente sostenida por el filósofo alemán Karl Marbe
(1916), quien, basándose en el estudio de 200.000 registros de nacimientos en cuatro
ciudades de Bavaria, concluyó que la probabilidad de que una pareja tenga un niño
varón aumenta si unos dı́as atrás han nacido una gran cantidad de niñas.
Otra opinión, que es la contrapartida a la teorı́a de Marbe de la “Estabilización
Estadı́stica”, es la “Teorı́a de la Acumulación” propuesta por otro filósofo, O.
Sterzinger (1911), el cual formó la base para una “Ley de Series”, o la tendencia del
mismo suceso a ocurrir en periodos cortos, formulada por un biólogo, Paul Kammarer
(1919). Un proverbio dice,

“Las desgracias rara vez vienen solas”

que la gente toma seriamente, y aplica a todo tipo de sucesos. El profesor J. Narlikar
(1982), en una conferencia de la 16ava Asamblea del Instituto Indio de Estadı́stica,
hizo referencia a una controversia entre Fred Hoyle y Martin Ryle donde aparecı́a tal
falacia. El profesor Narlikar mencionó que su simulación, o experimento de Monte
Carlo, mostró que un sistema homogéneo y regular puede exhibir heterogeneidades
locales (por ejemplo, cortas rachas del mismo suceso) con alguna frecuencia, y las
observaciones de Ryle de tales heterogeneidades en la densidad de fuentes radioactivas
no se contradice con la teorı́a de Hoyle del estado estacionario del Universo.
Daré otro ejemplo. Se ha establecido que los tamaños poblacionales de una gran
variedad de animales exhiben aproximadamente ciclos de tres años, es decir, el tiempo
medio que pasa entre dos sucesivos picos del tamaño poblacional es alrededor de
3 años. (Un pico es definido como un año en el cual hay más animales que en el
inmediato anterior y en el inmediato posterior). La ubicuidad de tal fenómeno conduce
a creer que quizás se trate de una nueva ley natural. Tal creencia sufrió un duro golpe
cuando se observó que si disponemos en una gráfica números aleatorios a intervalos
equidistantes, la distancia media entre picos se aproxima a 3 cuando la serie de
números aumenta. De hecho, tal propiedad es fácilmente demostrable usando el hecho


c Publicacions de la Universitat de Barcelona
42 ESTADÍSTICA Y VERDAD

de que la probabilidad de que el número que está en medio sea mayor que los otros
dos en un conjunto de 3 números aleatorios es 1/3. Esto da un tiempo medio de 3 años
entre picos.

1.2.9. Obteniendo respuestas a preguntas delicadas

Otra interesante aplicación del azar consiste en la obtención de respuestas


para preguntas muy personales. Si preguntamos, por ejemplo, “¿Fumas marihuana?”,
probablemente no conseguiremos una respuesta correcta. Por otra parte, podemos
hacer dos preguntas (una de ellas inocua)

S: ¿Fumas marihuana?
T: ¿Tu número de teléfono acaba en cifra par?

y pedimos al entrevistado que tire una moneda y responda S correctamente si sale cara
y T correctamente si sale cruz. El investigador no sabe qué pregunta será contestada
y el secreto de la información estará garantizado. De entre todas las respuestas, la
proporción real de individuos que fuman marihuana puede ser estimada como se
muestra a continuación.

π = proporción desconocida de fumadores de marihuana, que es el parámetro a


estimar.
λ = proporción conocida con el número de teléfono acabado en cifra par.
p = proporción observada de respuestas afirmativas.

Entonces: π + λ = 2p, que provee una estimación de π ya que

π̂ = 2p − λ

1.3. Del determinismo al orden en el desorden

Ahora haré referencia a problemas más fundamentales que están siendo resueltos
mediante el concepto de azar. Narran la construcción de modelos para el universo y
sirven de marco a las leyes naturales.
Durante mucho tiempo se creyó que todos los sucesos naturales tenı́an un
inequı́voco carácter determinista, la formulación más extrema se encuentra en Laplace
(1812), con la idea de un ‘demonio matemático’, un espı́ritu dotado de una ilimitada


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 43

capacidad para la deducción matemática, quien era capaz de predecir todos los
futuros sucesos en el mundo si en un determinado momento conocı́a todas las
magnitudes que caracterizaban su estado actual. El determinismo, al cual ya he hecho
referencia, está profundamente arraigado en la historia y prehistoria del pensamiento
humano. Como concepto tiene dos significados. Hablando en términos generales, es
una creencia incondicional en los poderes y omnipotencia de la lógica formal como
un instrumento para el conocimiento y descripción del mundo externo. En un sentido
más estricto, es la creencia de que todos los fenómenos y sucesos del mundo obedecen
a leyes causales. Además, ello implica la confianza en la posibilidad de descubrir, al
menos en principio, aquellas leyes que permiten deducir el conocimiento del mundo.
Sin embargo, se comprendió a mediados del siglo pasado que la búsqueda de leyes
naturales deterministas está llena de dificultades lógicas y prácticas, por lo que se
empezó la búsqueda de modelos alternativos basados en mecanismos aleatorios.
Hay otro aspecto del demonio matemático de Laplace que concierne al
conocimiento de las condiciones iniciales de un sistema. Es bien sabido que a causa
de los errores de medida, es difı́cil conocer las condiciones iniciales con precisión
(es decir, sin error). En tal caso, hay una posibilidad de que ligeras diferencias en
las condiciones iniciales den lugar a predicciones ampliamente diferentes para el
futuro estado del sistema. Un ejemplo tı́pico fue propuesto por Lorenz en 1961 con
el registro gráfico de patrones de tiempo atmosférico a lo largo del tiempo partiendo
de un punto cercano al punto inicial. La Figura 3 reproducida más adelante, del libro
Caos de James Gleick, muestra cómo bajo la misma ley los patrones del tiempo
atmosférico, comenzando desde las condiciones iniciales con una diferencia en una
de sus medidas .506217 en lugar de .506, aumenta más y más la separación hasta
que cualquier semejanza desaparece. Este fenómeno de extrema dependencia en las
condiciones iniciales es descrito como el efecto mariposa —‘la noción de que una
mariposa que agite el aire hoy en Pekı́n puede producir una tormenta el mes próximo
en Washington.’
Tres grandes desarrollos tuvieron lugar aproximadamente al mismo tiempo en
tres diferentes campos del conocimiento. Están todos basados en la premisa que el
azar es inherente en la naturaleza. Adolph Quételet (1869) utilizó los conceptos de
probabilidad al describir los fenómenos sociales y biológicos. Gregor Mendel (1870)
formuló sus leyes de la herencia mediante simples mecanismos aleatorios como
lanzar un dado. Boltzman (1866) dio una interpretación estadı́stica a una de las más
fundamentales proposiciones de la fı́sica teórica, la segunda ley de la Termodinámica.
Las ideas propuestas por estos valientes fueron revolucionarias en su naturaleza. Si
bien no fueron aceptadas inmediatamente, se consiguieron rápidos avances en todas
estas áreas durante el siglo XX, utilizando conceptos estadı́sticos.


c Publicacions de la Universitat de Barcelona
44 ESTADÍSTICA Y VERDAD

Figura 3: El Efecto Mariposa

Gráfico debido a Edward Lorenz mostrando c ómo dos patrones de tiempo


atmosférico divergen desde un punto próximo al punto inicial.

La introducción de ideas estadı́sticas en fı́sica comenzó con la necesidad de acabar


con los errores de medidas astronómicas. El hecho de que repetidas medidas bajo
idénticas condiciones variaban era conocido por Galileo4 (1565-1642); él remarcaba:

“ Medir, medir, medir. Medir una y otra vez


para encontrar la diferencia y la diferencia de la diferencia”.

Alrededor de 200 años después, Gauss (1777-1855) estudió la ley de probabilidad de


los errores de medida y propuso un camino óptimo combinando las observaciones para
estimar magnitudes desconocidas.
En una etapa posterior, las ideas estadı́sticas fueron usadas para corregir la
incertidumbre en la medida de las condiciones iniciales y el efecto de numerosos
factores externos incontrolables, pero se asumı́a que las leyes básicas de la fı́sica eran
deterministas.
Un cambio fundamental tuvo lugar cuando las leyes básicas fueron expresadas
por sı́ mismas en términos probabilı́sticos, especialmente al micronivel del
comportamiento de las partı́culas fundamentales. El comportamiento aleatorio es
considerado como una “parte inherente e indispensable del funcionamiento normal

04. Galileo Galilei, conocido por su nombre de pila, era un astrónomo italiano, matemático y fı́sico, que ha sido
reconocido como el fundador de la moderna fı́sica experimental. Su nombre está asociado con el descubrimiento de las
leyes del péndulo, los cráteres en la Luna, los cuatro satélites brillantes de Júpiter, el telescopio, etc. Tales descubrimientos
convencieron a Galileo de que la “Teorı́a Copernicana” de Nicolás Copérnico, de que la Tierra gira sobre su eje y da vueltas
alrededor del Sol, era cierta. Pero esto contradecı́a las enseñanzas de la Iglesia y Galileo fue obligado por la Inquisición
a retractarse de sus opiniones. Es interesante remarcar que hace unos años, el Papa Juan Pablo II exculpó a Galileo de los
antiguos cargos formulados por la Iglesia, sobre la base de un informe remitido por una comisión nombrada por él.


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 45

de muchos objetos, y de sus propiedades”. Se construyeron modelos estadı́sticos para


explicar el comportamiento de determinados sistemas. Ejemplos de tales descripciones
son el movimiento browniano, los destellos causados por la radioactividad, el principio
de incertidumbre de Heisenberg, la distribución de velocidades de Maxwell de
moléculas de igual masa, etc., todo lo cual preparó el camino para la mecánica cuántica
de nuestros dı́as. El cambio en nuestra forma de pensar es sucintamente expresado por
Max Born, el famosos fı́sico,

“Hemos visto cómo los fı́sicos clásicos se esfuerzan en vano para reconciliar la
creciente evidencia experimental con las ideas preconcebidas sobre causalidad,
derivadas de experiencias de cada dı́a pero elevadas al nivel de postulados
metafı́sicos, y cómo ellos lucharon en una batalla perdida contra la intrusi ón
del azar. Hoy, el orden ha sido invertido: el azar se ha convertido en la primera
noción, la mecánica una expresión de sus leyes cuantitativas, y la evidencia
aplastante de la causalidad con todos sus atributos en el reino de la experiencia
ordinaria, es satisfactoriamente explicado por la ley estadı́stica de los grandes
números”

Otro famoso fı́sico, A. S. Eddington, da un paso más,

“Se ha reconocido en tiempos recientes, que algunos de los mayores triunfos


de la predicción fı́sica han sido suministrados por leyes estadı́sticas que no se
fundamentaron en la causalidad. Por otra parte, las grandes leyes hasta ahora
aceptadas como causales, en exámenes más minuciosos parecen ser de carácter
estadı́stico”.

El concepto de leyes estadı́sticas que reemplazan las deterministas no encontraron el


favor de muchos cientı́ficos incluyendo el mayor sabio de nuestro siglo, Einstein, quien
incluso al final de su vida mantenı́a:

“Sin embargo, yo estoy bastante convencido de que, con el tiempo, alguien


aparecerá con una teorı́a, cuyos objetos, relacionados por leyes, no serán las
probabilidades, sino los hechos considerados, como fue dado por seguro hasta
ahora. No puedo, sin embargo, basar esta convicción en razones lógicas, sólo
puedo poner mi dedo meñique como testigo, esto es, no aseguro nada que pueda
ser tenido en consideración fuera de mi propia mano”.

Es, sin embargo, sorprendente que Einstein aceptara el comportamiento aleatorio


de las moléculas sugerido por S. N. Bose, que originó la teorı́a de Bose-Einstein.


c Publicacions de la Universitat de Barcelona
46 ESTADÍSTICA Y VERDAD

Aunque hay incertidumbre a nivel individual (tal como en el comportamiento


de átomos y moléculas), observamos cierta estabilidad en el comportamiento medio
de una masa de individuos; allı́ es donde parece haber “orden en el desorden”. Hay
una proposición en la teorı́a de la probabilidad, llamada ley de los grandes n úmeros,
que explica tal fenómeno. Afirma que la incertidumbre en el comportamiento medio
de individuos en un sistema disminuye y disminuye a medida que el número de
individuos aumenta y aumenta, ası́ que el sistema como un todo se mainifiesta como
un fenómeno casi determinista. El popular adagio, “Hay seguridad en los números”,
tiene, verdaderamente, una fuerte base teórica.

1.4. Azar y Creatividad

Hemos visto cómo el azar es inherente a la naturaleza exigiendo leyes


naturales que sean expresadas en términos probabilı́sticos. Examinamos cómo el
concepto de azar es utilizado observando un pequeño subconjunto de la población
y extrayendo información sobre la totalidad de la misma, como en encuestas y
diseño de experimentos. También hemos visto cómo el azar es introducido en la
resolución de complejos problemas como el del vendedor viajante y otros, donde
existen procedimientos deterministas pero resultan demasiado complicados. También
hemos considerado el uso de números aleatorios para mantener el secreto de las
comunicaciones durante su transmisión. ¿Juega el azar un papel en el desarrollo de
nuevas ideas? o ¿puede ser explicada la creatividad mediante procesos aleatorios?
¿Qué es la creatividad? Podrı́a ser de diferentes tipos. A su más alto nivel,
es el nacimiento de una nueva idea o teorı́a que es cualitativamente diferente y
no formada o deducida de cualquier paradigma ya existente, y que explica un
conjunto de fenómenos naturales mayor que cualquier teorı́a existente. Otro tipo de
creatividad a un nivel diferente, es el de un descubrimiento hecho dentro del marco
de un paradigma existente pero de considerables consecuencias para una disciplina
particular. Ambos son, verdaderamente, fuentes de nuevo conocimiento. Sin embargo,
hay una sutil diferencia; el primer caso se trata de creación a priori, con confirmación
posterior mediante hechos observados, mientras que el segundo caso se trata de una
extensión lógica de conocimientos ya establecidos. Podemos tener alguna idea de los
mecanismos que hay tras los procesos creativos del segundo tipo. Sin embargo los
involucrados en el primer tipo están fuera de nuestra comprensión. ¿Cómo realizaron
sus descubrimientos Ramanujan y Einstein? Quizás nunca conoceremos el proceso real
efectuado, pero podemos caracterizarlo de distintas maneras.
Ningún descubrimiento de relieve se ha efectuado a través de la deducción lógica,


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 47

o por consolidación de la evidencia experimental. Resulta entonces claro que una


condición necesaria para la creatividad es permitir que la mente vague sin las trabas de
las rigideces de modelos aceptados o papeles convencionales. Quizás, el pensamiento
que precede a un descubrimiento es de tipo borroso, una exitosa interacción de
búsqueda aleatoria de nuevas estructuras que encajen con experiencias pasadas y
razonamientos subconscientes para reducir el rango de posibilidades. Describiendo el
acto de la creación, Arthur Koestler dice:

“ En la decisiva etapa del descubrimiento, los c ódigos de razonamiento


disciplinado son suspendidos como lo son durante el sue ño, al soñar, aparecen
extraños y elevados pensamientos, cuando el torrente de ideas es libre para ir a
la deriva, según su propia dinámica emocional, sin una ley aparente”.

Cuando por primera vez presentamos un descubrimiento, puede parecer a los demás
como carente de armonı́a o razón y profundamente subjetivo. Tales eran realmente las
reacciones ante los descubrimientos de Ramanujan y Einstein. Se necesitaron varios
años de experimentación y verificación para admitir la teorı́a de Einstein como un
nuevo paradigma, y quizás medio siglo para reconocer que el curioso estilo que
presentaban las fórmulas de Ramanujan tenı́a una base teórica de gran profundidad
y significado.
Comentando el pensamiento aleatorio, y el papel del azar en la creatividad,
Hofstadter dice,

“Se suele tener la noción de que el azar es un ingrediente indispensable de la


creación artı́stica. ... El azar es una caracterı́stica intrı́nseca del pensamiento
humano, no algo que haya de ser generado artificialmente, ya sea mediante
dados, desintegraciones nucleares, tablas de n úmeros aleatorios, o qué sé yo!
Es un insulto a la creatividad humana confiarlo a fuentes arbitrarias”.

Quizás, el pensamiento aleatorio es un ingrediente importante de la creatividad.


Pero si éste fuera el único ingrediente, se generarı́an con tan gran rapidez “telarañas” de
proposiciones descabelladas que la “escoba” lógica no tendrı́a tiempo de “barrerlas”.
Son necesarios otros elementos, tales como la preparación de la mente, la habilidad
para identificar problemas importantes y con significado, la rápida percepción de
qué ideas pueden conducir a resultados fructı́feros y, por encima de todo, una cierta
seguridad para abordar problemas difı́ciles. El último aspecto es lo que está faltando
en la mayor parte de la investigación cientı́fica, como recalcó Einstein:

“Tengo poca paciencia con los cientı́ficos que cogen un tablero de madera,


c Publicacions de la Universitat de Barcelona
48 ESTADÍSTICA Y VERDAD

buscan la parte más delgada y taladran un gran n úmero de agujeros allı́ donde
es mas fácil”.

He mencionado a Einstein y Ramanujan como dos grandes pensadores creativos


del presente siglo. Quizás serı́a interesante conocer un poco más acerca de sus procesos
de pensamiento creativo. Al preguntarle sobre su pensamiento creativo, Einstein
respondió:

“Las palabras o el lenguaje, tanto escrito como hablado, no parecen jugar


ningún papel en mis procesos mentales. Las entidades fı́sicas que parecen
servir como elementos de pensamiento son ciertos signos e im ágenes más o
menos claras que pueden ser “voluntariamente” reproducidas y combinadas.
... este juego combinatorio parece ser la caracterı́stica esencial del pensamiento
productivo —antes de que haya cualquier conexi ón con construcciones lógicas,
en palabras u otros tipos de signos que puedan ser comunicados a los dem ás”.

Einstein trabajó en el campo de la fı́sica, una importante rama de la ciencia. Una teorı́a
cientı́fica es válida sólo cuando es establecida su aplicabilidad al mundo real. Pero una
vez formulada, es sostenida por una fuerte fe, más que por razonamientos deductivos
o inductivos. Esto se refleja en la frase de Einstein referente a la naturaleza de Dios:

Dios es sutil, pero no malicioso.

Ramanujan trabajó en el campo de las matemáticas, que, según el famoso


matemático Wiener, es una “bella arte”, en el sentido estricto de la palabra. La validez
de un teorema matemático la constituye su rigurosa demostración. La matemática
consiste más en la demostración que en el teorema —como a los matemáticos nos
gustarı́a creer. De Ramanujan hay sólo teoremas o fórmulas, y su validez es dictada
por su intuición o su fe. Él registraba sus fórmulas como trabajos artı́sticos de acuerdo
con patrones de suprema belleza —decı́a que eran dictados por Dios en sus sueños.
Dios, belleza y verdad son percibidos como la misma cosa. No habrı́amos tenido a
Ramanujan si él no hubiera creı́do en esto.
El profesor G. Andrews, quien sacó a la luz el Libro Extraviado de Ramanujan,
me comentó que la igualdad en la primera de las tres lı́neas de la fórmula (conocida
como una falsa conjetura de la función theta) ha sido recientemente demostrada por D.
R. Hickerson de la Penn State University.
Dejo estas reflexiones para vosotros, ya que pueden ser relevantes en el contexto
del debate actual sobre la calidad de la educación e investigación cientı́fica en la
India. Probablemente, en nuestra enseñanza en las universidades damos demasiada


c Publicacions de la Universitat de Barcelona
INCERTIDUMBRE, AZAR Y CREATIVIDAD 49

importancia a la existencia de conocimientos y paradigmas y no animamos a los


estudiantes a ignorar el principio de autoridad en ciencia, a romper con la tradición y a
penetrar en nuevas sendas. Necesitamos un sistema educativo que produzca estudiantes
capaces de una actividad creativa del más alto nivel. Necesitamos tener un Ramanujan
de vez en cuando. Una idea brillante, puede salvar un dı́a al paı́s de la extinción
cientı́fica.

Algunas conjeturas (fórmulas) del Libro Extraviado de Ramanujan

Referencias

BOLTZMAN, L. (1910). Vorlusungen Uber Gastheorie, 2 Vols, Leipzig.

GLEICK, J. (1981). Chaos, Viking, New York, p. 17.

HULL, T. E. y DOBELL, A. R. (1962). “Random number generators”. SIAM Rev., 4, 230.

KAMMARER, P. (1919). “Das Gasetz der Serie, eine Lehre von den Wiederholungen im
Labensund im Welteshehen”. Stuttgart y Berlin.

LAPLACE, P. S. (1814). “Essai philosophique de probabilités”. Reimpreso en su Th éorie


analytique des probabilités (3.a ed. 1820).

MAHALANOBIS, P. C. (1954). “The foundations of statistics”. Dialectica, 8, 95-111.

MANDELBROT, B. B. (1982). The Fractal Geometry of Nature. W. H. Freeman y Co.,


San Francisco.

MARBE, K. (1916). Die Gleichförmigkeit in der Welt, Utersuechungen zur Philosophie


und positiven Wissenschaft. Munich.


c Publicacions de la Universitat de Barcelona
50 ESTADÍSTICA Y VERDAD

MENDEL, G. (1870). Experiments on Plant Hybridization (Traducción Inglesa).


Harvard University Press. Cambridge, 1946.

NARLIKAR, J. V. (1982). “Statistical techniques in astronomy”. Sankhyã, 42, 125-134.

QUÉTELET, A. (1869). Physique sociale ou essai sur le d éveloppment des facultés de


l’homme. Bruselas, Parı́s, St. Petersburg.

STERZINGER, O. (1911). Zur Logik und Naturphilosophie der Wahrscheinlichkeitslehre.


Leipzig.

TIPPETT, L. H. C. (1927). Random Sampling Numbers. Tracts for computers. N. o 15.


Ed. E. S. Pearson, Camb. Univ. Press.


c Publicacions de la Universitat de Barcelona
APÉNDICE: DISCUSIÓN

A.1. Azar y Caos

Durante el debate tras la conferencia, se planteó una pregunta sobre el caos, un


término usado para describir los fenómenos “aparentemente aleatorios”, y su relación
con el estudio del azar y la incertidumbre.
La palabra azar es usada para describir fenómenos aleatorios como la extracción
de números en la loterı́a. Una secuencia de números ası́ producida exhibe alguna
regularidad, a la larga, que puede ser explicada por el cálculo de probabilidades. Por
otra parte, se observa que números producidos por un proceso determinista pueden
exhibir, localmente, un comportamiento aparentemente aleatorio mientras que poseen
una regularidad global. Durante los últimos 20 años, los cientı́ficos han comenzado
a estudiar este último tipo de fenómenos bajo el nombre de caos. Se formula una
nueva metodologı́a para la modelación de complejas figuras y formas, tales como la
formación de las nubes, turbulencia, lı́nea costera de un paı́s, e incluso para explicar
las variaciones de precios en el mercado mediante el uso de simples ecuaciones
matemáticas. Esta vı́a de pensamiento es algo diferente al recurso de un mecanismo
fortuito para describir los resultados de un sistema. El azar versa sobre el orden en
el desorden mientras el caos versa sobre el desorden en el orden. Ambos pueden ser
relevantes para formular modelos de fenómenos observables.
El estudio del caos está adquiriendo importancia con el descubrimiento de Edward
Lorenz de lo que se denomina el “Efecto Mariposa”, o la inestabilidad de un sistema
frente a pequeñas perturbaciones en las condiciones iniciales. Observó que en la
previsión del clima, pequeños errores iniciales en las mediciones usadas como datos
de entrada en las fórmulas de predicción, pueden dar lugar a errores extremadamente
grandes en los valores predichos. Benoit Mandelbrot inventó la Geometrı́a Fractal
para describir una familia de figuras que exhibı́an el mismo tipo de variación a
diferentes escalas. Su Geometrı́a Fractal podı́a explicar figuras que son “dentadas, en
forma de laberinto, astilladas, retorcidas y fracturadas” como las que encontramos en
la naturaleza, tales como la formación de copos de nieve y la lı́nea costera de un
paı́s. Mitchell J. Feigenbaum desarrolló el concepto de atractor singular, basado en
funciones iteradas,
52 ESTADÍSTICA Y VERDAD

 
x, f (x), f f (x) , . . .

que proporcionan un modelo preciso para varios fenómenos fı́sicos tales como las
turbulencias en los fluidos.
El caos del que los cientı́ficos están hablando es matemático en esencia y su
estudio se hace atractivo y posible gracias al uso de los computadores. Se trata de
un pasatiempo que ha resultado ser agradecido, al abrir nuevas vı́as de modelado de
fenómenos observados en la naturaleza mediante modelos determinı́sticos.
Un ejemplo interesante del famoso matemático Mark Kac (ver su autobiografı́a
Enigmas de la Suerte, pp. 74-76) muestra cómo el grafo de una función determinista
podrı́a simular el trazo de un mecanismo aleatorio. Para contrastar la teorı́a de
Smoluchowski sobre el movimiento browniano de un pequeño espejo suspendido
de una fibra de cuarzo en un vaso que contiene aire, Kappler dirigió un ingenioso
experimento en 1931 para obtener trazados fotográficos del movimiento del espejo.
Uno de estos trazados de 30 segundos de duración se reproduce en la figura siguiente.

0 10 20 30
TIEMPO (seg.)

Kac observa que, mirando la gráfica, “es difı́cil escapar al sentimiento de que se
está ante la presencia de auténtico azar y de que el registro gráfico sólo puede
haber sido producido por un mecanismo aleatorio”. El experimento de Kappler parece
confirmar la teorı́a de Smoluchowski, de que el espejo es golpeado al azar por las
moléculas del aire determinando que la gráfica del desplazamiento del espejo siga un
proceso estacionario Gaussiano.
Kac muestra que podemos producir una gráfica indistinguible, a través de
cualquier análisis estadı́stico, del grafo de Kappler, representando la función,

cos λ1t + cos λ2t + · · · + cos λnt


α √
n

para un n suficientemente grande, escogiendo una sucesión de números λ 1 , . . . , λn y un


factor de escala α adecuados. Kac se pregunta: Ası́, ¿qué es el azar?


c Publicacions de la Universitat de Barcelona
APÉNDICE: DISCUSIÓN 53

A.2. Creatividad

El Dr. J. K. Ghosh, director del Instituto Indio de Estadı́stica, me envió los


siguientes comentarios escritos.
Hay siempre algo misterioso y sorprendente en la creatividad, y, en el trabajo de
Ramanujan, hay más creatividad que en el de cualquier otro que podemos recordar
del siglo veinte. Reflexionando sobre la naturaleza del elemento misterioso en un
acto creador, esto es, en el nacimiento de nuevas ideas o nuevos descubrimientos,
el Profesor Rao especula si el azar no es una importante parte de la creatividad.
De hecho adelanta un nuevo y provisional paradigma para entender la creatividad.
Permı́tanme citarle. “Es entonces claro que una condición necesaria para la creatividad
es permitir que la mente vague sin las trabas de las rigideces de modelos aceptados o
papeles convencionales. Quizás, el pensamiento que precede a un descubrimiento es de
tipo borroso, una exitosa interacción de búsqueda aleatoria de nuevas estructuras que
encajen con experiencias pasadas y razonamientos subconscientes para reducir el rango
de posibilidades”. Quizás incluso dicha búsqueda al azar sea a nivel subconsciente.
Que hay trabajos creativos que son realizados a dicho nivel ha sido autentificado
muchas veces —una brillante relación fue recopilada por Hadamard [Hadamard, J.
(1954): “Essay on the psychology of invention”. En Mathematical Field, Princeton,
Dover.] Pero la relación con el azar y la incertidumbre, los conceptos que cuantificamos
mediante enunciados probabilı́sticos, es una brillante hipótesis adicional. En la forma
de una vaga referencia a la suerte esto aparece en Hadamard, pero sin recibir mucha
atención. Probablemente es la tesis central a la que el Profesor Rao nos conduce, a
través de la vertiginosa percepción de los poderes casi mágicos de Ramanujan y una
magistral visión panorámica del azar y la incertidumbre. Los siguientes comentarios
están ligados a esta tesis.
Creo que hay también algún elemento de creatividad, incluyendo su cualidad
mágica, cuando se efectúa inferencia inductiva o incluso cuando se realiza el
aprendizaje de un proceso no trivial. Esto parece tener dos consecuencias. La primera
es que el misterio relativo a la creatividad se debe al menos en parte a la ausencia
de fundamentos filosóficos correctos sobre la inducción, a pesar de muchos intentos,
especialmente de la escuela Vienesa. Tales intentos han sido descritos frı́volamente
como intentos de sacar un gran gato de una bolsa muy pequeña. En segundo lugar,
el misterio de la creatividad está también relacionado con la ausencia de un modelo
satisfactorio de aprendizaje en inteligencia artificial. Un tercer hecho, que parece
ser relevante en este contexto, es digno de observar. Por lo que conozco, los únicos
modelos de aprendizaje, al menos de aprendizaje adaptativo, son estocásticos. De este
hecho parece deducirse que la hipótesis del Profesor Rao es una brillante, pero lógica,


c Publicacions de la Universitat de Barcelona
54 ESTADÍSTICA Y VERDAD

culminación de tal modelación. Si se tratara de construir un computador que hiciera


trabajo creativo, por ejemplo, creatividad simulada, éste parecerı́a ser el único camino
de hacerlo en la actualidad. Me pregunto si la música generada por computador es de
este tipo.
¿Cuán satisfactorios, iluminativos o aceptables pueden ser tales modelos? En
conexión con esto me gustarı́a referirme al paradigma de Hilbert sobre la matemática.
Hoy en dı́a comprendemos mejor la esencia de la matemática al familiarizarnos con
el formalismo finito de Hilbert y con el teorema de imposibilidad de Gödel. (Hay
excepciones optimistas, por ejemplo, Nelson (Sankhyã, A, 1985).) La creatividad,
como la inducción, es demasiado compleja para generar incluso un teorema de
imposibilidad. Tiene sentido hablar de imposibilidad, sólo cuando nos referimos a
un algoritmo definido con precisión. Sin embargo, podemos probablemente encontrar
ejemplos que, en algún sentido, no encajan con nuestra intuición de un determinado
modelo. Entonces dicho modelo, junto con los “contraejemplos”, nos pueden ayudar
a comprender mejor la naturaleza de lo que está siendo estudiado. Creo que tales
contraejemplos, referentes a la hipótesis del Profesor Rao, existen, pero, como
justificación, examinemos sólo una frase de Einstein, que el Profesor Rao cita:

“No puedo, sin embargo, basar esta convicci ón en razones lógicas, sólo puedo
poner mi dedo meñique como testigo”.

El Dr. Ghosh concluye su comentario diciendo: No sé si mis opiniones son una
especie de Popperismo en el campo de la creatividad. No conozco las opiniones de
Popper sobre la ciencia lo suficientemente bien en relación a esto.
Doy las gracias al Dr. Ghosh por suscitar cuestiones fundamentales en el muy
debatido concepto de la creatividad.
Limito mi réplica a la creatividad cientı́fica que es quizás diferente a la que se da
en música, literatura y arte (ver Chandrasekhar 1975).5 En ciencia, la mayor parte del
trabajo de investigación consiste en operaciones comparables a abrillantar, tapar un
agujero o arreglar una gotera. Sólo un pequeño porcentaje de investigación se puede
considerar claramente creativo, pudiendo presentarse a dos niveles de sofisticación:
que se efectúe dentro del marco de un paradigma ya existente o bien que, a un
nivel superior, implique un paradigma nuevo. El mecanismo de ambos tipos de
procesos creativos tal vez no se conozca completamente, pero algunos aspectos del
mismo son generalmente aceptados: pensamiento subconsciente cuando la mente no
está restringida por los procesos lógico-deductivos, una idea afortunada, transformando

05. Shakespeare, Newton and Beethoven on Patterns of Creativity. The Nora and Edwary Rayerson Lecture. The
University of Chicago.


c Publicacions de la Universitat de Barcelona
APÉNDICE: DISCUSIÓN 55

la experiencia obtenida en un área a otra área diferente, pero análoga, e incluso


sentimientos estéticos sobre la belleza y los modelos teóricos. A continuación siguen
unas citas acerca de la creatividad.

pour inventer il faut penser à côté.


(para inventar hay que pensar aparte).
Souriau

A veces se encuentra lo que no se está buscando.


A. Fleming

Yo no busco, encuentro.
Picasso

Mi trabajo siempre trataba de conciliar la verdad con la belleza; pero cuando tenı́a
que escoger entre una u otra, generalmente escogı́a la belleza.
H. Weyl

Tengo mis resultados desde hace tiempo, pero a ún no conozco la forma de llegar a
ellos.
Johann Gauss

Hypotheses non fingo (No fraguo hipótesis)


Isaac Newton

He dicho que la ciencia es imposible sin fe. . . . La l ógica inductiva, la lógica de


Bacon, se parece bastante a algo sobre lo que podemos actuar m ás que en algo
en que podamos creer, y actuar conforme a ella es una afirmaci ón suprema de
fe. . . . La ciencia es una forma de vida que sólo puede florecer si los hombres
son libres para tener fe.

Norbert Wiener


c Publicacions de la Universitat de Barcelona
56 ESTADÍSTICA Y VERDAD

Hay un cierto misticismo en la iniciación a la ciencia creativa, reflejado en las


citas anteriores. Algunos filósofos han reflexionado sobre el tema de la creatividad sin
arrojar mucha luz sobre el mismo.
En relación con la opinión de Popper, referida por el Dr. Ghosh, puedo decir lo
siguiente. La afirmación de Popper de que las hipótesis cientı́ficas no son más que
conjeturas, sólo puede ser interpretada en el sentido de que no hay ningún algoritmo
explı́cito para la formulación de hipótesis a partir de fenómenos observables. La
afirmación de Popper de que no es posible comprobar la veracidad de una hipótesis
sino solamente su falsedad, puede tener un significado filosófico profundo, pero no es
válida en su sentido estricto, mientras las leyes cientı́ficas sean aplicadas con éxito en
la práctica. Popper no concede ninguna importancia a cómo se formulan las hipótesis.
Puede ser debido a que no hay ninguna respuesta lógica a tal pregunta, aunque ésta
haya sido efectuada.
Creo que las leyes de verdadero impacto cientı́fico no pueden ser construidas
a partir del conocimiento ya existente y/o mediante inducción solamente. Requieren
un chispazo creativo, un “imaginar cosas que no existen y preguntarse el porqué”
(en palabras de George Bernard Shaw). Sugiero que el pensamiento “al azar” es
un ingrediente de la creatividad. En aquella etapa en la que el cerebro humano
está sometido a intensa actividad, tratando de resolver un problema, “cuando todas
las células cerebrales están esforzándose al máximo”, fluctuaciones aleatorias que
nos alejan del pensamiento convencional pueden ser necesarias para descubrir una
solución posible al problema. Ello no significa que la búsqueda de una solución se
efectúe mediante un proceso aleatorio de tanteo y error, a partir de un conjunto finito
de alternativas posibles. En un proceso creativo las alternativas no son conocidas de
antemano. Pueden no ser finitas. Me estoy refiriendo a los pasos finales de un proceso
de investigación donde las elecciones óptimas son hechas secuencialmente, basándose
en el conocimiento obtenido por elecciones previas y las posibilidades se estrechan
hasta que aparece lo que se cree que es una elección razonable. Es un proceso, tal vez
estocástico, de eliminación gradual de la oscuridad, no un proceso de decisión sobre
qué ventanas deberı́an ser abiertas, de un posible conjunto, para obtener la máxima
iluminación.
¿En qué medida la creatividad puede ser mecanizada? En el contexto de los
descubrimientos cientı́ficos, algunos estudios experimentales han sido realizados para
demostrar que un descubrimiento cientı́fico, independientemente de lo revolucionario
que sea, se ajusta al proceso usual de resolución de problemas y no implica elementos
mı́ticos asociados con él, tal como “chispazos creativos”, “destellos geniales” y
“perspicacia repentina”. En la medida en que pensemos que la creatividad es el
resultado de procesar información, se tratará de una actividad programable.


c Publicacions de la Universitat de Barcelona
APÉNDICE: DISCUSIÓN 57

En un libro reciente Los descubrimientos cientı́ficos (Exploración Algorı́tmica


de los Procesos Creativos),6 los autores, Pat Langley, Herbert A. Simon, Gary L.
Bradshaw y Jan M. Zytkow, analizan la taxonomı́a de los descubrimientos y la
posibilidad de escribir programas de ordenador, para procesar la información,
orientados a la “búsqueda de problemas”, “identificación de datos relevantes” y
“búsqueda selectiva heurı́stica”, los principales ingredientes de la creatividad. Ellos
han dado ejemplos para mostrar que varios de los principales descubrimientos hechos
en el pasado podrı́an haber sido conseguidos, quizás más eficientemente, a través de
programas de ordenador, usando sólo la información y el conocimiento disponible en
la época de estos descubrimientos. Los autores esperan que la teorı́a que ellos han
formulado sobre la resolución de problemas, permitirá diseñar programas de búsqueda
de soluciones, incluso aunque impliquen bruscos cambios paradigmáticos, iniciando
nuevas lı́neas de investigación.
Los autores concluyen diciendo:

“Nos gustarı́a imaginar que los grandes descubridores, los cientı́ficos cuyo
comportamiento estamos intentando comprender, estarı́an satisfechos con esta
interpretación de su actividad, como pensamiento humano normal (si bien de
gran calidad) ... La Ciencia tiene que ver con la forma de ser del mundo, no
como nos gustarı́a que fuera. Por tanto debemos continuar realizando nuevos
experimentos, guiados por las nuevas evidencias, en una b úsqueda heurı́stica
que nunca acaba pero que es siempre fascinante”.

Un sentimiento semejante acerca de la naturaleza de la ciencia es expresado por


Einstein:

La lógica puramente no puede llevarnos al conocimiento del mundo empı́rico.


Todo conocimiento de la realidad parte de la experiencia y acaba en ella. Por
tanto las proposiciones concluidas partiendo exclusivamente de la l ógica, están
completamente vacı́as de realidad.

Pero el papel de la mente en el proceso creativo es destacado por Roger Penrose

El hecho cierto de que la mente nos conduce a verdades


que no son calculables me convence de que
un ordenador nunca podr á suplir a la mente.

06. M I T Press, Cambridge.


c Publicacions de la Universitat de Barcelona
58 ESTADÍSTICA Y VERDAD

La Nueva Mente del Emperador

A.3. Azar y Necesidad

Durante la discusión, se efectuaron preguntas acerca de la causa y el efecto de


los fenómenos aleatorios, las cuales podrı́an ser resumidas como sigue: “Usted ha
remarcado la incertidumbre de los fenómenos naturales. Si los fenómenos ocurren al
azar, ¿cómo podemos entender, explorar y explicar la naturaleza?”
Me alegra que se haya formulado esta pregunta. La vida serı́a intolerable si los
fenómenos ocurrieran al azar de una forma completamente impredecible y carecerı́a
de interés si, en el otro extremo, todo fuera determinista y completamente previsible.
Cada fenómeno es una curiosa mezcla de ambos, lo cual consigue que “la vida sea
complicada pero no carente de interés” (como J. Neyman solı́a decir).
Hay dificultades lógicas y prácticas al tratar de explicar los fenómenos observables
y precedir los sucesos futuros a través del principio de causa y efecto.
Dificultades lógicas, ya que podemos acabar en una compleja cadena de causas-
efectos. Si A2 causa A1 , podemos preguntarnos qué causa A2 . Digamos A3 ; entonces
qué causa A3 y ası́ sucesivamente. Podemos tener una cadena sin fin y en alguna etapa
la búsqueda de una causa puede resultar ser difı́cil o incluso lógicamente imposible,
forzándonos a modelar los sucesos en alguna etapa a través de algún mecanismo
aleatorio.
Dificultades prácticas, ya que, exceptuando en casos muy triviales, hay infinitos
(o un número finito muy grande de) factores causantes de un fenómeno. Por ejemplo,
si deseamos conocer si saldrá cara o cruz al tirar un moneda deberemos conocer varias
cosas. Primero, la magnitud de numerosos factores tales como la velocidad inicial (x 1 ),
medidas de la moneda (x2 ), estado nervioso del individuo que lanza la moneda (x 3 ), . . .,
que determina el resultado (y), cara o cruz, y entonces la relación
 
y = f x1 , x2 , x3 , . . .

puede ser establecida. La incertidumbre aparece si f no es conocida con exactitud, si


los valores de todos los factores x1 , x2 , . . . no pueden ser determinados o si hay errores
en las medidas. Podemos tener información sólo de algunos de los factores, digamos
x1 , . . ., xn , forzándonos a modelar la variable dependiente y como
 
y = fa x1 , . . . , xn + 

donde fa es una aproximación a f y  es un error desconocido determinado por nuestra


c Publicacions de la Universitat de Barcelona
APÉNDICE: DISCUSIÓN 59

elección de fa , falta de conocimiento del resto de los factores y a los errores de las
medidas. Entonces modelar la incertidumbre del resultado eligiendo f a y el error  a
través de un mecanismo aleatorio resulta ser una necesidad.
¿Qué es el azar y cómo lo podemos modelar? ¿Cómo podemos combinar
los efectos de causas conocidas con los posibles efectos de causas desconocidas
en la explicación de fenómenos observables o la predicción de futuros sucesos?
¿Qué queremos decir con “explicar un fenómeno” y “predecir un resultado” cuando
hay incertidumbre? Realmente, hay dificultades lógicas en la respuesta a tales
preguntas. Si estamos considerando un modelo aleatorio, la pregunta de modelar
aleatoriamente en el propio modelado aleatorio, surgirı́a de forma natural. Debemos
dejar de lado estos temas filosóficos e interpretar la explicación de un fenómeno
como las hipótesis de trabajo a partir de las cuales podemos obtener deducciones con
márgenes de error permisibles.
El primer esfuerzo en esta dirección es el desarrollo de la teorı́a de errores, donde
la incertidumbre en las mediciones tiene que ser considerada en la interpretación de
los resultados (estimación de cantidades desconocidas y verificación de hipótesis). La
siguiente etapa es la caracterización de los fenómenos observables en términos de leyes
de azar gobernando los sistemas fı́sicos. Éste es probablemente el mayor avance en
el pensamiento humano y en la comprensión de la naturaleza. Un llamativo ejemplo
es el trabajo de Gregor Mendel, quien introdujo, por primera vez, hace 120 años, el
paradigma del indeterminismo en la historia de la ciencia. Estableció los principios de
la genética, los mecanismos hereditarios, observando datos sujetos a fluctuaciones al
azar. Las ideas de Mendel condujeron a la moderna teorı́a de la evolución, que es una
“mezcla de azar y necesidad—azar al nivel de la variación y necesidad al considerar la
selección”. Más tarde vino la revolución con la explicación de los fenómenos fı́sicos
a través del comportamiento aleatorio de las partı́culas fundamentales. El concepto de
azar ha realmente ayudado a desentrañar el misterio de lo que se ocultaba detrás de lo
que parecı́a ser fortuito.
Hemos progresado y aprendido a utilizar el azar en cualquier situación que se
presente en nuestra vida diaria, investigación cientı́fica, producción industrial o en la
toma de decisiones complejas. Hemos desarrollado métodos para extraer señales de
mensajes codificados por sucesos al azar (ruido) y a reducir los efectos aleatorios
a través de mecanismos de feedback y control (cibernética, servomecanismos).
Hemos diseñado métodos para la coexistencia pacı́fica con el azar, métodos que
nos permiten trabajar con efectividad a pesar de la presencia de los fenómenos
aleatorios (uso de códigos correctores de errores, repetición de experimentos para
asegurar la consistencia de los mismos, introducción de redundancia para posibilitar
la fácil identificación). Pero lo más asombroso de todo es que hemos aprendido a


c Publicacions de la Universitat de Barcelona
60 ESTADÍSTICA Y VERDAD

utilizar el azar para resolver problemas que de otra forma serı́an difı́ciles de resolver
(método de Monte Carlo, búsqueda aleatoria) y para obtener mejoras (selección en
programas de reproducción o crianza). Un elemento de azar es a veces introducido
deliberadamente por los ingenieros en el diseño de máquinas para mejorar su
rendimiento. Paradójicamente, introducimos artificialmente elementos de azar en la
recolección de datos (como en programas de muestreo y diseño de experimentos) para
obtener información válida e insesgada.
La aceptación hasta sus últimas consecuencias del Dios que juega a los dados
haciendo funcionar el universo todavı́a no se ha realizado. Tal como dice Rustum Roy
(en su libro Experimentando con la Verdad, p. 188):

La planificación de la sociedad a nivel local y nacional debe ser determinada


de forma diferente, para estar de acuerdo con la armoniosa gr áfica de la
distribución “normal”, bajo la que todos vivimos.

Y continúa diciendo que una profunda consecuencia polı́tica podrı́a ser la


abolición del proceso de las campañas electorales efectuadas por los candidatos
(promocionándose a sı́ mismos) y las votaciones populares, introduciendo una
selección a través de un proceso aleatorio (método loterı́a) a partir de un conjunto
de personas cualificadas.
Me gustarı́a recordar que Rastrigin, Director del único Laboratorio de
Investigación Aleatoria del mundo, situado en Rusia, mencionó en su popular libro
El Impredecible, Mundo Impredecible:

El estudio del remarcable mundo del azar est á sólo en sus comienzos. La ciencia
apenas ha rozado la superficie de este mundo de extra ños sucesos e ilimitado
potencial.
Pero la búsqueda de los inapreciables tesoros del azar ha empezado, y no hay
forma de saber qué riquezas podremos descubrir. Una cosa, sin embargo, es
segura: habremos empezado a pensar en el azar, no como un obst áculo irritante,
no como algo “no esencial asociado a los fen ómenos” (como se define en los
diccionarios filosóficos), sino como una fuente de ilimitadas posibilidades que
incluso ni la más rica imaginación puede intuir.

Si tuviéramos que hablar de algún principio racional presente en la naturaleza,


entonces éste sólo podrı́a ser el azar: es el azar que, actuando en colaboración con
la selección, constituye la “lógica” de la naturaleza. La evolución y el progreso son
imposibles sin azar.


c Publicacions de la Universitat de Barcelona
APÉNDICE: DISCUSIÓN 61

A.4. Ambigüedad

Además del azar y la aleatoriedad que acabamos de citar, hay otro obstáculo en la
interpretación de los datos observados. Hay una cierta ambig üedad en la identificación
de objetos (personas, lugares o cosas) como pertenecientes a distintas categorı́as. ¿Soy
un estadı́stico, un matemático o un administrativo? Puedo dar diferentes respuestas
en diferentes situaciones. A veces, puedo decir que soy una tercera parte de cada
uno. Naturalmente, es esencial definir las categorı́as con tanta precisión como sea
posible para evitar confusiones en la comunicación de nuestras ideas y en los
trabajos de investigación. Pero la ambigüedad en la introducción de conceptos y en
la construcción de definiciones no puede ser evitada. “Puesto que no hay unas reglas
divinas para establecer categorı́as, y mucho menos humanas, se trata de una dificultad
fundamental” (Kruskal, 1978). Creo que la necesidad de estudiar los “conjuntos
difusos” en matemáticas surgió para tratar la ambigüedad en la identificación de
objetos.
Sin embargo, es interesante notar que Edward Levi, en su clásico libro de 1949
sobre razonamiento legal, escribió ampliamente sobre el importante papel de la
ambigüedad en los tribunales de justicia. Kruskal (1978) proporcionó las siguientes
citas textuales del libro de Levi para intentar dar luz sobre este tema.

“Las categorı́as utilizadas en los procesos legales deben ser deliberadamente


ambiguas para permitir la incorporaci ón de nuevas ideas”. (p. 4)
“Es tan sólo una creencia popular decir que una ley bien escrita puede ser
completamente inambigua, y que se puede aplicar, seg ún la intención en que
se redactó, a un caso concreto. Afortunadamente, por otra parte, la ambig üedad
es inevitable tanto en las leyes y la constituci ón como también en cada proceso
jurı́dico”. (p. 6)
“[La ambigüedad al legislar] no es el resultado de una redacci ón
inadecuadamente realizada, como a veces se piensa. . . . Incluso en una
atmósfera libre de controversias lo que exactamente se haya decidido no
será totalmente claro. . . . [Es preciso] que haya ambig üedad antes de que pueda
llevarse a cabo cualquier acuerdo sobre casos conocidos”. (pp. 30-31)
“Este es el único sistema que puede funcionar mientras las personas no est én
completamente de acuerdo. . . . Las palabras cambian para tomar el sentido que
la comunidad les confiere”. (p. 104)

Por tanto, para el Dr. Levi, la ambigüedad no es un “monstruo”, sino algo beneficioso
y necesario para la coherencia de la sociedad.


c Publicacions de la Universitat de Barcelona
62 ESTADÍSTICA Y VERDAD

Parece que dos elementos esenciales que hacen la vida interesante son el azar y la
ambigüedad-impredecibilidad de los sucesos naturales y la falta de una interpretación
única de los vocablos que utilizamos para comunicarnos. En el pasado, ambos eran
considerados como obstáculos inevitables. Estamos aprendiendo ahora no sólo a
aceptarlos como inevitables, sino quizás, a considerarlos como esenciales para el
progreso de nuestra sociedad!


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCIÓN
DE LA ESTADÍSTICA

Los fundamentos de la estadı́stica están desarrollándose. No sólo en el sentido


de que han sido, y sin duda durante largo tiempo continuar án siendo,
cambiantes, sino también en el sentido de que ningún sistema conocido resulta
ser incontrovertible.

L. J. Savage

2.1. Antecedentes históricos: Datos y Estadı́stica

La Estadı́stica tiene unas raı́ces muy antiguas pero una corta historia. Su origen
podrı́a remontarse a los comienzos de la humanidad, pero sólo en tiempos recientes
ha emergido como una disciplina de gran importancia práctica. En la actualidad, es
un área muy activa, ampliamente utilizada a pesar de las controversias acerca de sus
fundamentos y métodos. Han habido modas en estadı́stica defendidas por diferentes
escuelas de estadı́sticos. La llegada de los ordenadores ha supuesto un considerable
impacto en el desarrollo de la metodologı́a estadı́stica bajo el tı́tulo más amplio de
análisis de datos. No está claro cual será el futuro de la estadı́stica. Efectuaré un breve
estudio del origen de la misma, comentaré los actuales desarrollos y especularé sobre
su futuro.

2.1.1. ¿Qué es la Estadı́stica?

¿Es la estadı́stica una disciplina autónoma como la fı́sica, quı́mica, biologı́a,


o matemáticas? Un fı́sico estudia fenómenos naturales como el calor, la luz, la
electricidad y las leyes del movimiento. Un quı́mico determina composiciones de
sustancias y las interacciones entre los compuestos quı́micos y un biólogo estudia
la vida vegetal y animal. Un matemático se dedica al propio juego de deducir
proposiciones a partir de ciertos postulados. Cada una de estas materias tiene sus
problemas genuinos y sus propios m étodos para resolverlos, lo que le confiere el
status de una disciplina independiente. ¿Es la estadı́stica una disciplina autónoma en
64 ESTADÍSTICA Y VERDAD

este sentido? ¿Existen problemas puramente estadı́sticos que los estadı́sticos tratan
de resolver? Si no, ¿es algún tipo de arte, lógica o tecnologı́a aplicada a resolver
problemas de otras disciplinas?
Hace unas pocas décadas el término “estadı́stica” ni era frecuentemente
utilizado ni bien comprendido. A menudo, la estadı́stica era vista con escepticismo.
No habı́a profesionales llamados estadı́sticos excepto unos pocos empleados en
departamentos gubernamentales para recoger y tabular datos utilizados para propósitos
administrativos. No habı́a en las universidades cursos que posibilitaran obtener tı́tulos
académicos en estadı́stica. Ahora la situación ha cambiado completamente.
Hay una gran demanda de expertos en estadı́stica en todos los campos del
saber humano. Un gran número de estadı́sticos están empleados en el gobierno,
industria y organizaciones de investigación. Las universidades empiezan a enseñar la
estadı́stica como una disciplina autónoma. Todos estos grandes progresos nos llevan a
las siguientes preguntas:

* ¿Cuál es el origen de la estadı́stica?


* ¿Es la estadı́stica una ciencia, tecnologı́a o arte?
* ¿Cuál es el futuro de la estadı́stica?

2.1.2. Antecedentes históricos

Las primeras estadı́sticas que nos constan son, quizás, muescas en árboles
efectuadas por hombres primitivos, incluso antes de que se desarrollara el arte de
contar, para tener un recuento de su ganado y otras posesiones. La necesidad de recoger
datos y registrar la información debió aparecer cuando los seres humanos abandonaron
su independiente existencia nómada y empezaron a vivir en comunidades organizadas.
Tenı́an que compartir sus recursos, utilizarlos adecuadamente y planificarlos para
futuras necesidades. Más tarde vino el establecimiento de monarquı́as. Hay evidencias
de que los monarcas de los antiguos reinos en todo el mundo tenı́an servidores
que recogı́an datos detallados sobre la gente y los recursos del estado. Uno de
los primeros emperadores chinos, Liu Pan, consideró la estadı́stica tan importante
que responsabilizó a su primer ministro de la misma, tradición que ha continuado
durante largo tiempo en China. Estaba interesado en conocer cuántos hombres capaces
podrı́an ser movilizados en tiempos de emergencia y cuántos serı́an necesarios para
las necesidades básicas de la vida civil; cuan numerosos o cuan ricos eran ciertas
minorı́as que podı́an ser afectadas por algunos cambios contemplados en las leyes de la
propiedad, o del matrimonio; cuál era la capacidad de una provincia a efectos fiscales,
la propia y la de sus vecinos.


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 65

Existe la evidencia de que en una época tan antigua como 2000 a.C., en la época
de la dinastı́a Hsia, fueron efectuados censos en China. Durante la dinastı́a Chow
(1111 a.C.-211 a.C.), un cargo administrativo titulado “Shih-Su” (tenedor de libros)
fue establecido para encargarse de trabajos estadı́sticos. En el libro Kuan Tzu, Capı́tulo
24 titulado Indagación, se establecen sesenta y cinco preguntas para llevar a buen fin
cada uno de los aspectos del gobierno de un estado. Por ejemplo, ¿cuántos granjeros
poseı́an tierra y casas? ¿Cuáles eran las existencias de comida que tenı́a una familia?
¿Cuántos viudas, viudos, huérfanos, incapacitados o enfermos habı́a?
El cuarto libro del Antiguo Testamento contiene referencias a antiguos censos
efectuados cerca de 1500 a.C., e instrucciones a Moisés para efectuar un censo de los
guerreros de Israel.
La palabra “censo” se deriva de la palabra latina censere, que significa gravar con
un impuesto. El censo romano fue establecido por el sexto rey de Roma, Servio Tulio
(578-534 a.C.). Bajo su reinado, oficiales romanos llamados censores efectuaron un
registro a intervalos regulares de cinco años de la gente y de sus propiedades con el
objeto de recoger impuestos y para determinar el número de guerreros útiles. Cinco
años antes de Cristo, César Augusto amplió el censo para incluir por entero al Imperio
Romano. El último censo romano ordinario fue efectuado en el año 74 d.C. No hay
constancia de ningún censo efectuado en cualquier parte de Occidente durante varios
siglos después de la caı́da del Imperio Romano. Censos periódicos y sistemáticos tal
como los conocemos hoy en dı́a, no empezaron hasta el siglo XVII.
Es interesante indicar que en la India fue desarrollado un sistema muy elaborado,
de lo que nosotros ahora llamarı́amos datos oficiales o estadı́stica oficial 300 a.C. En
el texto Artaśāstra de Kautilya, publicado entre los años 321-300 a.C. (ver subsección
5.2.3, cap. 5), hay una descripción detallada de cómo los datos deberı́an ser recogidos
y registrados. Gopa, el contable del pueblo, estaba encargado de registrar todo tipo de
datos acerca de la gente, tierra utilizada, producción agrı́cola, etc. Un ejemplo de sus
deberes mencionado en Artaśāstra decı́a textualmente:

“Habiendo numerado las casas en funci ón de si pagaban o no pagaban


impuestos, no sólo podremos registrar el n úmero total de habitantes de cada
una de las cuatro castas en cada pueblo, sino que tambi én podremos efectuar un
recuento del número exacto de agricultores, ganaderos, vendedores, artesanos,
trabajadores, esclavos ası́ como de los animales bı́pedos y cuadrúpedos, fijando
al mismo tiempo la cantidad total de oro, de parados ası́ como impuestos y
multas que pueden ser recogidos a partir de ellos, por casa”.

En épocas recientes, en la India, bajo gobernantes mahometanos, encontramos


que las estadı́sticas oficiales ocupan un lugar muy importante. La recopilación de


c Publicacions de la Universitat de Barcelona
66 ESTADÍSTICA Y VERDAD

datos mejor conocida en esta etapa corresponde al periodo de Ain-i-Akbari, la gran


inspección administrativa y estadı́stica de la India bajo el emperador Akbar, que fue
completada por su ministro Abul Fazl en 1596-97 d.C. Contiene información de las
riquezas correspondientes a un gran imperio. Un texto extraı́do al azar es el siguiente:

La producción promedio de 31 cultivos efectuados en diversas clases de terreno;


el registro anual de tasas basados en las cosechas y en el precio de 50 cultivos
en siete provincias durante 19 años (1.560-61 a 1.578-79 d.C.); el salario diario
de individuos empleados por la Marina y el Ejército, jornaleros de todas clases,
mozos de cuadra, etc.; los precios promedio de 44 tipos de granos y cereales, de
38 verduras, 21 clases de carne y caza, 8 productos lácteos, aceites y azúcares,
16 especies, 34 clases de conservas, 92 frutos, 34 perfumes, 24 brocados, 39
sedas, 30 vestidos de algodón, 26 materiales de lana, 77 armas y accesorios, 12
halcones, elefantes, caballos, camellos, toros y vacas, ciervos, piedras preciosas,
30 materiales de construcción, pesos de 32 tipos de madera, etc.

No está claro porqué y cómo fue recogida tal cantidad de datos, qué maquinaria
administrativa fue usada, qué precauciones fueron tomadas para asegurar precisión y
exhaustividad y para qué propósito fueron utilizados.

2.1.3. La Estadı́stica y las sociedades estadı́sticas

El término Estadı́stica tiene sus raı́ces en la palabra latina status, que significa “el
estado” y que fue acuñado por el erudito alemán Gottfried Achenwall a mediados del
siglo XVIII para significar

“recogida, procesamiento y utilizaci ón de los datos por parte del Estado”.

En su libro, Elements of Universal Erudition publicado en 1770, J. von Bielfeld se


refiere a la Estadı́stica como

“la ciencia que nos indica cuál es el orden polı́tico de todos los estados
modernos del mundo conocido”.

La Enciclopædia Britannica (3.a edición, 1979) menciona a la Estadı́stica como

“un vocablo tardı́amente introducido para expresar una descripci ón o un


resumen de cualquier reino, paı́s o parroquia”.


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 67

Hacia la misma época la palabra “publicista” fue también utilizada como una
alternativa a estadı́stica, pero su uso desapareció pronto. C. A. V. Malchus amplió el
alcance de la estadı́stica en su libro, Statistic und Staatskunde publicado en 1826, como

“el más completo y mejor fundamentado conocimiento de las condiciones y


desarrollo de un determinado Estado y de sus habitantes”.

En Gran Bretaña, Sir John Sinclair usó la palabra estadı́stica en una serie de libros
publicados de 1791-1799, titulados “Datos Estadı́sticos de Escocia: una investigación
sobre el estado del paı́s con el fin de poder descubrir y cuantificar la felicidad disfrutada
por sus habitantes y las posibilidades de su futuro desarrollo”. Se dijo que los británicos
expresaron su sorpresa a Sir John por utilizar las palabras alemanas “estadı́stica” y
“estadı́stico” en lugar de las equivalentes en inglés.
Ası́, para los “aritméticos de la polı́tica” del siglo XVIII, la estadı́stica era la
ciencia del arte de gobernar, su función era la de ser los ojos y oı́dos del gobierno.
Sin embargo, los datos brutos son usualmente voluminosos y confusos. Deben ser
convenientemente resumidos para su fácil interpretación y posible uso para adoptar
decisiones polı́ticas. Los primeros intentos en esta dirección fueron hechos por un
próspero comerciante de Londres, John Graunt (1620-1674), al analizar las Relaciones
de Mortalidad (listas de fallecidos y la causa de fallecimiento). Preparó un escrito
en el que habı́a “reducido varios grandes y confusos volúmenes (las Relaciones de
Mortalidad) en unas pocas tablas perspicaces, y abreviado las observaciones que fluı́an
de ellas en unos pocos párrafos sucintos, sin ninguna larga serie de demasiado locuaces
deducciones”. Sacó conclusiones útiles sobre cuestiones tales como las proporciones
relativas de muertes por diversas enfermedades y sobre el crecimiento de población
en la campiña y en la ciudad de Londres. También construyó tablas de la vida que
asentaron los fundamentos de la Demografı́a. John Graunt fue, por lo tanto, un pionero
en demostrar el uso de la estadı́stica, en describir el estado actual de los asuntos y en
conducir el curso futuro de los sucesos.
Los siguientes pasos en la aplicación de la estadı́stica a los asuntos humanos
fueron dados por el matemático belga Adolphe Quételet (1796-1874). Bajo la
influencia de Laplace, estudió probabilidades, desarrolló su interés en la estadı́stica
y sus aplicaciones a los asuntos humanos. Recolectó toda clase de datos sociales y
describió su distribución de frecuencias en términos de la ley normal, que llamó “ley
de las causas accidentales”. En 1844, Quételet asombró a los escépticos al usar la
ley normal para describir la distribución de las alturas de los hombres, permitiendo
descubrir la elusión del servicio militar en Francia. Comparando la distribución de
las alturas de aquellos que respondieron a la llamada del servicio con la distribución
en la población general, calculó que alrededor de 2.000 hombres habı́an eludido el


c Publicacions de la Universitat de Barcelona
68 ESTADÍSTICA Y VERDAD

alistamiento alegando una estatura inferior a la mı́nima establecida. Mostró cómo


predecir futuros crı́menes de diferentes clases mediante el estudio de las tendencias
previas. Para promover el estudio de estadı́sticas y alentar su uso en la toma de
decisiones polı́ticas, incitó a Charles Babbage (1792-1871) a fundar la Sociedad
Estadı́stica de Londres (1834). Más tarde organizó, en el Palacio de Cristal de la
Exposición de Londres (1851), un foro para la cooperación internacional, que sólo
tres años después dio origen al Primer Congreso Estadı́stico Internacional (1854)
en Bruselas. Como primer presidente, predicó la necesidad de uniformar métodos
y terminologı́a en la compilación de datos estadı́sticos. Quételet trató de sentar
la estadı́stica como una herramienta en la mejora de la sociedad. Los conceptos
modernos de economı́a, demografı́a, PNB, ratios de crecimiento y desarrollo, ası́ como
crecimiento de la población, son un legado de Quételet y sus discı́pulos.
La estadı́stica pareció alcanzar el reconocimiento como ciencia, cuando fue
incluida como una sección diferenciada en la Asociación Británica para el Avance de
la Ciencia, siendo fundada la Real Sociedad Estadı́stica en 1834. Por aquel entonces,
la estadı́stica era considerada como

“hechos relativos a los hombres, capaces de ser expresados en cifras, que


suficientemente extendidas, servirı́an para señalar leyes generales”.

Con la rápida industrialización de Europa en la primera mitad del siglo XIX,


el interés público por las condiciones de vida de la población empezó a aumentar.
En este perı́odo, particularmente en los años 1830-1850, se fundaron en numerosos
paı́ses sociedades estadı́sticas y se abrieron numerosas oficinas en varios paı́ses con el
fin de “procurar obtener y publicar hechos cuantificados para ilustrar las condiciones
de vida y la prosperidad de la sociedad”. (Francia estableció su Oficina Central de
Estadı́stica en 1800, siendo pues la primera del mundo). En este contexto era natural
investigar cómo se desarrollaba cada paı́s en relación con otros, con el objeto de
determinar los factores responsables del crecimiento. Para estos estudios analı́ticos,
era necesario conseguir datos de diferentes paı́ses partiendo de bases comparables.
Esto se alcanzó mediante la realización de congresos internacionales periódicos con
el fin de lograr acuerdos generales acerca de los diferentes conceptos y definiciones,
ası́ como uniformar métodos de recogida de datos, “lo que aumentaba el valor de las
futuras observaciones, haciéndolas más comparables a la par que los datos fuesen
más prontamente recogidos”. El primer congreso tuvo lugar en Bruselas en 1853, al
que acudieron 153 delegados en representación de 26 paı́ses. Siguieron una serie de
congresos en los que se hizo énfasis en la necesidad de obtener un acuerdo entre
los diferentes Gobiernos y Naciones para emprender “investigaciones análogas, con
idéntico espı́ritu, con un método común para un mismo fin”.


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 69

Estaba claro que si las estadı́sticas tenı́an que ser útiles y desarrollarse
como herramientas de investigación, la cooperación internacional era necesaria. Para
intercambiar experiencias y establecer medidas comunes de actuación, se llevaron a
cabo alrededor de 10 congresos internacionales, los cuales tuvieron lugar en el periodo
1853-1876, según la invitación cursada por diferentes paı́ses de Europa. Como dichos
congresos fueron útiles y provechosos, con motivo del quincuagésimo aniversario en
1885, de la Real Sociedad Estadı́stica de Londres, se propuso el establecimiento de
una Sociedad Estadı́stica Internacional, para llevar a cabo las resoluciones acordadas
en cada congreso y para dictaminar planes para aquellos que tuvieran que celebrarse
en el futuro. Después de diversas discusiones se resolvió establecer una organización
denominada Instituto Internacional de Estadı́stica. Ası́ nació, el 24 de junio de 1885, el
ISI. Los estatutos del Instituto señalan, entre otras cosas, el contenido de las sesiones
bienales, la nominación de los socios, las publicaciones, etc. El principal énfasis se
puso en conseguir una “uniformidad en los métodos de recogida y resumen de datos
estadı́sticos, llamando la atención de los gobiernos para que resuelvan sus problemas
mediante el uso de estadı́sticas”. En 1913 se estableció en La Haya una oficina
permanente del ISI para ocuparse de las publicaciones del Instituto.

2.2. El control de la incertidumbre

Como ya ha sido dicho, estadı́stica, en su sentido etimológico, comprende la


recogida y recopilación de datos y su posible uso y aplicación en el arte de gobernar.
Durante el siglo XIX, las estadı́sticas empezaron a adquirir un nuevo sentido
como interpretación de datos o extracción de la información contenida en los datos
con el fin de tomar decisiones. ¿Cómo podemos hacer previsiones socio-económicas
de una población basándonos en datos actuales? ¿Cuál es el efecto de determinada
legislación adoptada por el Gobierno? ¿Cómo tomar una decisión polı́tica para mejorar
el bienestar de la sociedad? ¿Lloverá mañana? ¿Los datos observados aportan un
respaldo a la teorı́a establecida? ¿Podemos desarrollar un sistema de seguros contra
las malas cosechas, muerte y acontecimientos catastróficos?
El principal obstáculo en contestar este tipo de preguntas es la incertidumbre,
la falta de correspondencia entre causa y efecto. ¿Cómo debemos actuar bajo
incertidumbre? Este problema ha confundido al pensamiento humano durante largo
tiempo, y ha sido sólo en el comienzo de nuestro siglo que hemos aprendido a
controlar la incertidumbre y desarrollar la ciencia de la toma de decisiones sensatas.
¿Por qué tardó tanto tiempo la mente humana para lograr solucionar los confusos
problemas con que nos enfrentamos constantemente en nuestras vidas? Para contestar


c Publicacions de la Universitat de Barcelona
70 ESTADÍSTICA Y VERDAD

a esta pregunta, vamos a examinar los procesos lógicos o tipos de razonamiento que
usualmente empleamos para resolver problemas y crear nuevos conocimientos, y los
cambios que han tenido lugar en nuestro pensamiento durante los últimos veinticinco
siglos.

2.2.1. Tres tipos de razonamiento l ógico

2.2.1.1. Deducción

El razonamiento deductivo fue introducido por los filósofos griegos hace más de
dos mil años y se ha perfeccionado durante los últimos siglos a través del estudio de
las matemáticas. Consideremos las premisas o axiomas denotadas por A 1 , A2 , A3 , . . .
cada una de las cuales aceptamos que es cierta per se. Podemos escoger cualquier
grupo de axiomas, digamos A 1 , A2 para demostrar la proposición P1 . La verdad de
P1 únicamente depende de la verdad de los axiomas A1 , A2 ; el hecho de que otros
axiomas no sean usados explı́citamente en mi argumentación no tiene importancia
alguna. Análogamente, utilizando A 2 , A3 , A4 podemos derivar la proposición P2 y
ası́ sucesivamente.

Razonamiento Deductivo
AXIOMAS: A1 A2 A3 A4 ··· (Postulado)
C 
 C 
 C 
 C 
?  CW ? 
PASOS LÓGICOS  C  (Prueba)
 C 
 C 
 C 
 C 
PROPOSICIONES: P1 P2 ··· (Deducción)

¿Pueden ser contradictorios P1 y P2 ?

Por razonamiento deductivo ningún conocimiento se crea más allá de las premisas,
dado que todas las proposiciones obtenidas están implı́citamente en los axiomas. No
hay ninguna afirmación de que los axiomas o las proposiciones deducidas tengan
alguna relación con la realidad. Como indicó Bertrand Russell:

“La Matemática es una disciplina caracterizada por no saber de lo que estamos


hablando, sin importarnos si lo que decimos es cierto”.


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 71

Es interesante anotar que la lógica deductiva, que es la base de las matemáticas


considerada como la “más alta verdad”, no está exenta de imperfecciones lógicas.
Como pronto se observó, en lógica deductiva se puede probar una proposición
escogiendo cierto número de axiomas, careciendo de importancia el que no se hayan
utilizado otros.
Surgen entonces las siguientes preguntas. ¿Es posible que un grupo de axiomas,
digamos A1 , A2 impliquen la proposición P y otro grupo A 3 , A4 , A5 impliquen su
negación, no P, llevándonos a una contradicción? Los intentos consistentes en
demostrar que no existe tal contradicción con los axiomas matemáticos nos dan
algunas sorpresas. Gödel, el famoso lógico matemático, tras elaborados argumentos,
desarrolló una ingeniosa demostración de que basándose en un grupo determinado de
axiomas, no es posible refutar la posibilidad de que el sistema pueda ser contradictorio.
También se estableció que si un sistema de axiomas permite la deducción de
una proposición particular P tanto como de su negación, no P, entonces el sistema
de axiomas nos permite deducir cualquier proposición que deseemos, aunque sea
contradictoria. Desearı́a recordar una anécdota mencionada por Sir Ronald Fisher en
su conferencia sobre “Naturaleza de la Probabilidad” publicada en The Centennial
Review, Vol. 11, 1958. G. H. Hardy, el famoso matemático británico remarcó este
hecho extraordinario un dı́a comiendo en el Trinity College de Cambridge. Un
académico sentado enfrente en la mesa la emprendió con él.

Académico: Hardy, si yo digo que 2 + 2 = 5, ¿podrı́a Vd. probar cualquier otra


proposición que Vd. quisiera?

Hardy: Ası́ lo creo.

Académico: Entonces pruebe que McTaggart es el Papa.

Hardy: Si decimos 2 + 2 = 5 entonces 5 = 4.


Restando 3 a cada lado
5 − 3 = 4 − 3, es decir, 2 = 1.
McTaggart y el Papa son dos, pero 2 es 1.
Por lo tanto McTaggart es el Papa.

Las matemáticas son un juego realizado con reglas estrictas, pero no se sabe si
algún dı́a se encontrará que son un manojo de inconsistencias.


c Publicacions de la Universitat de Barcelona
72 ESTADÍSTICA Y VERDAD

2.2.1.2. Inducción

La historia es diferente cuando se trata del razonamiento inductivo. Aquı́ estamos


enfrentados con el problema inverso de decidir entre diversas hipótesis o premisas,
dadas algunas de sus consecuencias. Es el razonamiento según el cual se toman
decisiones en el mundo real basadas en información incompleta o defectuosa. He
aquı́ varios ejemplos donde la inducción es necesaria:

Tomar decisiones bajo incertidumbre en una situaci ón irrepetible

• En un pleito, ¿llevó a cabo el asesinato el acusado?

• ¿Es cierta la alegación de una madre sobre la paternidad de una determinada


persona?

Predicción

• Ha estado lloviendo continuamente en el State College desde el lunes hasta el


viernes, ¿continuará lloviendo el fin de semana?

• ¿Cuál será la caı́da del ı́ndice Dow Jones mañana?

• ¿Cuál será la demanda de automóviles el próximo año?

Contraste de hipótesis

• ¿Es el Tylenol mejor que el Bufferin para aliviar el dolor de cabeza?

• ¿Comer copos de avena reduce el colesterol?

Razonamiento inductivo

Datos observados Posibles Hip ótesis

H1
 d 
1 H2
 d2  ..
D =  ..  .
. H. D (preferida)
dn ..
Hk


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 73

Estos son varios ejemplos de situaciones en la vida real donde deben tomarse
decisiones bajo incertidumbre. Hemos observado datos que pueden ser el resultado
de diferentes grupos de posibles hipótesis o causas, es decir, los datos no determinan
unı́vocamente a las hipótesis.
El razonamiento inductivo es el proceso lógico por el cual seleccionamos una
hipótesis según los datos obtenidos, pasando de lo particular a lo general. Siguiendo
este camino estamos creando nuevo conocimiento, pero es un conocimiento incierto al
no quedar bien determinadas las hipótesis a partir de los datos. Esta ausencia de certeza
de nuestra inferencia basada en unos datos observados, a diferencia de la inferencia
deductiva a partir de unos axiomas dados, se mantiene durante todo el proceso de
elaboración del razonamiento inductivo. A la mente humana acostumbrada a la lógica
deductiva, la idea de desarrollar una teorı́a o de introducir reglas de razonamiento que
no siempre proporcionan resultados verdaderos, debe aparecer como inaceptable. Ası́,
el razonamiento inductivo persistı́a más como un arte con cierto grado de éxito, en
función de la habilidad, experiencia e intuición de cada uno.

* ¿podemos trazar reglas para preferir una hipótesis basándonos en unos datos
observados?

* ¿cuál es la incertidumbre al elegir una particular hipótesis HD planteada siguiendo


unas ciertas reglas?

El cambio de mentalidad llega sólo a principios del siglo XX. Se fue poniendo
en evidencia que aunque el conocimiento obtenido a través de cualquier regla que
pretenda generalizar lo particular, es incierto, se alcanza cierto conocimiento, aunque
de diferente naturaleza, en cuanto pueda cuantificarse la incertidumbre. El nuevo
paradigma es la siguiente ecuación lógica:

Conocimiento debido a
Conocimiento Conocimiento
+ la cuantificación de la =
incierto cierto
incertidumbre

No se trata de filosofı́a. Es una nueva forma de pensar.

* Si debemos tomar una decisión en situación de incertidumbre, no podremos evitar


errores.

* Si los errores no pueden evitarse, podremos evaluar mejor la frecuencia de los


mismos (cuantificación de la incertidumbre) siguiendo siempre la misma regla de
decisión (creando un nuevo, aunque incierto, conocimiento).


c Publicacions de la Universitat de Barcelona
74 ESTADÍSTICA Y VERDAD

* Tal cuantificación podrı́a ser utilizada en descubrir una regla de decisión que no
nos traicionara muy a menudo, que minimizara la frecuencia de las decisiones
erróneas, o las pérdidas debidas a las mismas.

El problema de lograr decisiones óptimas puede ser resuelto por razonamiento


deductivo. De esta forma la inferencia inductiva puede ser analizada de forma
deductiva.
Como ejemplo, consideremos cómo se pronostica actualmente el tiempo meteoró-
logico. No hace mucho, las predicciones del tiempo acostumbraban a darse en forma
de partes categóricos como: Lloverá mañana. No lloverá mañana. Obviamente, estas
predicciones eran erróneas la mayorı́a de las veces. Actualmente se hacen predicciones
de la siguiente naturaleza: Existe un 30 % de posibilidades de que llueva mañana,
respuesta que puede parecer un tanto evasiva. ¿Cómo se ha llegado a este 30 %? Un
amigo mı́o, un matemático, responde diciendo que en la estación de T.V. hay diez
meteorólogos y a cada uno se le pregunta si lloverá mañana o no. Si tres de ellos dicen
sı́, entonces se anuncia que existe un 30 % de probabilidad de que llueva mañana.
Naturalmente, esta no es la forma de llegar a este 30 %. Dicho porcentaje tiene
un significado más profundo. Representa la frecuencia de ocasiones en las que ha
llovido en el pasado, al dı́a siguiente de un dı́a cuyas condiciones atmosféricas son
iguales a las observadas hoy. Esto nos indica la cantidad de incertidumbre asociada a
la afirmación lloverá mañana y está basada en complejos cálculos llevados a cabo a
partir de una inmensa masa de datos observados. En este sentido, el parte acerca del
tiempo de mañana en términos de probabilidad de lluvia, es algo preciso, tan preciso
como un teorema matemático, y contiene toda la información necesaria para planificar
las actividades de cualquier persona durante el próximo dia. Distintas personas usarán
de forma diferente esta información, según su propio provecho. Un parte categórico, tal
como decir que lloverá mañana, sin una medida de incertidumbre sobre la afirmación
efectuada, es algo de escaso valor práctico.

Predicción del tiempo (cuantificación de la incertidumbre)


Datos Inferencias
Posibilidades Probabilidades
Condiciones atmosféricas Lloverá mañana 30 %
en el dı́a de hoy No lloverá mañana 70 %

Hay una remarcable diferencia entre la deducción y la inducción. En una


inferencia deductiva es permisible escoger un grupo de premisas para probar


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 75

una proposición. En las inferencias inductivas, diferentes grupos de datos pueden


conducirnos a diferentes y a menudo contradictorias conclusiones, siendo imperativo
utilizar todos los datos que se posean. Modificar o rechazar los datos, si fuese
necesario, debe ser dictado por el proceso inferencial y no debe ser decisión del analista
de datos.
La afirmación de que podemos probarlo todo con o por medio de la estadı́stica,
sólo significa que siempre podemos seleccionar una porción de los datos disponibles
para respaldar cualquier idea preconcebida. Esto es lo que los polı́ticos y a veces los
cientı́ficos hacen para vender sus ideas favoritas.
Hay otro aspecto de la inferencia inductiva que vale la pena notar. Es importante
que utilicemos sólo los datos obtenidos, evitando que utilicemos implı́citamente
supuestos no verificados o ideas preconcebidas en el proceso. Observemos el triste
semblante de un prı́ncipe que creı́a que sólo habı́a doncellas empleadas en el palacio
real.

El prı́ncipe, viajando por sus dominios, descubri ó a un hombre en medio de la


alegre multitud, cuyo parecido con él mismo era extraordinario. Le llam ó y le
preguntó, “¿estuvo tu madre empleada alguna vez en palacio?”

“No, Señor”, el hombre replicó, “pero mi padre sı́”.

2.2.1.3. Abducción

Algunas veces las nuevas teorı́as son propuestas sin ninguna base empı́rica,
puramente por intuición o ráfagas de imaginación, lo cual se llama abducci ón
en terminologı́a lógica. Dichas teorı́as son verificadas con posterioridad mediante
experimentos. Son ejemplos famosos la estructura en doble hélice del ADN, la teorı́a
de la relatividad, la teorı́a electromagnética de la luz, etc.
La distinción entre inducción y abducción es algo sutil. Con la inducción somos
guiados por resultados experimentales y sus análisis nos proporcionan una percepción
clara. Pero el último paso en la creación de nuevo conocimiento depende hasta cierto
punto de las experiencias previas y del vuelo de la imaginación. Esto nos conduce a
creer que toda inducción es abducción.
Resumiendo, el avance en el conocimiento depende de tres procesos lógicos:

Inducción: Creación de nuevos conocimientos basados en resultados


observados.
Abducción: Creación de nuevo conocimiento por intuición, sin base empı́rica.
Deducción: Verificación de las teorı́as propuestas.


c Publicacions de la Universitat de Barcelona
76 ESTADÍSTICA Y VERDAD

2.2.2. Cuantificación de la incertidumbre

El principal avance en el análisis de la inferencia inductiva ha sido la cuantificación


de la incertidumbre. No hay, sin embargo, una única forma de hacerlo, siendo éste un
tema muy controvertido.
La primera tentativa seria de cuantificar la incertidumbre fue realizada por el
reverendo Thomas Bayes (?-1761) de quien se dijo que tenı́a 59 años el dı́a de
su muerte. Introdujo el concepto de distribución a priori sobre el conjunto de
posibles hipótesis, tratando tal vez de cuantificar la intensidad de nuestras creencias
acerca de las diferentes hipótesis, antes de la observación de cualquier resultado.
Indicamos a ésta como p(h) y la consideramos establecida. La distribución a priori,
conjuntamente con la distribución de probabilidad de de los datos (d) dada la hipótesis
(h), indicada mediante p(d|h), nos permite calcular la probabilidad total (marginal)
de los datos observados, indicada por p(d). Ahora estamos en condiciones de obtener
la distribución de probabilidad condicional de las hipótesis dados los datos, resultado
conocido como Teorema de Bayes,

p(h) · p(d|h)
p(h|d) =
p(d)

llamada también distribuci ón a posteriori, que cuantifica la incertidumbre acerca de


las diferentes hipótesis, a la luz de los datos observados. A partir de un conocimiento
previo referente a las diferentes hipótesis posibles, y de los datos observados, hemos
obtenido un nuevo conocimiento acerca de las mismas.
El teorema de Bayes es un ingenioso intento de usar la teorı́a de la probabilidad
como instrumento básico en el análisis del razonamiento inductivo. No obstante,
algunos estadı́sticos consideran problemática la introducción de una distribución a
priori p(h) sobre las hipótesis asociadas a un problema, a menos que exista la
posibilidad de objetivar la forma de elegirla, por ejemplo, basada en anteriores
evidencias experimentales, y no en la propia creencia o en conveniencias matemáticas
para facilitar el cálculo de la distribución a posteriori. En efecto, los fundadores
de la estadı́stica moderna, K. Pearson (27 de Marzo 1857-27 de Abril 1936), R. A.
Fisher (17 de Febrero 1890-29 de Julio 1962), J. Neyman (16 de Abril 1894-5 de
Agosto 1981), E. S. Pearson (11 de Agosto 1895-12 de Junio 1980) y A. Wald (31
de Octubre 1902-13 de Diciembre 1950), intentaron desarrollar teorı́as de inferencia
inductiva sin el uso de distribuciones a priori. Estos métodos no estaban exentos de
dificultades lógicas. No obstante, la falta de una metodologı́a completamente lógica no
ha impedido el uso de la estadı́stica en las decisiones que deben tomarse dı́a a dı́a o para
desenmarañar los misterios de la naturaleza. La situación es similar a la que tenemos en


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 77

medicina; no se vacila en tratar un paciente con un medicamento disponible aunque no


sea el remedio ideal o tenga efectos secundarios, o bien, en raros casos, su eficacia no se
haya establecido completamente a través de los oportunos estudios. Pero la búsqueda
de nuevos medicamente debe continuar. La metodologı́a estadı́stica desarrollada en la
primera mitad de este siglo para calcular parámetros desconocidos, contrastar hipótesis
y tomar decisiones, ha abierto gran cantidad de posibilidades en diversas aplicaciones
de muchas áreas del progreso humano, y la necesidad de forjar nuevas herramientas
para analizar la incertidumbre, está creciendo rápidamente. La estadı́stica ha superado
a cualquier otra tecnologı́a o invención cientı́fica del siglo XX, por su ubicuidad y
contribución a abrir las puertas hacia nuevos conocimientos.
Con la cuantificación de la incertidumbre, podemos abordar nuevas preguntas
que no pueden ser contestadas por la lógica clásica aristotélica basada en dos
alternativas “sı́” o “no”, y proporcionar soluciones para muchas aplicaciones prácticas.
Nos es posible manejar actividades individuales e institucionales de forma óptima,
controlando, reduciendo y, lo que es más importante, haciendo uso de la incertidumbre.
Hay sabidurı́a en las palabras que Descartes (1596-1650) dijo hace más de trescientos
años:

“Es una gran verdad que cuando no est á a nuestro alcance determinar lo que es
verdadero, debemos aceptar aquello que sea m ás probable”.

Ası́ la nueva disciplina, consistente en extraer información de los datos e inferir


conclusiones, quedó establecida y el alcance del término estadı́stica se extendió desde
los datos en sı́, hasta los datos y su interpretación.
Resumiendo, el azar no es ya algo inquietante o una expresión de ignorancia como
lo era para los cientı́ficos y filósofos de la época del pensamiento aristotélico. Por el
contrario, es una forma de presentar nuestro conocimiento. Somos capaces de superar
la incertidumbre, reconocer su existencia, medirla y demostrar que el avance en el
conocimiento, ası́ como sus importantes consecuencias, son posibles y racionales, a
pesar del azar. Tal como Sir David Cox apuntó:

El reconocimiento de la incertidumbre no implica nihilismo; ni necesariamente


nos conduce a una situación que los americanos describirı́an a veces como
“limitada”1 .

El azar tal vez sea la antı́tesis de cualquier ley. Pero el camino a seguir es descubrir

01. Literalmente, “manca”. N. del T.


c Publicacions de la Universitat de Barcelona
78 ESTADÍSTICA Y VERDAD

las leyes del azar. Buscamos diversas alternativas y probabilizamos su ocurrencia como
medida de su incertidumbre. Conociendo las consecuencias de cada resultado y la
probabilidad de que ocurra, la toma de decisiones llevadas a cabo bajo incertidumbre
puede reducirse a un ejercicio de lógica deductiva. Ya no será más una cuestión de
acierto o fracaso a la buena de Dios. Comentando acerca de la teorı́a de la probabilidad
y la inferencia estadı́stica, como un éxito extraordinario en la historia de la filosofı́a,
Hacking dice:

“Los modestos estadı́sticos han cambiado nuestro mundo —no descubriendo


nuevos hechos o desarrollos tecnol ógicos, sino cambiando nuestra forma de
razonar y experimentar, y formando nuestras opiniones acerca de todo ello”.

2.3. El futuro de la Estadı́stica

La Estadı́stica es más una forma de pensar o razonar que un c úmulo


de prescripciones para “exprimir” los datos con el objetivo de obtener
respuestas.

La Estadı́stica, tal como se estudia y practica hoy en dia, ¿es una ciencia, una
tecnologı́a o un arte? Quizás sea una combinación de estas tres cosas.
Es una ciencia en el sentido que tiene una identidad por si misma con un largo
repertorio de técnicas derivadas de unos principios básicos. Estas técnicas no pueden
ser utilizadas de forma rutinaria; el usuario debe adquirir la necesaria experiencia
para saber escoger la técnica correcta en cada situación determinada e introducir
modificaciones si es necesario. La estadı́stica juega un papel importante para establecer
leyes empı́ricas en ciencias sociales. Además, existen temas filosóficos en conexión
con los fundamentos de la estadı́stica —la forma en que la incertidumbre puede ser
cuantificada y expresada— que pueden ser discutidos con independencia de la materia
que estemos estudiando. Por consiguiente, en un sentido más amplio, la estadı́stica es
una disciplina independiente, quizás la disciplina de todas las disciplinas.
Es una tecnologı́a, en el sentido de que la metodologı́a estadı́stica puede
construirse en cualquier sistema operativo con el fin de mantener un determinado nivel
y estabilidad de realización, como en programas de control de calidad y producción
industrial. Los métodos estadı́sticos pueden ser también usados para controlar, reducir
y hacer permisible la incertidumbre, maximizando de este modo la eficiencia de los
esfuerzos individuales e institucionales.
La Estadı́stica es también un arte, porque su metodologı́a, que depende del


c Publicacions de la Universitat de Barcelona
EL DOMINIO DEL AZAR O LA EVOLUCI ÓN DE LA ESTADÍSTICA 79

razonamiento inductivo, no está totalmente especificada o libre de controversias.


Diferentes estadı́sticos pueden llegar a diferentes conclusiones trabajando con los
mismos datos. Generalmente hay más información en los datos de la que puede ser
extraı́da usando las herramientas estadı́sticas. Lograr que las cifras cuenten su propia
historia, depende de la experiencia y destreza del estadı́stico, lo que hace de la
estadı́stica un arte, como por ejemplo en la historia del Fuerte Rojo (ver sección 5.2.14,
cap. 5).
¿Cuál es el futuro de la Estadı́stica? La Estadı́stica está evolucionando actualmente
como una metaciencia. Su objeto es la lógica y la metodologı́a de las otras ciencias
—la lógica de la toma de decisiones y la lógica de experimentar con ellas. El futuro
de la Estadı́stica está en la comunicación entre los estadı́sticos y los investigadores
de otras ramas del conocimiento; ello dependerá de la forma en que se formulen los
principales problemas en otros campos del saber humano.
Por lógica, la metodologı́a estadı́stica es probable que se amplı́e con el uso de la
evidencia proporcionada por otros expertos, además de la información facilitada por
los datos en la valoración de la incertidumbre.
Habiendo argumentado que la estadı́stica es tanto ciencia y tecnologı́a como
arte —la recién descubierta lógica para manejar la incertidumbre y tomar decisiones
acertadas— debo señalar un posible peligro en su futuro desarrollo. Anteriormente
dije que las predicciones estadı́sticas pueden estar equivocadas, pero es preferible
confiar en las predicciones estadı́sticas que depender de presentimientos o creencias
supersticiosas. ¿Puede el cliente para el cual se está formulando una predicción
demandar al estadı́stico si ésta es errónea? Ha habido recientemente algunos casos en
los Tribunales. Cito uno de los editoriales de The Pittsburgh Press.

Sábado, 24 de Mayo de 1986


Los meteorólogos respiran mejor

El tribunal de apelación federal ha anulado sensatamente una sentencia


precipitada que implicaba responsabilidad del gobierno en un caso de predicción
meteorológica.

El pasado Agosto, un juez de Distrito de los E.E.U.U. concedió 1.250.000


dólares a las familias de tres pescadores de langostas, que se ahogaron en
el transcurso de una tormenta que no habı́a sido prevista. El juez dijo que el
gobierno tenı́a responsabilidad porque habı́a dejado de reparar, en su momento,
un sensor de viento situado en una boya, que se utilizaba para efectuar el
pronóstico de las condiciones atmosféricas frente al Cabo Cod.


c Publicacions de la Universitat de Barcelona
80 ESTADÍSTICA Y VERDAD

La indemnización fue denegada por el tribunal de apelación en base a que


las predicciones meteorológicas son de carácter discrecional cuando están bajo
responsabilidad del gobierno, y no de carácter fiable.

“Las predicciones del tiempo fallan en numerosas ocasiones” dijo el tribunal


de apelación. “Si sólo una pequeña proporción de las partes perjudicadas a
consecuencia de ello tuvieran éxito, al ser asesoradas por un experto que pudiera
persuadir a un juez... que el gobierno deberı́a haberlo hecho mejor”, la carga
sobre el gobierno “serı́a ilimitada e intolerable”.

El caso puede no haber terminado todavı́a, porque es probable que se apele al


Tribunal Supremo. Pero los meteorólogos del gobierno que practican su inexacta
ciencia respiran un poco más tranquilos.

Martes, 28 de Julio de 1987


Costoso mal pronóstico

Los meteorólogos irlandeses podrı́an encontrar un texto legal que desacreditara


sus predicciones en el futuro.

La oficina meteorológica de Dublin puede ser demandada por la población de la


costa irlandesa, por dar una predicción del tiempo equivocada.

El Ayuntamiento de Bundoran, condado de Donegal, reclama haber perdido


160.000 dólares en ingresos al no acudir turistas después de que los meteorólogos
vaticinaran un fin de semana lluvioso —cuando en realidad la población
padeció una ola de calor.

El Ayuntamiento ha enviado una carta, a través de sus abogados, al servicio


meteorológico.

El Alcalde, Sean McEniff, dijo: “Nuestros ingresos dependen exclusivamente del


turismo. Resulta raro que las predicciones sean tan a menudo equivocadas”.

Estos sucesos son excepcionales, pero a pesar de todo pueden desanimar a los
expertos en estadı́stica a aventurarse en nuevas o más desafiantes áreas y por tanto
restringir la expansión de la estadı́stica.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS:
EXAMEN CRUZADO DE DATOS

3.1. Desarrollo histórico del análisis de datos

Datos! datos! gritaba impacientemente,


No puedo construir ladrillos sin arcilla.

Conan Doyle — The Cooper Beeches

Sólo los hechos cuentan y los hechos son inquebrantables.


—Lenin

El estilo de tratar los análisis estadı́sticos cambia con el tiempo mientras que
el objetivo de “extraer toda la información de los datos” o de “resumir y exponer”
permanece inalterado. La estadı́stica no ha alcanzado una mayorı́a de edad, como
para convertirse en una disciplina estable basada en principios incontrovertibles.
Ciertos métodos han alcanzado popularidad en un momento determinado, siendo
reemplazados en el transcurso del tiempo por otros que parecen más novedosos.
A pesar de las controversias, tanto la metodologı́a estadı́stica como el campo de
sus aplicaciones están en expansión. Los ordenadores, junto con la disponibilidad de
efectuar de forma sencilla complejos gráficos, han tenido un gran impacto en análisis
de datos. Puede ser interesante hacer un breve resumen de algunos acontecimientos
que han influido en su desarrollo.
Por costumbre se ha considerado la estadı́stica descriptiva y la teórica como dos
ramas de la misma estadı́stica con distinta metodologı́a. Años atrás, se trataba de
resumir los resultados en términos de “estadı́stica descriptiva” calculando medidas
de situación y dispersión, momentos de órdenes más elevados o diversos ı́ndices,
y también exponer determinadas caracterı́sticas de los datos a través de gráficos
tales como histogramas, diagramas de barras y gráficas bidimensionales. No se
hace referencia al mecanismo estocástico (o distribución de probabilidad) que
originó los datos observados. Las estadı́sticas descriptivas ası́ efectuadas se utilizan
82 ESTADÍSTICA Y VERDAD

en la comparación de diferentes grupos de datos. Incluso se prescriben diversas reglas


para escoger entre estadı́sticos alternativos, tales como media, mediana y moda,
dependiendo de la naturaleza de los datos y de las preguntas que deban ser contestadas.
Tales análisis estadı́sticos son conocidos como an álisis descriptivo de datos (ADD). En
estadı́stica teórica, el objetivo es de nuevo el resumen de los datos, pero con referencia
a una determinada familia de distribución de probabilidad (o modelo) subyacente.
El resumen estadı́stico descriptivo, en este caso, depende básicamente del modelo
estocástico especı́fico, y las distribuciones de probabilidad correspondientes se utilizan
para especificar márgenes de incertidumbre referidos a parámetros desconocidos. Esta
metodologı́a se conoce con el nombre de análisis inferencial de datos (AID).
Karl Pearson (K.P.) fue el primero en tratar de unir el hueco entre ADD y AID.
Utilizaba la intuición facilitada por el análisis descriptivo basado en momentos e
histogramas para sacar conclusiones acerca de la familia de distribuciones subyacentes.
Para este menester, inventó el primero y quizás el más importante test, consistente
en utilizar el estadı́stico ji-cuadradado, para contrastar la hipótesis de que unos
datos provenı́an de una distribución de probabilidad perteneciente a una determinada
familia. Dicho test “marcó el comienzo de un nuevo modo de tomar decisiones”. [Ver
Hacking (1984), donde la ji-cuadrado de K. P. es elogiada como uno de los veinte 1
máximos descubrimientos del presente siglo. Hasta R. A. Fisher (R.A.F.), que mantuvo
diferencias personales con K.P., expresó su elogio por el test de la ji-cuadrado de K. P.
durante una conversación privada con el autor.]
K. P. también creó un sistema de distribuciones de probabilidad, que se podı́an
generar a partir de sus cuatro primeros momentos. Un hermoso ejemplo de trabajo de
investigación fue llevado a cabo por K. P. a través del uso de histogramas y del test
ji-cuadrado, consistente en el descubrimiento de que la distribución del tamaño de los
tripanosomas hallados en determinados animales, es una mezcla de dos distribuciones
normales (ver Pearson (1914-15)).
La necesidad de desarrollar métodos generales de estimación surgió a partir de
la aplicación del test ji-cuadrado, para examinar la hipótesis de que la distribución
subyacente pertenece a una determinada familia paramétrica de distribuciones. K. P.
propuso la estimación de parámetros a partir de los momentos, utilizando el test ji-
cuadrado basado en la distribución ajustada. R. A. F. llevó a cabo dos refinamientos, el
primero en términos de obtener un mejor ajuste con los datos obtenidos, a través de la
estimación de los parámetros desconocidos, por el método de la máxima verosimilitud

01. Se considera que los 20 máximos descubrimientos, sin especificar el orden, son: Plásticos, el test de
inteligencia, teorı́a de la relatividad de Einstein, grupos sanguı́neos, pesticidas, televisión, producción de plantas, redes,
antibióticos, el cráneo de Taung, fisión atómica, la teorı́a del big-bang, la pı́ldora, drogas para enfermedades mentales,
lámpara de vacı́o, ordenador, transistor, estadı́stica (qué es verdad y qué es debido al azar), DNA y láser.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 83

y el segundo en el uso correcto del test ji-cuadrado utilizando el concepto de grado de


libertad, cuando es necesario estimar los parámetros desconocidos.
Durante las décadas de los años veinte y treinta. R. A. F. introdujo una
extraordinaria serie de ideas estadı́sticas. En un fundamental artı́culo de 1922
estableció las bases de la “estadı́stica teórica”, analizando datos por medio de modelos
estocásticos, especificados de antemano. Desarrolló una gran variedad de test de
hipótesis exactos, para tamaños muestrales pequeños y bajo el supuesto de normalidad,
recomendando su uso combinado con la utilización de tablas de ciertos valores crı́ticos,
normalmente el 5 % y el 1 %, cuantiles del estadı́stico con que expresaba los tests.
Durante este periodo, bajo la influencia de R. A. F., se otorgó gran importancia a los
tests de significación y gran número de contribuciones acerca de las distribuciones
exactas en el muestreo se llevaron a cabo por Hotelling, Bose, Roy y Wilks entre
otros. Aunque R. A. F. aludió a la especificación del modelo, problema considerado
en primer lugar por K. P., como un importante aspecto de la estadı́stica en su artı́culo
de 1922, no prosiguió con el mismo problema posteriormente. Quizás en el contexto
de la investigación biológica que R. A. F. estaba examinando, en la que manejaba
pequeños grupos de datos, no habı́a mucho margen para investigar el problema de
la especificación, someter los datos observados a detallados análisis descriptivos en
busca de rasgos especiales o empı́ricamente determinar apropiadas transformaciones
de los mismos para ajustarse a un modelo estocástico determinado. R. A. F. utilizó su
propia experiencia e información externa en cómo deben determinarse los datos para
decidir sobre las especificaciones de los modelos. [Ver el clásico escrito de R. A. F.
(1934) sobre el efecto de los diversos métodos de determinación sobre la estimación de
frecuencias.] En este punto del desarrollo de la estadı́stica inspirada por las propuestas
de R. A. F., se llevaron a cabo tentativas por parte de otros estadı́sticos para desarrollar
lo que denominamos test de hipótesis no paramétricos, en los que las distribuciones de
los estadı́sticos involucrados para definirlos son independientes del modelo estocástico
subyacente a los datos (Pitman, 1937), e investigar la robustez de los tests propuestos
por R. A. F. frente a desviaciones de la normalidad de la distribución subyacente.
En la década de los años veinte y treinta también se produjeron avances en la
metodologı́a de la recolección sistemática de datos a través del diseño de experimentos
introducidos por R. A. F., lo cual permite que los datos sean analizados de una manera
especı́fica a través del análisis de la varianza, interpretándolos de forma que tengan
significado; el diseño dictaba el análisis y el análisis revelaba el diseño.
Mientras que gran parte de las primeras etapas de la investigación estadı́stica fue
motivada por problemas originados por la biologı́a, también tenı́an lugar desarrollos
paralelos a pequeña escala en el uso de la estadı́stica en la producción industrial.
Shewhart (1931) introdujo el proceso gráfico simple a través de cuadros de control para


c Publicacions de la Universitat de Barcelona
84 ESTADÍSTICA Y VERDAD

detectar cambios en los procesos de producción, lo que probablemente es la primera


contribución a la detección de valores atı́picos2 o de puntos de cambio, en el valor de
una magnitud estudiada.
Gran parte de la metodologı́a propuesta por R. A. F. estaba basada en la intuición,
y una teorı́a sistemática de la inferencia estadı́stica no pudo ser por aquel entonces
desarrollada. Ésta fue suministrada por J. Neyman y E.S. Pearson en 1928 (ver
sus artı́culos conjuntos) facilitando cierto tipo de axiomática para contruir métodos
estadı́sticos apropiados, especialmente en contrastes de hipótesis, los cuales fueron
posteriormente perfeccionados por Wald (1950), formulando una teorı́a general de
la decisión. R. A. F. mantenı́a que su metodologı́a era más apropiada en inferencia
estadı́stica mientras concedı́a a las ideas de Neyman y Wald mayor relevancia en
las aplicaciones tecnológicas, aun cuando Wald afirmaba la validez universal para sus
teorı́as. Wald también introdujo métodos secuenciales de aplicación en inspección de
muestras, que tuvieron también aplicaciones en biologı́a, según encontró R. A. F. 3
En la década de los cuarenta hubo un gran auge en el desarrollo de encuestas
por muestreo, que implicaban una recolección de gran cantidad de datos a través
de diversos investigadores que obtenı́an, de personas escogidas al azar, información
mediante ciertas preguntas. En tal situación, problemas como asegurar la precisión
(libres de sesgos, errores en los registros y en las respuestas) y la comparación (entre
investigadores y métodos de encuesta) de los datos, asumieron la máxima importancia.
Mahalanobis (1931, 1944) fue quizás el primero en reconocer que tales errores en
trabajos de investigación eran inevitables y podrı́an ser más serios que simples errores
de muestreo, debiéndose dar los pasos necesarios para controlarlos y detectarlos al
diseñar una investigación, ası́ como desarrollar apropiados programas de examen
para detectar los datos atı́picos (outliers) y los valores inconsistentes en los datos
recolectados.
Hemos discutido brevemente que era común la creencia de que habı́a dos
ramas de la estadı́stica, la estadı́stica descriptiva y la estadı́stica deductiva, ası́ como
la necesidad experimentada por los estadı́sticos de depurar los datos de posibles
defectos que pueden viciar las inferencias obtenidas del análisis estadı́stico. Lo
que quizás se necesitaba era una aproximación integrada, facilitando métodos para
un apropiado conocimiento de los datos, sus defectos y especiales rasgos, y por
selección de un apropiado modelo estocástico o una clase de modelos para el
análisis de datos, con el objetivo de contestar preguntas especı́ficas y sugerir
nuevas preguntas para futuras investigaciones. Un gran paso en esta dirección

02. Outliers.
03. En una comunicación dirigida al ISI, R. A. F. mencionó los cuadros de control de Shewhart, el muestreo
secuencial de Wald y la planificación del muestreo como las tres importantes novedades de la metodologı́a estadı́stica.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 85

FORMULACIÓN DE CUESTIONES ESPECÍFICAS

TÉCNICAS DE Diseño Histórico Encuestas


RECOLECCIÓN de Experimentos (material por
DE DATOS publicado) Muestreo

NUEVAS MEDIDAS
¿CÓMO SE DETERMINAN?
DATOS

VARIABLES OPINIONES EXPERTAS


CONCOMITANTES PREVIAMENTE BUSCADAS

ANÁLISIS EXPLORATORIO INICIAL DE INVESTIGACIÓN


EXAMEN
CRUZADO DE (detección de outliers, errores, sesgos, falsificaciones, consistencia
DATOS (CED) interna, validación externa, características especiales,
representatividad de los datos)

ESPECIFICACIÓN
MODELACIÓN (validación cruzada, cómo usar opiniones expertas
y hallazgos previos, análisis Bayesiano?)

CONTRASTE DE ESTIMACIÓN TOMA DE


HIPÓTESIS (punto intervalo) DECISIONES
ANÁLISIS
INFERENCIAL
DE DATOS (IDA)
META- RESÚMENES PRESENTACIÓN
ANÁLISIS ESTADÍSTICOS GRÁFICA

GUÍA PARA FUTURAS INVESTIGACIONES

Cuadro 1. Análisis estadı́stico de datos

fue llevado a cabo por Tukey (1962, 1977) y Mosteller y Tukey (1968) al desarrollar
lo que es conocido como análisis exploratorio de datos (EDA). La filosofı́a básica de
EDA es entender los especiales rasgos de los datos y utilizar procedimientos robustos
para acomodar una amplia clase de posibles modelos estocásticos para los datos. En
lugar de preguntarse la pregunta tı́picamente fisheriana de qué compendios estadı́sticos
son apropiados para un determinado modelo estocástico, Tukey propuso preguntar
qué clase de modelos estocásticos es apropiado dado un compendio estadı́stico


c Publicacions de la Universitat de Barcelona
86 ESTADÍSTICA Y VERDAD

determinado. Podemos hacer referencia a lo que Chatfied (1985) describe como


análisis de datos inicial, lo que parece ser un amplio análisis descriptivo de datos,
basando sus conclusiones en el sentido común y la experiencia, con un mı́nimo uso de
la metodologı́a estadı́stica tradicional.
El esquema de análisis de datos que quisiera presentar se encuentra en el Cuadro
1, que está basado en mi propia experiencia en analizar grandes grupos de datos y que
parece combinar la estadı́stica descriptiva de K. P., la inferencial de Fisher, el análisis
exploratorio de datos de Tukey y la preocupación de Mahalanobis sobre el muestreo
sin errores.
En el Cuadro 1, los datos son utilizados para representar el grupo entero de
medidas registradas (o observaciones) y cómo han sido éstas obtenidas, a través de
un experimento, de encuestas o de registros históricos, ası́ como los procedimientos
operacionales envueltos en el registro de las observaciones, y cualquier información
previa (incluyendo opiniones de expertos) sobre la naturaleza de los datos o del modelo
estocástico subyacente en los datos.
Se entiende por examen cruzado (o validación) de datos (CED) a cualquier estudio
exploratorio o inicial efectuado para entender la naturaleza de los datos, detectar
errores de medición, errores de registro y datos anómalos, para probar la validez de
la información previa y examinar si los datos son genuinos o falsos. El estudio inicial
también intenta probar la validez de un modelo especı́fico, seleccionar un modelo
estocástico más apropiado o bien una clase de modelos estocásticos para posteriores
análisis de datos.
El análisis inferencial de datos (IDA) significa el conjunto completo de métodos
estadı́sticos tales como la estimación, la predicción, el contraste de hipótesis y la
toma de decisiones, basándonos en un modelo estocástico especı́fico, a partir de
datos observados y con propósitos determinados. El propósito del análisis de datos
deberı́a ser extraer toda la información obtenible de los datos y no solamente
reducirse a contestar cuestiones especı́ficas. Los datos a menudo contienen valiosa
información, indicando nuevas lı́neas de investigación y avances en el diseño de futuros
experimentos o planes de muestreo para la recolección de datos. Propongo enunciar el
más importante principio del análisis de datos en forma de una ecuación fundamental:

Análisis de Datos = Respuesta a Cuestiones Concretas


+ Suministro de Información para
Nuevas Lı́neas de Investigación.

Las secuencias del análisis de datos indicadas en el Cuadro 1 como CED y IDA
no deberı́an ser observadas como distintas categorı́as con diferentes metodologı́as.
Sólo muestra lo que deberı́amos hacer para empezar cuando tratamos con datos, y


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 87

en qué forma el resultado final se expresa y usa en aplicaciones prácticas. Algunos


resultados de IDA pueden sugerir futuros CED, que a su vez pueden sugerir cambios
en los IDA.

3.2. Examen cruzado de datos

Los números no mienten, pero los mentirosos ser án numerosos.


General Charles H. Grosvenor

Los estadı́sticos son a menudo requeridos para trabajar sobre datos recogidos
por otros. La primera labor de un estadı́stico, como Fisher puntualizó, es el examen
cruzado de datos (CED) para obtener toda la información necesaria, para un
análisis significativo de datos e interpretación de resultados. Una posible lista de
comprobaciones para el CED bajo amplias categorı́as, con puntos especı́ficos en cada
una de ellas, serı́a como sigue.

* ¿Cómo han sido recogidos y registrados los datos?


* ¿Son los datos libres de errores de registro y de medida? ¿Están bien definidos
los conceptos y definiciones asociadas a mediciones? ¿Hay diferencias entre
observadores?
* ¿Son los datos genuinos, es decir, tan ciertos como parecen, o falsos, modificados
o ajustados? ¿Han sido descartadas algunas observaciones a discreción del
observador? ¿Hay algunos valores anómalos en los datos, que puedan tener
influencia indebida en las conclusiones estadı́sticas?
* ¿Cuál es la población efectiva para la cual facilitan información los datos
observados? ¿Existen datos faltantes (de forma parcial o completa) en las
unidades seleccionadas de una población bajo control? Los datos obtenidos ¿son
de una población homogénea o de una mezcla? ¿Están registrados todos los
factores relevantes para identificar y clasificar las unidades muestrales?
* ¿Hay alguna información previa en el problema sujeto a investigación o sobre la
naturaleza de los datos observados?

Las respuestas a algunas de estas cuestiones pueden ser obtenidas hablando con
los investigadores que han recogido los datos; pero para el resto, las respuestas se
obtendrán a partir del apropiado análisis de datos, por ejemplo, dirigiendo las preguntas
a los datos o mediante examen cruzado de datos. No es una cuestión de rutina, aunque
la representación gráfica de datos a través de histogramas, gráficos en dos dimensiones


c Publicacions de la Universitat de Barcelona
88 ESTADÍSTICA Y VERDAD

y curvas de probabilidad de medidas transformadas de forma apropiada, ası́ como el


cómputo de ciertas estadı́sticas descriptivas, podrı́a ser de gran ayuda. No obstante,
depende mucho de la naturaleza de los datos y de la habilidad del estadı́stico para
obtener información de los mismos. Pasemos a considerar algunos ejemplos.

3.2.1. Edición de datos

Observemos la siguiente tabla que aparece en la página 74 del libro


“Epidemiologı́a, Hombre y Enfermedad” de J. P. Fox, C. E. Hall y L. R. Elveback.

Edad Población Número Razón Número Índice de


(Años) Afectados Afección de Mortalidad
(porcentaje) Fallecidos (porcentaje)
<1 198 154 77.8 44 28.6
1-9 1440 1117 77.7 3 0.3
10-19 1525 1183 77.6 2 0.2
20-29 1470 1140 77.6 4 0.3
30-39 842 653 77.6 10 1.5
40-59 1519 1178 77.6 46 3.9
60-79 752 583 77.5 46 7.9
80+ 118 92 78.0 15 16.3
Total 7864 6100 77.6 170 2.8

Fuente: Peter L. Panum. Observaciones hechas durante la Epidemia de Sarampión en las Islas Faroe en el año
1846. New York: Delta Omega Society, 1940, p. 82. Notas del editor (Dr. J. A. Doull) y traductores (Ada Hatcher
y Joseph Dimont).

Tabla 3.1

Los autores concluyen que “a pesar de que la tasa de afectados es alta en todos
los grupos de edad, el ı́ndice de mortalidad varı́a significativamente, siendo el más alto
por debajo de un año y luego aumenta constantemente para los grupos de mayores de
treinta años”. ¿Es esta conclusión válida?
Lo que es interesante destacar en la tabla es que el porcentaje de afectados de
sarampión es uniforme para todos los grupos de edades (indicado entre lı́neas verticales
en la tabla) con poca o ninguna variación respecto al total general de afectados (77.6).
¿Podrı́a esto ocurrir por casualidad incluso si el porcentaje verdadero de afectados
fuera el mismo en todos los grupos de edades? Existe una fuerte sospecha de que
el número de afectados en cada grupo de edad no fuera observado, sino que se
reconstruyó a partir de la proporción de población en cada grupo de edad, que era


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 89

conocida, multiplicándolo por la proporción de afectados sobre la población total, o


sea, 6100/7864 = .776 y redondeando al número entero más próximo. Entonces la cifra
154 para el grupo de menores de un año y 92 para los de más de ochenta años pueden
obtenerse como sigue:

198 × .776 = 153.648 ∼ 54; 118 × .776 = 91.568 ∼ 92. (2.1.1)

Ahora, si utilizamos este grupo de números para calcular el porcentaje de afectados,


llegaremos a los siguientes valores

154 92
= .7777 . . . ∼ .778; = .7796 ∼ 780 (2.1.2)
198 118

tal como comunicaron los autores y también explica por qué el porcentaje de afectados
difiere ligeramente en el tercer decimal. Una consulta al informe original de Panum
en alemán reveló que el número de afectados no fue originariamente clasificado
en grupos de edad, sino que se reconstruyó del modo explicado en la ecuación
(2.1.1.) por el editor de la traducción inglesa asumiendo un porcentaje uniforme de
afectados. Los porcentajes indicados en la columna señalada con paréntesis en la tabla
anterior no se encuentran en la tabla de la página 87 de la traducción inglesa, la
cual fue probablemente completada por los autores Fox, Hall y Elveback en el libro
“Epidemiologı́a, Hombre y Enfermedad”, del modo explicado en (2.1.2.). En vista de
esto, la edad especı́fica del ı́ndice de mortalidad computado a partir de los valores
reconstruidos del número de afectados en cada grupo y su consecuente interpretación,
puede no ser válida. Un estadı́stico es a menudo requerido para llevar a cabo trabajos
detectivescos! (La cantidad de la segunda fila en la columna entre lı́neas verticales
deberı́a ser 77.6!).

3.2.2. Mediciones y registro de errores, datos atı́picos (outliers)

En una investigación a gran escala, la medición y el registro de errores son


inevitables. Es muy difı́cil detectarlos a no ser que aparezcan como valores muy
discordantes, destacando respecto los demás. Se ha de tener la precaución de diseñar
una investigación en la que tales errores puedan ser minimizados.
Con un programa de filtraje incorporado, cuando se lleven a cabo mediciones
durante la recogida de datos se puede alertar al investigador cuando una lectura parece
sospechosa, permitiéndole repetir la medición y/o investigar si el individuo estadı́stico
que está siendo medido pertenece o no a la población bajo estudio.


c Publicacions de la Universitat de Barcelona
90 ESTADÍSTICA Y VERDAD

varones de poblaciones tribales


KOLAM KOYA MANNE MARIA RAJ GOND
Carácter γ1 γ2 γ1 γ2 γ1 γ2 γ1 γ2 γ1 γ2
H.B. .15 −.62 .39 .37
1.62* 4.54* −.27 .48 −.30 .23
.71* .29
H.L. −.14 −.06 .48 1.12 −.05 −.08 .05 −.09 −.32 .28
Bg. B. .83* 2.93* .17 .19 1.72* 8.42* −.17 −.03 −.12 −.61
−.14 −.03 −.40 .27
T.F.L. −.26 −.07 .44 .11 .66* .32 −.05 −.10 −.04 −.24
U.A.L. −.05 −.63 −1.95* 6.88* −.01 −.27 .13 .76 .14 −.40
−.30 .74
L.A.L. −2.17* 9.98* −.07 .59 .19 −.67 −.02 .28 −.06 −.67
.08 −.62

H.B. = anchura cabeza, H.L. = longitud cabeza,


Bg. B. = anchura bigonial, T.F.L. = longitud facial total,
U.A.L. = longitud superior brazo, L.A.L. = longitud inferior brazo.
Los valores en la segunda lı́nea de cada caracterı́stica están calculados después de
omitir las observaciones extremas.

Tabla 3.2: Tests estadı́sticos para la asimetrı́a γ1 y kurtosis γ2 para algunas


mediciones antropométricas sobre varones de seis poblaciones tribales
(De la Tesis del Dr. Urmila Pingle)

El autor ha tenido la oportunidad de escrutar una amplia colección de datos


recogidos en estudios antropométricos. Se ha dado el caso de que la totalidad de
los datos recogidos con gran trabajo tuvo que ser rechazada (ver Mukherji, Rao y
Trevor (1955), Majumdar y Rao (1958)). Cuando el número de errores de medición
registrados en datos multivariantes no es muy grande, pueden ser detectados dibujando
histogramas de las medidas individuales y proporciones, trazando gráficos en dos
dimensiones para pares de mediciones y calculando los primeros cuatro momentos
y medidas de asimetrı́a y kurtosis, γ 1 y γ2 . Las dos últimas medidas son especialmente
sensibles a los datos atı́picos (outliers).
La Tabla 3.2 nos da los valores de γ1 y γ2 calculados a partir de datos originales
y después de omitir los valores extremos de algunas caracterı́sticas en un muestreo
efectuado en diferentes poblaciones. El tamaño de la muestra para cada grupo fue del
orden de 50. Los asteriscos indican valores significativos al nivel del 5 %. Se aprecia
que los valores recomputados de γ1 y γ2 después de omitir un valor extremo en cada
caso, concuerdan con los otros.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 91

3.2.3. Falsificación de datos

El Gobierno es muy celoso amontonando estadı́sticas. Las recoge, las suma,


las eleva a la enésima potencia, saca la raiz c úbica y prepara maravillosos
diagramas. Pero no debemos nunca olvidar que cada una de estas cifras
proviene en primera instancia del encargado del pueblo que puso lo que quiso.

Sir Josiah Stamp


(Playboy Magazine, Nov. 75)

Cuantos más casos de fraude aparecieron en p úblico, y se oyeron rumores de


otros más discretamente ocultos, más nos preguntamos acerca de si el fraude no
fue una caracterı́stica secundaria aunque frecuente en el panorama cientı́fico.

William Broad y Nicholas Wade


(en Betrayers of the Truth)

Desde que la aceptación de una teorı́a depende de su verificación con datos


observados, los cientı́ficos están tentados a falsear datos experimentales apropiados
a una teorı́a particular para pedir la aceptación o prioridad de sus ideas. No hay
duda de que si una teorı́a es equivocada se descubrirá tarde o temprano por otro
cientı́fico, a través de experimentos pertinentes. No obstante, existe la posibilidad de
hacer un considerable daño a la sociedad con su aceptación provisional. Un reciente
ejemplo es el “IQ Fraude” (Science Today, Dic. 76, p. 33) que compromete a Cyril
Burt, el indiscutible padre de la Psicologı́a Educacional Británica. Su teorı́a de que las
diferencias en inteligencia son en gran parte hereditarias y que no se ven afectadas
por factores sociales, aparentemente respaldada por datos falsificados, influyó en el
pensamiento del gobierno acerca de la educación de los niños, en una dirección
equivocada.
¿Cómo detectar si los datos obtenidos son falsos o no? ¿Incluye el repertorio
estadı́stico métodos de análisis de datos para indicar si son o no genuinos?
Afortunadamente, sı́. De hecho, durante los últimos años los estadı́sticos han
examinado grupos de datos generados y usados por varios de los más famosos
cientı́ficos del pasado y han descubierto que “no fueron todos tan honestos, y que no
siempre obtuvieron los resultados que ellos decı́an haber obtenido”. Haldane (1948)
señaló:

“El hombre es un animal ordenado. No puede imitar el desorden de la Naturaleza”

Basados en esta limitación del cerebro humano, los estadı́sticos han desarrollado
técnicas para detectar las falsificaciones. El siguiente experimento llevado a cabo por


c Publicacions de la Universitat de Barcelona
92 ESTADÍSTICA Y VERDAD

los estudiantes de primer curso de Estadı́stica, bajo mi dirección, probó la observación


de Haldane.
Pedı́ a los estudiantes que efectuaran los siguientes experimentos, cuyos resultados
aparecen en la Tabla 3.3.

N◦ de Datos reales Esperanza Datos imaginarios


varones
(en conjuntos de 5) hospital simulado (A) (B)
(1) (2) (3) (4) (5) (6)
0 5 5 6.25 2 5
1 26 27 31.25 20 32
2 65 64 62.50 78 63
3 64 68 62.50 80 61
4 31 32 31.25 17 33
5 9 4 6.25 3 6
Total 200 200 200.00 200 200
χ2 2.10 2.18 23.87 0.54

Tabla 3.3: Resultados de diferentes experimentos

(i) Tirar una moneda 1000 veces y anotar el número de caras en grupos de 5 (columna
3, datos simulados).

(ii) Indagar en los registros de una maternidad, el número de varones nacidos en 200
grupos de 5 nacimientos consecutivos (columna 2, datos del hospital).

(iii) Imaginar que estáis tirando una moneda y escribir debajo los resultados de 1000
tiradas imaginarias, hallad la frecuencia de distribución del número de caras en
grupos de 5 tiradas (columna 5, datos imaginarios A).

(iv) Los estudiantes no habı́an aprendido la distribución binomial aún. Pero les
indiqué qué frecuencia de distribución de caras en grupos de 5 tiradas se esperaba
(columna 4 de la tabla) y les pedı́ que escribieran debajo los resultados de las
1000 tiradas imaginarias (columna 6, datos imaginarios B).

Se aprecia que los valores ji-cuadrado, con 5 grados de libertad cada uno,
midiendo las desviaciones de las frecuencias observadas respecto las esperadas, son
moderados para los datos reales. El valor ji-cuadrado para los datos imaginarios A es
mayor, dado que los estudiantes imaginan más grupos semejantes de chicos y chicas


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 93

de lo que es posible debido al azar. El valor ji-cuadrado para los datos imaginarios B,
cuando los estudiantes conocı́an los valores esperados, es sorprendentemente pequeño,
demostrando que ellos escogieron los datos para ajustarlos a lo que se esperaba.
Ahora echemos un vistazo a los datos obtenidos según los experimentos llevados
a cabo por Mendel, que le sirvieron de base para formular leyes de la herencia de los
caracteres, estableciendo los fundamentos de la Genética. En un remarcable estudio,
R. A. Fisher (Annals of Science, 1, 1936, pp. 115-137), examinó los datos calculando
los valores ji-cuadrado midiendo las desviaciones de la teorı́a de Mendel en diversos
grupos de experimentos. Los resultados aparecen en la Tabla 3.4.

Experimentos para grados de χ20 P(χ2 > χ20 )


test de hipótesis libertad (observadas)
3:1 7 2.1389 0.95
2:1 8 5.1733 0.74
bifactorial 8 2.8110 0.94
ratios entre gametos 15 3.6730 0.9987
trifactorial 26 15.3224 0.95
Total 64 29.1186 0.99987
Ilustraciones de
variación de plantas 20 12.4870 0.90
Total 84 41.6056 0.99993

χ2 > valor
Tabla 3.4: Valores χ 2 de la desviación esperada y probabilidad de (χ
observado) para cada grupo de experimentos llevados a cabo por Mendel
(Fuente: R. A. Fisher), Annals of Science, 1, 1936

Vemos que las probabilidades son extremadamente altas en cada caso, indicando
que “los datos han sido probablemente falseados con el fin de demostrar una
remarcable concordancia con la teorı́a”. La probabilidad total de dicha concordancia
es

7
1 − .99993 =
100000

que es muy pequeña. Fisher comentó acerca de ello lo siguiente:

“Aun cuando no podemos esperar ninguna explicación que sea satisfactoria,


existe la posibilidad, entre otras, de que Mendel fuera engañado por alguno de sus


c Publicacions de la Universitat de Barcelona
94 ESTADÍSTICA Y VERDAD

ayudantes que conocı́a demasiado bien el resultado esperado. Esta posibilidad


está apoyada por la evidencia de que la mayorı́a, sino todos los datos de los
experimentos, han sido falseados con el fin de coincidir con las expectativas de
Mendel”.

Haldane (1948) facilitó varios ejemplos de datos recopilados por genetistas que
exhibı́an un alto grado de proximidad con la teorı́a postulada. Haldane menciona que,
si un experimentador conociera qué tests pudiera hacer servir un estadı́stico para
detectar datos falsos, él podrı́a falsificar de tal modo que los datos no parecieran
sospechosos para estos tests, y ası́ pudieran respaldar su teorı́a dentro de los lı́mites de
errores de muestreo. Haldane llama a esto falsificación de segundo orden. Por ejemplo,
si la teorı́a sugiere una relación 3:1 para dos tipos de sucesos, podemos escoger siempre
dos números de tal modo que su relación no esté ni cerca ni lejos de 3:1, lo que quiere
decir que el valor de la ji-cuadrado de desviación de la teorı́a no es ni muy pequeño ni
muy grande. No obstante, hay tests estadı́sticos mediante los cuales tal falsificación de
segundo orden podrı́a ser detectada.
Pedı́ a uno de mis colegas, un cientı́fico, que escribiera una secuencia imaginaria
de cincuenta H’s y T’s para respaldar una teorı́a especificando la relación 1:1 para H’s
y T’s pero que no aparezca tan próximo a la unidad que pudiera levantar sospechas.
Escribió la siguiente secuencia:

T H T H T H H T H H
H T T H T H T H H H
T H H H T H T H T T
H H T T H T T H H H
T H H T T H H H T H

la cual tiene 29 H’s y 21 T’s. El test ji-cuadrado para contrastar una desviación de la
relación 1:1 es

(29−25)2 (21−25)2
χ2 = + = 1.28
25 25

que, con un grado de libertad, no es ni demasiado pequeño como para sugerir


falsificación ni demasiado grande como para rechazar la teorı́a. Por otro lado, se
aprecia que el número de H’s en las cinco filas de secuencias de diez H’s y T’s

6, 6, 5, 6, 6


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 95

parece ser más uniforme de lo que se esperaba al azar. El test ji-cuadrado para estos
valores es

2 2 2 2 8
χ2 = + + 0 + + = = 1.6
5 5 5 5 5

con 5 grados de libertad, que es sospechosamente pequeño, indicando una


“falsificación de segundo orden”.
Según R. S. Westfall (Science, 179, 1973, pp. 751-758), Newton, el joven genio
que formuló las leyes de la gravitación, fue un maestro manipulando observaciones
para que se ajustaran exactamente a sus cálculos. Citó tres ejemplos especı́ficos de los
Principia. Para establecer que la aceleración de la gravedad en la superficie de la Tierra
es igual a la aceleración centrı́peta de la Luna en su órbita, Newton calculó una y otra
obteniendo

7
15 pies 1 in. 1 lı́neas
9

1
15 pies 1 in. 1 lı́neas
2

respectivamente, donde 1 lı́nea = 1/12 pulgadas, con una precisión de 1 sobre 3000
para comparación. La velocidad del sonido se calculó en 1142 pies por segundo con
una precisión de 1 sobre 1000. Newton calculó la precisión de los equinoccios en
  
50 01 12 lo cual tiene una precisión de 1 sobre 3000. Tan alto grado de precisión
fue inaudito con las técnicas de observación de los tiempos de Newton.
En el Capı́tulo sobre el Fraude en la Historia del libro Traidores de la Verdad,
de William Broad y Nicholas Wade, se mencionan los nombres de otros famosos
cientı́ficos. Cito:

* Claudio Tolomeo, conocido como “el mayor astrónomo de la antigüedad”,


realizó la mayor parte de sus observaciones no por la noche en la costa de Egipto,
sino durante el dı́a en la gran biblioteca de Alejandrı́a, donde se apropió del
trabajo de un astrónomo griego y procedió como si suyo se tratase.

* Galileo Galilei es a menudo aclamado como el fundador del método cientı́fico


moderno por su insistencia de que la experimentación, no los trabajos de
Aristóteles, puede ser el árbitro de la verdad. Pero colegas fı́sicos italianos del
siglo XVII han tenido dificultades en reproducir sus resultados e incluso dudado
de si realmente realizó ciertos experimentos.


c Publicacions de la Universitat de Barcelona
96 ESTADÍSTICA Y VERDAD

* John Dalton, el gran quı́mico del siglo XIX que descubrió las leyes de
combinatoria quı́mica y probó la existencia de diferentes tipos de átomos,
publicó elegantes resultados que ningún quı́mico hasta hoy ha sido capaz de
reproducir.

* El fı́sico americano Robert Millikan ganó el Premio Nobel por ser el primero en
medir la carga eléctrica de un electrón. Pero Millikan desfiguró en gran medida su
trabajo para hacer que sus resultados experimentales parecieran más convincentes
de lo que en realidad eran.

¿Por qué algunos famosos cientı́ficos manipularon los hechos? ¿Qué hubiera
sucedido si hubiesen sido más honestos? (Estas preguntas fueron formuladas por el
Dr. J. K. Ghosh).
Para contestar estas preguntas uno debe reconocer las diversas facetas de un
descubrimiento cientı́fico —encontrar hechos (datos), postular una teorı́a o una ley para
explicar los hechos y el deseo de cualquier cientı́fico de establecer la prioridad de sus
descubrimientos, para ganarse el respeto de sus iguales y recoger los beneficios de su
reconocimiento. Cuando un cientı́fico está convencido de su teorı́a, existe la tentación
de buscar “hechos” o deformarlos para respaldarla. El concepto de concordancia
con la teorı́a dentro de unos aceptables márgenes de error no existió hasta que fue
desarrollada la metodologı́a estadı́stica para probar las hipótesis. Se pensaba que un
gran concordancia con los datos implicaba una teorı́a más exacta y una evidencia
más convincente para que todo ello fuera aceptado por los colegas. Ahora sabemos —
debido a la aparición de ideas estadı́sticas— que una concordancia demasiado ajustada
de los datos, puede implicar la existencia de una teorı́a falsa!
En tiempos no muy lejanos, se han dado muchos ejemplos en que los datos fueron
falseados para establecer hipótesis equivocadas (como en el caso de Sir Cyril Burt).
Tales ejemplos han resultado considerablemente perjudiciales para la sociedad y el
progreso de las ciencias.

3.2.4. Lazzarini y una estimación de π

En mi primera conferencia en memoria de Ramanujan, mencioné cómo los


métodos de Monte-Carlo o la simulación por medio de números aleatorios, nos
permitı́a resolver complicados problemas que no podı́an tratarse matemáticamente,
tales como calcular complicadas integrales, áreas de figuras complejas, estimación
de parámetros desconocidos, etc. Les proporcionaré una interesante aplicación del
método de Monte-Carlo para la estimación del número


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 97

π = 3,14159265. . .

que es la relación del perı́metro de una circunferencia con su diámetro.


Seguramente habréis oı́do hablar del problema de la aguja de Buffon. En el siglo
XVIII, el naturalista francés Conde de Buffon estableció la probabilidad de que una
aguja de longitud l echada al azar a una red de lı́neas paralelas con una distancia a(> l)
corte una lı́nea es de

2l
ρ= .
πa

Ahora, si llevamos a cabo un experimento lanzando repetidamente una aguja un gran


número de veces N y hallamos que la aguja corta la lı́nea R veces, entonces R/N es
una estimación de ρ con la siguiente propiedad

R
ρ casi seguramente, N ∞,
N

es decir, R/N será tanto más próximo a ρ como mayor sea N. Entonces tendremos que
la estimación Monte-Carlo de π se obtiene de la ecuación aproximada

R 2l

N πa

dando un valor aproximado de π (cuando l/a es conocido) como

N 2l
π≈ · . (F)
R a

Si no tuviéramos ningún método computacional para determinar π, podrı́amos


estimarlo utilizando la fórmula (F) que necesita tan sólo una aguja de longitud conocida
(l), un trozo de papel con lı́neas paralelas dibujadas a una distancia a, y quizás una
buena cantidad de paciencia para lanzar la aguja de forma mecánica un gran número
de veces.
Algunos han tenido la paciencia de efectuar este trabajo y han proporcionado el
valor de π que han obtenido. Naturalmente no todos los experimentos han dado la
misma respuesta. Pero si N es muy grande, las diferentes estimaciones son bastante
concordantes. Se sabe que el profesor Wolf de Frankfurt tiró la aguja 5000 veces
durante la década 1850-60; la aguja tenı́a 36 mm. de longitud y la anchura de la red era
de 45 mm. Observó que la aguja cruzó la lı́nea 2532 veces. Aplicando la fórmula (F)
obtuvo una estimación de π = 3.1416 con un error del 0.6 %. En la década de 1890-
1900 el capitán Fox se sabe que hizo alrededor de 1200 pruebas “con precauciones


c Publicacions de la Universitat de Barcelona
98 ESTADÍSTICA Y VERDAD

adicionales” encontrando π = 3.1419. La más certera estimación de π fue llevada a


cabo por el matemático italiano Lazzarini (a menudo confundido con Lazzerini a quien
se refirió posteriormente en su trabajo). Hizo un informe muy detallado publicado en
1901 en el Periodico di Matematica, de un experimento basado en 3408 pruebas que
dieron por resultado 1808 éxitos, que condujeron a la ecuación

 
1808 2l 5 5 l
≈ = usando la conocida relación por
3408 πa 3π 6 a

y la estimación

10 3408 5 16 × 213 5 213 355


π≈ · = · = · = = 3.1415929
6 1808 3 16 × 113 3 113 113

que difiere del verdadero valor sólo en la 7.a cifra decimal!


Observemos los extraños números que aparecen en el anterior cálculo y de cómo
dichos números factorizan tan bien, dando como valor de π la relación 355/113, la
cual es conocida como la mejor aproximación racional de π involucrando números
pequeños (debido al matemático chino del siglo V, Tsu Chung-Chih).
La siguiente mejor aproximación racional involucrando cifras más grandes es
52163/16604. El juego llevado a cabo por Lazzarini es ahora claro como han revelado
investigaciones independientes debidas a N. T. Gridgeman (Scripta Mathematica,
1961) y T. H. O’Beirne (The New Sciencist, 1961, p. 598). Con el fin de alcanzar la
relación 355/113 cuando l/a = 5/6, se tiene que alcanzar la relación 113/213 para
R/N, es decir, 113 éxitos en 213 pruebas (como mı́nimo) o bien 113k éxitos en
213k pruebas para cualquier entero k. En el caso de Lazzarini k tenı́a un valor de
16. Existen dos posibilidades. O que no hubiese hecho ninguno de los experimentos
que describió con sumo detalle en su artı́culo, y hubiese anotado los números que
necesitaba exactamente, o que hubiese hecho experimentos en series de 213 pruebas y
“andara con cuidado” hasta alcanzar el número correcto de éxitos. Con 16 repeticiones,
como hizo Lazzarini, la probabilidad de lograr el número correcto de éxitos, 113 × 16,
es alrededor de 1/3.
Laplace, en su Teorı́a Analı́tica de las Probabilidades, escribió:

Es remarcable que una ciencia que empezó estudiando los juegos de azar,
haya llegado a ser el más importante objeto del conocimiento humano.

No concebı́a que una técnica utilizada para obtener nuevos conocimientos podrı́a ser
manipulada para respaldar afirmaciones equivocadas. Laplace debió pensar que estos


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 99

fraudes se descubrirı́an tarde o temprano, quizás a través de consideraciones basadas


en los mismos juegos de azar.

3.2.5. Rechazo de datos anómalos (outliers) y uso selectivo de datos

Charles Babbage, el inventor de una máquina de calcular, precursora del


ordenador, en su libro Reflexiones sobre el Declive de la Ciencia en Inglaterra, escrito
en 1830, clasificó diferentes tipos de actitudes no caballerescas referente al uso de los
datos por parte de los cientı́ficos, como sigue:

(i) Arreglar: “Recortar pequeños trozos aquı́ y allá de aquellas observaciones que
difieren por encima de la media, y añadirlas a aquellas que difieren por debajo”.

(ii) Cocinar: “Arte de varias formas, cuyo objeto es dar a las observaciones
ordinarias la apariencia y carácter de las de mayor grado de exactitud.
Uno de sus muchos métodos es el de hacer numerosas observaciones, y
posteriormente, seleccionar sólo aquellas que concuerdan o están muy próximas
a la concordancia. Si se hacen 100 observaciones, el cocinero se sentirı́a muy
desgraciado si no pudiera escoger quince o veinte para servir”.

(iii) Falsificar: “Registrar observaciones nunca realizadas”.

Ya he tratado anteriormente acerca de las falsificaciones o la producción de datos


por arte de magia. Ahora discutiré el molesto problema de tratar con datos atı́picos
(outliers) y otras inconsistencias en los datos.
¿Cómo debemos tratar las observaciones que parecen extremas o, en algún
sentido, inconsistentes con otras? Este difı́cil problema descrito como datos “atı́picos”
(outliers) o “contaminantes”, es una de las más modernas áreas de investigación.
Desgraciadamente, ninguna solución se puede anticipar, excepto racionalizar y hacer
algunos ajustes estadı́sticos, eliminando valores extremos. Quizás una aproximación
más cientı́fica, cuando se sospecha la existencia de datos atı́picos (outliers), es
considerar las siguientes posibilidades.

* Un outlier puede ser el resultado de un gran error en las mediciones o en el registro


de resultados.

* La unidad (o individuo) asociada con el outlier puede no pertenecer a la población


bajo estudio, o bien es diferenciable en algún sentido cualitativo de los otros
elementos de la población.


c Publicacions de la Universitat de Barcelona
100 ESTAD ÍSTICA Y VERDAD

* Las mediciones de la población bajo estudio tienen una distribución de colas


pesadas, por lo que la existencia de grandes desviaciones no es rara.

El primer paso en el tratamiento de los datos atı́picos (outliers) es identificar


las oportunas unidades en la población si ello es posible, y analizar cada caso a la
luz de las alternativas enumeradas arriba. A veces es posible encontrar una apropiada
explicación que sugiera tomar la acción adecuada. Eventualmente, el re-examen de una
medida aberrante puede conducir a un nuevo descubrimiento! Tal investigación, volver
al origen de las mediciones, no siempre es posible, lo que subraya la importancia de
incorporar el examen automático de datos mientras éstos se recogen, ası́ como añadir
información suplementaria cuando una medición es sospechosa de ser un dato atı́pico
(outlier). Cuando el re-examen de las muestras no es posible o es muy costoso, se
puede tener que depender de los tests estadı́sticos para decidir si:

* Rechazar los outliers y tratar al resto como muestras válidas de la población bajo
estudio.
* Rechazar los outliers y hacer ajustes en los análisis estadı́sticos.

* Aceptar (“serı́a más filosófico”) lo que parecen ser outliers como un fenómeno
normal de la población sometida a estudio y usar un apropiado modelo de análisis
estadı́stico.

La actual metodologı́a estadı́stica no es la adecuada para tratar el problema de


los datos atı́picos (outliers) antes señalado, pero las diferentes direcciones en que los
estadı́sticos están trabajando diariamente, tales como inferencia robusta, identificación
de outliers y observaciones influyentes, puede proporcionar una teorı́a unificada para
incorporar la información adquirida a través de exámenes cruzados de datos en el
análisis inferencial de datos. No obstante, me permitiré algunas reflexiones sobre este
tema.
Omitir o no omitir un outlier o falsa observación es un serio dilema, como muestra
el siguiente ejemplo. Supongamos que tenemos N observaciones de una población
con una media µ y una desviación estándar σ que da una valor medio de x, y M
observaciones falsas de otra población con media ν y desviación estándar σ que da
un valor medio y. Ignoremos el hecho de que y se origina con observaciones falsas, y
estimamos µ mediante µ̂ = (Nx + My)/(N + M). Entonces si ν − µ = δσ,
 
σ 2
M δ
2 2
σ2
E(µ̂ − µ) =
2
1+ < V (x) =
N +M N +M N

si δ2 < M −1 + N −1 , lo que siempre es cierto cuando δ ≤ 1 y M = 1 cualquiera que


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 101

sea N. Por lo tanto, bajo el criterio del error cuadrático medio, popular entre los
estadı́sticos, es preferible incluir una falsa observación en una población cuya media
puede diferir como mucho una desviación estándar del parámetro bajo estimación!
La mejora introducida puede ser de considerable magnitud en el caso de trabajar con
muestras pequeñas.

3.2.6. Análisis de la Regresión

Es la técnica estadı́stica más ampliamente usada, o mal usada, en la práctica.


Un reciente artı́culo de una importante organización cientı́fica india, contiene los
siguientes gráficos con lı́neas de regresión aplicadas, como se indica, en predicciones.
[He omitido la descripción de las variables involucradas ya que ello no es importante
para nuestra discusión]. Se menciona en el artı́culo que en el caso de los gráficos de la
Figura 2, los puntos bajo la lı́nea de puntos se omiten al calcular la lı́nea de regresión
(¿Por qué?).

Ag Y
PL

RD RD

Figura 1 Figura 2

PNA

DNR

Figura 3


c Publicacions de la Universitat de Barcelona
102 ESTAD ÍSTICA Y VERDAD

Está claro que las predicciones en cada uno de estos casos serán erróneas ya que
la relación entre las variables no parece ser la oportuna, sino inducida artificialmente
al estar mezclando diferentes grupos de datos o bien omitiendo selectivamente algunos
otros.
Abunda considerablemente la literatura acerca del análisis de regresión, cubriendo
varios métodos de estimación, detección de datos atı́picos (outliers) y observaciones
influyentes, selección de variables predictoras (independientes), transformación de
variables, etc. Cualquier programa fácilmente asequible tiene la posibilidad de
calcular coeficientes de regresión a través de un procedimiento robusto, de utilizar
los residuos para detectar datos atı́picos (outliers) y observaciones influyentes, y
revisar estimaciones de coeficientes de regresión. No obstante, esto no es suficiente
para entender plenamente la naturaleza de los datos y establecer relaciones entre
variables con fines predictivos. Parece claro que debe prestarse una mayor atención
a determinados grupos de datos que se salen fuera del intervalo de las variables
predictoras o bien de las dependientes, antes que mezclar diferentes grupos de datos
homogéneos.
Representemos los datos en un problema de regresión como (Y : X ), donde Y
es un n−vector de variables dependientes y X es una n × p matriz de variables
independientes, todo ello expresado como desviaciones de las correspondientes
medias. A continuación tomemos S = X  X , T = (Y : X )(Y : X ), hi = Xi S−1 Xi, donde
Xi es la i−ésima fila de X y ri es el residuo (valor observado menos valor predicho)
correspondiente al punto i−ésimo de los datos. Entonces se sugieren los siguientes
análisis.

(i) Comprensión de la configuración de variables independientes: Un análisis


aglomerativo (cluster) del conjunto de datos X considerado como n puntos
en Rp , igual a la norma de x ∈ Rp como (nx S−1 x)1/2 , demostrarı́a si hay
algunas irregularidades en la configuración de X , lo cual serı́a importante para
la interpretación de los resultados.

(ii) Comprensión de la configuración conjunta de las variables dependientes y de la


independiente: Un análisis aglomerativo (cluster) del conjunto de datos (Y : X )
considerado como n puntos en Rp + 1 , con la norma de z ∈ Rp + 1 igual a (nz T −1 z)1/2 ,
nos indicarı́a si los datos se separan en varios grupos necesitando una diferente
función de regresión para cada uno de ellos. Podrı́an elegirse otras normas.

(iii) Generalmente los residuos ri son representados gráficamente respecto del ı́ndice
i o de los valores ajustados ŷi . Será de ayuda en la interpretación de los datos el

representar ri respecto 1 − hi , ası́ todos los residuos de cada columna tendrán el
mismo error estándar. Además, los gráficos de los residuos obtenidos o bien de los


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 103

residuos jack-knife (calculados eliminando una observación) serán similares. De


nuevo debe ser examinada la configuración completa de los residuos para lograr
un análisis completo y no buscar meramente los valores extremos.

3.2.7. Técnicas gráficas

La descripción gráfica de los datos, contribuye ciertamente a proporcionar una


visión más clara y penetrante para entender e interpretar los datos y, a menudo, facilitar
indicios para escoger los modelos estocásticos apropiados para el análisis inferencial
de datos. Con las sofisticadas facilidades gráficas de los ordenadores actuales, el
estadı́stico es capaz de examinar muchos gráficos durante el análisis estadı́stico y
por tanto interactuar con éstos de una forma más efectiva. Gnanadesikan (1977)
describió una variedad de representaciones gráficas de datos multivariantes, para
contrastar la normalidad multivariante, detectar datos atı́picos (outliers) y determinar
conglomerados (clusters). Más recientemente, otro tipo de representaciones gráficas,
como el análisis de correspondencias (Benzécri y Benzécri, 1980), y el seguimiento de
la proyección (“projection pursuit”, Friedman y Tukey, 1974) han sido introducidos y
actualmente están siendo ampliamente aplicados. La posibilidad de representar datos
altamente dimensionales en un espacio de pequeña dimensión como una ayuda en
análisis de clusters, fue primeramente demostrada por Rao (1948).
Hace falta un poco de cautela al interpretar una representación gráfica de datos
multidimensionales en un espacio de dimensión reducida (ver Rao, 1971). Es bastante
seguro que en dicha representación se dé alguna distorsión de las relaciones entre
las unidades (o individuos) representados. Cualquier grupo de unidades que surja del
gráfico debe ser re-examinado en base a las distancias entre unidades en el espacio
original.

3.3. Especificación

Entia præter necessitatem non sunt multiplicanda


(Los entes no deben multiplicarse más de lo necesario).

La navaja de Guillermo de Occam

El hombre debe aprender a simplificar, pero no hasta el punto de falsificar.

—Aldous Huxley


c Publicacions de la Universitat de Barcelona
104 ESTAD ÍSTICA Y VERDAD

La meta de la ciencia es buscar la explicación más simple de hechos complejos ...


buscar la simplicidad y recelar de ella.

—A. N. Whitehead

La especificación es la elección de un modelo estocástico a través del cual el


dato observado es analizado, con el objeto de contestar determinadas preguntas o
seleccionar un elemento particular del modelo para predecir futuras observaciones.
Elegido un modelo estocástico, llamado modelo de trabajo, puede ocurrir que no
incluya a la verdadera distribución de probabilidad que dio lugar a los datos
observados, en cuyo caso nuestro objeto es escoger un elemento del modelo estocástico
que sea muy cercano a la verdadera distribución de probabilidad (v.d.p.), que llamamos
la casi verdadera distribución de probabilidad (c.d.p.). Entonces la estimación de una
distribución de probabilidad (d.p.) para representar la verdadera (v.d.p.), incluye dos
tipos de errores.

* Error de especificación: el modelo de trabajo puede no contener la v.d.p.


* Error de estimación: el miembro del modelo de trabajo estimado partiendo de los
datos observados puede no ser la c.d.p.

Normalmente los errores de especificación y estimación se compensan mutuamente,


de modo que una buena especificación no necesariamente debe proporcionar una
mejor estimación de la c.d.p. o proporcionar mejores respuestas a preguntas concretas.
Consideremos, por ejemplo, un modelo polinómico

yi = β0 φ0 (ti) + · · · + βk φk (ti) + i i = 1, . . ., n (3.1)

donde φ0 , . . ., φk son polinomios ortogonales y  i son errores independientes con media


cero e idéntica varianza σ2 . A continuación tomemos β i = γi σ2 , i = 0, . . ., k. Si usamos
el modelo (3.1) con sólo los primeros (r + 1) términos, entonces el error cuadrático
medio de predicción de yi en un punto dado τ es

σ2 [1 + φ20 (τ) + · · · + φ2r (τ) + γr2+ 1 φ2r + 1 (τ) + · · · + γk2 φ2k (τ)] . (3.2)

Si usamos todos los (k + 1) términos, el correspondiente error cuadrático medio de la


predicción es

σ2 [1 + φ20 (τ) + · · · + φ2k (τ)] . (3.3)


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 105

Si γr + 1 , . . ., γk son todos menores que la unidad, entonces (3.2) es menor que (3.3), de
modo que la selección de un polinomio de grado menor proporciona un mejor resultado
aunque no sea el verdadero modelo. En la práctica, los coeficientes de los términos del
polinomio de grado superior son probablemente más pequeños. Entonces, el uso del
verdadero modelo podrı́a dar como resultado una pérdida de eficiencia!
Además, la elección en la especificación puede depender del propósito con que
realizamos el análisis de datos. Por ejemplo, en el problema anterior, la elección del
grado del polinomio para predicción puede depender del intervalo de tiempo en el que
la predicción sea necesaria. En general, será una buena estrategia considerar diferentes
especificaciones para los mismos datos con el fin de contestar diferentes preguntas.
¿Qué criterios debemos considerar para elegir entre diferentes modelos una vez
establecido el propósito del análisis? Éste no es un problema fácil y no disponemos
de una metodologı́a satisfactoria para ello. El principio de máxima verosimilitud no
nos puede ayudar en este caso. Sin embargo, la máxima verosimilitud con una función
de penalización facilita respuestas satisfactorias si trabajamos con muestras grandes.
Un ejemplo de tal propuesta es el AIC (Criterio de Información de Akaike). Hay
otro criterio como el BIC (Criterio de Información de Bayes) y el GIC (Criterio de
Información General). En muestras pequeñas, el método más apropiado parecer ser la
validación cruzada.
¿Qué es una validación cruzada? Es una técnica mediante la cual la elección
puede efectuarse entre modelos competitivos valorando la pérdida asociada usando
una distribución de probabilidad estimada. La idea es antigua y se utilizaba en test de
hipótesis para la predicción del tiempo en la década de los veinte. Los datos están
subdivididos en dos grupos: el primer grupo es usado para estimar el modelo y el
segundo para validarlo. Recientemente el método ha sido modificado, dotándolo de
la teorı́a apropiada y aplicándolo con éxito en varias áreas de investigación (Mosteller
y Tukey, (1968), Mosteller y Wallace, (1964) y Stone, (1974)).
Una importante aplicación de la validación cruzada es la selección de variables
en análisis de regresión múltiple. Sea E(Y ) = X(s) β(s) el modelo lineal basado en
un subgrupo (s) obtenido seleccionando de entre las p variables independientes.
Calculando el residuo jack-knife

 β̂(i)
ri(s) = yi − Xi(s) (3.4)
(s)

donde β(i)
(s) es estimado mediante la omisión del i−ésimo punto. Entonces el error en

la predicción de la validación cruzada basada en el subgrupo especificado de variables


independientes es


c Publicacions de la Universitat de Barcelona
106 ESTAD ÍSTICA Y VERDAD


n

CV E(s) = n −1 2
ri(s) . (3.5)
i=1

Para elecciones diferentes de subgrupos de las variables, calculamos (3.5) y elegimos


el subgrupo para el cual dicha cantidad sea mı́nima. Finalmente, con propósitos de
predicción, estimamos los coeficientes de regresión basados en el subgrupo elegido de
las variables, utilizando todos los puntos.
Lo que es interesante del método anterior, es que no necesitamos tomar la
suma de todos los n puntos como se ha hecho en (3.5). Si se necesitara una futura
predicción cuando los valores de las variables independientes pertenecen a una
determinada región, basta efectuar la suma de aquellos puntos para los cuales las
variables independientes observadas tomen valores cercanos a la región especificada.
El subgrupo de variables independientes seleccionado puede entonces depender de
la región que escogemos para efectuar futuras predicciones, a la que pertenecen
los valores de las variables independientes. Para otros detalles sobre el método de
validación cruzada y su uso en problemas de predicción (extrapolación), una referencia
puede ser Rao (1987).

3.4. Meta Análisis

Profesor: ¿Qué es más importante, el Sol o la Luna?

Alumno: Naturalmente, la Luna ya que da luz cuando más se necesita!

(Folklore)

En la toma de decisiones, uno debe tener en cuenta toda la evidencia disponible.


Ésta puede darse en la forma de fragmentos de información recogidos de fuentes muy
diversas, pudiendo algunas de ellas consistir en las opiniones de expertos. En relación
con este tema surgen algunas preguntas.

* ¿Cuán fidedigno es cada fragmento de información?


* ¿Qué parte de esta información es relevante para el problema estudiado?
* ¿Son inconsistentes los diferentes fragmentos de información?
* ¿Cómo podemos integrar diferentes fuentes de información, no necesariamente
todas ellas consistentes, para llegar a una conclusión global?


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 107

Individualmente, éstas no son preguntas nuevas, pero su consideración conjunta, en


una determinada investigación, no suele resaltarse. Se están haciendo tentativas para
establecer procedimientos sistemáticos para responder a tales cuestiones, bajo el tı́tulo
de meta-análisis.
La evaluación de cada fragmento de la información disponible nos permite
determinar el peso que debe asignársele en el análisis conjunto. Sin embargo,
la integración de los diferentes fragmentos informativos requiere que éstos sean
compatibles entre si. Finalmente, debe elegirse un método apropiado para combinar
dichos fragmentos de información y evaluar la fiabilidad de la conclusión final. Todo
esto requiere un juicioso uso de toda la baterı́a de la metodologı́a estadı́stica disponible,
desde el escrutinio de datos al análisis inferencial de datos, y, quizás, una aproximación
filosófica al problema, resolviéndose tal como indica el diálogo entre el profesor y el
alumno, en la cita inicial.

3.5. Análisis inferencial de datos y observaciones finales

Es un hecho extraordinario, naturalmente, que todo el mundo da respuestas


sin saber a qué preguntas está respondiendo. En otras palabras, todo el mundo
encuentra remedios sin conocer de qué enfermedad se trata.

—Jawaharlal Nehru

El análisis inferencial de datos trata de la metodologı́a estadı́stica basada en un


modelo estocástico determinado, para estimar parámetros desconocidos, contrastar
hipótesis concretas, predecir observaciones futuras, tomar decisiones, etc. Elegir un
modelo puede depender de la información especı́fica que busquemos a través de los
datos. Puede ser que un modelo no necesariamente explique la totalidad de los datos
observados, pero sı́ que facilite respuestas eficientes para preguntas concretas.
Los análisis de datos efectuados para responder a determinadas preguntas
suministradas por los usuarios no es la única tarea del estadı́stico. Un análisis más
amplio para entender la naturaleza de los datos disponibles, serı́a util para averiguar
qué preguntas pueden ser contestadas con los datos disponibles, plantear nuevas
preguntas y planificar nuevas investigaciones.
También es recomendable analizar los datos obtenidos bajo diferentes modelos
estocásticos alternativos y examinar las diferencias que emergen en las conclusiones.
Este proceder puede ser más ilustrativo que buscar procedimientos de inferencia
robusta para salvaguardarse frente a una amplia clase de modelos estocásticos


c Publicacions de la Universitat de Barcelona
108 ESTAD ÍSTICA Y VERDAD

alternativos. La posibilidad de usar diferentes modelos para los mismos datos y para
contestar diferentes preguntas deberı́a ser explorada.
El análisis inferencial de datos deberı́a ser de tipo interactivo: nuevas
caracterı́sticas de los datos pueden surgir durante el análisis bajo un modelo especı́fico,
precisando un cambio en el análisis contemplado originalmente.
Estudios de simulación para determinar el éxito de ciertos procedimientos, las
técnicas bootstrap y jack-knife para la estimación de varianzas de estimadores (Efron,
(1979)) trabajando con complicadas estructuras de datos, que presuponen un intenso
uso de ordenadores, han proporcionado dimensiones adicionales al análisis de datos,
aunque es necesario tener alguna precaución a la hora de interpretar los resultados de
tales análisis.
En análisis inferencial de datos, existe el aforismo bien aceptado de que una vez
la validez de un modelo está asegurada, hay un método óptimo para analizar los
datos, tal como el uso de x como una estimación de la esperanza de una población
normal basada en una determinada muestra, o del valor medio de una población finita
basada en una muestra aleatoria sin reemplazamiento. Como ejemplo del segundo
caso, supongamos que el problema es estimar el rendimiento medio de unos árboles
plantados en una hilera tomando una muestra de tamaño 3. Nuestra receta dice que si
x1 , x2 , x3 son los rendimientos observados de 3 árboles escogidos al azar, entonces una
buena estimación es x = (x1 + x2 + x3 )/3. No obstante, si después de extraer la muestra,
encontramos que 2 de los 3 árboles escogidos son próximos uno al otro, ası́ como sus
correspondientes rendimientos, digamos x 1 y x2 , entonces podremos mejorar dando
la estimación alternativa x = (y + x3 )/2 donde y = (x1 + x2 )/2. Podrı́a verse que si
el rendimiento de árboles consecutivos está altamente correlacionado, entonces la
varianza de x es menor que la de x en muestras donde al menos han sido escogidos
dos árboles consecutivos. Estas estrategias tales como usar diferentes métodos para
diferentes configuraciones de la muestra, bajo el mismo modelo estocástico, deberı́an
ser exploradas.
Aparece entonces el problema de “Oh! Calcuta”. Supongamos que alguien
desconocedor de la gran diferencia de población existente entre pueblos y ciudades
(a las que nos referiremos como unidades) en el estado de Bengala Occidental, trata
de estimar la población total del mismo tomando una simple muestra al azar de las
citadas unidades. La fórmula usual en tal caso, que puede probarse que es la óptima de
muchas formas, es Nx, donde N es el número total de unidades de Bengala Occidental
y x es la población media en la muestra de n unidades escogidas al azar. Supongamos
que Calcuta figura entre la muestra, cuya población es varias veces la de cualquier
otra unidad en Bengala Occidental. En este caso serı́a desacertado sugerir Nx como la
estimación de la población total, especialmente cuando n, el tamaño de la muestra es


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 109

pequeña. Supongamos que x1 en la muestra es la población de Calcuta, entonces una


estimación razonable del total de la población de Bengala Occidental serı́a

N −1
x1 + (x2 + · · · + xn ).
n−1

Lo que debemos hacer es una post-estratificación después de analizar el grupo de datos


concretos observados!
Como estadı́sticos, se nos pide consejo sobre la metodologı́a estadı́stica apropiada
(o bien sobre paquetes de software) para un cierto conjunto de datos sin tener
la oportunidad de realizar un examen sobre validación cruzada de datos. Nuestra
respuesta podrı́a ser: el tratamiento estadı́stico no puede ser prescrito por teléfono o
comprado en un mostrador. Los datos deben ser sometidos a ciertos tests diagnósticos
y sus caracterı́sticas especiales, si las hay, deben ser tenidas en cuenta, y entonces
puede prescribirse una estrategia en el tratamiento de los datos, siendo su progreso
continuamente evaluado para decidir cuántos cambios se estimen oportunos en dicho
tratamiento.
Concluiré con el siguiente resumen. El objeto del análisis estadı́stico es “extraer
toda la información posible de los datos observados”. Los datos registrados podrı́an
tener algunos defectos tales como errores de registro y datos atı́picos (outliers) o
puede que estén falseados. La primera tarea del estadı́stico es escrutar o examinar
cruzadamente los datos para averiguar los posibles defectos y entender sus especiales
caracterı́sticas. El siguiente paso es la especificación de un apropiado modelo
estocástico para los datos usando información previa y técnicas de validación cruzada.
Sobre la base del modelo escogido, se hace el análisis inferencial, que comprende
la estimación de parámetros desconocidos, tests de hipótesis, predicción de futuras
observaciones y toma de decisiones. Examinar los datos bajo diferentes modelos es
una sugerencia más informativa que usar procedimientos robustos para salvaguardarse
frente a posibles modelos alternativos. Finalmente, el análisis de datos debe también
facilitar información sobre el planteamiento de nuevos problemas y la planificación de
futuras investigaciones.

Referencias

BENZÉCRI, J. P. y BENZÉCRI, F. (1980). L’Analyse des Correspondences: Exposé


Elementaire, Dunod. Paris.
CHATFIELD, C. (1985). “The Initial examination of data”. J. Roy. Stat. Soc. A, 148, 214-
253.


c Publicacions de la Universitat de Barcelona
110 ESTAD ÍSTICA Y VERDAD

EFRON, B. (1979). “Bootstrap methods: another look at jack-knife”. Ann. Statist., 7, 1-


26.
FISHER, R. A. (1922). “On the mathematical foundations of theoretical statistics”.
Philos. Trans. Roy. Soc., 222, 309-368.
FISHER, R. A. (1934). “The effect of methods of ascertainment upon estimation of
frequencies”. Ann. Eugen., 6, 13-25.
FRIEDMAN, J. H. y TUKEY, J. W. (1974). “A projection pursuit algorithm for exploratory
data analysis”. IEEE Transactions on Computers, C-23, 881-889.
FOX, J. P., HALL, C. E. y ELVEBACK, L. R. (1970). Epidemiology, Man and Disease,
MacMillan Co. London.
GNANADESIKAN, R. (1977). Statistical Data Analysis of Multivariate Observations,
Wiley, New York.
HACKING, I. (1984). “Trial by number”. Science, 84, 69-70.
HALDANE, J. B. S. (1948). “The faking of genetic results”. Eureka, 6, 21-28.
MAHALANOBIS, P. C. (1931). “Revision of Risley’s anthropometric data relating to the
tribes and castes of Bengal”. Sankhyã, 1, 76-105.
MAHALANOBIS, P. C. (1944). “On large scale sample surveys”. Philos. Trans. Roy. Soc.,
London, Series B, 231, 329-451.
MAJUMDAR, C. N. y RAO, C. R. (1958). “Bengal anthropometric survey, 1945: A
statistical study”. Sankhyã, 19, 201-408.
MOSTELLER, F. y TUKEY, J. W. (1968). “Data analysis including statistics”. En
Handbook of Social Psychology, Vol. 2, (Eds. G. Lindzey y E. Aronson), Addison-
Wesley.
MOSTELLER, F. y WALLACE, D. L. (1964). Inference and disputed Authorship: The
Federalist Papers. Reading, Mass: Addison-Wesley.
MUKHERJI, R. K., RAO, C. R. y TREVOR, J. C. (1955). The Ancient Inhabitants of Jebel
Moya. Cambridge University Press.
NEYMAN, J. y PEARSON, E. S. (1966). Joint Statistical Papers by J. Neyman and E. S.
Pearson, Univ. of California Press, Berkeley.
PEARSON, K. (1914-15). “On the probability that two independent distributions of
frequency are really samples of the same population, with special reference to recent
work on the identity of Trypanosome strains”. Biometrika, 10, 85-154.
PITMAN, E. J. G. (1937). “Significance tests which may be applied to samples from any
population”. J. Roy. Statist. Soc., Ser. B, 4, 119-130.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: EXAMEN CRUZADO DE DATOS 111

RAO, C. R. (1948). “The utilization of multiple measurements in problems of


biological classification”. J. R. Statist. Soc., B, 10, 159-203.
RAO, C. R. (1971). “Taxonomy in anthropology”. En Mathematics in Archaelogical
and Historical Sciences, Edin. Univ. Press, 329-358.
RAO, C. R. (1987). “Prediction of future observations in growth curve models”.
Statistical Sciences, 2, 434-471.
SHEWHART, W. A. (1931). Economic Control of Quality of Manufactured Product, D.
Van Nostrand, New York.
STONE, M. (1974). “Cross-validation choice and assessment of statistical predictions”.
J. R. Statist. Soc., B, 36, 111-113.
TUKEY, J. (1962). “The future of data analysis”. Ann. Math. Statist., 30, 1-67.
TUKEY, J. (1977). Exploratory Data Analysis, (EDA), Addison-Wesley.
URMILA P. (1982). “Morphological and Genetic Composition of Gonds of Central
India: a statistical study”. Ph D. Thesis, Submitted to Indian Statistical Institute.
WALD, A. (1950). Statistical Decision Functions, Wiley, New York.

Referencias Adicionales no citadas en el texto

ANDREWS, D. F. (1978). “Data Analysis, exploratory”. En International Encyclopedia


of Statistics, (W. H. Kruskal and J. M. Tanur, ed.), 97-106. The Free Press, New York.
ANSCOMBE, F. J. y TUKEY, J. W. (1963). “The examination and analysis of residuals”.
Technometrics, 5, 141-160.
BERTIN, J. (1980). Graphics and Graphical Analysis of Data. DeGruyter, Berlin.
MALLOWS, C. L. y TUKEY, J. W. (1982). “An overview of the techniques of data
analysis, emphasizing its exploratory aspects”. En Some Recent Advances in Statistics,
113-172, Academic Press.
RAO, C. R. (1971). “Data, analysis and statistical thinking”. En Economic and Social
Development, Essays in Honor of C. D. Deskmukh, 383-392. (Vora and Company).
SOLOMON, H. (1982). “Measurement and burden of evidence”. En Some Recent
Advances in Statistics, 1-22, Academic Press.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS:
DISTRIBUCIONES AFECTADAS Y NEBULOSAS

Las ciencias no tratan de explicar, siquiera apenas tratan de interpretar,


las ciencias principalmente crean modelos. Por modelo se entiende una
construcción matemática que, con la adición de ciertas interpretaciones
verbales, describe los fenómenos observados. La justificaci ón de tal
construcción matemática es única y exclusivamente que se espera que
funcione.

von Neumann

4.1. Introducción

En inferencia estadı́stica, esto es, al hacer afirmaciones acerca de una población


en base a una muestra extraida de la misma, es necesario identificar la “santı́sima
trinidad”, es decir, el espacio muestral Ω, el álgebra de Borel de subconjuntos B de
Ω y una familia de medidas de probabilidad P definidas para todo B del álgebra. El
análisis estadı́stico establece una correspondencia entre una muestra (miembro de Ω) y
un elemento (o subconjunto de elementos) de P. Una parte importante de la “trinidad”
es la especificación de la familia de medidas P. Una especificación equivocada puede
conducir a una inferencia errónea, que algunas veces se denomina el tercer tipo de
error en lenguaje estadı́stico.
El problema de la especificación no es sencillo. Un conocimiento detallado del
procedimiento realmente empleado para obtener los datos, es un ingrediente esencial
para llegar a una especificación apropiada. La situación es más complicada en el
campo de las observaciones y de los datos no experimentales, donde la naturaleza
produce acontecimientos de acuerdo con un determinado modelo estocástico, y éstos
son observados y registrados por investigadores especializados. No siempre existen
unos métodos de muestreo estructurados, que faciliten el diseño de unos planes
de muestreo, asegurando que los acontecimientos que ocurren tengan determinadas
posibilidades (usualmente iguales) de entrar en la muestra. En la práctica, no podemos
introducir todos los acontecimientos que ocurren en la naturaleza en el diseño muestral.
114 ESTAD ÍSTICA Y VERDAD

Por ejemplo, ciertos sucesos pueden no ser observables y por tanto, nos falta su
registro. Esto es lo que se denomina muestreo truncado, censurado o incompleto.
O bien un suceso que ha ocurrido puede ser observable sólo con una cierta
probabilidad dependiendo de la naturaleza del mismo, tal como su perceptibilidad y
el procedimiento empleado para observarlo, resultando una desigual probabilidad de
muestreo. O tal vez un suceso que ha ocurrido puede cambiar de una forma aleatoria
mientras dura el proceso de observación, convirtiéndose en un suceso modificado, en
cuyo caso la alteración o desperfecto ha de ser modelado apropiadamente para el
análisis estadı́stico. Algunas veces los sucesos proceden de dos o más fuentes con
diferentes mecanismos estocásticos, pueden mezclarse y confundirse en el mismo
registro, resultando muestras contaminadas. En todos estos casos, la especificación de
un modelo que dé cuenta de los sucesos originales (tal como ocurren) puede no ser la
apropiada para dar cuenta de los sucesos registrados (datos observados), a menos que
sea convenientemente modificada. Ejemplos de dicha situación han sido facilitados por
Rao (1965, 1975, 1985).
En un artı́culo clásico, Fisher (1934) mostró la necesidad de tal ajuste en la
especificación del modelo, atendiendo a la forma como se determinan los datos. El
autor extendió las ideas básicas de Fisher en Rao (1965) y desarrolló la teorı́a de las
distribuciones afectadas como un método de ajuste aplicable a muchas situaciones.
Presentaremos la teorı́a general de las distribuciones afectadas ası́ como algunas
innovaciones recientes, a través de varios ejemplos.

4.2. Truncamiento

Algunos sucesos, aunque ocurran, pueden ser indetectables, resultando truncada la


distribución observada en una determinada región del espacio muestral. Por ejemplo,
si estamos investigando la distribución del número de huevos puestos por un insecto,
la frecuencia de cero huevos es inobservable. Otro ejemplo es la frecuencia de familias
cuyos padres son heterocigotos para el albinismo pero no tienen hijos albinos. No
existe evidencia de que los padres sean heterocigotos a menos que tengan un hijo
albino, y las familias cuyos padres lo son y no tienen hijos albinos pueden ser
confundidas con familias normales. La frecuencia real del suceso cero hijos albinos
no es determinable.
En general, si p(x, θ) es la f.d.p. (función de densidad de probabilidad para
una variable continua o probabilidad para una variable discreta), donde θ denota un
parámetro desconocido, y la variable aleatoria X es truncada en una región determinada
T ⊂ Ω del espacio muestral, entonces la f.d.p. de la variable aleatoria truncada X T es


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 115

w(x, T )p(x, θ)
pT (x, θ) = (2.1)
u(T, θ)

donde w(x, T ) = 1 si x ∈ T, = 0 if x ∈
/ T, y u(T, θ) = E[w(X , T )]. La expresión (2.1) es
la densidad de probabilidad original ponderada por medio de una función apropiada,
y nos procura un ejemplo sencillo de una probabilidad de distribución afectada cuya
definición general vendrá dada en la próxima sección.
Supongamos que el suceso cero no es observable en un muestreo de una
distribución binomial con ı́ndice n y probabilidad de éxito π. Sea R T la variable
aleatoria TB (Binomial Truncada). Entonces
 
n
r πr (1 − π)n − r
P(RT = r) = , r = 1, . . ., n (2.2)
1 − (1 − π)n

Para tal distribución


 
nπ RT π
E(R ) =T
y E = (2.3)
1 − (1 − π)n n 1 − (1 − π)n

resultados que son algo mayores que los correspondientes a una distribución binomial
ordinaria, que son nπ y π respectivamente.
Los siguientes datos se refieren al número de hermanos y hermanas en familias
de chicas cuyos nombres fueron hallados en una agenda de teléfonos particular de un
profesor europeo. (El primer número entre paréntesis nos da el número de hermanas,
incluyendo la alumna, y el segundo número, es el de hermanos.)

(1, 0), (1, 0), (1, 1), (1, 1), (1, 1), (1, 1), (1, 1), (1, 1), (1, 1), (1, 1)
(1, 1), (2, 0), (2, 0), (2, 0), (2, 1), (2, 1), (2, 1), (2, 1), (1, 2), (1, 2)
(3, 0), (3, 1), (3, 1), (1, 3), (1, 3), (4, 0), (4, 1), (1, 4) (2.4)

Puesto que hay al menos una chica presente en cada familia, podemos tratar de ver si
los datos se ajustan a una distribución TB, con la observación de cero hermanas siendo
faltante. El número esperado de chicas bajo esta hipótesis, asumiendo π = 0,5, es


5

f (n)E(r|n) (2.5)
n=1

donde f (n) es el número de familias observado de tamaño n (es decir, el número total
de hermanos y hermanas). Usando las fórmulas (2.3) y (2.5) y los datos (2.4), tenemos:


c Publicacions de la Universitat de Barcelona
116 ESTAD ÍSTICA Y VERDAD

Número de observado esperado


Hermanas 47 46
Hermanos 30 31

Los números observados parecen concordar bien con los esperados bajo la
hipótesis de la distribución binomial truncada. Sin embargo, puede darse un resultado
bastante distinto en una situación similar, como en los siguientes datos que nos dan el
número de hermanas y hermanos en familias de chicas conocidas por un estudiante en
Calcuta.

(2,1), (1,1), (3,0), (2,0), (3,1), (1,0), (2,1), (1,0), (1,1), (1,1). (2.6)

El número esperado de hermanas bajo la hipótesis de distribución binomial truncada


es 9.5 (usando las fórmulas (2.3) y (2.5)) mientras que el número observado es 17.
La binomial truncada no es apropiada como modelo probabilı́stico de los datos (2.6),
mostrando que el mecanismo de encuentros con chicas parecen ser diferentes en los
casos del profesor europeo y del alumno de Calcuta.
Obsérvese que si muestreamos un número de familias en una ciudad y
averiguamos el número de hermanos y hermanas (es decir, hijos e hijas) de cada
familia, esperamos que el número de hermanas siga una distribución binomial
completa. Si de tales datos omitimos las familias donde no hay chicas, entonces los
datos seguirán una distribución binomial truncada. El profesor parece muestrear al azar
a partir de la población general de familias con al menos una chica. En la próxima
sección veremos que la distribución válida es diferente cuando contamos los hermanos
o hermanas a partir de una muestra de chicos o chicas que uno se encuentra. El caso
del estudiante parece encajar en dicha categorı́a.

4.3. Distribuciones Afectadas

En la sección 4.2 hemos considerado situaciones en las que ciertos sucesos son
inobservables. Pero se tiene un caso más general cuando un suceso que ocurre tiene
una cierta probabilidad de ser registrado (o incluido en la muestra). Sea X una variable
aleatoria con p(x, θ) como f.d.p., donde θ es un parámetro, y supongamos que cuando
ocurre X = x, la probabilidad de registrarlo es w(x, α), dependiendo del valor de x
ocurrido y posiblemente también de un parámetro desconocido α. Entonces la f.d.p. de
la variable aleatoria resultante X w es


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 117

w(x, α)p(x, θ)
pw (x, θ, α) = . (3.1)
E[w(X , α)]

Aunque en la deducción de (3.1) escogemos w(x, α) tal que 0 ≤ w(x, α) ≤ 1, podemos


formalmente definir (3.1) para cualquier función arbitraria no negativa w(x, α) con tal
de que E[w(X , α)] exista. La f.d.p. ası́ obtenida se llama versión afectada de p(x, θ) y
se denota por pw (x, θ). En particular la distribución afectada1

f (x)p(x, θ)
pw (x, θ) = (3.2)
E( f (x))

donde f (x) es una función monótona de x, recibe el nombre de distribución de


magnitud sesgada. Cuando X es univariante y no negativa, la distribución afectada

xα p(x, θ)
pw (x, θ) = (3.3)
E[X α ]

introducida en Rao (1965) ha tenido aplicaciones en muchos problemas prácticos (ver


Rao, 1985). Cuando α = 1, recibe el nombre de distribución de longitud (magnitud)
sesgada2 . Por ejemplo, si X sigue la distribución logarı́tmica

θr
, r = 1, 2, . . . (3.4)
−r log(1 − θ)

entonces la distribución de la variable de longitud sesgada es

(1 − θ)θr − 1 , r = 1, 2, . . .

que muestra que X w −1 tiene una distribución geométrica. Una distribución geométrica
truncada algunas veces se ajusta bien a la distribución observada del tamaño familiar
(Feller, 1968). Pero, si la información sobre el tamaño familiar ha sido obtenida a partir
de los niños de una escuela, entonces las observaciones pueden tener una distribución
de magnitud sesgada. En tal caso, un buen ajuste a la distribución geométrica para el
tamaño familiar observado indicarı́a que la distribución subyacente, es, de hecho, la
distribución logarı́tmica (3.4).

01. “Weighted distribution” en el original.


02. “Lenght (size) biased distribution” en el original. N. del T.


c Publicacions de la Universitat de Barcelona
118 ESTAD ÍSTICA Y VERDAD

Variable Aleatoria (v.a.) fdp v.a. de magnitud sesgada


Binomial,
 
B(n, p)
n px (1 − p)n−x 1 + B(n − 1, p)
x
Binomial Negativa,
 
NB(k, p)
k + x − 1 qx pk 1 + NB(k + 1, p)
x
Poisson,
Po(λ) e−λ λx /x! 1 + Po(λ)
Logarı́tmica,
L(α) {− log(1 − α)}−1αx /x 1 + NB(1, α)
Hipergeométrica,
  M x (N − M)n−x
H(n, M, N)
n 1 + H(n − 1, M − 1, N − 1)
x Nn
Binomial beta,
  β(α + x, γ + n − x)
BB(n, α, γ)
n 1 + BB(n − 1, α, γ)
x β(α, γ)
Binomial negativa
 
beta, NBB(k, α, γ) k + x − 1 β(α + x, γ + k) 1 + NBB(k + 1, α, γ)
x β(α, γ)

Gamma, G(α, k) αk xk−1 e−αx /Γ(k) G(α, k + 1)

Primer tipo Beta,


B1 (δ, γ) xδ−1 (1 − x)γ−1 /β(δ, γ) B1 (δ + 1, γ)

Segundo tipo Beta,


B2 (δ, γ) xδ−1 (1 + x)−γ /β(δ, γ − δ) B2 (δ + 1, γ − δ − 1)

Pearson tipo V,
Pe(k) x−k−1 exp(−x−1 )/Γ(k) Pe(k − 1)

Pareto, Pa(α, γ) γαγ x−(γ+1) , x ≥ α Pa(α, −1)

Lognormal,
  
1 log x − µ 2
LN(µ, σ 2
) 1 exp −
√ LN(µ + σ2 , σ2 )
(2πσ2 ) 2 x σ 2

Tabla 4.1: Algunas distribuciones básicas y sus formas de magnitud sesgada


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 119

La Tabla 4.1 facilita una lista de varias distribuciones básicas y sus


correspondientes formas de magnitud sesgada. Se observa que la forma de magnitud
sesgada pertenece a la misma familia que la distribución original (salvo traslaciones)
en todos los casos, excepto la distribución logarı́tmica.
Un extensa literatura sobre distribuciones afectadas ha aparecido desde que
el dicho concepto fuera introducido y formalizado por Rao (1965); un estudio
monográfico con un gran número de referencias fue realizado por Patil (1984), con
especial referencia a contribuciones anteriores de Patil y Rao (1977, 1978) y Patil y
Ord (1976). Rao (1985) contiene una revisión actualizada de trabajos anteriores y de
varios resultados nuevos.

4.4. Muestreo p.p.t.

Un ejemplo de distribución afectada surge en una encuesta por muestreo cuando


se utiliza una probabilidad de muestreo desigual, lo que se conoce como muestreo
p.p.t. (probabilidad proporcional al tamaño). Una versión general de dicho esquema de
muestreo implica dos variables aleatorias X e Y con f.d.p. p(x, y, θ) y una función peso
w(y) que depende sólo de y, dando una f.d.p. afectada

w(y)p(x, y, θ)
pw (x, y, θ) = . (4.1)
E[w(Y )]

En encuestas por muestreo, obtenemos observaciones de (X w ,Y w ) con f.d.p. (4.1) y


realizamos inferencia sobre el parámetro θ.
Es interesante notar que la f.d.p. marginal de X w es

w(x, θ)p(x, θ)
pw (x, θ) = (4.2)
E[w(X , θ)]

que es una versión afectada de p(x, θ) con la función peso



w(x, θ) = p(y|x, θ)w(y) dy. (4.3)

Si tenemos una muestra de tamaño n

(x1 , y1 ), . . . , (xn, yn ) (4.4)


c Publicacions de la Universitat de Barcelona
120 ESTAD ÍSTICA Y VERDAD

de la distribución (4.1), entonces una estimación de E(X ), el valor medio con respecto
a la f.d.p. original p(x, y, θ), que es el parámetro de interés, es

E[w(Y )]  xi
n

(4.5)
n i=1
w(yi )

que es un estimador insesgado de E(X ). El estimador

1
n

xi (4.6)
n i=1

serı́a un estimador insesgado de E(X w ), el valor medio con respecto a la f.d.p. afectada
pw (x, θ) como en (4.2).

4.5. Distribución binomial afectada: dos teoremas empı́ricos

Supongamos que averiguamos de cada miembro var ón de una clase o de cualquier
reunión, el número de hermanos incluyéndose él mismo y el número de hermanas
que tiene y surge la siguiente cuestión. ¿Cuál es el valor aproximado de B/(B + S),
donde B y S son el número total de hermanos y hermanas en todas las familias con
miembros masculinos? Está claro que estamos muestreando una distribución truncada
de familias con al menos un miembro varón, ası́ que B/(B + S) debe ser mayor que
1/2. Pero ¿cuánto mayor?
Sorprendentemente, cuando k, el número de varones preguntados, no es muy
pequeño, se pueden hacer predicciones detalladas de las magnitudes relativas de B
y S, y de la razón B/(B + S). Esto puede ser establecido en la forma de un teorema
empı́rico.

Teorema Empı́rico 1: Sea k el número de varones observados en cualquier


reunión que tienen un número total B de hermanos (incluyéndose ellos mismos) y un
número total S de hermanas. Entonces se pueden hacer las siguientes predicciones:

(i) B es mucho mayor que S.

(ii) B − k es aproximadamente igual a S.


1 k
(iii) B/(B + S) es mayor que 1/2. Será próximo a + .
2 2(B + S)
(iv) (B − k)/(B + S − k) es próximo a 1/2.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 121

El papel que juegan B y S se invierte si los datos son recogidos a partir de los
miembros femeninos en una reunión.
Consideremos una familia con n hijos. Entonces bajo la hipótesis de distribución
binomial con π = 1/2 e ı́ndice n, la probabilidad de r varones es
   n
n 1
p(r) = r , r = 1, 2, . . .. (5.1)
2

En nuestro caso, hay al menos un chico, lo que hace que la distribución apropiada sea
truncada. Una posibilidad es una distribución binomial truncada (TB),
   n
n 1
r 2
pT (r) =  n , r = 1, 2, . . . (5.2)
1
1−
2

n=1 n=2 n=3


N◦ de esperado esperado esperado
hermanos observado TB WB observado TB WB observado TB WB
1 6 6 6 24 28.7 21.5 12 20.1 11.7
2 19 14.3 21.5 24 20.2 23.6
3 11 6.7 11.7
TOTAL 6 6 6 43 43.0 43.0 47 47.0 47.0

n=4 n=5 n=6


N◦ de esperado esperado esperado
hermanos observado TB WB observado TB WB observado TB WB
1 8 11.2 5.3 5 6.5 2.5 1 1.9 0.6
2 10 16.8 15.7 8 12.9 10.0 4 4.8 3.1
3 17 11.2 15.7 15 12.9 15.0 4 6.3 6.3
4 7 2.8 5.3 10 6.5 10.0 9 4.8 6.3
5 2 1.2 2.5 2 1.9 3.1
6 0 0.3 0.6
TOTAL 42 42.0 42.0 40 40.0 40.0 20 20.0 20.0

Tabla 4.2: Frecuencias observadas del número de hermanos en familias de


diferentes tamaños y frecuencias esperadas bajo las hipótesis de distribuciones
TB y WB
(Datos recogidos de estudiantes masculinos de Shangai, Manila y Bombay).


c Publicacions de la Universitat de Barcelona
122 ESTAD ÍSTICA Y VERDAD

Otra posibilidad es una distribución binomial de magnitud sesgada (WB)


   n
n 1
r    n − 1
r 2 n−1 1
p (r) =
w
= r−1 , r = 1, 2, . . .. (5.3)
(n/2) 2

En Rao (1977), se argumenta que (5.3) es más apropiado para los datos observados
que (5.2). La Tabla 4.2 da la frecuencia observada de distribuciones del número de
hermanos en familias de diferentes tamaños basadas en datos obtenidos separadamente
a partir de estudiantes femeninos y masculinos en universidades de Shangai (China),
Manila (Filipinas) y Bombay (India), y los valores esperados sobre las hipótesis de TB
como en (5.2) y WB como en (5.3). Se aprecia en la tabla anterior que la WB (binomial
afectada) proporciona un mejor ajuste que la TB (binomial truncada), indicando que
una familia con r hermanos ha sido muestreada con probabilidad proporcional a r.
Aceptando la hipótesis de distribución binomial afectada (de magnitud sesgada),
a saber,
   n − 1
n−1 1
p(r) = r−1 , r = 1, 2, . . ., n, (5.4)
2

inmediatamente encontramos que

n    n − 1
n−1 1 n+1 n−1
E(r|n) = r r−1 = ⇒ E(r − 1) = . (5.5)
r=1
2 2 2

Si (r1 , n1), . . . , (rk , nk ) son datos observados con B = r1 + · · · + rk , T = n1 + · · · + nk y


S = T − B, entonces dado T


k

k
ni − 1 T −k
E(B − k) = E(ri − 1) = = = E(S). (5.6)
1 1
2 2

   
T +k B B 1 k
E(B) = , E =E = + . (5.7)
2 T B+S 2 2(B + S)

Omitiendo los sı́mbolos de esperanza o valor medio en (5.6) y (5.7), podemos obtener
igualdades aproximadas, tal como se formuló en el Teorema Empı́rico 1.
Durante los últimos veinte años, mientras daba clase a estudiantes y a profesores
en diferentes partes del mundo, recogı́ datos acerca del número de hermanos y
hermanas de la familia de cada individuo de mi audiencia. Los resultados están


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 123

resumidos en las Tablas 4.3-4.5. Se puede ver que las predicciones que facilita el
teorema empı́rico son correctas en prácticamente todos los casos. Como test adicional,
para contrastar si se ajustan o no a la distribución afectada, se calcula en cada caso el
estadı́stico

4([B − k] − [(T − k)/2])2


χ2 = (5.8)
(T − k)

cuya distribución asintótica, bajo la hipótesis antes mencionada, es una ji-cuadrado con
un grado de libertad. Tales valores ji-cuadrado son todos pequeños, proporcionando
una cierta evidencia a favor de la distribución binomial afectada. [En realidad, los
valores ji-cuadrado son demasiado pequeños, por lo que necesitarı́amos estudios
adicionales para esclarecer el mecanismo subyacente que genera los datos observados].

B B−k
Lugar y año k B S χ2
B+S B+S−k
Bangalore (India, 75) 55 180 127 .586 .496 0.02
Delhi (India, 75) 29 92 66 .582 .490 0.07
Calcuta (India, 63) 104 414 312 .570 .498 0.04
Waltair (India, 69) 39 123 88 .583 .491 0.09
Ahmedabad (India, 75) 29 84 49 .632 .523 0.35
Tirupati (India, 75) 592 1902 1274 .599 .484 0.50
Poona (India, 75) 47 125 65 .658 .545 1.18
Hyderabad (India, 74) 25 72 53 .576 .470 0.36
Tehran (Iran, 75) 21 65 40 .619 .500 0.19
Isphahan (Iran, 75) 11 45 32 .584 .515 0.06
Tokyo (Japón, 75) 50 90 34 .725 .540 0.49
Lima (Perú, 82) 38 132 87 .603 .519 0.27
Shangai (China, 82) 74 193 132 .594 .474 0.67
Columbus (USA, 75) 29 65 52 .556 .409 2.91
College St. (USA, 76) 63 152 90 .628 .497 0.01
Total 1206 3734 2501 .600 .503 0.14
k =
número de estudiantes, B = número total de hermanos
incluyendo el entrevistado, S = número total de hermanas.
Estimación de π bajo la distribución binomial de magnitud sesgada
= (B − k)/(B + S − k)

Tabla 4.3: Datos sobre varones encuestados (estudiantes)


c Publicacions de la Universitat de Barcelona
124 ESTAD ÍSTICA Y VERDAD

S S−k
Lugar y año k B S χ2
B+S B+S−k
Lima (Perú, 82) 16 37 48 .565 .464 .36
Los Baños (Filipinas, 83) 44 101 139 .579 .485 .18
Manila (Filipinas, 83) 84 197 281 .588 .500 .00
Bilbao (España, 83) 14 19 35 .576 .525 .10
Shangai (China, 82) 27 28 55 .662 .500 .00

Tabla 4.4: Datos sobre mujeres encuestadas (estudiantes)

La situación es ligeramente diferente en la Tabla 4.5 referida a datos obtenidos


a partir de profesores. La proporción estimada es superior a la mitad en cada caso, y
los valores de la ji-cuadrado son altos; esto implica que la función de ponderación
apropiada para estos datos es de un orden superior a r, el número de hermanos.
Los profesores varones parecen proceder de familias donde el número de hijos es
desproporcionadamente superior al de hijas!

B B−k
Lugar y año k B S χ2
B+S B+S−k
State College (USA, 75) 28 80 37 .690 .584 2.53
Warsaw (Polonia, 75) 18 41 21 .660 .525 2.52
Poznan (Polonia, 75) 24 50 17 .746 .567 1.88
Pittsburgh (USA, 81) 69 169 77 .687 .565 2.99
Tirupati (India, 76) 50 172 132 .566 .480 0.39
Maracaibo (Venezuela, 82) 24 95 56 .629 .559 1.77
Richmond (USA, 81) 26 57 29 .663 .517 0.03
Total 239 664 369 .642 .535 3.95

Tabla 4.5: Datos sobre varones encuestados (profesores)

Nota 1. A partir de (5.7), el valor esperado de la relación B/(B + S) para un tamaño


familiar dado f = (B + S)/k es como sigue para diferentes valores de f :

f: 1 2 3 4 5 6
 
B
E : 1 .75 .67 .625 .6 .58
B+S


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 125

Estos números muestran que en cualquier situación donde el tamaño promedio familiar
presumiblemente no exceda de 6, se pueden hacer las predicciones siguientes sobre el
número total de hermanos (B) y de hermanas (S) obtenidos a partir de los miembros
varones de cualquier reunión:

(i) B es mucho mayor que S.

(ii) B/(B + S), más que estar próximo a 12 , lo está a 0.6 o incluso 23 .

Sorprendentemente, estas predicciones se alcanzan incluso si k, el número de


varones de la reunión, es pequeño. [Éste será un buen ejercicio de clase o exhibición
en cualquier reunión. Uno puede hacer estas predicciones por anticipado y demostrar
la exactitud de las mismas después de recoger los datos a partir de los varones o las
mujeres.]

Nota 2. Las probabilidades para B > S, B = S, B < S en el caso de una distribución


binomial afectada para n = 1,2, . . . vienen en la Tabla 4.6.

n 1 2 3 4 5 6 7 8 9 10

1 3 1 11 1 42 1 163 1
B>S 1
2 4 2 16 2 64 2 256 2
1 3 10 35 90
B=S 0 0 0 0 0
2 8 32 128 512
1 1 5 6 22 29 93 166
B<S 0 0
4 8 16 32 64 128 256 512

Tabla 4.6: Probabilidades de B > S, B = S y B < S

Se aprecia que P(B > S) es mucho mayor que P(B < S) cualquiera que sea n, por lo
que en cualquier audiencia, la relación entre bg (varones pertenecientes a familias con
B > S) y bl (aquellos con B < S) es probablemente alta, dependiendo de la distribución
del tamaño familiar. Podemos ahora establecer otro teorema empı́rico.

Teorema Empı́rico 2: Los número bg y bl están aproximadamente en la relación de

3 11 1
E(bg ) = p1 + p3 + p5 + · · · + (p2 + p4 + · · · ), (5.9)
4 16 2


c Publicacions de la Universitat de Barcelona
126 ESTAD ÍSTICA Y VERDAD

1 1
E(bl) = p3 + p4 + · · · , (5.10)
4 8

donde pn es el número de familias con n hijos.

En los paı́ses occidentales, donde el tamaño esperado de las familias es pequeño,


la razón bg : bl es presumiblemente mayor que 4:1, mientras que en los orientales es
mayor que 2:1, resultados que son bastante altos comparados con 1:1. [Este fenómeno
puede ser predicho y verificado preguntando a los miembros de una audiencia que
levanten la mano alternativamente los que pertenecen a la categorı́a B > S y los de la
categorı́a B < S. Éste puede ser un buen ejercicio de clase o exhibición ante cualquier
audiencia.]

Nota 3. Sea p(b, n) la probabilidad de que una familia sea de tamaño N = n y número
de hermanos B = b, y supongamos que la probabilidad de seleccionar a esta familia es
proporcional a b. Entonces

bp(b, n) bp(n)p(b|n)
pw (b, n) = = , (5.11)
E(B) E(B)

E(B|n)
pw (n) = · p(n). (5.12)
E(B)

Cuando p(b|n) es binomial,

np(n)
pw (n) =
E(N)
  (5.13)
1 1
E w
=
N E(N)

obteniendo la media armónica de las observaciones n 1 , . . . , nk de la variable N w , es


decir, partiendo de la distribución (5.11) o (5.12),

k
1 (5.14)
ni

es una estimación de E(N) en la población original. Si la forma de p(n) es conocida,


entonces podemos escribir la verosimilitud de la muestra n 1 , . . . , nk usando la función


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 127

de probabilidad (5.12) y determinar los parámetros desconocidos por el método de la


máxima verosimilitud.

4.6. Alcoholismo, tamaño familiar y orden de nacimiento

Smart (1963, 1964) y Sprott (1964) examinaron varias hipótesis sobre la


incidencia del alcoholismo en familias canadienses usando los datos sobre el tamaño
familiar y el orden de nacimiento de 242 alcohólicos ingresados en tres clı́nicas de
Ontario. El método de muestreo es, por lo tanto, del tipo discutido en la sección 4.5.
Una de las hipótesis analizadas fue que las familias numerosas tenı́an mayor
número de alcohólicos de lo esperado. La hipótesis nula de que el número de
alcohólicos fuese como cabe esperar, se interpretó en el sentido de que las
observaciones del tamaño familiar seguı́an una distribución afectada

np(n)/E(N), n = 1, 2, . . ., (6.1)

donde p(n), n = 1, 2, . . ., es la distribución del tamaño familiar en la población general.


Smart y Sprott en sus análisis, utilizaron la distribución del tamaño familiar según el
censo de 1931 en Ontario para p(n). Resulta entonces una operación sencilla contrastar
si la distribución observada del tamaño familiar, en su estudio, está de acuerdo con la
distribución esperada (6.1).
Debe observarse que la distribución (6.1) serı́a apropiada si hubiésemos escogido
individuos (alcohólicos o no) al azar de una población general (de individuos) y
averiguado los tamaños de las familias a las cuales pertenecı́an. Pero no está claro
si la misma distribución (6.1) sirve cuando la investigación se restringe a individuos
alcohólicos admitidos en una clı́nica, como asumen Smart y Sprott. Esto podrı́a
suceder, como se demuestra más abajo, bajo una interpretación de su hipótesis nula
de que el número de alcohólicos en una familia tiene una distribución binomial
(como fallos en una secuencia de ensayos aleatorios independientes), y una suposición
adicional de que cada alcohólico tiene la misma oportunidad de ser admitido en una
clı́nica.
Sea π la probabilidad de que un individuo se convierta en alcohólico, y
supongamos que la probabilidad de que un miembro de una familia se convierta
en alcohólico es independiente de si otro miembro es alcohólico o no. Sea,
además, p(n), n = 1, 2, . . . la distribución de probabilidad del tamaño familiar
(independientemente de si la familia tiene un miembro alcohólico o no) en la población
general. Entonces la probabilidad de que una familia de sea de tamaño n y tenga r


c Publicacions de la Universitat de Barcelona
128 ESTAD ÍSTICA Y VERDAD

alcohólicos es
 
n
p(n) r πr φn − r , r = 0, . . . , n; n = 1, 2, . . ., (6.2)

donde φ = (1 − π). De (6.2), se deduce que la distribución del tamaño familiar en la


población general, condicionado al hecho de que la familia tenga al menos un miembro
alcohólico, es

(1 − φn )
p(n), n = 1, 2, . . .. (6.3)
1 − E(φN )

Si hemos elegido domicilios al azar y anotado los tamaños de las familias que tuvieran
al menos un alcohólico, entonces la hipótesis nula sobre el exceso de alcohólicos en
familias numerosas podrı́a ser probada comparando las frecuencias observadas con
las esperadas bajo el modelo (6.3). Sin embargo, bajo el patrón de muestreo adoptado
para averiguar los valores de n y r, a partir de un alcohólico admitido en una clı́nica, la
distribución afectada de (n, r),
 
n πr φn − r
p (n, r) = rp(n)
w
, (6.4)
r πE(N)

es más apropiada. Si tenemos información sobre el tamaño familiar n ası́ como del
número de alcohólicos (r) en la familia, podrı́amos comparar las frecuencias conjuntas
observadas de (n, r) con las esperadas bajo el modelo (6.4).
Partiendo de (6.4), la distribución marginal de n viene dada por

np(n)/E(N), n = 1, 2, . . ., (6.5)

que fue utilizada por Smart y Sprott como modelo para las frecuencias observadas del
tamaño familiar. Se ha visto en (6.3) que en la población general, la distribución del
tamaño familiar con al menos un alcohólico es

(1 − φn)p(n)
,
1 − E(φN )

que es aproximadamente igual a (6.5) si φ es cercano a la unidad. En otras palabras, si


la probabilidad de que un individuo se convierta en alcohólico es pequeña, entonces la
distribución del tamaño familiar tal como fue obtenida, es próxima a la distribución del
tamaño familiar con al menos un alcohólico en la población general. Esto no es cierto
si φ no es cercano a la unidad.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 129

Smart y Sprott encontraron que la distribución (6.5) no se ajustaba a las


frecuencias observadas, ya que éstas tenı́an colas más pesadas. Concluyeron que las
familias numerosas contribuyen más de lo esperado a la tasa de alcohólicos. ¿Es válida
esta conclusión? Parece que la distribución afectada (6.5) se deduce de dos hipótesis.
Una es que la distribución del tamaño familiar en el subconjunto de familias que tienen
al menos un alcohólico, en la población general, es de la forma (6.3), asunción que
está implı́cita en la hipótesis nula original establecida por Smart. La otra consiste en
suponer que el método de obtención de los datos es equivalente al muestreo p.p.t. de
familias, con probabilidad proporcional al número de alcohólicos en una familia. El
rechazo de (6.5) implicarı́a el rechazo de la primera de estas hipótesis si se asume
que la segunda es correcta. No existen a priori fundamentos para esta suposición, y en
ausencia de un test objetivo para contrastarla, debemos tener precauciones en aceptar
las conclusiones de Smart.
Otra hipótesis considerada por Smart fue que el último hijo nacido tiene una
tendencia mayor a volverse alcohólico que el nacido en primer lugar. El método usado
por Smart puede ser algo confuso para los estadı́sticos. Algunos comentarios fueron
hechos por Sprott criticando la aproximación de Smart. Podemos revisar el análisis
de Smart a la luz del modelo (6.4). Si asumimos que el orden de nacimiento no
influye en el hecho de volverse alcohólico, y que la probabilidad de que un alcohólico
sea remitido a una clı́nica es independiente del orden de nacimiento, entonces la
probabilidad de que un alcohólico observado pertenezca a una familia con n hijos y
r alcohólicos, y tenga orden de nacimiento s ≤ n es, utilizando el modelo (6.4),
 
rp(n) n
r πr − 1 φn − r , s = 1, . . . , n; r = 1, . . . , n; n = 1, 2, . . .. (6.6)
nE(N)

Sumando todos los términos respecto a r, encontramos que la distribución marginal de


(n, s), el tamaño familiar y el orden de nacimientos, aplicable a los datos observados es

p(n)/E(N), s = 1, . . ., n, n = 1, 2, . . ., (6.7)

donde recordemos que p(n), n = 1, 2, . . ., es la distribución del tamaño familiar en la


población general. Smart dio las frecuencias bivariantes observadas de (n, s), y ya que
p(n) era conocido, los valores esperados podrı́an haber sido calculados y comparados
con los observados. Pero hizo algo más.
A partir de (6.7), la distribución marginal del orden de nacimiento es


1 
P(S = s) = p(i), s = 1, 2, . . .. (6.8)
E(N) i = s


c Publicacions de la Universitat de Barcelona
130 ESTAD ÍSTICA Y VERDAD

n=1 2 3 4
s O E O E O E O E
1 21 21 22 16 17 13.3 11 11.75
2 10 16 14 13.3 10 11.75
3 9 13.3 13 11.75
4 13 11.75
O = observadas, E = esperadas.
a Reproducido de la Tabla 1 de Smart (1963).

Tabla 4.7: Distribución del orden de nacimiento s y tamaño familiar na

El análisis de Smart (1963) en su Tabla 2 es un intento de comparar la distribución


observada del orden de nacimiento, con la esperada bajo el modelo (6.8) con los p(i)
estimados a partir de los datos utilizando el modelo (6.1).
Un método mejor es el que sigue: a partir de (6.7) se ve que para un tamaño
familiar dado, las frecuencias esperadas de orden de nacimiento son iguales que las
calculadas por Smart (1963) en la Tabla 1, en cuyo caso calculando ji-cuadrados para
comparar las frecuencias esperadas y observadas para cada tamaño familiar, podrı́an
facilitarnos toda la información acerca de la hipótesis considerada. Tal procedimiento
serı́a independiente de cualquier supuesto o estimación de las p(n). Pero no está claro
si una hipótesis del tipo considerado por Smart puede ser probada en base a los datos
obtenidos, sin información adicional sobre los otros alcohólicos de la familia, tales
como su edad, sexo, etc..
La Tabla 4.7 reproduce una parte de la Tabla 1 de Smart (1963) relativa a familias
de tamaño 4 y orden de nacimiento hasta 4. Se aprecia que para familias de tamaño
2 y 3, las frecuencias observadas parecen contradecir la hipótesis, y para aquellas de
tamaño superior a 3 (ver Tabla 1 de Smart), el orden de nacimiento no tiene ninguna
influencia. Es interesante comparar lo anterior con un tipo similar de datos (Tabla
4.8), recogidos por el autor sobre el orden de nacimiento y tamaño familiar de los
miembros de plantilla en dos departamentos en la Universidad de Pittsburgh. Se ve que
hay demasiados primeros hijos entre los miembros de plantilla, indicando que llegar a
ser profesor es una tendencia de los primeros hijos! Se espera que en los datos del tipo
que estamos considerando, habrá un exceso de nacidos en primer lugar, sin que ello
implique una relación implı́cita entre el orden de nacimientos y un atributo particular,
especialmente cuando es dependiente de la edad.3

03. Éste puede ser otro ejercicio de clase. Si se va a cualquier oficina y se pregunta quiénes nacieron en primer
lugar, en segundo lugar, etc., se verá como hay preponderancia de primogénitos y hermanos mayores.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 131

s n=1 2 3 4
1 7 14 9 6
2 6 4 2
3 2 0
4 0

Tabla 4.8: Distribución del orden de nacimiento y tamaño familiar n ≤ 4 entre


el personal de plantilla (Universidad de Pittsburgh)

4.7. La paradoja del tiempo de espera

Patil (1984) analizó un estudio llevado a cabo en 1966 por el Instituto Nacional
de Estadı́stica y Economı́a Aplicada en Marruecos para estimar el tiempo de estancia
media de los turistas. Se llevaron a cabo dos clases de inspección, una contactando
con turistas residentes en hoteles y otra contactando con turistas en las estaciones
fronterizas en el momento de su salida del paı́s. El tiempo medio de estancia sobre
3000 turistas encuestados en hoteles, fue de 17.8 dias, y sobre 12321 turistas en
las estaciones fronterizas fue de 9 dias. Esto fue detectado por los responsables del
departamento de planificación, quienes determinaron que las estimaciones procedentes
de los hoteles fueran descartadas.
Está claro que las observaciones recogidas de los turistas que salı́an del paı́s
corresponden a la distribución real del tiempo de estancia, ası́ que el promedio
observado de 9.0 es una estimación válida de la duración media de la estancia. Puede
demostrarse que en una situación de equilibrio entre las entradas y las salidas de los
turistas de un paı́s, el tiempo de permanencia determinado por los contactos en los
hoteles tiene una distribución sesgada por el tamaño, ası́ que la media observada
será una estimación por exceso de la duración media de la estancia. Si X w es una
variable aleatoria (v.a.) de magnitud sesgada, entonces

E(X w )−1 = µ−1 (7.1)

donde µ es el valor esperado de X , la variable original. La fórmula (7.1) muestra que la


media armónica de las observaciones de magnitud sesgada es una estimación válida de
µ. Ası́ la media armónica de las observaciones efectuadas en base a los turistas alojados
en hoteles, deberı́a haber facilitado un estimación comparable a la media aritmética de
las observaciones a partir de los turistas en las estaciones fronterizas.


c Publicacions de la Universitat de Barcelona
132 ESTAD ÍSTICA Y VERDAD

Es interesante observar que la estimación efectuada a partir de los residentes en


hoteles es casi el doble que la otra, factor que se da en la llamada paradoja del tiempo
de espera (ver Feller, 1966; Patil y Rao, 1977) asociada a la distribución exponencial.
Esto sugiere, pero no confirma, que la distribución de la duración de la estancia puede
ser exponencial.
Supongamos que a los turistas en los hoteles se les preguntara cuánto tiempo han
estado en el paı́s durante el tiempo de la investigación. En tal caso podemos asumir que
la f.d.p. de la v.a. Y, el tiempo que un turista ha estado en el paı́s en el momento de la
investigación, coincide con la del producto X w R, donde X w es la versión de magnitud
sesgada de X , el tiempo de estancia, y R es una v.a. independiente con distribución
uniforme en [0,1]. Si F(x) es la función de distribución de X , la f.d.p. de Y es

µ−1 [1 − F(y)]. (7.2)

El parámetro µ puede ser estimado en base a las observaciones sobre Y, siempre que
la forma funcional de F(y), la distribución del tiempo de estancia, sea conocida.
Es interesante observar que la f.d.p. (7.2) es la misma que la obtenida por
Cox (1962) estudiando la distribución del tiempo hasta que ocurre un fallo de un
determinado componente usado en diferentes máquinas, a partir de las observaciones
de los tiempos de uso de los componentes durante el periodo de la investigación.

4.8. Modelos deteriorados

Sea N una v.a. con distribución de probabilidad, pn , n = 1, 2, . . ., y R una v.a. tal


que

P(R = r|N = n) = s(r, n). (8.1)

Entonces la distribución marginal de R truncada en el cero es



p
r = (1 − p) −1
pn s(r, n), r = 1, 2, . . ., (8.2)
n=r

donde


p= pi s(0, i). (8.3)
1


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 133

La observación r representa el número que queda cuando la observación original n


está sujeta a un proceso de eliminación que reduce n a r con probabilidad s(r, n). Tal
situación surge cuando consideramos observaciones sobre tamaño familiar contando
sólo los hijos supervivientes (R). El problema es determinar la distribución de N, el
tamaño familiar original, conociendo la distribución de R y asumiendo una distribución
de supervivencia apropiada.
Supongamos que N siga una Poisson de parámetro λ, N ∼ P(λ), y R una binomial
con parámetro π, R ∼ B(π). Entonces

(λπ)r
pr = e−λπ · , r = 1, 2, . . .. (8.4)
r!(1 − e−λπ )

Se observa que los parámetros λ y π están confundidos. Por tanto conociendo


la distribución de R, no podemos determinar la distribución de N. Ocurre una
confusión similar cuando N sigue una distribución binomial, una binomial negativa,
o una distribución logarı́tmica. Cuando la distribución de supervivencia es binomial,
Sprott (1965) obtiene una clase general de distribuciones que posee esta propiedad.
¿Qué información adicional se necesita para determinar la distribución original? Por
ejemplo, si sabemos qué observaciones en la muestra no sufrieron reducción, entonces
es posible estimar la distribución original ası́ como el parámetro binomial π.
Es interesante notar que las observaciones que no sufren deterioro siguen la
distribución

pur = cpr πr , (8.5)

que es una distribución afectada. Si la distribución original es una Poisson, entonces

(λπ)r
p =
u
e−λπ · , (8.6)
r
r!(1 − e−λπ )

que coincide con (8.4). Rao y Rubin (1964) demostraron que la igualdad p ur = pr es
una caracterización de la distribución de Poisson.
Los modelos deteriorados del tipo aquı́ descritos, fueron introducidos por Rao
(1965). El lector puede encontrar desarrollos teóricos sobre los mismos ası́ como
caracterización de las distribuciones de probabilidad relacionadas, en Alzaid, Rao y
Shanbhag (1984).


c Publicacions de la Universitat de Barcelona
134 ESTAD ÍSTICA Y VERDAD

4.9. Una historia de huesos rotos

El siguiente problema surgió en el análisis de mediciones de huesos de fémur


recuperados de una viejo cementerio. Cuando un hueso de fémur se encuentra intacto
es posible efectuar tres medidas, longitud L, anchura de la parte superior B y anchura
de la parte inferior T . Pero cuando se encuentra un trozo roto, sólo pueden tomarse las
medidas B o T . Ası́, los datos observados son incompletos, con sólo las mediciones de
B o T en algunos casos y las tres L, B, T en otros. ¿Cómo podemos estimar, a partir
de los datos fragmentados anteriores, los valores medios y los momentos de segundo
orden de L, B, T de la población original de huesos de fémur?
Sea p(l, b,t) la f.d.p. de L, B, T en la población original con las densidades
marginales asociadas
 
p(b) = p(l, b,t)dldt y p(t) = p(l, b,t)dldb. (9.1)

Si la probabilidad de que un hueso se rompa no depende de sus dimensiones,


entonces la verosimilitud de los datos observados puede escribirse utilizando las f.d.p.,
p(l, b,t), p(b) y p(t), dependiendo de las mediciones disponibles en cada ejemplar.
No obstante, puede suceder que los huesos más largos tengan una mayor facilidad
en romperse; tal fenómeno fue demostrado en una situación similar sobre mediciones
de cráneos por Rao y Shaw (1948). En tal caso podemos distinguir las mediciones
Ls , Bs , T s tomadas de huesos bien conservados (supervivientes) y las mediciones
Ld , Bd , T d asociadas con huesos deteriorados y denotamos sus f.d.p. con superı́ndices
s y d respectivamente.
Supongamos que la probabilidad de supervivencia de un hueso de fémur de
longitud l es s(l), función sólo de l. Entonces

ps (l, b,t) = σ−1 p(l, b,t)s(l), σ = E[s(l)]. (9.2)

De forma similar

pd (l, b,t) = (1 − σ)−1 p(l, b,t)(1 − s(l)). (9.3)

A partir de (9.2), (9.3), se deduce inmediatamente lo siguiente:

ps (l) = σ−1 p(l)s(l),


ps (b,t|l) = p(b,t|l),


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 135


p (b,t) =
s
σ−1 p(b,t|l)p(l)s(l)dl

= σ−1 p(b,t)p(l|b,t)s(l)dl = p(b,t)w(b,t),

p(l, b,t)s(l)
ps (l|b,t) =  = p(l|b,t),
p(l, b,t)s(l)dl

pd (b,t|l) = p(b,t|l),

ps ó d (b) = p(b) y ps ó d (t) = p(t),


p(l, b,t)(1 − s(l))
pd (l|b,t) =  = p(l|b,t).
p(l, b,t)(1 − s(l))dl

Resulta interesante observar que todas las distribuciones que implican a L como
variable principal son afectadas. Una consecuencia inoportuna de este resultado es que
la regresión de L sobre (B, T ) estimada a partir del conjunto de muestras completas
sobre L, B, T no coincide con la verdadera regresión de L sobre (B, T ) en la población
original de huesos de fémur. Pero otras distribuciones como

ps (b,t|l), pd (b,t|l), ps ó d (b), ps ó d (t) (9.4)

son independientes de s(l), y las propiedades de éstas podrı́an ser utilizadas para
estimar todos los parámetros desconocidos cuando no se conoce s(l).
Por ejemplo, mediante todas las mediciones disponibles de B y T (tomadas sobre
huesos deteriorados o conservados), los valores medios µ B y µT de B y de T de la
población original podrı́an ser estimados a partir de los promedios usuales. De las
observaciones sobre el conjunto completo de L, B y T podemos estimar las regresiones
de B sobre L y de T sobre L de la forma habitual. Entonces los valores faltantes de L
pueden ser estimados en cada caso, es decir, cuando disponemos sólo de B o de T , por
regresión inversa usando la ecuación de regresión de B sobre L ó de T sobre L. Ası́,
la media de los valores observados de L y los valores estimados de L en los casos de
observaciones faltantes, se toma como una estimación de µ L , el valor medio de L en
la población original. De forma similar, los momentos de segundo orden pueden ser
estimados usando la relación entre los parámetros de la distribución original de L, B y
T y de las distribuciones condicionales (9.4).


c Publicacions de la Universitat de Barcelona
136 ESTAD ÍSTICA Y VERDAD

4.10. La distribución de los apagones en Calcuta

Supongamos que estamos llevando a cabo un experimento de medición del


tiempo que tarda un determinado acontecimiento en suceder, y para llevarlo a cabo
necesitamos un suministro continuado de electricidad. Si se corta la corriente antes de
que el suceso ocurra, entonces el experimento debe concluirse y ya no se obtienen más
observaciones. ¿A qué distribución se ajustan las observaciones registradas resultantes
sólo de los experimentos con éxito, es decir, mientras hay suministro eléctrico hasta
que ocurre el suceso?
Sea f (x) la f.d.p. de X , el tiempo de espera de un determinado suceso, y sea g(t)
la f.d.p. de T, el tiempo hasta que hay un corte en la corriente eléctrica (en Calcuta éste
es un fenómeno al azar causante de apagones). Una observación de X puede registrarse
sólo cuando un par (x,t) ocurre tal que x ≤ t. La f.d.p. del par (X , T ) tal que X ≤ T es

f (x)g(t)
(10.1)
P(X ≤ T )

ası́ que la f.d.p. de la variable registrada X (r) es


 ∞
f (x)g(t) f (x)(1 − G(x))
f (x) =
(r)
dt = (10.2)
x P(X ≤ T ) P(X ≤ T )

donde G(t) es la función de distribución de T, y


 ∞
P(X ≤ T ) = f (x)(1 − G(x)) dx. (10.3)
0

La distribución (10.2) es una versión afectada de la distribución de X , la cual he


denominado Distribución de apagones en Calcuta (CBD).4
Si sólo tenemos observaciones de experimentos con éxito, entonces la distribución
pertinente es la (10.2). Sin embargo, en una situación como la descrita, pueden llevarse
a cabo otras observaciones. Las distribuciones apropiadas cuando se puede obtener
información adicional se discuten a continuación.
La variable aleatoria, definida como Z = mı́n(X , T ), es observable en cada
experimento. Su f.d.p. viene dada por
 ∞  ∞
d
h(z) = − f (x)g(t)dxdt = [1 − F(z)]g(z) + [1 − G(z)] f (z) (10.4)
dz z z

que es una mixtura de distribuciones afectadas.

04. Calcutta Blackout Distribution en el original. N. del T.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 137

En el experimento descrito al principio, existe también la posibilidad de registrar


Z∗ = mı́n(X , T ), con el sı́mbolo identificativo si la verdadera observación es sobre X
o sobre T . En tal caso la f.d.p. de Z∗ vendrá dada por
  
f (z) 1 − G(z) si z es una observación sobre X ,
h∗ (z) =   (10.5)
g(z) 1 − F(z) si z es una observación sobre T.

4.11. Distribuciones nebulosas

Cuando la temperatura de la superficie del mar es medida por un satélite, existe


la posibilidad de que la lectura se vea afectada por una capa de nubes, resultando
una disminución del valor de las temperaturas. La magnitud de la disminución de
la temperatura depende del grosor de las nubes. Pero cuando un gran número de
mediciones se han llevado a cabo en un área determinada, hay una proporción de
datos que se hallan libres de la influencia de las nubes, mientras que el resto están
afectados por nubes de diferente espesor. Si p(x) es la verdadera distribución de la
temperatura sobre la superficie del mar, cuya media buscamos, q(c), 0 ≤ c ≤ 1, es la
f.d.p. de nubosidad en el área cubierta de nubes y λ es la proporción del área sin capa
de nubes, entonces la f.d.p. aplicable a las temperaturas observadas es

1 t 
λp(t) + (1 − λ) p q(c) dc. (11.1)
c c

La proporción λ y la f.d.p. q(c) son generalmente desconocidas en cualquier situación


dada, y modelar la totalidad de los datos para los elementos desconocidos es
extremadamente difı́cil. Sin embargo, cuando λ es grande, la distribución (11.1)
está dominada por p(t) en la cola de la derecha, lo que se puede deducir en base
a la suavidad del histograma de los datos observados relativos a grandes valores
de temperatura. Cuando esto sucede, podemos considerar los datos en las colas del
histograma como observaciones no contaminadas y entonces utilizar únicamente tales
observaciones para la estimación de la media de la superficie del mar. Esta técnica
fue empleada por Smith, Rao, Koeffler y Curtis (1970). Estos autores asumieron que
la distribución de la temperatura es normal (con media µ y varianza σ 2). Entonces
disponiendo de una estimación de σ 2 de una fuente independiente, e igualando el punto
de inflexión (estimado), observado en la cola de la derecha del histograma suavizado,
con µ + σ, proporciona una estimación de µ. Un método alternativo es considerar el
punto de truncamiento τ y una estimación de la media usando sólo las observaciones
que sean superiores o iguales a τ. La estimación de µ en tal caso satisface la ecuación


c Publicacions de la Universitat de Barcelona
138 ESTAD ÍSTICA Y VERDAD

 
τ−µ
σΦ
σ
tτ = µ +   (11.2)
τ−µ
1−Φ
σ

donde t τ es la media de las observaciones mayores o iguales que τ. Indicamos la


solución de (11.2) por µ̂τ . Entonces representamos gráficamente, en un sistema de
coordenadas cartesianas, µ̂τ respecto τ y elegimos aquel valor de τ, llamémosle τ 0 ,
a partir del cual el gráfico muestra una tendencia a ser paralelo al eje de τ. Se estima µ
por µ̂τ0 .

Referencias

ALZAID, A. H., RAO, C. R. y SHANBHAG, D. N. (1984). “Solutions of certain functional


equations and related results on probability distributions”. Technical Report,
University of Sheffield, U.K.
COX, D. R. (1962). Renewal Theory. Chapman ans Hall, London.
FELLER, W. (1966). An introduction to Probability Theory and its Applications. Vol. 2.
John Wiley & Sons, New York.
FELLER, W. (1968). An introduction to Probability Theory and its Applications. Vol. 1.
(3.a edición). John Wiley & Sons, New York.
FISHER, R. A. (1934). “The effect of methods of ascertainment upon the estimation of
frequencies”. Ann. Eugen., 6, 13-25.
PATIL, G. P. (1984). “Studies in statistical ecology involving weIghted distributions”.
En Statistics: Applications and New Directions, pp. 478-503. Indian Statistical
Institute, Calcutta.
PATIL, G. P. y ORD, J. K. (1976). “On size-biased sampling and related form-invariant
distributions”. Sankhyã, Ser. B, 33, 49-61.
PATIL, G. P. y RAO, C. R. (1977). “The weighted distributions: A survey of their
applications”. En Applications of Statistics, (P. R. Krishnaiah, Ed.), pp. 383-405.
North-Holland Publishing Company, Amsterdam.
PATIL, G. P. y RAO, C. R. (1978). “Weighted distributions and size biased sampling
with applications to wildlife populations and human families”. Biometrics, 34, 179-
189.


c Publicacions de la Universitat de Barcelona
PRINCIPIOS Y ESTRATEGIAS DEL ANÁLISIS DE DATOS: DISTRIBUCIONES AFECTADAS Y NEBULOSAS 139

RAO, C. R. (1965). “On discrete distributions arising out of methods of ascertainment”.


En Classical and Contagious Discrete Distributions, (G. P. Patil, Ed.), pp. 320-333.
Statist. Publishing Society, Calcutta. Reimpresa en Sankhyã, Ser. A, 27, 311-324.
RAO, C. R. (1973). Linear Statistical Inference and its Applications, (2. a edición). John
Wiley & Sons, New York.
RAO, C. R. (1975). “Some problems of sample surveys”. Suppl. Adv. Appl. Probab., 7,
50-61.
RAO, C. R. (1977). “A natural example of a weighted binomial distribution”. Amer.
Statist., 31, 24-26.
RAO, C. R. (1985). “Weighted distributions arising out of methods of ascertainment:
What population does a sample represent?” En A Celebration of Statistics, el Volumen
Centenario de ISI, (A. C. Atkinson y S. E. Fienberg, eds.), pp. 543-569. Springer-
Verlag.
RAO, C. R. y RUBIN, H. (1964). “On a characterization of the Poisson distribution”.
Sankhyã, Ser. A, 25, 295-298.
RAO, C. R. y SHAW, D. C. (1948). “On a formula for the prediction of cranial capacity”.
Biometrics, 4, 247-253.
SMART, R. G. (1963). “Alcoholism, bird order, and family size”. J. Abnorm. Soc.
Psyhcol., 66, 17-23.
SMART, R. G. (1964). “A response to Sprott’s ‘Use of Chi-square”’. J. Abnorm. Soc.
Psychol., 69, 103-105.
SMITH, W. L., RAO, P. K., KOEFFLER, R. y CURTIS, W. P. (1970). “The determination
of sea-surface temperature from satellite high resolution infrared window radiation
measurements”. Monthly Weather Review, 98, 604-611.
SPROTT, D. A. (1964). “Use of Chi-square”. J. Abnorm. Soc. Psychol., 69, 101-103.
SPROTT, D. A. (1965). “Some comments on the question of identifiability of parameters
raised by Rao”. En Classical and Contagious Discrete Distributions, (G. P. Patil, ed.),
pp. 333-336, Statist. Publishing Society, Calcutta.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA
BÚSQUEDA DE LA VERDAD

5.1. Estadı́stica y verdad

Pero como verdad cierta, nadie lo sabe,


Ni será conocida; ni tan sólo por los dioses,
Ni incluso sobre las cosas de las que estoy hablando.
Y aunque ası́ fuera por pura casualidad
La verdad final, serı́a desconocida para él;
Para todos no es más que una telaraña de suposiciones.
Jenófanes de Colofón

. . . la estadı́stica es el estudio de cuanta informaci ón deberı́a ser empleada para


describir y ofrecer una guı́a para actuar, en situaciones pr ácticas que involucren
incertidumbre.
V. Barnett (Inferencia Estadı́stica Comparativa)

En mi primera conferencia, me referı́ a la incertidumbre en nuestro mundo


real —incertidumbre como falta de información, falta de conocimiento suficiente
utilizando la información posible, errores en mediciones incluso usando sofisticados
instrumentos, actos de Dios (catástrofes), extravagancias del comportamiento humano
(el más imprevisible de todos los fenómenos), comportamiento aleatorio de partı́culas
fundamentales que requieren leyes probabilı́sticas más que leyes determinı́sticas
para explicar los fenómenos naturales, etc. Mencioné cómo la cuantificación de la
incertidumbre nos permite idear métodos para reducir, controlar o tener en cuenta la
incertidumbre para tomar decisiones. En mi segunda conferencia, discutı́ estrategias
de análisis de datos para extraer información de los datos observados y tratar con
la incertidumbre. Puse énfasis en la necesidad de tener datos claros, relevantes y
legı́timos, y en utilizar modelos apropiados para la extracción de la información.
En esta conferencia continúo con el mismo tema un poco más y discuto, a través de
varios ejemplos, el rol de la estadı́stica en el más amplio contexto de adquisición de
142 ESTAD ÍSTICA Y VERDAD

nuevo conocimiento o en la búsqueda de la verdad, para entender la naturaleza y tomar


las decisiones óptimas en nuestra vida diaria.
¿Qué es el conocimiento y cómo podemos adquirirlo? ¿Cuáles son los procesos
del pensamiento implicados y la naturaleza de las investigaciones que se deben
llevar a cabo? Estas cuestiones han confundido al intelecto humano y permanecerán
por largo tiempo sujetas a disertaciones filosóficas. Sin embargo, recientes avances
en lógica y ciencia estadı́stica han abierto un camino sistemático para adquirir
nuevos conocimientos, interpretados en un sentido pragmático más que en el sentido
metafı́sico del “verdadero conocimiento”.

5.1.1. Las Leyes Cientı́ficas

Las leyes cientı́ficas no son formuladas por el principio de autoridad o


justificadas por la fe o la filosofı́a medieval; la estadı́stica es el único tribunal de
apelación del conocimiento nuevo.
P. C. Mahalanobis

Una hermosa teorı́a, destruida por un hecho sucio, feo y peque ño.
Thomas H. Huxley

La ciencia trata con el conocimiento de los fenómenos naturales y su


perfeccionamiento. Tal conocimiento es usualmente compendiado en términos de leyes
(axiomas o teorı́as) las cuales permiten la predicción de futuros acontecimientos,
dentro de los imprescindibles lı́mites de precisión que nos proporcionan las bases para
la investigación tecnológica y sus aplicaciones. Ası́, tenemos las leyes de Newton sobre
el movimiento, la teorı́a de la relatividad de Einstein, el modelo atómico de Bohr, el
efecto Raman, las leyes de la herencia de Mendel, la teorı́a de la evolución de Darwin,
etc., sobre las que depende la moderna tecnologı́a. Podrı́amos no saber nunca cuáles
son las verdaderas leyes. Buscamos sólo hipótesis de trabajo, que estén apoyadas por
los hechos observados, las cuales con el transcurso del tiempo pueden ser reemplazadas
por mejores hipótesis, con más pruebas que las evidencien a partir de un grupo de
datos más amplio, y con mayor porvenir en las aplicaciones. Estudiamos el mundo tal
como nos parece que es. “No es asunto de la ciencia ocuparse de si existen realmente
electrones o no, siempre que las cosas se comporten como si realmente existieran”
(MacMurray, 1939). El método de investigación cientı́fico implica el siguiente ciclo sin
fin (o espiral) que es una elaboración de la fórmula de Popper (P1 T T EE P2 )
donde P1 , P2 significan la teorı́a inicial y su modificación respectivamente, T T
representa el proceso de comprobación de la teorı́a y EE la eliminación de errores.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 143

(b) (a)
Creación de Nuevas Ideas INFERENCIA
HIPÓTESIS Verificación de
O (Conjeturas lúcidas) la Teoría
TEORÍA

(c) (h)

Razonamiento Razonamiento
Deductivo Inductivo

(d) (g)
Diseño de experimentos
CONSECUENCIAS DATOS
(Garantizar la validez
(e) de los datos) (f)

Toda hipótesis será posiblemente rechazada con la acumulación de más datos, una
situación francamente descrita por Karl Popper:

“Defender la evidencia de una hipótesis cientı́fica es meramente un intento de


falsificación que ha fracasado”.

El método cientı́fico, como refleja el anterior diagrama, implica dos procesos


lógicos —razonamiento deductivo e inductivo. 1 El razonamiento deductivo deriva
consecuencias a partir de unas premisas dadas, un proceso de pensamiento
perfeccionado por los Griegos en el siglo tercero a.C., sistematizado a través del
estudio de las matemáticas durante los últimos 2000 años. El razonamiento inductivo,
que implica razonamientos a partir de premisas insuficientes y toma de decisiones,
debe haber sido practicado desde el principio de la humanidad. Sin embargo,
permaneció sin formalizar, quizás debido a la naturaleza incierta de la inferencia y
la natural inhibición de la mente humana a prescribir reglas que podrı́an conducir
a resultados erróneos. La ruptura mayor en nuestro pensamiento llegó a principios
del siglo XX, cuando se percibió que la inferencia inductiva, si bien incierta, puede
ser hecha precisa a través de la especificación de la cantidad de incertidumbre en las
conclusiones obtenidas. Los primeros frutos de este pensamiento fueron el desarrollo
de tests de significación a través de los cuales las hipótesis pueden ser juzgadas
(aceptadas o rechazadas) sujetas a una especı́fica cantidad de incertidumbre.
Como refleja el anterior diagrama, hay dos etapas en el método cientı́fico: los
pasos (a) (b) y (c) (d) proceden de cada determinada área de investigación
y del papel creativo jugado por los cientı́ficos, mientras que los demás pasos (e)
(f) y (g) (h) están sujetos a la metodologı́a estadı́stica. A través de la recolección
de datos relevantes y válidos, gracias a experimentos diseñados eficientemente, y
análisis apropiados de datos para probar determinadas hipótesis y facilitar indicios

01. Una detallada discusión sobre la diferencia entre razonamiento deductivo e inductivo se da en el capı́tulo 2.


c Publicacions de la Universitat de Barcelona
144 ESTAD ÍSTICA Y VERDAD

para posibles alternativas, la estadı́stica permite al cientı́fico poner en juego todas su


creatividad potencial, y en consecuencia descubrir nuevos fenómenos, sin permitirle
desvariar ni abundar en la introducción de nuevos conceptos que no tengan relación
con los hechos reales. Los métodos estadı́sticos han sido de gran valor especialmente
en biologı́a y ciencias sociales donde el rango de variación en las observaciones es
a menudo grande y el número de observaciones es frecuentemente limitado; sólo
el análisis estadı́stico puede dar una estimación cuantitativa de la relevancia de los
descubrimientos en tales situaciones.
Comentando acerca de la importancia del diseño de experimentos eficientes
en trabajos cientı́ficos (el paso (e) (f) del diagrama anterior), usando métodos
estadı́sticos, R. A. Fisher (1957) dice:

“Un repaso completo del proceso de recogida de datos o del diseño experimental,
puede a menudo incrementar el rendimiento diez o doce veces, con el mismo
costo en tiempo y trabajo. El consultar a un estadı́stico después de finalizar un
experimento, es, a menudo, meramente pedirle que lleve a cabo un examen post
mortem. Quizás le tenga que decir que el experimento falleció”.

5.1.2. Toma de decisiones

La vida es el arte de sacar conclusiones suficientes de premisas insuficientes.


Samuel Butler

Suponer es barato, suponer equivocadamente es caro.


Viejo proverbio chino

En la toma de decisiones debemos tratar con la incertidumbre. La naturaleza de


la incertidumbre depende del problema analizado. Las siguientes son preguntas tı́picas
que se tienen en cuenta en la toma de decisiones. ¿Cuánto trigo se producirá este año?
¿Es la persona acusada culpable de un determinado delito? ¿Es válida la reclamación
de una mujer sobre la paternidad de su hijo? ¿Fumar causa cáncer de pulmón? ¿Puede
una tableta de aspirina, tomada a diario, reducir el riesgo de infarto? ¿Pertenecı́a un
determinado cráneo, encontrado en una antigua tumba, a un hombre o a una mujer?
¿Quién escribió “Hamlet”: Shakespeare, Bacon o Marlow? ¿Cuál es la situación exacta
del tumor cerebral en la cabeza del paciente? ¿Cuál es el árbol genealógico de las
diferentes lenguas del mundo? ¿Es el hijo nacido en último lugar más inteligente que
el primogénito? ¿Cuál será el precio del oro dentro de dos meses? En caso de accidente,


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 145

¿protege el cinturón de seguridad de heridas graves al conductor? ¿Controlan los


planetas nuestros movimientos, acciones y logros? ¿Son correctas las predicciones
astrológicas?
Todas estas son situaciones que no pueden ser resueltas mediante discusiones
filosóficas o por el uso de teorı́as existentes (o establecidas). Ninguna respuesta
definitiva puede fundarse en la información o datos recogidos, y cualquier regla que
nos haga seleccionar una u otra de las respuestas, estará sujeta a error. La alternativa
para evitar errores no es abstenerse de tomar decisiones. No hay progreso de esta
forma. Lo mejor que podemos hacer es tomar decisiones con una metodologı́a óptima
minimizando el riesgo implicado. El razonamiento inductivo y la cuantificación de la
incertidumbre proporciona una respuesta a este problema. Permiten la evaluación de
los riesgos implicados al tomar diferentes decisiones posibles, y la toma de la decisión
óptima con el mı́nimo riesgo posible.

5.1.3. La Ubicuidad de la Estadı́stica

La ciencia estadı́stica es el aspecto peculiar del progreso humano que dio al


siglo XX su carácter especı́fico, . . . la época actual gira alrededor del estadı́stico
para buscar lo que es más esencial en todas sus actividades m ás importantes.
R. A. Fisher (1952)

El alcance de la estadı́stica, tal como es entendida, estudiada y practicada hoy


en dı́a, se extiende a toda la escala de las ciencias sociales y naturales, ingenierı́a y
tecnologı́a, dirección de empresa y asuntos económicos, arte y literatura.
El hombre profano usa la estadı́stica (información obtenida a partir de datos de
diversos tipos y sus análisis publicados en periódicos y artı́culos para el consumidor)
para tomar decisiones en la vida diaria, o hacer planes futuros y decidir inversiones
juiciosas, en la compra de bienes, etc. Cierto conocimiento estadı́stico puede ser
necesario para una apropiada comprensión y utilización de toda la información
disponible y para protegerse contra la propaganda errónea. La necesidad de literatura
estadı́stica en nuestra era, dominada por la ciencia y la tecnologı́a, fue predicha por H.
G. Wells cuando dijo:

“El pensamiento estadı́stico será algún dı́a tan necesario para el ciudadano
competente como la habilidad de leer y escribir”

Para el gobierno de un paı́s, la estadı́stica es el medio por el cual puede hacer


planes a corto y largo plazo y alcanzar metas especı́ficas en el campo económico


c Publicacions de la Universitat de Barcelona
146 ESTAD ÍSTICA Y VERDAD

y social. Sofisticadas técnicas estadı́sticas se aplican para hacer pronósticos sobre la


población y la demanda de productos de consumo y servicios, ası́ como para formular
planes económicos, usando modelos apropiados, con el objetivo de alcanzar un
determinado grado de progreso en el bienestar social. Se dice, “Cuanto más próspero es
un paı́s tanto mejores son sus estadı́sticas”. Esto, realmente, es una afirmación donde la
causa y el efecto son reversibles. Con grandes cantidades de datos socio–económicos
y demográficos, recogidos en la actualidad a través de canales administrativos y
encuestas especiales, ası́ como los avances en la metodologı́a estadı́stica, las directrices
polı́ticas sobre lo público no son ya apuestas con una impredecible probabilidad de
éxito o especulaciones sobre una causa perdida. Es ahora, con la ayuda de las técnicas
cientı́ficas, cuando las decisiones óptimas pueden ser tomadas en base a las evidencias
disponibles y a los resultados continuamente registrados, para regenerar y modificar
las decisiones efectuadas.
En la investigación cientı́fica, como he mencionado anteriormente, la estadı́stica
juega un papel importante en la recogida de datos mediante experimentos diseñados
eficientemente, en los contrastes de hipótesis y en la estimación de parámetros
desconocidos e interpretación de resultados. El descubrimiento del factor Rhesus en
los grupos sanguı́neos, como describió Fisher (1947), es un brillante ejemplo de cómo
la estadı́stica puede ayudar a encajar escrupulosamente un hecho dentro de otro,
construyendo una estructura coherente de nuevo conocimiento y viendo como cada
logro puede ser utilizado para posteriores investigaciones (ver subsección 5.2.18 en
este mismo capı́tulo).
En la industria, técnicas estadı́sticas extremadamente simples son usadas para
mejorar y mantener la calidad de los artı́culos manufacturados a un nivel óptimo. Los
experimentos son llevados a cabo en los departamentos I+D, que son los encargados
de determinar la muestra óptima (combinación de factores) para incrementar la
producción de un artı́culo o darle el mejor acabado posible. Es una experiencia
corriente en todo el mundo que en las fábricas donde se han aplicado métodos
estadı́sticos, la producción se ha incrementado entre el 10 % y el 100 % sin necesidad
de efectuar ninguna inversión o realizar alguna ampliación de la fábrica. En este
sentido, el conocimiento estadı́stico es considerado como un recurso nacional. No
es sorprendente que un libro reciente sobre inventos modernos, catalogue el control
estadı́stico de calidad como una de las innovaciones tecnológicas del siglo XX.
Ciertamente, se ha producido una excelente innovación tecnológica con el control
estadı́stico de calidad, el cual es tan amplio en su aplicación como simple en su teorı́a,
tan efectivo en sus resultados como fácil de adoptar y cuyos rendimientos son tan altos
como pequeñas son sus necesidades de inversión.
En los negocios, los modelos estadı́sticos son empleados para predecir la demanda


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 147

de mercancı́as, para planificar la producción y desarrollar técnicas eficientes de


dirección a fin de maximizar el beneficio.
En medicina, los principios del diseño de experimentos son utilizados en la
investigación de fármacos y procesos clı́nicos. La información suministrada por un
gran número de tests bioquı́micos y de otros tipos, es valorada estadı́sticamente para
diagnosis y pronóstico de enfermedades. La aplicación de las técnicas estadı́sticas
ha hecho la diagnosis médica más objetiva, combinando la sabidurı́a de los mejores
expertos posibles con la identificación objetiva de las enfermedades a partir de los
resultados de los tests.
En literatura, los métodos estadı́sticos son empleados para cuantificar el estilo del
autor, lo cual es de utilidad en los casos en que se discute la autorı́a de una obra.
En arqueologı́a, la valoración cuantitativa de la similitud entre objetos ha
proporcionado un método para ordenar cronológicamente herramientas antiguas.
En los tribunales, la evidencia estadı́stica, cuantificada en forma de probabilidad
de ocurrir ciertos sucesos, es utilizada para complementar la tradicional evidencia oral
y circunstancial en los juicios.
En el trabajo de detective, la estadı́stica ayuda a analizar trozos y piezas de
información, que individualmente pueden parecer inconexas o incluso inconsistentes,
para evidenciar un patrón subyacente. Un caso interesante de estudiar puede
encontrarse en el libro Un espı́a perfecto de John Le Carré, donde datos sobre
“nombres de todos sus contactos, detalles de sus viajes, comportamiento de sus
contactos, aficiones recreativas y sexuales, etc.”, permiten obtener ciertas conclusiones
sobre las actividades de espionaje de algunos individuos, al relacionar estos datos con
ciertos sucesos.
Parece ser que no hay actividad humana cuyo valor no pueda ser mejorado
inyectando ideas estadı́sticas en su planificación, y usando métodos estadı́sticos para
análisis de datos eficientes y valoración de resultados para realimentación (feedback)
y control. Es convincente proclamar:

Si hay un problema a resolver, id en busca del asesoramiento estadı́stico en lugar


de nombrar un comité de expertos. La estadı́stica y el análisis estadı́stico pueden
aportar más luz que la sabidurı́a conjunta de unos pocos.

5.2. Algunos ejemplos

Daré unos cuantos ejemplos sacados de la historia de “el perfeccionamiento del


conocimiento natural” y del éxito en la “toma de decisiones”, para mostrar cómo las


c Publicacions de la Universitat de Barcelona
148 ESTAD ÍSTICA Y VERDAD

ideas estadı́sticas juegan un papel importante en la ciencia y otras investigaciones,


incluso antes que la estadı́stica fuera reconocida como una disciplina independiente,
y cómo la estadı́stica es considerada hoy en dı́a como un versátil, poderoso e
indispensable instrumento de investigación en todos los campos del empeño humano.

5.2.1. Un nuevo poema de Shakespeare: Una oda a la estadı́stica

Ni el mármol, ni el dorado monumento del prı́ncipe


podrá sobrevivir a este poderoso verso.

Shakespeare

El 14 de noviembre de 1985, el estudioso de la obra de Shakespeare, Gary Taylor,


encontró un poema de nueve versos en un volumen encuadernado, tamaño folio,
que habı́a en la colección de la Biblioteca Bodelian desde 1775. El poema tiene tan
sólo 429 palabras y no hay constancia de quién fue su autor. ¿Podrı́a ser atribuido
a Shakespeare? Dos estadı́sticos, Thisted y Efron (1987) hicieron un estudio del
problema y concluyeron que éste encajaba perfectamente con el estilo de Shakespeare
(canon) en el uso de las palabras. La investigación se basó exclusivamente en el
siguiente estudio estadı́stico.
El número total de palabras en todos los trabajos conocidos de Shakespeare es
884,647, de las cuales 31,534 son diferentes, y las frecuencias con que estas palabras
habı́an sido utilizadas se describe en la Tabla 5.1.

Número de veces que Número de palabras


una palabra es usada diferentes
1 14,376
2 4,343
3 2,292
4 1,463
5 1,043
6 837
7 638
.. ..
. .
≥ 100 846
TOTAL 31,534

Tabla 5.1: Distribución de la frecuencia del uso de palabras distintas


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 149

La información contenida en la tabla anterior puede utilizarse para contestar a


preguntas del siguiente tipo: Si Shakespeare fuese requerido para escribir una nueva
obra consistente en un determinado número de palabras, ¿cuántas palabras nuevas
(no usadas en anteriores trabajos) usarı́a?, ¿cuántas palabras habrı́an, entre las que
habı́a usado una sola vez, dos veces, tres veces, . . . en todos sus anteriores obras? Es
posible predecir estas cifras usando un destacable método descrito por R. A. Fisher et
al. (1943), en un área enteramente diferente, para estimar el número total de especies
de mariposas nunca vistas! Usando la teorı́a de Fisher, se estimó que Shakespeare
deberı́a haber usado alrededor de 35,000 nuevas palabras si fuese a escribir nuevos
dramas y poemas que contuvieran el mismo número de palabras 884,647 como en sus
obras previas. Esto colocarı́a el vocabulario total de Shakespeare a un nivel estimado
de más de 66,000 palabras. [En el tiempo de Shakespeare, habı́a alrededor de 100,000
palabras en la lengua inglesa. Actualmente hay alrededor de 500,000 palabras].

Número de Número de palabras distintas usadas en Esperado


veces usado de acuerdo
en obras Ben Christopher John Nuevo con el canon
de Johnson Marlowe Donne poema de
Shakespeare (Una Elegı́a) (cuatro Poemas) (El Extásis) Shakespeare
0 8 10 17 9 6.97
1 2 8 5 7 4.21
2 1 8 6 5 3.33
3-4 6 16 5 11 5.36
5-9 9 22 12 11 10.24
10-19 9 20 17 10 13.96
20-29 12 13 14 21 10.77
30-39 12 9 6 16 8.87
40-59 13 14 12 18 13.77
60-79 10 9 3 8 9.99
80-99 13 13 10 5 7.48
Número de palabras
distintas . . . . . 243 272 252 258 258
Número total de
palabras . . . . . 411 495 487 429

Tabla 5.2: Distribuciones de las frecuencia de palabras distintas en poemas de


acuerdo con el canon de Shakespeare, en poemas de longitud similar por
diversos autores

Ahora, volviendo al poema recientemente descubierto, que tiene 429 palabras, de


las cuales 258 son diferentes, las distribuciones observadas y predichas (de acuerdo con


c Publicacions de la Universitat de Barcelona
150 ESTAD ÍSTICA Y VERDAD

el canon de Shakespeare) vienen en la Tabla 5.2 (últimas dos columnas). Se observa


que la concordancia entre las dos distribuciones es bastante notable (dentro de los
lı́mites de las diferencias esperadas), lo que sugiere que Shakespeare fue posiblemente
el autor del poema.
La Tabla 5.2 también nos da una distribución similar de frecuencias de palabras,
en poemas de aproximadamente el mismo tamaño, por otros autores contemporáneos,
Ben Johnson, Christopher Marlowe y John Donne. Las frecuencias en el caso de estos
autores parecen ser algo diferentes de las frecuencias observadas en el nuevo poema y
también de las frecuencias predichas bajo el uso de palabras shakesperianas.

5.2.2. Autorı́as controvertidas: los artı́culos del Federalista

Un problema muy relacionado es el de las autorı́as controvertidas o la


identificación del autor de un trabajo anónimo de entre un posible grupo de autores.
Daré un ejemplo de tal aplicación. El método empleado es debido a Fisher, quien lo
desarrolló primero para dar respuesta a una pregunta hecha por un antropólogo. ¿Hay
un método objetivo, utilizando sólo mediciones, para decidir si una mandı́bula hallada
en una tumba pertenecı́a a un hombre o a una mujer?
La misma técnica puede ser utilizada para contestar a una pregunta esencialmente
análoga: ¿Cuál de dos posibles escritores es el autor de un manuscrito determinado?
Consideremos el caso de los Artı́culos del Federalista, escritos durante el periodo
1787-1788 por Alexander Hamilton, John Jay y James Madison para persuadir a los
ciudadanos de New York a ratificar la constitución. Habı́a 77 artı́culos firmados con el
pseudónimo ‘Publicus’ como era habitual en aquellos dı́as. La autorı́a exacta de varios
de estos ensayos habı́a sido ya determinada, pero en 12 de ellos habı́a controversia entre
Hamilton y Madison. Dos estadı́sticos, Frederic Mosteller y David Wallace (1964)
llegaron a la conclusión, usando una aproximación estadı́stica, de que Madison era
el autor más probable de estos 12 artı́culos en discusión. La aproximación cuantitativa
en estos casos consiste en estudiar el estilo de cada autor individualmente, partiendo
de sus publicaciones conocidas, asignando el artı́culo controvertido al autor cuyo estilo
sea más próximo a dicho artı́culo.

5.2.3. Kautilya y el Arthaśāstra

Se considera a Kautilya Arthaśāstra como una extraordinaria obra literaria, que


arroja más luz en el campo cultural y la vida real de la antigua India, que cualquier
otro trabajo de la literatura hindú. Se considera que este importante trabajo fue escrito


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 151

en el siglo IV a.C. por Kautilya, ministro del famoso rey Chandragupta Maurya.
No obstante, varios eruditos han manifestado sus dudas tanto en el autor del texto
Arthaśāstra como en el periodo de su publicación.
Hace algunos años, Trautmann (1971) hizo una investigación estadı́stica respecto
del autor y de la fecha de publicación de Arthaśāstra. Encontró una considerable
variación de estilos de prosa en diferentes partes del libro y llegó a la conclusión de
que Kautilya podrı́a no haber sido el único autor de Arthaś āstra, sino que debe haber
sido escrita por varios autores, quizás 3 ó 4, en diferentes periodos de tiempo, situados
alrededor de la mitad del siglo II de nuestra era. Desde entonces no se conocen más
obras de Kautilya, siendo difı́cil decir qué parte fue escrita por él, e incluso si llegó a
hacer alguna contribución a dicha obra.

5.2.4. Asignar fecha a una publicación

¿Cuándo escribió Shakespeare La comedia de las equivocaciones y Trabajos


de amor perdidos? Las fechas de publicación de la mayor parte de los trabajos de
Shakespeare eran conocidas, ya que constaba en diversos escritos, pero en algunos
casos no. ¿Cómo podemos utilizar la información acerca de fechas conocidas de
algunas publicaciones para estimar las fechas desconocidas de otras publicaciones?
Yardi (1946) examinó este problema mediante un método puramente cuantitativo y
sin otra evidencia externa. Para cada obra, obtuvo las frecuencias de: (i) sı́labas finales
redundantes, (ii) lı́neas divididas, (iii) lı́neas no divididas con pausas y (iv) número
total de lı́neas. Con el estilo literario ası́ cuantificado, Yardi estudió los cambios de
estilo a lo largo del tiempo durante todo el periodo literario de Shakespeare, haciendo
uso de los datos de las obras con fecha de publicación conocida. Dedujo entonces, por
interpolación, la posible fecha de publicación de La comedia de las equivocaciones
como el invierno de 1591-1592 y Trabajos de amor perdidos como la primavera de
1591-1592.

5.2.5. Cronologı́a de los trabajos de Plat ón

Los trabajos de Platón han sobrevivido más de 22 siglos y sus ideas filosóficas y su
elegante estilo han sido ampliamente estudiados. Lamentablemente, nadie menciona o
quizás nadie sabe el orden cronológico correcto en el cual aparecieron sus 35 diálogos,
6 piezas cortas y 13 cartas. El problema de la seriación cronológica de los trabajos
de Platón se planteó hace un siglo pero sin llegar a ninguna conclusión. Algunos
estadı́sticos analizaron el problema hace unos años y nos han facilitado lo que parece
ser una solución lógica.


c Publicacions de la Universitat de Barcelona
152 ESTAD ÍSTICA Y VERDAD

El método estadı́stico comenzó por establecer para cada par de trabajos un ı́ndice
de similitud. En un estudio llevado a cabo por Boneva (1971), el ı́ndice estaba basado
sobre la distribución de frecuencias en cada trabajo, de 32 posibles descripciones de
las últimas 5 sı́labas de una frase, técnicamente llamada Cláusula. Basándose en el
único supuesto de que los trabajos próximos en el tiempo tenı́an un estilo similar, y
ninguna otra información ajena, se ha podido desarrollar un método para deducir el
orden cronológico de los trabajos de Platón.

5.2.6. Filiación de Manuscritos

La filiación o genealogı́a de manuscritos es otro problema resuelto puramente por


técnicas estadı́sticas. Un estudio de Sorin Christian Nita (1971) referente a 48 copias
de la crónica Rumana, La Historia de Rumania, algunas de las cuales son copias
directas del original, y otras son copias de una o más partes sacadas del original.
El problema era decidir, lo mejor posible, la versión original del trabajo y el árbol
genealógico completo de los manuscritos existentes. Aquı́, el estadı́stico explota el
defecto humano de cometer errores mientras copia un manuscrito dado. Ası́, aunque los
manuscritos son todos del mismo trabajo original, difieren en errores y pueden sufrir
posibles alteraciones en el transcurso del proceso de copia. Un error en un manuscrito
se propaga a las sucesivas copias, y dos copias hechas del mismo manuscrito tienen
más errores comunes que aquéllas copiadas de diferentes manuscritos. Teniendo en
cuenta el número de errores comunes entre cada par de manuscritos como el único
dato básico, es posible establecer la cadena genealógica de los manuscritos.

5.2.7. El árbol evolutivo de un lenguaje

Estudiando las similitudes entre las lenguas Indo-Europeas (consistentes en muy


diversas lenguas derivadas del Latin y el Sánscrito, como el Alemán, el Eslavo, el
Báltico, el Iránico, el Céltico, etc.), los lingüistas han descubierto un lenguaje ancestral
común, que se cree que habı́a sido hablado hace 4500 años. Y si existe un predecesor
común, también debe haber un árbol de la evolución de las lenguas ramificadas
en diferentes etapas temporales. ¿Es posible construir un árbol del lenguaje similar
al árbol de la evolución de la vida construido por los biólogos? Es, ciertamente,
un excitante y desafiante problema y el estudio cientı́fico de tales problemas se
llama “Glotocronologı́a”. Utilizando una gran cantidad de información acerca de las
similitudes entre lenguas y un complicado razonamiento, los lingüistas han sido
capaces de identificar varias ramas principales de lenguas, pero la exacta relación
entre ellas y el tiempo de separación no puede ser bien establecido. Sin embargo, una


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 153

aproximación puramente estadı́stica a este problema usando menos información, ha


dado alentadores resultados.
Un primer paso para este estudio es la comparación de palabras pertenecientes
a diferentes lenguas para un grupo básico de significados como ojo, mano, madre,
uno, . . ., etc. Palabras con el mismo significado pertenecientes a diferentes lenguas son
señaladas con el signo + si son afines y con − si no lo son. Ası́ la comparación entre
dos lenguas es expresada como una secuencia de signos + y − o un vector de la forma
(+, −, +, +, . . .). Si hay n lenguas, habrá n(n − 1)/2 similaridades. Usando solamente
esta información, Swadish (1952) sugirió un método de estimación del tiempo de
separación entre dos lenguas. Una vez conocidos todos los tiempos de separación
entre todos los pares de lenguas, es fácil construir el árbol de la evolución. La tarea
en su totalidad se simplifica y se vuelve rutinaria para programas de ordenadores
apropiados, diseñados para imprimir el árbol de la evolución, mediante la introducción
y comparación de los vectores de signos + y −. El método fue aplicado recientemente
a la construcción del árbol evolutivo de las lenguas Indo-Europeas partiendo de una
lista de 200 significados, y de las lenguas Malayo-Polinesias utilizando una lista de
196 significados (Kruskal, Dyen y Black (1971)).
En las aplicaciones de la estadı́stica a la literatura, tales como fechar las obras
de Shakespeare, la cronologı́a de los trabajos de Platón, la filiación de manuscritos,
etc., uno puede cuestionar la validez de los resultados (o el método empleado). Las
consideraciones lógicas son las mismas que cuando nos formulamos la pregunta: ¿son
beneficiosas las tabletas de Paraxin a un paciente particular de fiebre tifoidea? La
única justificación es que estas tabletas han ayudado anteriormente a varios pacientes
con esta enfermedad. (Pero, ¿no podrı́an ser fatales para un determinado paciente en
particular?). De la misma forma, la validez de un método estadı́stico se establece por lo
que se denomina “test de funcionamiento”. Un método propuesto se usa primero para
predecir algo ya conocido y el método es aceptado sólo cuando su funcionamiento
es satisfactorio. Naturalmente, siempre podrı́amos buscar otras evidencias históricas
independientes, si ello es posible, con el fin de corroborar los hallazgos estadı́sticos.

5.2.8. Épocas Geológicas

Se trata de un ejemplo citado por Fisher (1952) para ilustrar el razonamiento


estadı́stico que hay detrás de uno de los más grandes descubrimientos en Geologı́a.
Todos estamos familiarizados con las épocas geológicas y con los nombres de los
estratos geológicos tales como Plioceno, Mioceno, Oligoceno, etc., pero puede que
muchos no estén enterados de cómo llegaron a establecerse. Esta terminologı́a es obra


c Publicacions de la Universitat de Barcelona
154 ESTAD ÍSTICA Y VERDAD

del ingenio de Charles Lyell que nació en 1797 y escribió el célebre libro Principios de
Geologı́a. En el tercer volumen publicado en 1833, dio cálculos detallados sobre estas
épocas, lo que representa un enfoque estadı́stico altamente sofisticado basado en una
idea completamente nueva.

N◦ supervivientes
Nombre dado al p= ◦ Ejemplos
N de diferentes
estrato geológico especies fósiles
PLEISTOCENO 96 % Grupo Siciliano
(el más reciente)
PLIOCENO 40 % Sub-apenino
(bastante reciente) Rocas italianas
Peñasco Inglés
MIOCENO 18 % ...
(poco reciente)
EOCENO 3 % ó 4 % ...
(principio del reciente)
... ... ...

Tabla 5.3: Clasificación geológica de Lyell

Con la ayuda del eminente malacólogo (estudioso de los moluscos) M. Deshayes,


Lyell procedió a catalogar los fósiles existentes identificados en uno o más estratos,
y averiguar las proporciones de los que todavı́a tienen representantes vivos. Se
razonó como si un estadı́stico tuviera un censo reciente registrado sin anotar las edades
y una serie de registros sin fecha de censos previos en los cuales algunos de los
mismos individuos podrı́an ser reconocidos. Un conocimiento de la Tabla de la Vida le
podrı́a dar estimaciones de las fechas, e incluso sin la Tabla de la Vida, podrı́a agrupar
las series en orden cronológico, simplemente comparando las proporciones en cada
registro de aquéllos que están todavı́a vivos; el estrato formado será tanto más antiguo
como menor sea la proporción de fósiles de especies todavı́a existentes. El pensamiento
de Lyell y el soberbio argumento estadı́stico por el cual nombraba a los diferentes
estratos, y que implicaron algo ası́ como una revolución en las ciencias geológicas, es
ilustrado en la tabla 5.3.
Con la ayuda de tal clasificación, los geólogos podrı́an reconocer un estrato fósil a
través de unas pocas formas caracterı́sticas con claras peculiaridades morfológicas.
Desgraciadamente, el pensamiento cuantitativo subyacente en el método de Lyell
nunca fue puesto de relieve en los cursos impartidos a los estudiantes.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 155

5.2.9. Área geográfica común de reproducción de las anguilas

Es éste otro ejemplo citado por Fisher (1952) para ilustrar cómo la estadı́stica
descriptiva elemental conduce a un importante descubrimiento.
En los primeros años del presente siglo, Johannes Schmidt del Carlsberg
Laboratory en Copenhague, encontró que el número de vértebras y radios de aletas
de las mismas especies de pescado capturado en diferentes localidades, variaba
considerablemente; a menudo incluso siendo de diferentes partes de un mismo fiordo.
Con la anguila, sin embargo, en la que la variación del número de vértebras es mayor,
Schmidt encontró aproximadamente la misma media, y la misma desviación tı́pica, en
muestras sacadas de Europa, de Islandia, de las Azores y del Nilo, a pesar de ser todas
ellas regiones muy distanciadas. Dedujo que las anguilas de todos estos diferentes
sistemas fluviales vienen de un área común de crianza en el océano, que posteriormente
fue descubierta en una de las expediciones del buque de investigación “Dana”.

5.2.10. ¿Son heredables los caracteres adquiridos?

Esta pregunta surgió en una discusión sobre la teorı́a de Darwin y, con el fin
de contestarla, un genético danés W. Johannsen llevó a cabo un experimento, que
actualmente podrı́a parecernos muy simple, pero no en 1909 cuando Johannsen
publicó sus primeros resultados. Cito una nota de Marc Kac (1983), quien empezó a
estudiar esta materia cuando tenı́a 13 años.

“Johannsen cogió un gran número de judı́as, las pesó y sobre la base de


estos pesos construyó un histograma que seguı́a una curva normal actualmente
bien conocida. Habiendo hecho esto, seleccionó las más pequeñas y las más
grandes, las plantó separadamente, y construyó histogramas de los pesos de sus
respectivas progenies. Éstas de nuevo siguieron una curva normal. Si el tamaño
fuese heredado, se podrı́a esperar que las dos curvas estuvieran centradas en
diferentes medias —la pequeña y la grande. Como resultó que éstas fueron
esencialmente indistinguibles de la curva original de las cepas progenitoras,
surgieron serias dudas acerca de la heredabilidad del tamaño, pequeño o grande”

Kac continúa:

“ Lo que me sorprendió entonces, y todavı́a hoy lo recuerdo, fue lo novedoso del


argumento, que era diferente a cualquier otro que hubiese encontrado en aquella
época en matemáticas, fı́sica o biologı́a. Desde entonces he aprendido un buen


c Publicacions de la Universitat de Barcelona
156 ESTAD ÍSTICA Y VERDAD

número de técnicas estadı́sticas, incluso a un nivel que requiere cierto grado de


sofisticación matemática. Pero todavı́a considero el experimento de Johannsen
como una de las mejores demostraciones que conozco del poder y elegancia del
razonamiento estadı́stico”.

5.2.11. La importancia de ser zurdo

Generalmente se desconoce que un cocotero puede ser clasificado en zurdo


o diestro, dependiendo de la disposición espiral de sus hojas. Hace algunos años,
una investigación sobre esta caracterı́stica de los cocoteros, fue llevada a cabo por
T. A. Davis en el Instituto Indio de Estadı́stica (ISI). El estudio ofrece un buen
ejemplo de aproximación estadı́stica para comprender la naturaleza, donde los hechos
observados sugieren nuevos problemas que para responderlos es preciso realizar
nuevas observaciones. Los logros alcanzados en cada etapa son consolidados con
nuevas evidencias que sirven para fortalecer las bases de los resultados anteriores y
para explorar nuevos aspectos.

Polen Semilla Progenie


Progenitor Progenitora Izquierda : Derecha
Derecha Derecha 44 : 56
Derecha Izquierda 47 : 53
Izquierda Derecha 45 : 55
Izquierda Izquierda 47 : 53

Tabla 5.4: Proporciones de zurdos y diestros para descendientes de diferentes


tipos de apareamientos

¿Por qué algunos árboles son zurdos y otros diestros? ¿Es este carácter heredable
genéticamente? La pregunta puede ser contestada considerando plantas progenitoras
con hojas dispuestas en diferentes combinaciones espirales y anotando las mismas
caracterı́sticas en la progenie.
Los datos conseguidos a tal fin son mostrados en la Tabla 5.4. Las proporciones de
izquierda a derecha son casi las mismas para todas las combinaciones de progenitores,
lo cual indica que no hay ninguna base genética para que los árboles sean zurdos o
diestros.
Por tanto dicha proporción parece enteramente determinada por factores externos
que actúan al azar. Pero, ¿por qué hay una ligera preponderancia de los descendientes


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 157

diestros (alrededor del 55 %) en los datos observados (Tabla 5.4)? Debe haber algo
en el entorno que tiende a dar una mayor probabilidad para que un árbol disponga sus
hojas hacia la derecha. Y si es ası́, ¿depende esta probabilidad de la situación geográfica
del árbol? Para decidir esto necesitamos recoger datos de varias partes del mundo. Se
encontró entonces que la proporción de zurdos era 0.515 en las muestras procedentes
del Hemisferio Norte y 0.473 en las procedentes del Hemisferio Sur. La diferencia
puede ser debida a la influencia del movimiento de rotación de la Tierra2 , lo cual
también explica el fenómeno del vórtice de la bañera (la espiral derecha o izquierda
que el agua forma al sacar el tapón de la bañera) que, bajo condiciones controladas,
circula en el sentido contrario a las manecillas del reloj en el Hemisferio Norte y en el
mismo sentido que las manecillas del reloj en el Hemisferio Sur.
Las investigaciones hubiesen permanecido exclusivamente en el ámbito
académico si Davis no hubiese sentido la curiosidad para buscar algunos rasgos en
que, posiblemente, pudieran diferir los árboles zurdos de los diestros. Comparó la
producción de árboles zurdos y diestros en una plantación durante un periodo de 12
años; se sorprendió de encontrar que la producción era superior en más de un 10 % en
los primeros que en los segundos. Aunque no se pudo ofrecer ninguna explicación —el
problema debe ser sometido a nuevas investigaciones y puede no tener fácil solución—,
la conclusión empı́rica es de gran importancia económica. Plantando una selección
de solamente árboles zurdos, la producción puede incrementarse en un 10 %! Davis
se planteó la pregunta de si las mujeres zurdas serı́an más fértiles que las diestras.
Un estudio de la Sanford Corporation sugiere que las zurdas son excepcionalmente
creativas y bien parecidas. Se dice que hay tal representación de zurdos que éstos
pueden estar orgullosos: Benjamin Franklin, Leonardo da Vinci, Albert Einstein,
Alejandro el Grande, Julio César, . . . .
El fenómeno de lo zurdo y lo diestro parece ser universal en el reino vegetal.
Tal vez el lector no haya notado la existencia de flores de la misma especie cuyos
pétalos están dispuestos siguiendo espirales hacia la derecha o hacia la izquierda
en su propio jardı́n (más técnicamente, disposición helicoidal). Y hay enredaderas
gemelas con espirales sólo hacia la derecha (dextrógiras) y otras con espirales sólo
hacia la izquierda (levógiras). Los experimentos en el Instituto Indio de Estadı́stica, en
Calcuta, para tratar de cambiar sus hábitos, acabaron en fracaso. Parecı́an reaccionar
violentamente a tales tentativas.
Es también curioso que todos los organismos vivos (excepto posiblemente formas
muy simples) son zurdos en su constitución bioquı́mica. Todos los aminoácidos,
excepto la glicina, existen en dos formas L (levo) y D (dextro). Las formas L y

02. Concretamente de la fuerza de Coriolis. N. del T.


c Publicacions de la Universitat de Barcelona
158 ESTAD ÍSTICA Y VERDAD

D son imágenes reflejadas una de otra y son llamadas moléculas zurdas y diestras,
respectivamente. Todos los 24 aminoácidos encontrados en las proteı́nas de las plantas
y animales, ası́ como en organismos simples como bacterias, mohos, virus, etc.,
son zurdos. Ambas moléculas, la zurda y la diestra, tienen exactamente las mismas
propiedades y la vida podrı́a haber sido posible con sólo aminoácidos D o incluso con
una mezcla de algunos L y otros D. ¿Es entonces un accidente de la naturaleza que los
organismos vivos hayan evolucionado mejor en el sistema L que en el sistema D? O
bien, ¿es posible que las moléculas zurdas estén intrı́nsecamente más adaptadas para la
estructuración de organismos vivos? Debe haber alguna misteriosa fuerza que explique
la tendencia de la naturaleza hacia la izquierda, que la ciencia todavı́a no ha explorado.

Espirales levógiras y dextrógiras de las flores de Hibiscus cannabinus

R L

Espirales levógiras y dextrógiras del tallo de Mikania scandens


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 159

El Dr. Roger Sperry, ganador del Premio Nobel, demostró que en cada individuo,
hay una parte del cerebro dominante, ya sea la izquierda o la derecha, abundando más
los individuos con cerebro izquierdo dominante. Al parecer, el modo más simple para
caracterizar una persona con cerebro derecho dominante serı́a por su habilidad creativa,
mientras que una persona con cerebro izquierdo dominante, lo serı́a por su lógica.

5.2.12. Ritmos circadianos

Si le preguntan cuál es su estatura, podrá, sin duda, dar una rápida respuesta
—un cierto número. Alguien puede haberle medido alguna vez y darle ese número.
Pero puede ser que no se haya preguntado cómo este número está cualificado para
representar su estatura. Y si ciertamente lo hizo, la respuesta habrı́a sido que es
una observación obtenida cuidadosamente siguiendo un ‘procedimiento prescrito para
la medición de la estatura’. Para tales casos prácticos una definición operacional
de estatura puede ser satisfactoria. Pero entonces surgen otras cuestiones. ¿Es la
caracterı́stica que tratamos de medir (de una forma prescrita) dependiente de la hora del
dı́a en que efectuamos dicha medición? Y, si es variable, ¿cómo especificar su valor?
Por ejemplo, ¿hay alguna diferencia entre las estaturas (reales) de un individuo por la
mañana y por la tarde? Si la hay, ¿cuál es la magnitud de la diferencia y existe alguna
explicación fisiológica?
Una simple investigación estadı́stica nos puede proporcionar la respuesta.
Cuidadosas mediciones de la estatura de 41 estudiantes en Calcuta llevadas a cabo
por la mañana y por la tarde, mostraron una diferencia media de 9.6 mm, siendo
más alta la medida efectuada por la mañana en cada caso (ver Rao, (1957)). Si, de
hecho, la estatura de un individuo en diferentes momentos del dı́a es igual, entonces
cualquier diferencia observada es atribuible a errores de medición que pueden ser
positivos o negativos con igual probabilidad. En tal caso, la probabilidad de que las
41 diferencias sean positivas es del orden de 2−41 , lo que corresponde a un suceso que
ocurre menos de 5 veces en 1013 experimentos, indicando que las probabilidades contra
la hipótesis de que no hay diferencia en la estatura, son extremadamente altas. Parece
que crecemos alrededor de 1 cm cuando estamos dormidos por la noche y que nuestra
estatura disminuye en la misma medida cuando estamos en el trabajo durante el dı́a!
Habiendo establecido que por la mañana y al anochecer las estaturas son
diferentes, la próxima pregunta puede ser, ¿qué parte del cuerpo se estira más cuando
estamos dormidos? Para examinar esto, se hicieron mediciones de la longitud entre
ciertos puntos marcados en el cuerpo, tanto por la mañana como al anochecer. Se
encontró que la diferencia de alrededor 1 cm ocurre en la parte del cuerpo donde se


c Publicacions de la Universitat de Barcelona
160 ESTAD ÍSTICA Y VERDAD

localiza la columna vertebral. Una explicación fisiológica plausible es que durante el


dı́a las vértebras están más próximas debido a que se encogen los cartı́lagos que hay
entre ellas, volviendo a la posición original cuando el cuerpo está relajado.
¿Por qué los profesores prefieren dar clase por la mañana? Se dice que ambos,
profesores y estudiantes, están más descansados por la mañana y sintonizan mejor
entre ellos. ¿Hay alguna explicación fisiológica de este fenómeno?
La variación de los niveles de cortisol en plasma parecen explicar nuestra
vivacidad en las horas matutinas. En sujetos normales, el nivel de cortisol es alrededor
de 16 µg/100 ml a las 8 de la mañana y gradualmente desciende hasta 6µg/100 ml a las
11 de la noche (una disminución del 60 %). El aumento de cortisol por la mañana nos
despierta y la bajada por la noche nos hace ir a dormir. Consecuentemente, estamos
despiertos por la mañana y gradualmente tendemos a volvernos perezosos al caer la
noche.
Diversas caracterı́sticas fisiológicas del cuerpo humano, de hecho, varı́an durante
el dı́a tal como se observó en el caso de la estatura; cada uno tiene su particular ritmo
circadiano, esto es, siguiendo un ciclo de 24 horas. La importancia del estudio de tales
variaciones, conocido como Cronobiologı́a, para optimizar la hora de administración
de medicinas a diversos pacientes, fue resaltada por Halberg (1974). Por ejemplo, una
dosis de un fármaco que es correcta a una hora determinada del dı́a puede no ser
efectiva a otra hora; la acción puede depender de los niveles de diferentes sustancias
bioquı́micas en la sangre en el momento de su administración. La Cronobiologı́a se
está convirtiendo en un activo campo de investigación con amplias posibilidades de
aplicación. Gran parte del progreso en estos estudios se debe a técnicas estadı́sticas
desarrolladas para detectar y establecer periodicidades en mediciones efectuadas a lo
largo del tiempo.

5.2.13. Paternidad controvertida

Supongamos que una mujer dice que un determinado hombre es el padre de su


hijo y el hombre lo niega. ¿Podemos estudiar la probabilidad de que el acusado sea el
padre, lo cual podrı́a ser utilizado en un juicio, posiblemente con otras pruebas, para
decidir el caso? En muchos paı́ses, los tribunales aceptan las evidencias estadı́sticas
para decidir casos de paternidad controvertida.
Frecuentemente, la evidencia está basada en la comparación de los grupos
sanguı́neos. En ciertos casos, los grupos sanguı́neos del padre putativo y el hijo pueden
no ser compatibles, llevándonos a la conclusión definitiva de que la reclamación de
la madre es falsa. Sin embargo, si los grupos sanguı́neos son compatibles, esto no


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 161

implica necesariamente que la reclamación sea correcta. En tal caso, podemos calcular
la probabilidad de que la reclamación sea correcta. Si ésta es alta, entonces pueden
haber motivos para aceptar la demanda.
Sean F, M y C los fenotipos del padre putativo, madre e hijo. Asumiendo que
ninguna selección de fenotipos está implicada en la elección de cónyuge, podemos
estimar P(F|M,C), la probabilidad de que un padre sea de fenotipo F siendo la madre
de fenotipo M y el hijo de fenotipo C. Sea P(F) la probabilidad de que un individuo
tomado al azar de la población sea de fenotipo F. Si p es la probabilidad “a priori”
de que la afirmación de la madre sea cierta en un caso de disputa de paternidad y
PA (F|M,C) es la probabilidad de que el acusado sea de fenotipo F, entonces tenemos

PA (F|M,C) = pP(F|M,C) + (1 − p)P(F).

Se ha supuesto que si la madre está mintiendo, su elección del acusado se hace al


azar entre los posibles fenotipos. El valor de p puede ser estimado partiendo de casos
previos de paternidad disputada. De la anterior ecuación, la probabilidad “a posteriori”
de que la afirmación de la madre sea cierta es

pP(F|M,C)
PI =
PA (F|M,C)

Un valor alto de PI , llamado ı́ndice de paternidad, aportarı́a motivos para pensar que
la afirmación de la madre es cierta. Si p = 0.8 y P(F)/P(F|M,C) = 0.3, entonces
PI = 0.93, valor lo bastante alto como para considerar seriamente la demanda.
Hasta ahora, los grupos sanguı́neos y caracterı́sticas bioquı́micas de la sangre han
sido usados en casos de paternidad controvertida. Recientemente, se ha encontrado
que la comparación del patrón de ADN (ácido desoxirribonucleico), verdadera “huella
dactilar genética”, proporciona una alta probabilidad de detección (para la indagación
de la verdad).

5.2.14. La sal y la Estadı́stica

...y, lo que es más extraordinario, me encontré con un trabajo filosófico en el


cual la utilidad de la sal era el tema de un elocuente discurso, y muchas otras
cosas a las que les habian otorgado un honor similar.
Fedro (Simposio sobre el Amor, Platón)

En Delhi, en 1947, se produjeron revueltas generalizadas inmediatamente después


de que la India alcanzara la independencia. Gran número de personas de una


c Publicacions de la Universitat de Barcelona
162 ESTAD ÍSTICA Y VERDAD

comunidad minoritaria se refugiaron en el Fuerte Rojo, que era una área protegida,
y otro pequeño número, en la tumba de Humayun, otra zona que incluı́a un antiguo
monumento. El Gobierno tenı́a la responsabilidad de alimentar a estos refugiados. Esta
labor fue encargada a contratistas, y en ausencia de cualquier conocimiento acerca
del número de refugiados, el gobierno se vió obligado a aceptar y pagar las cifras
presentadas por aquéllos para alimentar a los mismos. El gasto gubernamental de esta
factura pareció ser extremadamente alto y se sugirió que se preguntara a los estadı́sticos
(ya que cuentan) que determinaran la cantidad de refugiados que habı́a dentro del
Fuerte Rojo.
El problema pareció ser difı́cil bajo las problemáticas condiciones que prevalecı́an
en aquel momento. Una complicación posterior surgió cuando los expertos estadı́sticos
llamados para hacer el trabajo pertenecı́an a la comunidad mayoritaria (diferente de la
de los refugiados) y su seguridad no podı́a ser garantizada si las técnicas estadı́sticas a
aplicar, para estimar el número de refugiados, exigı́an su entrada en el Fuerte Rojo. El
primer problema para los expertos era hacer una estimación del número de personas
dentro de un área dada sin otra información previa sobre el orden de magnitud de su
número, sin tener oportunidad alguna de ojear las concentraciones de personas dentro
del área y sin hacer uso de ninguna técnica de muestreo conocida para la estimación,
ni de métodos censales.
Los expertos tuvieron que pensar varios modos de resolver el problema. Renunciar
hubiera sido interpretado por el gobierno como un fallo de la estadı́stica y/o de
los estadı́sticos. Tuvieron, sin embargo, acceso a las facturas presentadas por los
contratistas al gobierno, en las que figuraba la cantidad de varios artı́culos, como arroz,
legumbres y sal, comprados para alimentar a los refugiados. Razonaron como sigue:
Sean R, P y S las cantidades de arroz, legumbres y sal usadas cada dı́a para
alimentar a todos los refugiados. Partiendo de estudios de consumo, las necesidades
per cápita de estos artı́culos son conocidas, digamos r, p y s respectivamente. Entonces
R/r, P/p y S/s nos facilitarı́an estimaciones paralelas (igualmente válidas) del mismo
número de personas. Cuando estas relaciones fueron obtenidas usando los valores R, P
y S citados por los contratistas, se encontró que S/s tenı́a el valor más pequeño y R/r el
más grande, indicando que la cantidad de arroz, que es el artı́culo más caro comparado
con la sal, fue probablemente exagerada. (El precio de la sal era extremadamente bajo
en la India en aquellos años y no hubiese sido provechoso exagerar la cantidad de sal).
La estimación S/s fue propuesta por los estadı́sticos como indicativa del número de
refugiados en el Fuerte Rojo. El método propuesto fue verificado para proporcionar
una buena aproximación al número de refugiados en la tumba de Humayun (el más
pequeño de los dos campos con sólo un número relativamente pequeño de refugiados),
que fue determinado independientemente.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 163

El método de la sal surgió de una idea sugerida por el recientemente fallecido


J. M. Sengupta, que estuvo asociado con el Instituto Indio de Estadı́stica durante
largo tiempo. La estimación facilitada por los estadı́sticos fue útil para el gobierno
para tomar decisiones administrativas. También aumentó el prestigio de los mismos,
quienes desde entonces recibieron el soporte gubernamental para su desarrollo en la
India.
El método utilizado no es convencial y además es ingenioso, y no podı́a ser hallado
en ningún libro de texto. La idea oculta es el razonamiento estadı́stico o pensamiento
cuantitativo. Quizás, también incluya un toque artı́stico.

5.2.15. Economización de recursos en análisis sanguı́neos

He dado ejemplos que ilustran el triunfo de la estadı́stica, no tanto como datos y


metodologı́a, los dos significados aceptados de la estadı́stica, sino como un modo de
pensamiento cuantitativo. Sugiero el uso de la misma palabra estadı́stica en un tercer
sentido para significar el pensamiento cuantitativo que, después de ser completamente
codificado, será una fuente de creatividad. Daré dos nuevos ejemplos.
Durante la Segunda Guerra Mundial, un gran número de personas fueron
reclutadas por el ejército, y para eliminar aquellos candidatos que presentaban
ciertas enfermedades raras, se sugirió realizar análisis de sangre individuales, lo que
significó una gran cantidad de trabajo. Los rechazos fueron pocos, pero tales análisis
eran cruciales para determinar la eficacia de un individuo para el ejército. ¿Cómo
podemos disminuir el número de análisis y asegurar que los “defectuosos” sean
descartados? No hay ningún libro de texto que tenga la respuesta. He aquı́ una brillante
solución sugerida por un estadı́stico.
Si sólo 1 entre 20 de promedio sufren una determinada enfermedad, 20 análisis
individuales para cada grupo de 20 candidatos nos reveları́an un caso positivo
(por término medio). Es evidente que si un número de muestras sanguı́neas son
mezcladas y analizadas, la mezcla será positiva sólo si una o más muestras individuales
son positivas. En lugar de 20 análisis individuales, supongamos, para empezar, que
hacemos dos análisis con 2 mezclas de 10 muestras cada una. En promedio una mezcla
será negativa y la otra positiva. Sólo en el segundo caso diez análisis individuales
deberán llevarse a cabo para averiguar cuál de las muestras es positiva. Ası́ solamente
2 + 10 = 12 análisis son necesarios en promedio por cada grupo de 20 muestras, lo cual
significa una reducción de 8 de los 20 análisis o sea el 40 %. Puede observarse que si
se consideran mezclas de 5 muestras, el número medio total de análisis necesarios es
tan solo de 4 + 5 = 9, que es el óptimo para ahorrar 11 análisis por cada grupo de 20
candidatos, o sea el 55 %.


c Publicacions de la Universitat de Barcelona
164 ESTAD ÍSTICA Y VERDAD

En situaciones similares, el procedimiento óptimo puede encontrarse dependiendo


de la tasa de predominio de la enfermedad bajo investigación. Supongamos que la
proporción de individuos afectados es π, entonces el tamaño óptimo de mezcla de
muestras es el valor de n que maximiza la expresión (1 − π) n − (1/n). Dado n, el mejor
camino para encontrar el n óptimo es tabular la función (1 −π) n −(1/n) para diferentes
valores de n y escoger aquel valor para el cual el valor de la función sea máximo.
La idea es bella. El procedimiento puede ser adoptado en otras áreas. Por ejemplo,
muestras de agua procedentes de cierto número de fuentes pasan frecuentes análisis de
contaminación. Adoptando el método descrito de mezclar muestras y haciendo ensayos
en grupos, podrı́a ser posible analizar muestras de un gran número de fuentes y llevar a
cabo análisis más elaborados sobre muestras sin necesidad de ampliar los recursos del
laboratorio de análisis.

5.2.16. Fábricas de maquinaria industrial para incrementar la producci ón de


5.2.16. alimentos

En 1950, la India producı́a sólo un millón de toneladas de acero y se hizo una


propuesta para construir una planta que produjera el segundo millón de toneladas. Esto
fue sin embargo, seguido de un estudio sobre la demanda real de acero, efectuado por
expertos, consumo que fue estimado en un millón y medio de toneladas. Basándose
en esta cifra, se puso en duda la necesidad de establecer una nueva factorı́a para el
segundo millón de toneladas. La propuesta fue paralizada y se recomendó la alternativa
de importar del extranjero el medio millón de toneladas de acero.
La decisión pudo basarse en teorı́as económicas razonables. Parece que no hay
nada equivocado con la aritmética. Pero se perdió de vista una perspectiva más
amplia. El problema no fue examinado en el contexto de una visión de conjunto
del desarrollo económico del paı́s y de la meta fundamental de autosuficiencia en
diferentes sectores de la actividad económica. La decisión del comité de expertos de
bloquear el establecimiento de una nueva planta de acero ha costado al paı́s millones
de rupias debido a la importación del acero. Veamos como observó el problema un
estadı́stico (Mahalanobis, 1965).
En la India, la población crece a razón de 7 millones de personas por año. El
aumento de la cantidad necesaria extra de cereales para alimentar a la población
adicional en los siguientes 5 años es de 15 millones de toneladas. Si las hemos de
importar, al precio mundial de alrededor de 90 dólares por tonelada, deberı́amos poder
gastar aproximadamente 1300 ó 1400 millones de dólares en moneda extranjera en
cinco años.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 165

Para cosechar 15 millones de toneladas de cereales necesitarı́amos 7.5 millones


de toneladas de fertilizante. Al precio de 50 dólares la tonelada el coste total serı́a
menor de 400 millones de dólares en cinco años. ¿No serı́a más inteligente importar
fertilizantes en lugar de cereales?
Podemos seguir más. El coste en moneda extranjera de los componentes para
establecer una factorı́a de fertilizantes es sólo de 50 o 60 millones de dólares. Podemos
necesitar cinco de tales factorı́as para producir la cantidad necesaria de fertilizante.
El coste total serı́a menor de 300 millones y con la ventaja adicional de que las
factorı́as continuarı́an produciendo fertilizante más allá de los cinco años. ¿No serı́a
más inteligente construir plantas de fertilizantes en lugar de importar fertilizantes?
Podemos dar un paso más y fundar una fábrica para producir maquinaria para
manufacturar fertilizantes, y el coste de esto puede ser sólo de 50 ó 60 millones de
dólares en divisas, de una vez y para siempre. En este sentido, sólo 50 ó 60 millones de
dólares pueden servir para lo mismo que 300 ó 400 ó 1400 millones de dólares. ¿No
serı́a todavı́a más inteligente construir fábricas de maquinaria?
El argumento suena parecido al dicho: Por perder un clavo, la herradura se perdió;
por la pérdida de la herradura, se perdió un caballo; por perder un caballo, se perdió un
jinete y por perder un jinete, se perdió un reino.
Algunos de nuestros economistas argumentaron que el pensamiento de
Mahalanobis no estaba a tono con los principios de la economı́a; mirando
retrospectivamente, vemos que el plan de Mahalanobis ha ayudado a industrializar
la India.

5.2.17. Dı́gitos decimales olvidados

Se requiere a menudo a un estadı́stico para trabajar con datos recogidos por


otros. En muchos casos, el propósito para el cual la información ha sido recogida, en
ocasiones con un enorme coste, no está claramente definido. El primer trabajo de un
estadı́stico es interrogar al investigador para entender de qué clase son los datos —la
población de individuos u objetos o lugares a los que los datos se refieren, el método
de muestreo empleado, los conceptos y definiciones que han regido las mediciones, la
agencia empleada (individuos e instrumentos) para obtenerlas, el cuestionario utilizado
con cotejos y comprobaciones adicionales, si alguna parte de los datos son obtenidos de
otras fuentes publicadas o no, y finalmente, cuál fue el objeto por el que la investigación
fue emprendida y qué clase de cuestiones especı́ficas requieren ser contestadas sobre
la base de los datos recogidos. Hay dificultades de comunicación entre los estadı́sticos
y los investigadores ya que unos pueden no entender el “lenguaje de los otros”. Esto


c Publicacions de la Universitat de Barcelona
166 ESTAD ÍSTICA Y VERDAD

podrı́a probablemente superarse con un pequeño esfuerzo de cada parte para aprender
el lenguaje del otro.
El investigador puede ser impaciente y no apreciar el deseo de los estadı́sticos de
entender su problema y la naturaleza de los datos, sobre los cuales depende únicamente
la elección de las técnicas estadı́sticas a aplicar. En este caso serı́a como aquel paciente
que pide al doctor que le prescriba una medicina para la enfermedad que él piensa
que está sufriendo sin permitir que el doctor le examine. Serı́a una falta de ética para
un estadı́stico el aceptar datos de otros con valor aparente, aplicarles la estadı́stica y
producir unos resultados finales que puedan satisfacer al cliente.
Tras el diálogo con el investigador, el estadı́stico tiene que hacer frente a
serios problemas. Tiene masas de datos que le han entregado —datos supuestamente
generados de acuerdo con un diseño particular escogido por el investigador y recogido
sin errores. Los datos obtenidos, ¿pueden servir de soporte para lo que se supone que
han de servir? ¿Pueden los estadı́sticos verificarlo a partir de los datos proporcionados?
¿Cómo pueden comunicarse mediante cifras?
El diálogo entre los estadı́sticos y las cifras, o el examen de datos, es esencial
y es una excitante parte del análisis de datos. No existe un lenguaje suficientemente
desarrollado para este menester y depende mucho de la habilidad del estadı́stico para
confeccionar números que hablen por ellos.
En los datos proporcionados a los estadı́sticos, algunos números pueden parecer
sospechosos al ser muy baja o muy elevada su frecuencia comparada con otras,
algunos pueden haber sido registrados sin una apropiada identificación, etc. Un repaso
a los registros originales puede ser suficiente para resolver algunos casos. Tests de
consistencia rutinarios podrı́an ayudar en otros. Para el resto no hay prescripciones
generales.
Veamos un ejemplo. Se requirió a un estadı́stico para analizar medidas
antropométricas efectuadas sobre diversas castas y tribus en la Bengala unida. El peso
de un individuo fue una de las diez caracterı́sticas medidas, y las series de medidas
de peso (en stones)3 eran como sigue: 7.6, 6.5, 8.1, . . .. La persona que editó las
mediciones convirtió los valores dados en stones a libras multiplicando cada cifra por
14. Tales valores 7.6, 6.5, 8.1, . . . . mencionados en stones fueron expresados en libras
como 14 × 7.6 = 106.4, 14 × 6.5 = 91.0, 14 × 8.1 = 113.4, . . . . etc. El estadı́stico, en
lugar de mirar los valores editados, quiso buscar los registros originales. Observó algo
que pensó que era anómalo, que en el lugar del decimal de las observaciones sobre
el peso, los dı́gitos 7, 8, 9 habı́an desaparecido completamente! Algo debı́a haber
sucedido. Las cifras registradas parecı́an inocentes, las cifras convertidas parecı́an

03. 1 stone igual a 14 libras. N. del T.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 167

correctas y el error podrı́a no haberse detectado si no se hubieran visto los registros


originales. Una investigación reveló que la báscula, fabricada en Gran Bretaña, tenı́a un
cuadrante (dial) graduado en stones con 6 marcas que indicaban 7 subdivisiones entre
las divisiones de cada stone: el investigador fue aparentemente registrando el número
de stones y el número de subdivisiones señalado por el indicador, separándolos con un
punto decimal. La gran invención Hindú de la notación decimal fue mal empleada! La
conversión apropiada a libras del valor 7.6 es 14 × 7 + 6 × 2 = 110 en lugar de 106.4
—la pérdida de 4 ó 5 libras en el peso promedio de los bengalı́es es advertida de este
modo por la vigilancia del estadı́stico.
Un estadı́stico tiene que ser como un detective, usando su imaginación, buscando
pistas y pequeñas indicaciones, aquı́ y allá, que puedan descifrar un misterio oculto.

complejo anticuerpos conocidos anticuerpos complejos


genético predichos genéticos
γ Γ ∆ H δ η sugeridos
R1 − + + − − + CDe
R2 + − + + − − cDE
r + − − − + + cde
R0 + − + − − + cDe
R + − − + + − cdE
R − + − − + + Cde
Rz − + + + − − CDE
∗Ry − + − + + − CdE
∗ Complejo genético predicho con reacciones indicadas.

Tabla 5.5: Comportamiento de 7 configuraciones genéticas frente a los 4


primeros anticuerpos conocidos, y otros resultados

5.2.18. El factor Rhesus: un modelo de investigación cientı́fica

Esta es la historia sobre cómo el mecanismo genético del grupo sanguı́neo Rhesus
(Rh) fue puesto al descubierto en poco tiempo por un grupo de investigadores en
Inglaterra. El factor Rhesus fue descubierto por Levine en 1939 en el caso de un niño
nacido muerto, que en el suero de la madre se encontró que contenı́a un anticuerpo
referido como ∆ (o andi-D) capaz de aglutinar la sangre del 85 % de los donantes
blancos americanos. Esto sugirió la existencia de un posible factor mendeliano con dos
alelos, la presencia de uno de los cuales producirı́a el antı́geno D. Posteriormente, para


c Publicacions de la Universitat de Barcelona
168 ESTAD ÍSTICA Y VERDAD

abreviar la explicación, otros anticuerpos fueron encontrados uno tras otro, llamados
γ (o anti-c), Γ (o anti-C), H(o anti-E) que producı́an diferentes combinaciones de
reacciones (+ y −) según las cuales por lo menos 7 diferentes alelos (o complejos
genéticos) podı́an ser distinguidos. Las reacciones de los anticuerpos γ, Γ, ∆ y H
determinadas por estos 7 complejos genéticos, designados como R 1 , R2 , r, R0, R , R , Rz
vendrı́an dadas como se muestra en el primer bloque de la Tabla 5.5.
Haciendo suposiciones a partir de las reacciones de γ, Γ, ∆, H con las 7
configuraciones genéticas conocidas, Race (1944) argumentó como sigue e hizo
algunas predicciones.
Ninguna de las configuraciones genéticas reacciona en el mismo sentido
con respecto a γ y Γ, indicando que éstos son anticuerpos complementarios. Es
perfectamente posible que este tipo de anticuerpos complementarios también existan
en el caso de los anticuerpos ∆ y H. Designemos a éstos como δ y η, respectivamente.
Hay posiblemente otro complejo genético, designado como R y , cuyas reacciones
se especifican en la última fila de la Tabla 5.5 para completar el sistema, en el que cada
reactivo (anticuerpo) reacciona positivamente con cuatro y negativamente con otras
cuatro configuraciones genéticas.
Un año después de estas conjeturas, Mourant (1945) descubrió el anticuerpo η y
Diamond el anticuerpo δ.
Fisher (1947) propuso que la naturaleza de las configuraciones genéticas vendrı́a
determinada en términos de tres factores mendelianos, situados muy cerca entre sı́ en
el mismo cromosoma, con alelos para cada factor designados como (C, c), (D, d) y (E,
e). La presencia de los genes C, D y E produce reacciones positivas con los anticuerpos
Γ, ∆ y H respectivamente y la presencia de c, d y e produce reacciones positivas con
los anticuerpos γ, δ, y η respectivamente.
Ahora sabemos que el mecanismo genético es más complejo, con la posibilidad
de más de dos alelos para cada uno de los tres loci. No obstante, la investigación
implicando una organización cuidadosa de los datos recogidos de forma sistemática,
facilitó una rápida y eficiente clarificación de lo que parecı́a una confusa y oscura
situación, cuando el factor Rhesus fue inicialmente descubierto.

Referencias

BONEVA, L. I. (1971). “A new approach to a problem of chronological seriation


associated with the works of Plato”. En Mathematics in the Archælogical and
Historical Sciences, Edinburgh University Press, 173-185.
FISHER, R. A. (1938). “Presidential Adress. First Indian Statistical Conference,
Calcuta”. Sankhyã, 4, 14-17.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA: UN INSTRUMENTO INEVITABLE EN LA B ÚSQUEDA DE LA VERDAD 169

FISHER, R. A., CORBET, A. S. y WILLIAMS, C. B. (1943). “The relation between the


number of species and the number of individuals in a random sample of an animal
population”. J. Anim. Ecol., 12, 42-58.
FISHER, R. A. (1947). “The Rhesus factor: A study in scientific method”. American
Scientist, 15, 95-103.
FISHER, R. A. (1952). “The expansion of statistics, (Presidential address)”. J. Roy.
Statist. Soc. A, 116, 1-6.
HALBERG, J. (1974). “Catfish Anyone?”. Chronobiologia, 1, 127-129.
KAC, M. (1983). “Marginalia, Statistical odds and ends”. American Scientist, 71, 186-
187.
KRUSKAL, J. B., DYEN, I. y BLACK, P. (1971). “The vocabulary method of
reconstructing language trees: innovations and large scale applications”. En
Mathematics in Archælogical and Historical Sciences, Edinburgh University Press,
361-380.
MACMURRAY, J. (1939). The Boundaries of Science. Faber and Faber, London.
MAHALANOBIS, P. C. (1965). “Statistics for Economic Development”. Sankhyã, B, 27,
179-188.
MOSTELLER, F. y WALLACE, D. (1964). Inference and Disputed Autorship. Addison-
Wesley.
MOURANT, A. E. (1945). “A New Rhesus Antibody”. Nature, 155, 542.
NITA, S. C. (1971). “Establishing the linkage of different variants of a Romanian
chronique”. En Mathematics in Archælogical and Historical Sciences, Edinburgh
University Press, 401-414.
RAO, C. R. (1957). “Race elements of Bengal: A quantitative study”. Sankhyã, 19, 96-
98.
RACE, R. R. (1944). “An Incomplete Antibody in Human Serum”. Nature, 153, 771.
SWADISH, M. (1952). “Lexico-statistic dating of prehistoric ethnic contacts”. Proc.
Amer. Philos. Soc., 96, 452-463.
THISTED, R. y EFRON, B. (1987). “Did Shakespeare write a newly-discovered poem?”.
Biometrika, 74, 445-455.
TRAUTMANN, T. R. (1971). “Kautilya and the Arthaś āstra. A statistical investigation of
the autorship and evolution of the text”. E. J. Brill, Leiden.
YARDI, M. R. (1946). “A statistical approach to the problem of chronology of
Shakespeare’s plays”. Sankhyã, 7, 263-268.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO

La vida es el arte de obtener suficientes conclusiones a partir de evidencias


insuficientes.

Samuel Butler

Para entender los pensamientos de Dios debemos estudiar estadı́sticas, dado que
éstas son las medidas de su voluntad.

Francis Nightingale

6.1. Ciencia para todos

En su libro sobre La función Social de la Ciencia, publicado en 1939, J. D. Bernal


escribió:

“De nada sirve que mejoremos la comunicación que los cientı́ficos tienen
entre sı́ acerca de su propio trabajo, si al mismo tiempo no logramos que un
conocimiento real de la ciencia llegue a ser, en nuestra época, parte de la vida
diaria”.

Tan sólo medio siglo más tarde se ha reconocido la importancia de lo que dijo
Bernal, y se han realizado serios esfuerzos para difundir el conocimiento cientı́fico
entre el público. Las Academias Nacionales de Ciencias de los paı́ses avanzados han
nombrado equipos para examinar el problema y sugerir caminos para su resolución.
Hace 5 años la Real Sociedad del Reino Unido empezó a publicar una revista, llamada
Science and Public Affairs, con el propósito de fomentar el conocimiento, por parte del
público, de las publicaciones cientı́ficas y aclarar las implicaciones en la vida diaria de
los descubrimientos cientı́ficos y tecnológicos. El nuevo eslogan puesto en circulación
por la Real Sociedad es

“La Ciencia es para todos”


172 ESTAD ÍSTICA Y VERDAD

Sin lugar a dudas, la Ciencia impregna casi todo lo que hacemos en sociedad, y
la importancia del conocimiento de la ciencia para el hombre de la calle no precisa
ser remarcada. El público debe conocer cómo la nueva tecnologı́a puede serle útil
para mejorar su nivel de vida. Deben conocer las consecuencias de la explotación
de nuevos descubrimientos para su propio beneficio sin hacer caso de los efectos
perjudiciales para la sociedad y el medio ambiente. Deberı́an ser conscientes que una
polı́tica gubernamental, como establecer plantas de energı́a nuclear por todo el paı́s,
afectará sus vidas y las de sus hijos.
Cuando Bernal escribió el libro, la Estadı́stica no era conocida como una disciplina
independiente. Creció en importancia en el segundo cuarto del siglo XX, como un
método para extraer información de datos observados y como el camino lógico
de tomar decisiones en casos de incertidumbre. Como tal, el conocimiento de la
estadı́stica es de gran valı́a para la humanidad en todos los sentidos de la vida. Si
Bernal todavı́a viviera para publicar una nueva edición de La Función Social de la
Ciencia, podrı́a haber añadido, impresionado por la ubicuidad de la Estadı́stica, que el
conocimiento público de la ciencia estadı́stica es mucho más importante que cualquier
otro campo cientı́fico.

6.2. Datos, información y conocimiento

El único problema de una cosa segura es la incertidumbre.

¿Qué es la Estadı́stica? ¿Es ciencia, tecnologı́a, lógica, o arte? ¿Es una disciplina
independiente como las matemáticas, la medicina, la quı́mica y la biologı́a, con una
temática a estudiar bien definida? ¿Qué fenómenos estudiamos con la Estadı́stica?
La Estadı́stica es una disciplina peculiar que no tiene por objeto ninguna parte
concreta de la realidad por si misma. Parece que existe y se desarrolla para resolver
problemas de otras áreas. En palabras de L. J. Savage

“La Estadı́stica es básicamente parasitaria: vive del trabajo de otros. No es un


demérito de dicha disciplina. Actualmente se reconoce que muchos huéspedes
morirı́an de no ser por los parásitos que albergan: algunos animales no pueden
digerir su alimento. Ası́ ocurre también en muchos campos del esfuerzo humano,
tal vez no desaparezcan, pero ciertamente se debilitarı́an sin la existencia de la
Estadı́stica”.

La Estadı́stica no se ha instaurado en el currı́culum académico de las universidades


hasta el siglo XX. Ni siquiera ahora el papel de la Estadı́stica en la ciencia y en


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 173

la sociedad ha sido bien entendido por el hombre de la calle y los profesionales de


diversas áreas.
No hace mucho tiempo, habı́an ideas falsas y escepticismo acerca de la Estadı́stica
expresadas en afirmaciones como las siguientes:

* Mentiras, condenadas mentiras y estadı́sticas.


* La Estadı́stica no dispensa la necesidad de razonar.
* Conozco la respuesta, dadme una estadı́stica para justificarla.
* Puedes probar cualquier cosa con estadı́sticas.

Era también el objeto de chistes tales como:


* La Estadı́stica es como un bikini. Pone de relieve lo obvio pero oculta lo esencial.
Actualmente la estadı́stica ha llegado a ser una palabra mágica que da apariencia
de realidad a los enunciados que formulamos:
* La Estadı́stica demuestra que fumar cigarrillos es malo.
* De acuerdo con las estadı́sticas, los hombres que permanecen solteros mueren
diez años antes.
* Estadı́sticamente hablando los padres altos tienen hijos altos.
* Una encuesta por muestreo estadı́stico ha revelado que tomar una aspirina en dı́as
alternos reduce el riesgo de un segundo ataque cardı́aco.
* Hay evidencia estadı́stica de que el segundo hijo es más inteligente que el
primero.
* La Estadı́stica confirma que una toma de 500 mg. de vitamina C cada dı́a
prolonga la vida 6 años.
* Un estudio estadı́stico ha revelado que los maridos dominados por su mujer tienen
mayor probabilidad de sufrir un ataque cardı́aco.
La Estadı́stica como disciplina cientı́fica tiene una corta historia, pero como
información numérica tiene gran antigüedad. Hay varios documentos antiguos
que contienen información numérica acerca de paı́ses (estados), sus recursos y
composición de la población. Esto explica el origen de la palabra estadı́stica como
una descripción objetiva de un estado. Sabemos hoy en dı́a que referencias a censos
de población y agrı́colas se pueden encontrar en el libro chino Kuan Tzu (1000 a.C.),
Viejo Testamento (1500 a.C.) y Arthaśāstra of Kautilya (300 a.C.).
Un ejemplo de antiguos registros estadı́sticos, recientemente descubiertos, son las
cifras encontradas en una pirámide de un faraón egipcio que vivió hace unos 50 siglos
(3000 a.C.). Éstas se referı́an a la captura de:


c Publicacions de la Universitat de Barcelona
174 ESTAD ÍSTICA Y VERDAD

120.000 prisioneros de guerra


400.000 bueyes
1.422.000 cabras

después de una guerra y gracias al ejército del victorioso faraón. ¿Cómo llegaron a
ser estas cifras tan armoniosamente redondeadas? ¿Eran cifras efectivas hechas por los
contables reales o cifras ficticias concebidas para la activa imaginación del victorioso
faraón? ¿Era el drástico redondeo de las cifras un intento de subrayar la magnitud del
botı́n?
Samuel Johnson creı́a:

“Los números redondos son siempre falsos”

lo que ya habı́a sido anticipado por Weirus, un fı́sico alemán del siglo XVI, una época
en que la mayor parte de Europa estaba sometida al temor de las enfermedades y la
brujerı́a. Weirus calculó que exactamente

7.405.926

fantasmas habitaban la Tierra! La mayorı́a de la gente creyó que tal cifra debı́a ser el
recuento real ya que Weirus era un hombre erudito.
Recuerdo lo que se recomendaba en una Guı́a de Impuestos mientras rellenaba mi
declaración de la renta en EE.UU.

“Un detallado examen del informe G.A.O. confirma una forma importante de
reducir la probabilidad de una inspección. Evitar redondear a dólares cuando
se detallan ganancias y gastos. Cifras tales como $100, $250, $400, $600
inducen sospechas al inspector, mientras que cifras tales como $171, $313, $496
disminuyen la probabilidad de inspección. Si tiene que tasar algunos gastos,
hágalo en cantidades raras”.

La definición etimológica de la palabra estadı́stica significa datos obtenidos por


diversos medios. ¿Qué transmiten los datos y cómo debemos usarlos para lograr un
objetivo determinado? Para ello, deberemos saber qué clase y cuánta informaci ón
hay en los datos observados utilizable para resolver un problema dado. ¿Qué es la
información? Quizás, la definición más lógica, como la dada por Claude Shannon,
un experto en teorı́a de la información, es “hacer disipar la incertidumbre”, que es
la piedra angular de la resolución de un problema. Los datos, por sı́ mismos, no
son una respuesta a un determinado problema. Pero es el material básico, a partir
del cual podemos evaluar lo bien que podemos resolver un problema, cuan dudosa


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 175

es una respuesta particular o bien qué confianza podemos poner en ella. Los datos
observados necesitan ser procesados para averiguar hasta qué grado la incertidumbre
puede disiparse. El conocer la cantidad de incertidumbre asociada a los datos es la
llave para tomar la decisión apropiada. Ello nos permite sospesar las consecuencias
de diferentes opciones y escoger una que sea la menos perjudicial. La Estadı́stica,
tal como es entendida actualmente, es la lógica a través de la cual podemos subir un
peldaño en la escalera que nos lleva de los datos a la informaci ón.
A medida que la información aumenta gradualmente, reduciendo la incertidumbre
a un nivel mı́nimo aceptable, vamos subiendo varios peldaños más en la escalera
del estado del conocimiento, lo que nos da seguridad en las decisiones que
tomamos (sujetas naturalmente a un inevitable aunque pequeño riesgo). Tal nivel de
conocimiento puede no ser alcanzable en todas las áreas y en todas las situaciones.
Esto crea la necesidad de la estadı́stica, como la metodologı́a de la toma de decisiones
bajo un nivel de incertidumbre asociada a los datos obtenidos.
De acuerdo con el distinguido cientı́fico, Rustum Roy, el conocimiento que encaja
en un cuerpo determinado del saber, lo amplı́a, constituyendo nuevo saber, lo que
supone un peldaño más en la escalera del conocimiento.
No es más que un antiguo proverbio:

¿La ruta de la sabidurı́a?


Bien, es llano y simple de expresar
Errar
y errar
y otra vez errar
Pero cada vez menos
y menos
y menos.

6.3. La revolución de la Información y la importancia de comprender la


6.3. Estadı́stica

Llegará un tiempo tal vez no muy lejano que se comprender á que para una
formación completa como ciudadano eficiente . . ., es tan necesario saber
calcular, pensar en términos de promedios, máximos y mı́nimos, como lo es
ahora saber leer y escribir.

H.G. Wells

La prosperidad de la humanidad dependió en el pasado de la revolución agrı́cola y


luego de la revolución industrial. Pero ello no nos ha alejado de aliviar la miseria de la
gente en aspectos como hambre y enfermedades. El principal obstáculo para progresar


c Publicacions de la Universitat de Barcelona
176 ESTAD ÍSTICA Y VERDAD

ha sido nuestra incapacidad para prever el futuro y tomar decisiones polı́ticas sabias.
La polı́tica sana se basa en una buena información. Ası́ hay necesidad de ampliar la
base de datos para reducir la incertidumbre y tomar mejores decisiones.
La importancia de la información como ingrediente clave en la planificación
y ejecución de un proyecto más que la pericia tecnológica, es ahora ampliamente
reconocido, y somos testigos de la revolución informática, ya que empresas tanto
públicas como privadas están haciendo grandes inversiones en la adquisición y
procesamiento de la información. Se dice que en los EE.UU. alrededor del 40 ó 50 %
de los empleados en el sector público y en el privado están ocupados en estas
actividades.
Que hay demanda pública de estadı́stica se demuestra por el hecho de que
los periódicos dedican considerable espacio en dar toda clase de información.
Tenemos la predicción detallada del tiempo por un periodo que se prolonga alrededor
de una semana, hecho que permite planificar nuestras actividades al aire libre.
Están las cotizaciones de la Bolsa, que nos indican qué inversiones pueden sernos
más provechosas. Una sección especial está dedicada a los deportes con el fin de
mantenernos informados de los acontecimientos deportivos de todas las partes del
mundo. Un periódico diario de Edmonton, Canadá, publica lo que se denomina el
ı́ndice diario de mosquitos, con el fin de convencer al público de que las autoridades
municipales están haciendo los máximos esfuerzos para controlar el nivel de mosquitos
en las ciudades. El New York Times dedica casi el 30 % de su espacio para toda clase
de estadı́sticas ası́ como reportajes basados en ellas.
Hay revistas con estudios de consumidores que informan al público acerca de los
precios de artı́culos de consumo y los resultados comparativos de varios productos del
mercado.
Comprender bien la estadı́stica resulta importante a varios niveles. El primero es
a nivel individual. La necesidad de conocer las tres reglas (leer, escribir y contar) es
bien conocida. Pero esto no es suficiente para hacer frente a las incertidumbres que
encuentra un individuo en cada momento de su vida. Tendrá que tomar decisiones
para matricularse en un colegio, casarse, hacer inversiones y resolver los problemas
del trabajo diario. Esto requiere diferentes tipos de habilidades, que nosotros podemos
llamar la cuarta regla: el razonamiento estadı́stico, comprensión de las incertidumbres
de la naturaleza y del comportamiento humano y minimización del riesgo en la
toma de decisiones, haciendo servir la propia experiencia y la colectiva. Además, el
conocimiento estadı́stico para un individuo será una ventaja para su propia protección
y la de su familia contra infecciones, contra la propaganda de los polı́ticos y de los
anuncios poco escrupulosos, de los negociantes, eliminando la superstición que es
peor que la enfermedad, aprovechándose de las predicciones del tiempo, enterándose


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 177

de desastres como la radiación que se escapa de las plantas nucleares y muchas otras
cosas que afectan a su vida y sobre las que no posee control.
¿Necesita el hombre de la calle estudiar estadı́stica para adquirir lo que
denominamos la cuarta regla? La respuesta es no. Una cierta educación estadı́stica en
la enseñanza media, junto con las matemáticas, serı́a suficiente. Nuestro actual sistema
educativo está más orientado a estimular a los estudiantes a creer en la palabra escrita
y les previene contra la toma de decisiones con riesgo simbolizado en frases como “No
cuentes los pollos antes de que salgan del cascarón”, en lugar de prepararlos para vivir
en un mundo incierto y aprender a hacer frente a situaciones lı́mite de la vida moderna
sin precipitación.
Debemos aprender cómo enfrentarnos a un riesgo calculado. Recientemente, se
publicó un reportaje en la prensa, que decı́a que entre los nombres grabados en el
“Vietnam Veterans Memorial” en Washington, hay por lo menos 38 que erróneamente
han sido dados por muertos. Cuando la persona responsable fue preguntado por ello,
dijo: “No era posible en el momento de la construcción saber si estos soldados
estaban muertos, porque los datos eran incompletos. Yo no sabı́a si serı́a posible añadir
nombres una vez construido el Memorial. Tuve la creencia de que sus nombres podı́an
perderse para la historia si no los hubiera incluido”.
En el siguiente nivel tenemos a polı́ticos y artı́fices de la polı́tica, para quienes
el conocimiento estadı́stico es importante. Los gobiernos tienen una descomunal
maquinaria administrativa para recopilar datos. Son estos los medios que se usan para
tomar decisiones polı́ticas correctas en la administración cotidiana y formular planes
de largo alcance para fines sociales. Los polı́ticos intentan buscar consejos técnicos
para tomar decisiones. No obstante, es importante que adquieran por si mismos algún
conocimiento técnico para comprender e interpretar la información. Las siguientes
anécdotas ilustran este punto.

Los estadı́sticos del Gobierno y de la industria a menudo se hallan frente a


barreras lingüı́sticas con sus jefes. El jefe de una oficina estadı́stica, un oficial
administrativo, se entrevistaba con un grupo de estadı́sticos que se quejaban
de que en un informe recibido de otra organización, algunas estimaciones no
detallaban el error estándar.1 El jefe, al ser informado, inmediatamente señaló:
“¿Hay estándares para los errores también?”

Un informe sometido a Tea Board por un asesor estadı́stico, contenı́a una tabla
con el tı́tulo: Número estimado de gente que toma el té con error estándar. Pronto

01. El error estándar es usualmente un número adjunto a una estimación, para dar una idea aproximada de la
magnitud del error en la misma.


c Publicacions de la Universitat de Barcelona
178 ESTAD ÍSTICA Y VERDAD

fue enviada una carta al estadı́stico preguntando qué clase de error estándar es el
que la gente toma con el té.

Una comisión regia, revisando un informe estadı́stico en el que se decı́a que las familias
de clase media tenı́an una media de 2.2 hijos, comentó:

“La cifra de 2.2 hijos por mujer adulta es en ciertos aspectos absurda. Se sugiere
que se ayude a la clase media pagándoles dinero con el fin de incrementar la
media hasta una cifra más redondeada y conveniente”.
Punch

Un ministro de sanidad quedó intrigado por la afirmación formulada por un


estadı́stico de que 3.2 personas de cada 1000 enfermaron y murieron durante el último
año. Preguntó a su secretario privado, un administrativo, ¿cómo puede ser que mueran
3.2 personas? El secretario respondió:

“Señor, cuando un estadı́stico dice que 3.2 personas han muerto, significa que 3
personas realmente han fallecido y que 2 están a punto de morir”.

Las decisiones en la polı́tica gubernamental son importantes por su efecto


sobre millones de personas. Necesitan una sólida información e igualmente sólida
metodologı́a para procesarla.
Finalmente, existen profesionales en medicina, economı́a, ciencia y tecnologı́a
para quienes la interpretación y análisis de datos es hasta cierto punto una parte
necesaria de su trabajo.

6.4. Números lúgubres

No me lo cuentes, en lúgubres números


La vida no es más que un sueño vacı́o.
H. W. Longfellow

Continuamente se nos previene, a través de los periódicos, revistas y otros medios


de comunicación, de los buenos y de los perjudiciales efectos de nuestros hábitos
dietéticos, hacer ejercicio, sobre la costumbre de fumar y beber, tensiones en nuestra
profesión y otras actividades diarias. La información viene expresada en números que
representan pérdidas o ganancias en determinadas unidades. He aquı́ algunos números
lúgubres reproducidos de Cohen y Lee (1979). (Ver Tabla 6.1).


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 179

Causa Dı́as Causa Dı́as


Soltero 3500 Alcohol 130
Zurdo 3285 Accidentes con
armas
de fuego 11
Soltera 1600 Radiación natural 8
Con 30 % de Rayos X 6
sobrepeso 1300 (origen médico)
Con 20 % de Café 6
sobrepeso 900
Fumar cigarrillos 2250 Contraceptivos 5
(varón) orales
Fumar cigarrillos 800 Bebidas dietéticas 2
(mujer)
Fumar cigarros 330 Test de Papanicolau −4 **
Fumar en pipa 220 Alarma anti humo en
casa −10
Trabajos peligrosos,
accidentes 300 “airbag” −50
Accidentes de Unidad móvil-
trabajo 74 Cuidados coronarios −125
** Datos relativos a otras causas pueden hallarse en Cohen y Lee.
** Los números negativos indican ganancia en esperanza de vida.

Tabla 6.1: Disminución en la Esperanza de vida debida a varias causas∗

¿Cómo hemos de interpretar estas cifras? ¿Qué mensaje nos transmiten? ¿De
qué utilidad son para un individuo en la modelación de su estilo de vida, para
incrementar su felicidad?
Consideremos la primera cifra de la Tabla 6.1, la pérdida en esperanza de vida
de un hombre si permanece soltero. Ésta puede ser obtenida de información asequible
usualmente en los registros de fallecimientos por sexos, estado civil y edad al fallecer.
De los registros de varones, simplemente debe computarse separadamente, el promedio
de edad al fallecer para los casados y para los solteros. La diferencia en estos
promedios es la cifra: 3500 dias. Esto probablemente indica una amplia evidencia del
riesgo de quedarse soltero, habla favorablemente de la institución del matrimonio y
da un fuerte respaldo al consejo de casarse lo antes posible y ası́ ahorrar alrededor
de 10 años de vida! No obstante, ello no implica una causa [casarse] y un efecto
[vivir 10 años más] aplicable a cada individuo. Puede ser bastante probable que para
un individuo determinado, casarse sea suicida! Sin duda, una detallada tabulación de


c Publicacions de la Universitat de Barcelona
180 ESTAD ÍSTICA Y VERDAD

los registros de fallecimientos clasificados en subgrupos de varones de acuerdo con


varias caracterı́sticas personales serı́a más informativa. Distintos subgrupos pueden
tener comportamientos diferentes en pérdida o ganancia de esperanza de vida. Un
determinado individuo puede analizar su propia personalidad y comparar su caso con
la cifra indicada para el subgrupo de personas con caracterı́sticas similares a las suyas.
Se aprecia en la Tabla 6.1 que los zurdos fallecen alrededor de 9 años antes que
los diestros. ¿Implica ello que hay algo genéticamente anómalo en los zurdos? Quizás
no: la diferencia puede ser debida a la desventaja que los zurdos tienen al vivir en un
mundo donde la mayor parte de facilidades se han dispuesto a la medida de los diestros.
Sin embargo, la información estadı́stica puede servir a los zurdos para protegerse
contra posibles peligros.
Un promedio, en general, facilita una amplia indicación de las caracterı́sticas
de un grupo de individuos (población) como un todo. Sirve provechosamente para
comparar poblaciones. De este modo podemos decir que una población de individuos
con una media de ingresos de 1000$ al mes tiene mejor nivel de vida que otra con
500$ al mes. Un promedio no nos dice nada sobre las disparidades de los ingresos
individuales. Por ejemplo, éstos pueden variar de 20$ a 100000$ y el promedio ser
1000$. Las diferencias entre los ingresos individuales dentro de una población, la
llamada variabilidad, es también apropiada para comparar poblaciones. En muchos
casos, una cifra promedio y alguna medida de variabilidad (como la gama de ingresos)
facilita información de cierto valor práctico. Un promedio por sı́ mismo puede ser
decepcionante y no se puede utilizar en todos los casos para hacer afirmaciones
relativas a un individuo. Imaginemos que se informa a una persona, que no sabe nadar,
que puede cruzar un rı́o porque su estatura es superior a la profundidad media del rı́o!

6.5. La predicción del tiempo

Un meteorólogo digno de confianza es aquel cuyo micr ófono está lo bastante


próximo a una ventana para que ası́ pueda decidir si utilizar la predicci ón oficial
o hacer una propia.

Hace algunos años los pronósticos del tiempo acostumbraban a usar expresiones
como estas: lloverá mañana, probablemente lloverá mañana, no se esperan
precipitaciones para mañana, etc. Los pronósticos eran frecuentemente equivocados.
Pero hoy en dı́a las predicciones tienen diferente lectura: existe un 60 % de
probabilidades de que llueva mañana. ¿Qué significa este 60 %? ¿Contiene esta
afirmación más información que las anteriores predicciones? Quizás, para quienes no
saben qué significa la palabra “probabilidad”, las predicciones diarias pueden ser algo
confusas y dar la impresión de que no son tan precisas como acostumbraban a ser.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 181

Hay un elemento de incertidumbre en la predicción sea cual sea su base. Ası́,


hablando en pura lógica, una predicción sin ninguna indicación de su precisión no es
prácticamente útil para poder tomar decisiones. La cifra del 60 % en la predicción del
tiempo nos da una medida de la exactitud de la predicción. Implica que en las ocasiones
en que se hace un pronóstico parecido, lloverá alrededor del 60 % de las veces y no
lloverá el 40 % restante. Naturalmente que no es posible decir en qué ocasión particular
lloverá. En este sentido, la predicción “hay un 60 % de probabilidad de que mañana
llueva” es más informativa y lógica de formular que decir categóricamente “mañana
lloverá”. ¿En qué sentido es esta predicción útil?
Supongamos que hay que decidir si coger un paraguas o no en base al pronóstico
del tiempo que dice “hay un 60 % de probabilidad de que mañana llueva”. Supongamos
que la inconveniencia que puede causarle el coger el paraguas cualquier dı́a pueda ser
medida en términos monetarios como m dólares y la pérdida que significa mojarse a
causa de la lluvia por no llevar el paraguas sea r dólares. Entonces la esperanza de
pérdida en dólares bajo las dos posibles decisiones que se pueden tomar cuando la
probabilidad de lluvia es del 60 %, es como sigue:

Decisión Pérdida esperada


Llevar paraguas m
No llevar paraguas ,6(r) + ,4(0) = 6r/10

Se puede minimizar la pérdida decidiendo llevar un paraguas si m ≤ 6r/10 y no


llevarlo si m > 6r/10.
Esta es una simple demostración de cómo la medida de la exactitud o inexactitud
de una predicción puede ser usada para sospesar las consecuencias de las posibles
diferentes decisiones y escoger la mejor de ellas. No existe una base para tomar una
decisión si no se ha cuantificado la incertidumbre asociada a la predicción.

6.6. Sondeos de opinión pública

Tan pronto como me pongo a pensar, me asaltan las dudas.


Oscar Levant

En el pasado, los reyes trataban de conocer la opinión pública mediante una red de
espı́as. Probablemente, la información ası́ recogida les ayudaba a configurar la polı́tica
pública, decretando leyes y obligando su cumplimiento. La historia de los sondeos para
conocer la opinión pública, empezó con la primera publicación de las encuestas Gallup.


c Publicacions de la Universitat de Barcelona
182 ESTAD ÍSTICA Y VERDAD

Actualmente estas consultas han llegado a ser rutinarias en periódicos y otros medios
de comunicación jugando un importante papel en los mismos. Recogen la opinión del
público en diferentes asuntos polı́ticos, sociales y económicos, publicando resúmenes
de los resultados. Estas encuestas de opinión son muy valiosas en los sistemas polı́ticos
democráticos. Indican a los lı́deres polı́ticos y a la administración cuáles son las
aspiraciones, deseos y necesidades de la sociedad. También son noticia informando
a los ciudadanos sobre lo que piensan los demás. Esto puede ayudar a cristalizar la
opinión pública en asuntos importantes.
Los resultados de las encuestas de opinión pública se anuncian en un determinado
estilo estadı́stico, que necesita una aclaración. Por ejemplo, las noticias radiadas
pueden ser:

“El porcentaje de población que aprueba la polı́tica exterior del Presidente es de


42 con un margen de error de más menos 4 puntos”.

En lugar de dar una cifra única como respuesta, se da un intervalo (42 − 4, 42 + 4) =


(38, 46). ¿Cómo se obtiene y cómo se interpreta?
Supongamos que el verdadero porcentaje de adultos en América que aprueba
la polı́tica exterior del Presidente es un número determinado que llamamos T . Para
conocer el número T, es necesario contactar con todos los americanos adultos y lograr
sus respuestas a la pregunta, ¿Aprueba la polı́tica exterior del Presidente? Esta es una
labor imposible si tiene que hallarse una respuesta rápida. Lo mejor que podemos
hacer es lograr una estimación, que sea una buena aproximación a T . La información
media se logra telefoneando a un determinado número de personas “elegidas al azar”
y anotando sus respuestas. Si r de cada p personas contactadas responden diciendo
sı́, entonces la estimación de T serı́a 100(r/p). Naturalmente, hay algún error en
la estimación porque hemos tomado solamente una muestra de la población (una
pequeña fracción del número de adultos de EE.UU.). Si se contacta con otro grupo
de p individuos, podemos obtener una estimación diferente. ¿Cuál es el error en una
estimación determinada? Basándonos en una teorı́a desarrollada por dos estadı́sticos,
J. Neyman y E. S. Pearson, es posible calcular un número e tal que el verdadero valor
de T se encuentre en el intervalo

100(r/p) − e, 100(r/p) + e

con una alta “probabilidad”, normalmente elegida como el 95 % (o bien 99 %). Esto
significa que el suceso tal que el intervalo no cubra el valor real es tan raro como sacar
una bola blanca en una extracción al azar de una bolsa que contiene 5 (ó 1) bolas
blancas y 95 (99) bolas negras.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 183

meses antes meses después


mes de
Total
nacimiento
6 5 4 3 2 1 1 2 3 4 5 p
Muestra 1 24 31 20 23 34 16 26 36 37 41 26 34 348 .575
Muestra 2 66 69 67 73 67 70 93 82 84 73 87 72 903 .544
Muestra 3 0 2 1 9 2 2 3 2 0 1 3 2 18 .611
p = Proporción de fallecimientos durante y después del mes de nacimiento.
Muestra 1. Famosos citados en “Cuatrocientos Notables Americanos”.
Muestra 2. Las personas citadas bajo esta categorı́a forman parte de las más importantes familias que publican los 3
volúmenes de “Who is Who”2 de los años 1951–60, 1943–50 y 1897-1942.
Muestra 3. Académicos indios de la Royal Society fallecidos.

Tabla 6.2: Número de muertos antes, durante y después del mes de nacimiento

La validez de los resultados de las encuestas públicas depende de lo


“representativa” que sea la muestra de individuos escogida. Es evidente que el
resultado dependerá de la composición de la afiliación polı́tica de los individuos
escogidos (Republicanos o Demócratas). Aún suponiendo que no haya habido un
determinado sesgo al escoger los individuos con respecto a sus afiliaciones polı́ticas,
los resultados pueden ser viciados si algunos individuos no responden pero ocurre
que pertenecen a un partido polı́tico determinado. En cualquier informe, es seguro que
habrá un cierto grado de respuestas nulas, y el error que introduce esta circunstancia
es difı́cil de valorar a menos que se disponga de información adicional.

6.7. Superstición y procesos psicosomáticos

Cuando se le preguntó por qué no creı́a en la astrologı́a, el lógico Raymond


Smullyan respondió que era Géminis y que los Géminis nunca creen en la
astrologı́a.

Un amigo mı́o, un buen cristiano, dio a la Iglesia la totalidad del primer mes de
su salario en su primer trabajo. Cuando le pregunté si creı́a en Dios, contestó: “yo no
sé si Dios existe o no, pero por si acaso es más seguro creer que Dios existe y actuar
de acuerdo con ello”. Quizás creencias y supersticiones ocupan un lugar en la vida de
cada uno, pero es un peligro cuando son las únicas guı́as de nuestras actividades.
¿Tienen los procesos psicosomáticos algún efecto en el funcionamiento biológico
de nuestro cuerpo? No hay evidencia experimental ni en un sentido ni en otro. No

02. “Quién es Quién”. N. del T.


c Publicacions de la Universitat de Barcelona
184 ESTAD ÍSTICA Y VERDAD

obstante, de vez en cuando, aparecen estudios en apoyo de anécdotas referentes a


los efectos de la “mente sobre la materia”. En un reciente trabajo, David Phillips de
la Universidad de California, San Diego, examinó la proporción de muertes en un
periodo de 25 años entre las mujeres chino-americanas mayores de edad alrededor de
una fiesta clave, el Festival de la Cosecha. Encontró que los fallecimientos bajaron un
35.1 % sobre lo que serı́a normal una semana antes de la fiesta y subieron un 34.6 %
una semana después, lo que parece indicar que uno puede ejercer cierto poder para
retrasar su muerte hasta después del acontecimiento esperado.
En un estudio previo Phillips (1977) obtuvo datos referidos a los meses de
nacimiento y defunción de 1251 americanos famosos y demostró similares resultados.
La siguiente Tabla 6.2 facilita los datos conseguidos por Phillips junto con los datos
sobre los académicos indios de la Royal Society.
Se aprecia en la Tabla 6.2 que el número de muertes en los meses anteriores es
inferior a las ocurridas en los meses durante y después del mes de nacimiento. Este
fenómeno es más pronunciado en el caso de las personalidades más famosas. Los datos
globalmente considerados parecen indicar que hay una tendencia a retrasar la propia
muerte hasta después del cumpleaños.
¿Indican estos estudios que algunas personas pueden emplear su fuerza de
voluntad para retardar la fecha de su muerte hasta que ocurre un acontecimiento
importante, tal como un nacimiento, un festival o un aniversario? Un famoso ejemplo
señalado en este sentido es el de Thomas Jefferson; se sabe que demoró su muerte hasta
el 4 de julio de 1826 —exactamente 50 años después de la firma de la Declaración de
Independencia— sólo después de preguntar a su doctor: “¿Es el 4?”
Estudios aislados como el publicado de David Phillips no necesariamente cuentan
toda la historia. En el trabajo de investigación, es normal que el mismo problema sea
estudiado por un gran número de investigadores y sólo aquellos resultados positivos,
quizás por azar, son publicados y conocidos. Los que indicasen resultados negativos
no son generalmente publicados y permanecen archivados, una situación a la que nos
referimos como el “problema del cajón de los archivos”. Por tanto, hace falta mucha
precaución en aceptar los resultados publicados y sacar conclusiones de los mismos.

6.8. La Estadı́stica y la Ley


Las leyes no son generalmente entendidas por tres clases de personas: aquellas
que las hacen, aquellas que las ejecutan y aquellas que las sufren si las
transgreden.
Halifax

Es importante no sólo que se haga justicia si no que adem ás lo parezca.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 185

porcentaje de
Aprobados Suspendidos
aprobados
Mujeres 6 3 .666
Hombres 34 3 .919
Total 40 6 .870

Tabla 6.3: Proporción de aprobados entre los aspirantes de un curso

Durante la última década, los conceptos y métodos estadı́sticos han jugado un


importante cometido en resolver complejas situaciones referidas a casos de derechos
civiles. Ejemplos tı́picos son las disputas de paternidad, alegaciones de discriminación
contra grupos minoritarios a la hora de obtener empleo y oportunidades de encontrar
vivienda, regulación del entorno y seguridad, y protección del consumidor contra
anuncios engañosos. En todos estos casos, los argumentos se han basado en datos
estadı́sticos y su interpretación. Un juez tiene que determinar la credibilidad de la
evidencia cuantitativa que se le haya presentado y decidir sobre la responsabilidad
legal en cada caso, ası́ como la apropiada compensación. Este proceso precisa que
todas las partes interesadas, todos los implicados en el pleito, abogados de cada parte,
y, quizás lo más importante, los jueces que tienen que decidir, posean conocimientos
de estadı́stica y de los peligros más habituales en su uso y su interpretación.
Consideremos el caso de Eison contra la ciudad de Knoxville, en el que una mujer
candidata a la Academia de Policı́a de Knoxville, reclamó que un test de fuerza y
resistencia usado por la Academia era discriminatorio contra el sexo femenino. Como
evidencia, Eison facilitó los resultados del test en su curso.
Ella argumentó que la regla de los 4/5 de la EEOC (Comisión para la igualdad de
oportunidades de empleo) se violaba ya que la relación .666/.919 = 0.725 era bastante
menor que los 4/5 = .8. El juez pidió los resultados globales de la Academia, que fueron
los siguientes3 :

% de
Aprobados Suspendidos
aprobados
Mujeres 16 3 .842
Hombres 64 3 .955
Total 80 6 .930

Tabla 6.4: Proporción de aprobados entre los aspirantes de toda la Academia

03. Las diferencias entre las proporciones de hombres y mujeres, respecto a una cierta propiedad, al considerar un
resultado parcial y el resultado global, se conoce como paradoja de Simpson. N. del T.


c Publicacions de la Universitat de Barcelona
186 ESTAD ÍSTICA Y VERDAD

En este caso, la relación es (.842)/(.955) = .882 > .8. El juez dijo sensatamente
que lo que era relevante era la “totalidad de las personas” al hacer un test y no
un subconjunto particular de las mismas. Este es un ejemplo tı́pico donde las partes
interesadas tratan de seleccionar una parte de los datos que parecen diferir de la
totalidad de los mismos, aplicándola a su caso especı́fico.
A menudo, la evidencia cuantitativa es expresada en forma de un promedio o
una proporción, basado en una encuesta sobre una pequeña parte de los individuos
de una población, acerca de una medición particular u opinión. ¿Representaba la cifra
indicada la caracterı́stica particular de la totalidad de la población? Depende mucho
de que el número de individuos relacionados sea el adecuado y de la ausencia de
desviaciones en su selección.
El dar por buenas las estimaciones muestrales de una población precisa de un
cuidadoso examen del procedimiento seguido al llevar a cabo la encuesta, de cómo
asegurar la representatividad de la muestra y usar un tamaño muestral adecuado para
asegurar un determinado grado de precisión en las estimaciones resultantes. La justicia
estarı́a mejor servida si los jueces tuviesen algún conocimiento de la metodologı́a
aplicable en las encuestas, con el fin de que pudiesen facilitarles la decisión, en
cada caso individual, de si aceptar o rechazar unas estimaciones muestrales. No es
que estemos sugiriendo que un juez deba ser un estadı́stico cualificado, pero serı́a
ventajoso para un juez que tuviera algún conocimiento de la inferencia estadı́stica y de
la incertidumbre que conlleva tomar una decisión, para ası́ poder formarse una opinión
independiente basada en los argumentos estadı́sticos que le sean presentados.
Cualquier juicio envuelve la evaluación de la probabilidad de que un determinado
suceso sea verdadero, dadas todas las evidencias, tomar una decisión y considerar
las consecuencias de condenar a una persona inocente y de no llegar a condenar
a un culpable. Las frases habituales para expresar verbalmente varios grados de
probabilidad son como las siguientes:

(1) el predominio de las evidencias;


(2) evidencia clara y convincente;
(3) evidencia clara, inequı́voca y convincente;
(4) prueba más allá de una duda razonable.

Con el fin de determinar cómo interpretan los jueces generalmente estos criterios
para calificar las pruebas, el juez Weinstein estudió a sus compañeros en los tribunales
del distrito, cuyas probabilidades expresadas en porcentajes se detallan en la siguiente
tabla.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 187

Se aprecia que existe unanimidad en el orden creciente de las probabilidades


otorgadas, para los cuatro criterios (1)-(4) descritos. No obstante, hay alguna variación
entre los jueces en las probabilidades asignadas al más alto grado de certeza.

Claro y Claro, inequı́voco Prueba más allá


convincente y convincente de una duda
Preponderancia razonable
Juez ( %) ( %) ( %) ( %)
1 50+ 60-70 65-75 80
2 50+ 67 70 76
3 50+ 60 70 85
4 51 65 67 90
5 50+ Criterio esquivo y poco útil 90
6 50+ 70+ 70+ 85
7 50+ 70+ 80+ 95
8 50.1 75 75 85
9 50+ 60 90 85
10 51 No puede estimarse numéricamente
Fuente: U.S.v. Fatico 458 F. Supp. 388 (1978) pág. 410.

Tabla 6.5: Probabilidades asociadas con varios estándares de calificación de las


pruebas según los jueces del distrito Este de Nueva York

De hecho, existe una sofisticada técnica estadı́stica, el método de Bayes, según


el cual la probabilidad a priori de que un individuo sea culpable, según el juez,
puede ser actualizada usando las evidencias disponibles con un grado determinado
de credibilidad. Esta probabilidad condicionada a las evidencias disponibles se llama
probabilidad a posteriori y constituye el principal dato al tomar decisiones (véase la
Sección 2.2.2). Parece que la teorı́a Bayesiana para la toma de decisiones, tal como se
desarrolla en estadı́stica, proporciona una base objetiva para administrar justicia.

6.9. Percepción extrasensorial y coincidencias asombrosas

El universo está gobernado más por probabilidades estadı́sticas que por lógica.
Pero esto lo hace todavı́a más maravilloso. Si la vida es como obtener seiscientas
veces seguidas el mismo resultado en un juego de azar, sabemos que no es
probable que esto suceda más que una sola vez en muchos siglos, pero tambi én
sabemos que ello puede ocurrir en esta habitaci ón, esta noche, sin perturbar el
frágil orden cósmico. Ello resulta tranquilizador.
G.K. Chesterton


c Publicacions de la Universitat de Barcelona
188 ESTAD ÍSTICA Y VERDAD

De vez en cuando nos llegan estudios sobre individuos que poseen percepción
extrasensorial (PES) con la habilidad de leer la mente de otros, astrólogos que
hacen predicciones exactas y coincidencias asombrosas, como que alguien gane a la
loterı́a dos veces en cuatro meses. Estos acontecimientos son noticia y quizás resultan
interesantes de leer. ¿Sugieren la existencia de poderes ocultos que los causan?
Es quizás poco prudente descartar completamente la posibilidad de que existan
ciertos individuos con extraordinarias habilidades (como PES), o que las posiciones de
los planetas en el momento del nacimiento determinen el curso de los acontecimientos
de la vida de un individuo. No obstante, el anuncio de historias afortunadas, a menudo
sobre una base selectiva, no nos proporciona una gran evidencia a favor de tales
posibilidades.
Basta considerar, por ejemplo, un experimento tı́picamente extrasensorial, donde
se pide a una persona que adivine cuál de los dos posibles objetos con los que se
experimenta, ha sido escogido y puesto debajo de una carpeta. La posibilidad de que
un individuo acierte con todas las respuestas correctas en cuatro pruebas repetidas,
por puro azar, es 1/16. Esto significa que si 64 individuos de una población arbitraria
son puestos a prueba, hay una probabilidad alta de que haya entre 3 y 4 individuos
que contesten correctamente. Este experimento no sugiere que estos 3 ó 4 individuos
tengan PES. No obstante, si sólo se publicasen tales logros, atraerı́an nuestra atención.
Consideremos otro ejemplo. Si se está en una fiesta con al menos 23 personas y
les preguntamos sobre sus fechas de nacimiento, podemos encontrarnos a 2 de ellas
que han nacido el mismo dı́a del año. Esto podrı́a parecer una coincidencia asombrosa,
pero los cálculos probabilı́sticos demuestran que esta circunstancia ocurre con una
probabilidad del 50 %.
En un artı́culo publicado en el Journal of the American Statistical Association
(Vol. 84, pp. 853-880), dos profesores de la Universidad de Harvard, Diaconis y
Mosteller, demuestran que la mayor parte de las coincidencias, hechos que pueden
parecer asombrosos, son sucesos que tienen una probabilidad razonable de ocurrir de
vez en cuando.
Existe una ley estadı́stica que indica que con un tamaño muestral suficientemente
grande, cualquier suceso, aunque sea pequeña la probabilidad de que suceda en un
ensayo aislado, acabará ocurriendo. Puede ocurrir en cualquier momento sin podérsele
atribuir ninguna causa especial.

6.10. Difundamos la terminologı́a estadı́stica

Deseo que él quisiera aclarar su explicaci ón.


Lord Byron.


c Publicacions de la Universitat de Barcelona
LA ESTADÍSTICA DE DOMINIO PÚBLICO 189

Estudiamos las 3 reglas de lectura, escritura y aritmética en la escuela. Todo


esto no es suficiente. Hay una gran necesidad de saber cómo manejar las situaciones
de incertidumbre. ¿Cómo tomaremos una decisión cuando no tenemos suficiente
información? Esto ha desconcertado a los filósofos durante los siglos pasados. Ahora
tenemos un camino lógico para permitir la incertidumbre en la toma de decisiones.
Lo podemos llamar la cuarta regla, razonamiento (de tipo inductivo) a partir de
insuficientes premisas. Se deberı́an hacer intentos para introducir la cuarta regla en una
etapa temprana del curriculum escolar. Esto puede llevarse a cabo a través de ejemplos
de sucesos impredecibles de la naturaleza, variabilidad entre los individuos y errores
de medición, y explicando lo que podemos aprender a partir de los datos observados o
de la información obtenida en dichas situaciones.
También deberı́amos intentar explorar la posibilidad de usar los medios de
comunicación, los periódicos, la radio y la televisión, para educar continuamente al
público sobre las consecuencias de las medidas tomadas por el Gobierno y de los
hallazgos de los cientı́ficos. Esto precisa de periodistas con la habilidad necesaria para
interpretar informaciones estadı́sticas y ası́ poder dar noticia sobre ellas en un sentido
imparcial. Sin lugar a dudas, los nuevos periodistas tienen algunas limitaciones. Tienen
que escribir historias en el sentido de que no ofendan a la clase dirigente y que a
la par sean lo bastante sensacionalistas para ser aceptadas por los editores para su
publicación. Pueden no tener la experiencia para formar un juicio independiente y
prefieren resumir lo que los expertos desean fomentar. Quizás, existe la necesidad
de formar a periodistas capacitándolos para escribir trabajos sobre temas estadı́sticos.
Tengo entendido que el profesor F. Mosteller de la Universidad de Harvard imparte
periódicamente cursos de estadı́stica para formar periodistas que puedan escribir
imparcialmente sobre materias estadı́sticas y en un sentido comprensible para el
público. Esta es una loable tentativa y deberı́an llevarse a cabo esfuerzos para
introducir, en las universidades, cursos ordinarios de estadı́stica orientados a escritores
sobre temas cientı́ficos.

6.11. La estadı́stica como una tecnologı́a clave

En el pasado, la economı́a de un paı́s dependı́a de lo bien preparado que se


encontrara para la guerra. Estamos presenciando hoy en dı́a una transformación de las
amenazas y la confrontación hacia la conciliación y negociación. El mayor problema
de las próximas décadas para cualquier paı́s no será el desafı́o de la guerra sino el de
la paz. El campo de batalla del futuro será el económico y el bienestar social. Nuestra
lucha deberá ser contra el hambre y las privaciones que afligen a la sociedad. Parece


c Publicacions de la Universitat de Barcelona
190 ESTAD ÍSTICA Y VERDAD

que no estamos plenamente preparados para tal cometido. Nuestro éxito dependerá de
que se consiga y procese la información necesaria para tomar una decisión óptima
gracias a la cual los recursos disponibles, tanto en el terreno personal como en el
material, sean explotados al máximo para mejorar el nivel de vida de los ciudadanos.
Esto debe ser llevado a cabo de un modo cuidadoso con el fin de asegurar que:

• El progreso sea equitativo y sostenible.

• No deben causarse daños irreversibles a la biosfera.

• No haya contaminación moral (o degradación de los valores humanos).

La Estadı́stica podrı́a ser la clave tecnológica para lograr esta revolución, una
tecnologı́a para dar forma a un nuevo mundo a través de la paz.

Referencias

COHEN, B. y LEE, I. S. (1979). “A catalog of risks”. Health Physics, 36, 707-722.


DIACONIS, P. y MOSTELLER, F. (1989). “Methods for studying coincidences”. J. Amer.
Statist. Assoc., 84, 853-880.
PHILLIPS, D. P. (1977). “Deathday and birthday: An unexpected connection”. En
Statistics: A Guide to Biological and Health Sciences (Eds. J. M. Tanur et al.) pp. 111-
125, Holden Hay Inc., San Francisco.


c Publicacions de la Universitat de Barcelona
ÍNDICE DE MATERIAS

Abducción, 75 lógica, 60
Abul Fazl, 66 naturaleza, 43
ADN, 75, 161 necesidad, 58
Achenwall Gottfried, 66
Ain-i-Akbari, 66
Akaike, H., 105
Alcoholismo, 127 Babbage, C., 68, 99
Aleatoriedad, 27 Barnett, V., 141
Alzaid, A. H., 133, 138 Bayes, Thomas, 76, 187
Ambigüedad, 61 Benzécri, F., 103, 109
Aminoácidos (D & L), 157 Benzécri, J. P., 103, 109
Análisis de datos Bernal, 171, 172
descriptivo, 82 Bertin, J., 111
exploratorio, 85 Bielfeld, J. von, 66
inferencial, 82, 86, 107, 108 Black, P., 153, 169
Andrews, D. F., 111 Bohr, 142
Andrews, G., 48 Boltzman, L., 43, 49
Anscombe, F. J., 111 Boneva, L. I.,152, 168
Aristóteles, 14, 27 Born, M., 45
Arreglar observaciones, 99 Bose, R. C., 83
Artı́culos del federalista, 150 Bose, S. N., 45
Askey, 22, 25 Bose-Einstein, 45
Atkin, 23 Bradshaw, G. L., 57
Autorı́a controvertida, 150 Broad, W., 91, 95
Azar, 29 Buffon, problema de la aguja, 97
Azar y, Burt, C., 91, 96
caos, 51 Butler, S., 144, 171
creatividad, 46, 53 Byron, Lord, 188
192 ESTAD ÍSTICA Y VERDAD

Caos, 43 especificación del modelo, 103


Carré, John Lee, 147 examen cruzado, 86
Chandrasekhar, 54 información contenida en los, 172
Chatfield, 86, 109 falsificación, 91
Chesterton, G. K., 187 validación cruzada, 105
Chowla, S., 23 Davis, T. A., 156, 157
Chung-Chih Tsu, 98 Deducción, 70, 75
Cibernética, 59 Demonio matemático de Laplace, 42
Cocinar observaciones, 99 Descartes, 77
Codificación, 39 Descubrimiento cientı́fico, 46
Cohen, B., 178, 179, 190 Deshayes, M., 154
Comedia de las equivocaciones, 151 Determinismo, 42
Control estadı́stico de calidad, 146 Dextrógiras y levógiras, 157
Control de la incertidumbre, 69 Diaconis, P., 188, 190
Cortisol (plasma), 160 Diamond, 168
Cox, D. R., 77, 132, 138 Diseño de experimentos, 38
Creatividad, 53 Disminución en esperanza de vida, 179
Criptologı́a, 39 Distribuciones
César Augusto, 65 a posteriori, 76
Códigos secretos, 39 a priori, 76
Criterio de Información afectadas, 114, 116
de Akaike, 105 de los apagones de Calcuta, 136
Bayes, 105 de longitud sesgada, 117
general, 105 nebulosas, 137
Cronobiologı́a, 160 Dobell, A. R., 35, 49
Curtis, W. P., 137, 139 Donne, J., 149, 150
Doull, J. A.,88
Doyle, C., 81
Dalton, J., 96 Dyen, I., 153, 169
Darwin, 142, 155
Datos,
análisis descriptivo, 82 Ecuación fundamental, 86
análisis explorativo, 85 Ecuación lógica, 73
análisis inferencial, 82, 86, 107, 108 Eddington, A. S., 45
atı́picos (ver Outliers) Efecto Raman, 142
diálogo con, 166 Efron, B., 37, 108, 110, 148, 169
edición, 88 Einstein, A., 27, 45, 46, 48, 54


c Publicacions de la Universitat de Barcelona
ÍNDICE DE MATERIAS 193

Elveback, L. R., 88, 89, 110 Gnanadesikan, R., 103, 110


Encuestas, 37, 84, 181 Gödel, K., 54, 71
Engaño en la historia, 95 Goethe, 27
Épocas geológicas, 153 Graunt, J., 67
Error de especificación, 104 Gridgeman, N. T., 98
Error de estimación, 104 Grosvenor, G. C. H., 87
Guillermo de Occam, la navaja de, 103

Factor Rhesus, 146, 167


Falacia del jugador, 41 Hacking, I., 78, 82, 110
Falsear observaciones, 99 Hadamard, J., 53
Falsificación de segundo orden, 94 Halberg, J., 160, 169
Fechando publicaciones, 151, 153 Halifax, 184
Fedro, 161 Hall, C. E., 88, 89, 110
Feigenbaum, M. J., 51 Hamilton, A., 150
Feller, W., 117, 132, 138 Hardy, G. H., 25, 71
Filiación de manuscritos, 152 Hickerson, D. R., 48
Fisher, R. A., 33, 38, 71, 76, 82, 86, 87, Hilbert, 54
93, 110, 114, 138, 144-146, 149, Histograma, 34
150, 153, 155, 168, 169 Historia del Fuerte Rojo, 79, 162
Fleming, A., 55 Hofstadter, D. R., 47
Fox, J. P., 88, 89, 110 Hotelling, H., 83
Fox, 97 Hoyle, F., 41
Fractales aleatorios, 40 Huesos rotos, 134
France Anatole, 27 Hull, T. E., 35, 49
Fraude del IQ, 91 Huxley, A., 15, 103
Fraude en la Historia, 95 Huxley, T. H., 142
Friedman, J. H., 103, 110

Incertidumbre, 28, 69
Galileo, G., 44, 95 control de la, 69
Gauss, J., 55 cuantificación de la, 73, 74
Gauss, K., 44 principio de Heisenberg, 45
Geometrı́a fractal, 51 Indeterminismo, paradigma del, 59
Ghosh, J. K., 53, 54, 56, 96 Índice de paternidad, 161
Gleick, J., 43, 49 Inducción, 72, 75
Glotocronologı́a, 152 Inferencia en análisis de datos, 86


c Publicacions de la Universitat de Barcelona
194 ESTAD ÍSTICA Y VERDAD

ISI, Instituto Indio de Estadı́stica, 37, Levine, P., 167


41, 156, 157 Levógiras y dextrógiras, 157
ISI, Instituto Internacional de Estadı́s- Ley de los grandes números, 36, 45
tica, 69, 84 Ley de series, 41
Lógica
deductiva, 71
Jack-knife, 103, 105, 108 inductiva, 72
Jay, J., 150 Longfellow, H. W., 178
Jefferson, Thomas, 184 Lorenz, E., 43, 51
Jenófanes de Colofón, 141 Loterı́a, 188
Johannsen, W., 155, 156 Lyell, C., 154
Johnson, B., 149, 150
Johnson, S., 174
MacMurray, J., 142, 169
Joshi, 14
Madison, J., 150
Magnitud sesgada, 117
Mahalanobis, P. C., 23, 37, 84, 86, 110,
Kac, M., 52, 155
142, 164, 165, 169
Kammarer, P., 41, 49
Majumdar, D. N., 90, 110
Kappler, 52
Malchus, C. A. V., 67
Karma, principio de, 27
Mallows, C. L., 111
Kautilya, 65, 150
Mandelbrot, B.B., 40, 51
Koeffler, R., 137, 139 Marbe, K., 41, 49
Koestler, A., 47 Marlowe, C., 149, 150
Kolmogorov, A. N., 36 Maxwell, 45
Kruskal, J. B., 153, 169 Mendel, G., 43, 59, 93, 142
Kruskal, J. W., 61 Meta Análisis, 106
Kuan Tzu, 65 Millikan, R., 96
Mitra, A. P., 9, 11, 13
Modelos deteriorados, 132
Langley, P. L., 57 Monte Carlo, 35, 96
Laplace, P. S., 42, 49, 98 Mosteller, F., 85, 105, 110, 150, 169,
Laxmikanthamma, 3 188-190
Lazzarini (Lazzerini), 96, 98 Mourant, A. E., 168, 169
Lee, I. S., 178, 179, 190 Movimiento browniano, 45
Lenguaje, árbol evolutivo del, 152 Muestras
Lenin, 81 censuradas, 114
Levi, E., 61 contaminadas, 114


c Publicacions de la Universitat de Barcelona
ÍNDICE DE MATERIAS 195

Muestreo p.p.t., 119 Plauto, 28


Mukherji, R. K., 90, 110 Polya, G., 41
Popper, K., 142, 143
Predicción del tiempo, 74, 79, 80, 181
Narlikar, J. V., 41, 50 Preguntas delicadas, 42
Nehru, Jawaharlal, 26, 107 Probabilidad
Nelson, 54 a posteriori, 76, 161
Neumann, 113 a priori, 161
Newton, I., 54, 95 Proceso gaussiano, 52
Neyman, J., 58, 76, 84, 110, 182 Projection pursuit (seguimiento de la
Nita, S. C., 152, 169 proyección), 103
Notación decimal, 167 Publicista, 67
Núumeros aleatorios, 29, 33, 35, 37-39 Punch, 178
Números lúgubres, 178

Quételet, A., 43, 67, 68


O’Beirne, T. H., 98
Objeto del análisis estadı́stico, 109
Race, R.R., 168, 169
Oh! Calcuta, 108
Ramanujan, S., 11, 17, 24, 47-49, 53, 96
Ord, K., 119, 138 Ranganathan, S. E., 24
Outliers, 84, 90, 99, 100, 103 Rao, C. R., 9, 11, 15, 17, 19, 53, 54, 90,
103, 106, 110, 111, 114, 117, 119,
122, 132-134, 137-139, 159, 169
Pan Liu, 64
Rao, P. K., 137, 139
Panum, P. L., 88, 89
Rastrigin, L., 60
Paradoja del tiempo de espera, 131
Rayleigh, 15
Paternidad controvertida, 160 Regresión
Patil, G. P., 119, 131, 132, 138 análisis de la, 101
Pearson, E. S., 76, 84, 110, 182 especificación del modelo, 103, 113
Pearson, K., 35, 76, 82, 110 selección de variables, 102
Penrose, R., 57 técnicas gráficas, 103
Percepción extrasensorial, 187 Revolución de la información, 176
Phillips, D. P., 184, 190 Ritmo circadiano, 159
Picasso, P., 55 Roy, R., 60, 175
Pingle, U., 90, 111 Roy, S. N., 83
Pitman, E. J. G., 83, 110 Rubin, H., 133, 139
Platón, 151 Ryle, M., 41


c Publicacions de la Universitat de Barcelona
196 ESTAD ÍSTICA Y VERDAD

Sal en estadı́stica, 161 Test ji-cuadrado, 82


Sarampión, 88 Thisted, R., 148, 169
Sarma, Y. R. K., 11 Tippett, L. H. C., 29, 35, 50
Savage, L. J., 63 Tolomeo, 95
Schmidt, J., 155 Toma de decisiones, 144, 175-177
Sengupta, J. M., 163 Trabajos de amor perdidos, 151
Servio Tulio, 65 Trautmann, T.R., 151, 169
Shakespeare, 144, 148 Trevor, J.C., 90, 110
Shanbhag, D. N., 133, 138 Truncamientos, 114
Shannon, C., 174 Tukey, J. W., 85, 103, 105, 110, 111
Shaw, D. C., 134
Shaw, G. B., 56
Shewhart, W., 83, 84, 111 Validación cruzada, 105
Shih-Su, 65 Vietnam Veterans Memorial, 177
Simon, H. A., 57 von Mises, R., 14
Simulación, 36, 96
Sinclair, Sir John, 67
Smart, R. G., 127-130, 139 Wade, N., 91, 95
Smith, W. L., 137, 139 Wald, A., 76, 84, 111
Solomon, H., 111 Wallace, D. L., 105, 110, 150, 169
Sondeos de opinión, 181 Weirus, 174
Souriau, 55 Wells, H. G., 145, 175
Southwell, R., 28 Westfall, R. S., 95
Sperry, R., 159 Weyl, H., 55
Sprott, D. A., 127-129, 133, 139 Whitehead, A. N., 104
Stamp, J., 91 Wiener, N., 55
Sterzinger, O., 41, 50 Wilks, S., 83
Stone, M., 105, 111 Williams, C. B., 169
Superstición, 183 Wolf, 97
Swadish, M., 153, 169

Yardi, M. R., 151, 169


Taylor, G., 148 Yates, F., 33
Técnicas gráficas, 103
Teorema empı́rico, 120, 123
Tercer tipo de error, 113 Zurdos y diestros, 156, 180
Test de funcionamiento, 153 Zytkow, J. M., 57


c Publicacions de la Universitat de Barcelona

También podría gustarte