Está en la página 1de 144

ZJ)

IIOESTADISTICA

Una Perspectiva Bayesiana

/

Direcci6n de edici6n: Albert Vicens

LUCRECIA JlERRANZ Y GREGORlO BERNARDO

A mis primeros maestros,

Prlmera edtclen. 1981

DepOsito Legal: B. 35.455-1981 ISBN: 84-316-1889-2

N .. O de Orde" V. V.: B .. 928

© J .. M. BEF,NARDO Sobre te parte Iiteraria

Reservados todos los darechos de edicibn a favor de Ediciones Vicens-Vives, S"A Pro hjbid~ la repr-oducclcn total 0 parcial por cualquier medio

IMPRESO EN ESPAI\IA PRINTED IN SPAIN

Editado por Ediciones VICENS-VI\fES. S.A. Avda .. de Sarri;', 130. Barcelona··17. Impreso .por G"ra'ficas I NSTAR S,A .. Constituci6n, 19, 8arcerona~14"

EI autor

Es Director del Departamento de Bioestadisticade 1a Universidad de Valencia, miembro eleeto del European Committee of Statisticians y miernbro elecro del International Statistical Institute

La densa trayectoria academica del Profesor Bernardo se inicia en 1976 con una resis doctoral pOI la Universidad de Londres galardonada con el segundo premio internacional de tesis doctorales de Ia especialidad y se consolida can una Fellowship postdoctoral en la Universidad de Yale.

Creader de un centro de investigacion en metodologia Bayesiana internacionalmente conocido, organize en Valencia, en 1979, el primer congreso mundial sobre metodos estadfsticosBayesianos. •

Sus conferencias en Universidades extranjeras (Harvard, Yale, New York, Chicago, Vancouver, Mexico, Londres, Roma, Florencia, Bolonia, Frankfurt, etc.), comunicaciones en congresos internacionales (LuxernburgovPraga, Varsovia, Grenoble, Lovaina, Valencia, Roma, Varna, Brighton, etc.) y sus numerosaspublicaciones en revistas especializadas del maximo nivel intemaclonal (Annals of Statistics, Journal of the Royal Statiltical Society, etc.), han dado prestigio a la Estadistica Espafiola en el mundo,

Prefacio

La transicion de los rnetodos estadfsticos clasicos a los metodos Bayesianos en Ia practice profesional y en fa investigacion no esta siendo tan rapida como algunos de' nosotros hubieramos deseado Una de las causas de este retraso es posiblcmcnrc la falta de lihrns de texto elernentales que muestren a los profesionales, con ejemplos iescogidos de su propio campo, 1a forma de utilizar la metodologia Bayesiana en su trabajo Este libro pretende contribuii a lIenar esa laguna.

La rnetodologfa Bayesiana resulta atractiva pot varios motivos .. En primer lugar, y a diferencia de la metodologfa clasica, esta exenta de contradiccionesfnternas debido a su planteamiento axiomatico En segundo lugar, proporciona una unidad conceptual y una metcdologia definida que elimina Ia necesidad de procedimientos ad hoc Finalmenre, la rnetodologfa .Bayesiana puede utilizarse para precisar e1 contenido y perfilar el alcance de los mctodos clasicos: en efecto, muchos de los resultados clasicos mas conocidos adrniten una interpretacion Bayesiana, pero Ot1'OS muchos violan los principios basicos de coherencia en que los metodos Bayesianos se fundamentan y resultan par 10 tanto inadmisibles para quienes encuentren razonables tales principios

Las tecnicas Bayesianas son ademas especialmente relevantes para la pnicrica y para la investigacion medica En primer Iugar , la mayor parte de los problemas con los que el medico debe cnfrcntarse son problemas de decision y la metodologfa Bayesiana es la iinica que describe el proceso logico que debe seguirse para decidir, de forma razonable, sobre la mejor forma de actual' En segundo lugar, los medicos cuentan tipicamente con una importante cantidad de informacion inicial, y las tecnicas Bayesianas son las unicas que pctrniten utilizarla. Finalrnente, los conceptos basicos de la metodologfa Bayesiana son mucho jnas intuitivosque sus equivalentes clasicos y su correcta asimilacion resulta posible sin recurrir a matematicas sofisticadas

X BIOESTADisTICA

Este libra es una introduccion a los metodos estadisticos Bayesian~s, que subraya su fundamentaci6n axiornatica y el tratamiento unificado de los conceptos de prcbabilidad, infcrenci», y decision a que da Iugar, EI enfasis se sinia en los conceptus, de forma que aunque se discuten muchos problemas especfficos, el objetivo primordial es dotal al lector de una vision de conjunto EI analisis de datos experirnentalcs en situaciones concretas y la des-

'. cripcion de las aplicaciones mas comunes de los metodos estadisticos en Medicina y Biologla seran objeto de uatamiento posterior,

EI contenido de este libro es, desde mi punto de vista, 10 rmrumo que un profesional deberfa saber sabre el proceso 16gico que debe presidir el analisis de la informacion disponible y la toma de decisiones a que dicho analisis pueda dar lugar Los unicos requisitos previos son aquellos conocimientos elementales de matematicas, que sue1en habet sido adquiridos en la enseiianza secundaria: se trata de un, CUl'SO de introducci6n que' no requiere conocimientos prevics de estadistica ni exige recurrir a otras fuentes

El libro esta dividido en siete capitulos Ecuaciones, definiclones, teoremas y ejemplos estan numerados en notad6n decimal; asi, par ejemplo, ecuadon 2.3 J se retiere a Ia ecuaci6n (1) de la Seccion 3 del Capitulo 2 Entre .Ios apendices finales, se incluyen indices numeticos de ecuaciones, definiciones, teoremas y ejernplos que facilitan su localizacion

Cada capitulo empieza con un corte resumen de su contenido y tetmina con una secci6n bibliografica y una lista de problemas propuestos cuyos resultados nurriericos aparecen en un apendice. La solucion de algunos de estes problemas requiere el uso de unas tablas estadisticas; las de Ferrandiz (1980) estan especialmente orientadas hacia la metodologfa Bayesiana

Son muchos los autores responsables de los conceptos y resultados expuestos en este libra; a 10 Iargo del texto se hace referenda especffica a sus ttabajos Entre el material expuesto, el lector familiaIizado con la literatura especializada reconoceni varias contribuciones originales, generalrnente relacionadas can las medidas de informacion y con su usa en la determinaci6n de distribuciones de referenda v en el disefio de experimentos

Numerosas personas han contribuido directamente a hacer posible este libro En mi formacion profesional, ha sido determinante la influencia del Profesor Dennis V. Lindley, bajo euya direccidn realice la tesis doctotal en el University College de Londres. EI estimulo inicial para escribii el libro vino de Albea Vicens y de mis alurnnos de la Facultad de Medicina de Valencia a quienes les he irnpartido este curso durante tres aiios consecutivos Javier Gir6n y Miguel-Angel Gomez-Villegas han leido el ultimo manuscrito y debo agradecerles sus Miles comentarios y la correccion de algunos errores La contribucion de mis compafieros de trabajo ha sido muy importante:

Jose Bermudez, Juan Fen andie, Maite Rabena, Luis Sanjuan y Malia Seodra

PREFAC!O XI

han leido 105 sucesivos manuscritos, ban preparado gIa~cas y tablas, han I,esuelto los problemas, y han aportado valio~as suge~enclas; Charo Escandon ha mecanogtafiado cuidadosamente las sucesrvas versiones del, ~exto, A tod~s elias les agradezco su esfuerzo Todos ellos comparten los mentes que pueda tener este libro, aunque s610 yo soy lesponsable de los defectos que penna-

nezcan en el

Valencia, abril 1980

JOSE-MIGUEL BERNARDO

fndice

Prefacio IX

Capitulo 1

Introducclon 1

1 1 Alcance y objetivos del Iibro 1

1 2 Estadistica y Teorfa de la Decision 3

13 Probabilidad 4

1 A Inferencia esradistica 5

1 5 Problemas especificos de decision 6

1 6 Estructura del libra 7

Capitulo 2

Fundamentos de Ia Estadistica y de Ia Teoria dela Decisi6n9

21 Estructura de un problema de decision 10

Ejemplo 2.1.1 Oportunidad de una operacion 13

Ejemplo 2.1 2 Eleccion de un medic de rransporte 14

2.2 Solucion intuitiva a un problema de decision 16

Ejemplo 2.2 1 Participacion en una loterla 20

Ejemplo 2.2 2 Eleccion de un medio de transporte (cont.) 21

2 3 Principios de coherencia 22

Ejemplo 2 3 . .1 Opciones economicas alternatives 27

2 4 Probabilidad como grade de creencia 28

Ejemplo 2 41 Temperaturas 32

25 Maximizacion de la utilidad esperada I 32

Ejemplo 251 Opciones econornicas alternativas (cont.) 35

XIV BIOESTADisTicA

2,6 Otros criterios de decision Ejemplo 2 6 J Forma de estudio 2 7 Discusion y referencias

Problemas

Capitulo 3

Medida de probabilidad

3.1 Espacios probabilisticos

Ejernplo 3,1 J Numelo de hematies en Ia sangre 3 2 T eoremas basicos

Ejemplo 32 1 Problema de cumpleafios Ejemplo 3 2.2 Equipos de guardia

33 Independencia e intercarnbiabilidad Ejemplo 33.1 Ruleta

Ejemplo 3 32 Sex a de un recien nacido Ejemplo 3.3 3" Aparici6n de tumor es

3.4 Teoremas de Bayes y de la probabilidad total Ejemplo 3.4 1 Premia literario

Ejemplo 342 lest de tuberculins

Ejemplo 343 Diagnosis

3 5 Analisis secuencial

Ejemplo 3 5 J Prueba del alcohol Ejemplo 35.2 Valor de la informacion 3 6 Asignacion de probabilidades

Ejemplo 3 6 J Pronostico de un partido Ejemplo3 6.2 Caliiicacion de examenes 37 Discusion y referencias

Problemas

Capitulo 4 Cantidades aleatorias

4 1 Cantidad alearoria y funcion de distribucion Ejemplo 411 Temperatures

Ejemplo 41.2 Temperaturas (cont.)

4 .2 Distribuciones discretas

Ejemplo 42.1 Eleccion de pacientes .

Ejemplo 42.2 Sexo de un rccien nacido (cont ) Ejernplo 4 2 3 Probabilidad de cancer

4 3 Distribuciones continuas

Ejemplo 43 1 Longitud de una Ulcer a Ejemplo 4 3.2 Pesos

4.4 Funciones de una cantidad aleatoria EjempIo 44 1 Pacientes hospitalizados

Ejernplo 44 2 Notrnalizacion de una distribucion Beta

iNDICE xv
36 Ejemplo 4.43 Test de normalidad 100
40 Ejernplo 4.4.4 Simulaci6n de observaciones normales 102
41 45 Cal acteristicas de una distribucion 102
43 Ejemplo 451 Elecci6n de pacicntcs (cont) 105
Ejemplo 452 Tiempos de espera 106
Ejemplo 453 Normalizacion de una disttibuci6n Beta
45 (cont) 109
45 Ejemplo 454 Tiempos de espera (cont ) 111
47 46 Distribuciones multivariantes 112
48 Ejemplo 4 6.1 Tipos de enfennedad 114
51 Ejemplo 462 Tipos de enferrnedad (cont) 115
53 Ejemplo 4.63 Distribuci6n del cociente 117
53 Ejemplo 464 Pesos y estaturas 122
54 47 Discusion y referencias 123
56 Problemas 124
.57
58 Capitulo 5 127
59 EI proceso de aprendizaje
61 51 Cuantificaci6n de la informacion inicial 128
62 Ejemplo .5.1.1 Diagnosis 128
63 Ejemplo 5.1.2 Cantidad de tirosina 129
63 Ejemplo 5.1 J Cantidad de tirosina (cant) 130
66 Ejemplo 514 Tasas de morbilidad 132
69 52 Funcion de verosimilitud 134
70 Ejemplo 521 Diagnosis (conr ) 134
72 53 Distribucion predictive 139
73 Ejemplo 53,1 Diagnosis (cont.) . 140
76 Ejemplo 532 Tasas de morbilidad (cont ) 142
Ejemplo .5.3 3 Cantidad de tirosina (cont ) 144
Ejernplo 5.3.4 Cantidad de tirosina (cont.) 144
79 5.4 Teorema de Bayes y distribucion final 145
80 Ejemplo 541 Diagnosis (cont.] . 148
81 Eiernplo .5 42 Tasa de morbilidad [conr.) 150
82 Ejemplo 543 I asa de morbilidad (cont) 151
83 Ejemplo 5AA Cantidad de tirosina (cont.) 154
84 55 Parametres margin ales 155
85 Ejemplo 5 51 Diagnosis 156
87 Ejemplo 552 pH de la saliva 158
88 56 Predicci6n 159
92 Ejemplo 5.6 1 Diagnosis (cont.) 160
95 Ejemplo 5.6 2 Tasas de morbilidad (cont ) 161
97 Ejemplo 5.6 J Cantidad de tirosina (cont.) 163
97 57 Discusi6n y referencias 163
99 Problemas 164 XV] BIOESTADlsTICA

Capitulo 6

Metodos aproximados de Inferencia

6 1 Descripcion de la disttibuci6n final

Ejemplo 611 Tasas de morbilidad (cant) Ejemplo 6.L2 Canticlad de tirosina (cant) 62 Familias conjugadas de disrribuciones Ejemplo 62.1 Tiempos de espera

6 3 Aproximacion normal a la disuibucidn final .

Ejemplo 6.3 1 Aproximacion Poisson de una Binomial Ejemplo 6 3.2 Ajuste de distribuciones gamma .

Ejemplo 63 3 Calculo de· probabilidades en distribuciones gamma

6 4 Comportamiento asint6tico de la distribucion final ..

Ejemplo 64.1 Probabilidad de contagia

Ejemplo 64.2 Cornposicion del Hquido cefalorraqufdeo

6 5 Distribuciones finales de referenda Ejemplo 651 Diagnosis

Ejemplo 652 Incidencia de una enferrnedad rara Ejemplo 65 3 Composicion de la orina

66 AnJlisis de sensibilidad

Ejemplo 6 .. 6 1 Resultados de un rnuestreo 6 7 Discusi6n y referencias

Problemas

Capitulo 7

Amilisis cuantitativo de declsiones

7.1 Contraste de hip6tesis y estimaci6n puntual Ejemplo 7 . .1.1 Comercializacion de un farmaco Ejernplo 7.1.2 Control de calidad

7 2 La inferencia estadistica como problema de decision 7 J Evaluaci6n de utilidades

Ejemplo 7.3.1 Utilidades monetarias 74 Valor esperado de la inforrnacidn

Ejemplo 74.1 Valor diagnostico de un test 7 5 Disefio de expetimentos

Ejemplo 7 5 1 Exploraciones peligrosas

Ejemplo 75.2 Tamafio optimo de una encueseta

7 .6 Algunos problemas medicos de decision 7 6 1 Calibrado

7 .. 6 .2 Diagnostico

7.6 3 Elecci6n de tratarniento 7 7 Discusion y referencias Problemas

167 168 168 172 173 177 178 179 182 182 182 183 186 189 190 191 194 196 198 200 202 204

207 207 209 212 212 215 219 219 221 224 227 230

.232 232 234 235 2>6 238

INDICE XVII

Referencias

Soluciones a los problemas :indice de conceptos

indice de autores

Indlce de teoremas

:indice de ecuaclones

Indice de definiciones :indice de ejernplos

Indice de simbolos

241 247 253 257 259 26.1 263 265 267

'::,;

:·i

Capitulo I

Introduccion

Los metodos estadisticos, en su sentido mas amplio, constiruyen unaTrerramienta de trabajo cada vez mas importante en los campos profesionales mas diversos Difkilmente puede ser considerada COIDpleta hoy Ia formacion de biologos, econornistas, ffsicos, ingenieros, militates,_polfticos, psicologos, quimicos, 0 cualquier otto gtupo ptofesional, sin la asimilacion de unos conceptos basicos de metodologia estadistica que les permitan analizar adecuadamente los datos sobre los que trabajan y tomar de forma racional las decisiones oportunas

Aunque las problemas especiliccs pueden set muy distintos, existe Una metodologia estadfstica general que per mite abordar de forma sistematica cualquiei problema concreto de decision 0 de analisis de datos

Nuestro proposito es proporcionar al lector una introduccion a la metodologia estadfstica moderna concebida como un insttumento para analizar adecuadamente la informacion de que se dispone y decidir, de rnanera razonable, sobre la mejor forma de actuar

1.1. Alcance y objetivos del Ilbro

1a importancia practica de saber analizar la informacion de que se dispone y de saber utilizarla para tamar decisiones de forma tazonable, result a indiscutible cuando se observa la continua cadena de decisiones sobre Ia que descansa toda actividadhumana Este liblO esta dirigldo a cualquier universit ado quedesee una Iormacion moderna en metodologia estadistica ~ teoria

. de Ia decision

2 810ESTAOIsTICA

En particular, un elemento caracteristico de la vida profesional de un medico es 1a constante toma de decisiones en ambiente de incertidumbre: dccisiones, per ejemplo, sobre el diagnostico mas verosfmil, la oportunidad de una intetvencion quinirgica, el ttatamiento mas adecuado 0 1a eficacia de un progr arna de inrnunizecion. De hecho, muchos de los ejemplos contenidos en este libro, con los que pretendemos facilitar la asimilacion de los conceptos expuestos, han sido extraidos de la experiencia del auto! en las aplicaciones a este campo, pOI 10 que el libro resulta especialmente indicado para medicos y estudiantes de Medicina

El lector que haya asimilado las ideas que varnos a exponer estara en condiciones de

(i) Extraer las conclusiones pertinentes de un conjanto de datal con estructura sencilla

(ii) Resolver problemas de decision moderadamente complicados

(iii) Evaluar el contenido de las conclustones de tipo estadistico publicadas en la literature cientiiica.

Para Iogr at estos objetivos, no es suficiente la Iecrur a del texto; su estudio debe set completado con la realizaci6n de los problemas propuestos al final de cada capitulo Para facilitai esta tarea, las soluciones numericas a estos problemas han sido induidas en un apendice final Todos los ejemplos y problemas contenidos en este Iibro pueden resolverse con unas tablas estadisticas adecuadas y una simple calculadora de bolsillo que conrenga las funciones elementales Sin embargo, resulta comedo disponer de un modelo de calcnladora que perrnita el calculo directo de medias y desviaciones tipicas, dela funcion factorial (ver Seccion 33), dela [uncion de distribucion normal (vet Seccion 4 .3) y de su fund6n inversa Nurnerosas marcas de calculadoras ofrecen modelos, disefiados para aplicaeiones estadfsticas, que disponen de estas fundones

Frecuentemenze, el lectot se encontrara con la necesidad de repasat conceptos que ya erda asimilados; los resiimenes situ ados al principio de cada capitulo y los indices alfabeticos de conceptos y de notaci6n situados al final del libro pueden ayudarle a hacexlo Las Tablas Estadisticas de Ferrandiz (1980) contienen ademas un util forrnulario que recoge 1a mayor parte de los resultados expuestos en este libro.

La cone eta asimilacion de los conceptos expuestos en este Iibro exige del lector la preparacion maternatica que en Espafia debe set obtenida en BUP y COU Especfficamente, resulta necesario conocer algunas funciones elementales, como el logaritmo, lafuncion exponencial 0 las funciones trigonometricas: saber resolver ecuaciones sencillas y sistemas lineales; conocet eI algebra matricial, y tenet nociones de calculo diferencial e integral. Siel

i ,3

INTRODUCCION 3

lector no se siente seguro de sus conocrrmentos en alguna de estas areas, puede actualizarlos con ayuda del excelente texto de Garda-Garda y LopezPellicer (1977) No obstante, los pauafos con mayor dificultad matematica han sido irnpresos en letra mas pequefia para su Hdl identiticacion, y el texto ha sido redactado de forma que estes panafos pueden ser ornitidos en primer-a lectura sin perdida de continuidad

En este libra se desanollan los conceptos fundamentales de la metodologia estadistica. Aunque, naturalmente, se obtienen las formulas espedficas que correspondcn a las aplicaciones mas Irecuentes, el enfasis se sinia en 1a exposici6n de una metodologla general, capaz de petrnitii al lector abordar pm sf mismo el analisis de cualquier problema.

AI final de cada capitulo, se discute la relevancia y el alcance de las ideas introducidas en el y se dan referencias para aquellos lectores inter esados en aplicaciones mas concretas 0 mas detalladas, desarrollos teoricos mas com" pletos, generalizadones de los rnetodos expuestos 0 estudios de su desarrollo historico. La lista completa de tales referencias aparece al final del Iibro Aunque cicrtamente este conjunto de referencias no es exhaustive, es 10 suficientemente extenso como para ofrecer una amplia panonimica de casi todos los aspectos de la estadistica y de la teorfa de la decision

1 .. 2.. Estadistica y Teoria de 1a Decision

La metodologfa estadistica clasica aparece ante el investigador como un conjunto de recetas cada una de las males resulta apropiada en determinados cases y bajo ciertas condiciones Sin embargo, h~y ya resulta posible ofrecer, incluso a un nivel elemental, una metodologia unificada, totalmente general, que se detiva de analizar cuidadosamenre el proceso logico que debe seguirse para tomar una decision

En efecto, la teorla de Ia decision no solo proporciona una metodologia para resolver proolernas de decision concretes sino que proporciona adernas una base teorica sobre la que puede construirse una metodologia general uni~('ada que contiene, como casos particulares, aquellas rccctas clasicas cuya utili dad ha sido demostrada pot el tiernpo

Empezaremos pot situarnos ante el problema general de decision, es decii ante el problema de la eleccion razonada entre un deterrninado conjunto de alternativas, en presencia de incet tidumhte sobre algunos de los factores que condicionan las ccnsecuencias de tal eleccion Nos preguntarernos cua! es el proceso logico que debe seguirse para tornat una decision Para ello, no tratarernos de describir la forma en que comunmente se toman las decisiones. En su lugar, tratarernos de enconnar unos principios bdsiwl sobre los que edificar una teorfa de la decision No nos inter esa como se toman las decisiones

4 BIOESTAOisTICA

sino como se deberian tornar No buscamos una teoria descriptiva sino una teoria norrnativa.

La conclusion fundamental de esta investigacion es que existe una unica forma razonable de tornar decisiones Aunque naturalmente cxiste una cierta libertad en la elecci6n de los principios basicos, eI resultado es sicmpre el mismo .. En primer lugar, es necesario determinar el conjunto de las decisiones posibles y el de aquelios sucesos cuya ocurrencia pueda modifiear las consecuencias de la decision tomada En segundo lugar debe cuantificatse, mediante probabilidades, la verosimilitud asoeiada pOl el decisor a la ocunencia de tales sucesos En tercer lugat deb en describirse deta11adamente las posibles consecuencias de cada una de las decisiones, y las preferencias del decisor entre ellas deben set evaluadas y cuantificadas en terrninos de una mag~ nitud cormin que recibe e1 nombre de utilidad. Finalmente, debe tomarse aque- 11a decision que, con base a las probabilidades calculadas, proporcione la maxirna utiIidad esperada La Iuerza del debe utilizado Vallas veces en este parrafo radica en que cualquier desviacion de tales precepros esta en ccntradiccion con los prindpios basicos de partida En consecuencia, cualquier otro criterio de decisi6n resulta inadmisible para quien acepte tales principios

1.3.. Probabllldad

La mayor parte de los libros de estadistica dan la impresion de que no existe controversia alguna sobre Ia validez de la metodologia estadistica en uso Esto es sirnplemente falso En los afios cincuenta empezo a consolidatse la idea, expuesta en la secd6n antet ior , de que la metodologia estadistica deberfa tenet unos fundamentos axiomaticos s6lidos sobre los que apoyarse, fundamentos que fueron encontrados en la teorfa de la decisi6n Una eonsecuencia importante de tales fundamentos es que resulta necesario cuantificar nuestra informacion sabre la verosimilitud de los distintos sucesos inciertos que resulten relevantes en cada problema concreto, y que tal cuantificacion debe set realizada necesariamente mediante una medida que satisfaga determinadas ptopiedades, a la que llamamos probabilidad La idea de que la probabilidad de un suceso en unas condiciones determinadas no es mas que una medida de la verosimilitud asociada pot el decisor a la ocurrencia de tal suceso en esas condiciones, caracteriza la escuela de pensamiento en que este Iibro se inscribe, y que pormotivos que luego mencionaremos recibe ~l nombre de Bayesiana Los metodos estadisticos clesicos, por otra parte, limitan el concepto de probabilidad a aquellos sucesos en los que pucden definirse frecuencias relatives, 10 que reduce seriamente su utilidad practica, y no disponen de una base axiomatica en la que fundamentarse, por 10 que frecuentemente dan lugar a resultados contradictories

Las consecuencias rnatematicas de la definici6n de probabilidad resultan,

INTRODUCCI6N 5

no obstante, independientes de Ia interpretacion espedfica que se de a este concepto de [onna que, aunque existen varias interpretaciones del concepto de probabilidad, puede hablatse de una unica Teoria de la Probabilidad Estudiarernos, pues, la forma de asignar ptobabilidades, y analizaremos aquellas propiedades rnatematicas de la medida de probabilidad que puedan faciIitar el calculo de unas probabilidades a partir de los valores de otras

1..4.. Inferencia estadistica

La reaccion natural de cualquiera que deba tornar una decision en presencia de incertidurnbre es elirninar cuanta incertidurnbre Ie sea posible obteniendo mas informaci6n. En efecto, frente a un problema de decision especifico, el. decisor empieza pot precisar la informacion de que inicialmente dispone sabre las Incertidumbres que afectan a la situaci6n; procura entonces obtener nuevos datos que puedan proporcionarlc informacion relevante y, finalmente, combina est a nueva informacion con aquella de que inicialmente disponla para tornar entonees hi decisi6n mas apropiada

Mas concretarnente, la informacion inicial, descrita por probabilidades iniciales, es combinada con los datos mediante el IIamado Teorema de Bayes para obtener las probabilidades finales, que desctiberi la informacion total de que se dispone. Este proceso, que denominarernos proceso de aprenilizaie, constituye la esencia de la metodologia Bayesiana, cuyo nombre bace referenda precisamente al uso repetido del teorema de Bayes

A 1a mayor parte de los Iectores les resultaia familiar la expresion plural estadisticas con la que suele designarse a determinados conjunto .ordenados de datos, obtenidos por diver sos procedimientos Se conoce como Estadistica Desaiptioa al conjunto de tecnicas que facilitan la or ganizaci6n , resumen y comunicaci6n de estos datos Las mas elementales de estas tecnicas, que probablernente conocera el lector , son Ia obtenci6n de medidas de localizacion y de dispersion como 1a media 0 la desviaci6n tipica, y la construccion de determinadas representaciones graficas, como los histogramas El lector interesado en releer estos conceptos puede rccurrii , pot ejemplo, a los primeros capitulos del texto de Spiegel (1961) En esta [inea, pew a un nivel rnucho mas sofisticado, se encuentra el libra de T ukey (1977)

En este volumen apenas nos ocuparemos de estas tecnicas descriptivas En su lugar, utilizando la metodologia mencionada al principio de esta seecion, abordaremos la consttucci6n de una teorla general que nos permita precisar las conclusiones que pueden set extraidas de los datos Lnlerencia Estadistica es el nombre con que generalmente se conoce al conjunto de rnetodos que se proponen extraer condusiones que van mas alia de Ia mera descripci6n de los datos.

6 BIOESTADisTICA

Cuando no se dispone de informacion inicial, los metodos clasicos y los metodos Bayesianos de inferencia llegan frecuentemente a las mismas concIusiones numeric-as, aunque con interpretaciones muy diferentes Esta coincidencia numerics permitira al lector de este libro dar un sentido razonable a muchas de las recetas tradicionales Cuando, pot el contrario, y este es el caso mas frecuente, se dispone de informacion inicial, noexisten realmente metodos alternativos; la metodologia Bayesiana proporciona la dnica forma sistematica de incozporar esta informacion en el analisis

1.5. Problemas espectficos de decision

Como ya hemos mencionado, una consecuencia de los principios basicos en que se fundament a Ia teoria de la decision es que, en cada problema can. creto, el dccisor debe evaluar mediante ptobabilidades Ia vverosirnilitud, en el momento de tomar la decision, de los distintos sucesos inciertos presentes en eI problema Estas probabilidades deben rcflejar toda la informacion . de que se dispone en el momento de tomar la decision Frecuentemente esta informaci6n estara compuesta por Ia informacion inicial de que disponia el decisor y par la proporcionada pot un conjunto de datos adicionales; en este case, las probabilidades que se requieren son las probabilidades finales mencionadas en la seccion anterior. Consecuentemente, para resolver un problema de decision es Itecuenremenre necesario resolver primero un problema de inferencia

Tambien hemos mencionado ya, que en cada problema de decision concreto el decisor debe cuantificar sus preferencias entre las posibles consecuencias de sus decisiones En general, no se trata de una tarea fiicil, pew desarrolluremos varies procedimientos que facilitan su realization

Frecuenternente, los problemas de decision no se presentan aislados sino formando una cadena, de forma que una vez tomada una decision se plantea un nuevo problema de decision cuyas caractedsticas dependen de las decisiones tornadas hasta entonces Demostraremos, sin embargo, que el estudio de las decisiones sucesiuas no plantea problemas nuevos; bastard resolver consecutivamente todos los problemas de dedsionque integran Ia cadena, empezando por Ia decision que deba ser tomada en ultimo lugar En particular, el problema del diseiio de experimentos puede ser planteado como una cadena de dos decisionesconsecutivas Se trata, en efecto, de elegir el experirnento mas adecuado para, una vez realizado, tomar la decisi6n que resulte mas apropiada a la vista de Ia informacion proporcionada par el experirnento elegido

INTRODUCCI6N 7

16.. Estructura del Ilbro

EI Iibro esta dividido en siete capftulos, el primero de los cuales es esta Introduccion

En e1 capitulo segundo, Fundamentos de la lnierencia y de fa Teoria de la Decision se especifican los principios basicos de consistencia y se demuestra que 1a tinica forma de tornar decisiones compatibles con elIos es elegit la decision que maximiza la utilidad esperada.

En el tercer capitulo, Medida de Probabilidad, se estudian las propiedades marematicas de 1a medida que debe utilizarse para describir la verosimilitud de los sucesos inciertos relevantes y los rnetodos de que se dispone para la asignacion de probabilidades. EI estudio de Ia Teoria de la Probabilidad se completa en el capitulo cuarto, Cantidades Aleatorias, con el analisis de las probabilidades asociadas a los distintos valores numericos que pueden tomar las magnitudes cuantificables ..

En el capitulo quinto, El Proceso de Aprendiza]e, se estudia la forma de incorpor ar al analisis cualquier informacion adicional y se analiza el tipo de conclusiones y predicciones que pueden set extrafdas de la informacion de que se dispone. El estudio de la Lnjerencia Estadistica se completa en el capitulo sexto, Metodof Aproximados de Injerencia, con la descripci6n de las aproximaciones que pueden realizarse para facilitar el analisis y la comunicaci6n de los resultados, y con el estudio de las conclusiones que pueden extraerse de los datos cuando no se dispone de informacion inicial

En eI septimo y ultimo capitulo, Problem~.l Especiiicos de Decision, se estudian los problemas clasicos de estimacion puntual y contraste de bipotesir, se aborda el problema de la eualuacion de las utilidades y se discuten las cadenas de decisiones sucesiuas y eI diseiio de experimentos, Finalmente, se comenta la estructura de algunos problema! medicos de decision, concretamente los de calibrado, diagn6stico y eleccion de tratarniento

La lista alfabetica de los trabajos citados, las soluciones a los problemas propuestos, los indices numcricos de definiciones, ecuaciones, ejernplos y teoremas, y los Indices alfabericos de simbolos y de conceptos, comp1etan este volumen

Capitulo 2

Fundamentos de la estadistica y de la teoria de la decision

En este capitulo se estrucrura un problema de decision y se discute el proceso logico que debe seguirse para tamar una decision, Esto proporciona el [undamento sabre el que descansan el concepto de probabilldad, los metodos de inferencia y los criterios de decision y de disefio de experimentos que seran desarrollados en el resto del libra y que son globalmcnte conocidos como metodos Bayesianol

El procedimiento seguido es axiomdtico Se presentan y. se defienden determinados principios de comportamiento coberente y se deduce de elias 1a necesidad de asignar una medida de probabilidad que describa Ia informacion del decisor y una funci6n de utilidad que describa sus preferencias, y Ia de elegit aquella decision capaz de maximizer la utilMad esperada

El capitulo concluye analizando crfticamentc los resultados obtenidos, comparandolos can los que se derivan de otros criterios de decision propuestos en 1a literatura, y esbozando el desarrollo historico de las ideas expuestas

En 1926, F, P Ramsey puso de manitiesto que unos potos principios basicos sobre un comportamiento coherente en 1a eleccion entre opciones alternativas son suficientes para, tornados como axiomas, deducir de enos una teorfa general de 1a decision y de la inferencia estadistica. Como par otra parte, casi todos . los problemas a cuya soluci6n han contribuido tradicionalmente los rnetodos estadisticos, pueden reducirse a problemas de decision en ambiente de incertidumbre, nuestra prirnera tarea sera estudiar la estructura de tales problemas

10 BIOESTAOlsTICA

2 . .1, Estructura de un problema de decision

Nos hallamos frente a un problema de decisi6n cuando debemos elegh entre dos a mas formas de actuar. la mayor parte de nuestras decisiones son triviales, como cuando elegimos una pelfcula de la cartelera 0 el menu de un restaurante. Sin embargo, no es diffcil imaginar problemas de decision cuyas consecuencias son importantes y deben set cuidadosamente considcradas antes de Ilegar a una conclusi6n; asi, las decisiones relativas a un cambia de trabajo a a la compra de una casa exigen una seria reflexion

Aunque sociologos, historiadores y politicos han escrito a menu do sobre la forma en que determinadas decisiones se toman 0 han sido tomadas, se ha escrito muy poco sobre e1 tema de como deberian tomarse La moderna teorfa de la decision propene un detenninado metodo de tamar decisiones y demuestra adernas que es el iinico metodo compatible con unos pocos principios basicos sobre la eleccion coberente entre opciones alternativas

1.0 primero que hay que hacer cuando nos enfrenramos a un problema de decisi6n es considerar el conjunto de las posibles formas de actuacion que sc nos ofrecen No es necesario distinguir entre una decision y la accion a que da lugar En efecto, si la accion no llega a realizarse es porque algo 10 ha impedido dando Iugar con ello a un nuevo problema de decision. Generalmente, no resulta adeeuado considerar tinicamente una decision y su negacion como segunda decision, formulando el problema con s6lo dos altcrnativas No es coz recto, PO! ejernplo, plantearse si estudiar 0 no Medicina. En efecto, si uno decide no intentat set medico ticne que hacer otra cosa para desaHollar su vida profesional; estudiat otra carrera, preparar unas oposiciones, buscar un trabajo. Existen en realidad muchas f01mas alternativas de desarrollaise profesionalmente y el problema de decision consiste en una eleccion entre ell as y no en una simple cornparacion entre estudiar 0 no Medicina.

El primer paso para resolver el problema de decision es, pues, elaborar el conjunto de las posibles alternativas, al que llamaremos evpacio de decisiones y denotaremos pot D Debe ponerse especial atencion en la construccion del espacio de decisiones porque el modelo que vamos a construii se Iimitara a elegit uno de sus elementos Nunca puede uno estat totalmente seguro de que ha incluido en D todas las posibilidades interesantes, siempre puede aparecer un cornpafiero ingenioso que nos sefiale una alternative que no hemos considerado y nos obligue a replantear el problema Un buen decisor debe tenet la inventive y el conocimiento del terna sulicientes para elaborar un espacio de decisiones exbau: tiuo, es decir que agote todas las posibilidades que puedan, en principio, parecer razonables

Es convcniente, asimismo, exigi! que el espacio D de decisiones este constituido pOI un conjunto de altetnativas, de forma que 1a elecci6n de uno de

ESTAOlsTICA Y TEORIA DE LA DECISION FUNOAMENTOS 11

los elementos de D excluya la eIeed6n de cualquiei one Este requerirniento no supone perdida de generalidad Asi, pOI ~jemplo: para elegit. los ele~e~tos opcionales que se desean en un nuevo cocne, la lista de opciones ofrecidas pOI el fabricante no es un espacio de decisiones adecuado puesto que uno puede deseat dos 0 mas de las opciones ofrecidas, per? el conjunto de la,s partes de tallista resulta serlo De forma analogs, cuaiquier problema de d~C1- sion puede plantearse como el de la eleccion de un elernento, y uno solo, de un conjunto apropiado

En principio, el espacio D puede contener infinitas alternativa~, Sin embargo, en la mayor parte de las aplicaciones, D es un conjunto ~1tO, 10 que justifica que nos limitcmos a considerar este caso cuando ella de lugar a una simplificacion maternatica notable

Deterrninar la rnejor de un conjunto de alternativas setfa, en pti~cipio, inmediato si tuviesernos informacion cornpleta sobre las consecuencias de cada una de elias EI vendedor de periodicos que debe decidir sobre el mimero de ejemplares con que se queda no tendria problema si supiese el mimero que podrla vender. EI medico que ante un caso. determinado duda entre un tratamiento medico y uno quinirgico no vacilaria si conociese las causas y el desarrollo de la afeccion La principal dificultad con que uno se encuentra al piantear se un problema de decision consiste en la falta de informacion sobre 10 que sucedera segun se acnie de una u otra rnanera. E1 problema general de decision se plantea, pucs, en ambiente de inceltidul1ibre

Existen situaciones en las que se tiene infotmaci6n cornpleta y, sin embar go, es diffcil tornar la decision correcta, pero en estos cas?s la dincultad es de tipo tecnico, no conceptual Asi, pot ejernplo, a pesat ,de dlsponel~ de toda la informacion relevante es diHcil decidir cual es la mejor estrategia en un memento deterrninado de una partida de ajedrez 0 dererrninar la dieta mas bat ata que cumple ciertos requisites de nutricion Sin embargo, la ~ificulta~ en estes cas os es s6lo de tipo tecnico: el enorme numero de estrategias POSlbles en el primer caso y el problema maternatico de encontrar u~ maximo condicionado en el segundo, pero no apar ecen dudas sobre el o:teno de de;,sion que debe adoptarse En este libro no consideralemos tales dl~cultades teenicas: supondremos que en presencia de informacion complete Slemp re puede elegirse la mejoi de un conjunto de alternariva Nos ocuparemos en su ,lugar del pYOCelO 16gico de decision en ambiente de incertidu~bre, es decir del rnerodo a seguir para tornar decisiones cuando no se dispone de toda la informacion que se juzga relevante

Puesto que la dificultad esencial en un problema de decision reside en las incertidumbres presentes en la situaci6n es necesario ~onsidelal est~s con cuidado e introducirlas en la teoria. As!, una vez detelml~~do el es~aClo de decisiones, habra que eonsiderar para cada una de las decisiones posibles

12 BIOESTADlsTICA

el conjunto de sucesos inciertos que determinan sus eventuales consecuencias Esquematicamente, la situacion, en el caso de un mimero finito de alternativas y un mimero finite de sucesos inciertos puede representarse mediante un arbol de decision de 1a forma

9"
e"

9'm1 '

A
e,.
<
d, 9"
"IITII

d.
9 ..

e"

&kITIlr. • ------_c"

-------c"

------- e,m,

-------'"11

----- __ c"

-------, C-1m-1

------_c"

-------CltlT'llo;

donde D = {dl, d2, '" dd es el espacio de las decisiones y @, = {ail, Bu, .. , eim,} es eI conjunto de los m, lUeeml incierios cuya eventual ocurrencia afecta al resulrado de tomar la decision d" de forma que si se toma la ded~ sion di y sucede eij se obtiene la consecuencia eij

El diagrama empieza en un nodo de decision representado pox un cuadrado Cualquiera que sea la decision elegida se llega a un nodo aleatoric, representado por un circulo, sobre el que el decisor, no tiene control alguno las rarnas de los nodos aleatorios pueden subdividirse, clando lugar a nuevos nodos aleatorios, si la televancia de determinados sucesos inciertos dependen de que ocurran 0 no algunos de cllos. El arbol debe consnuirse de forma gue los sucesos inciertos a que da lugar cad a uno de los nodos aleatorios sean mutuarnente excluyentes y constituyan un conjunto exhaustivo . As], par ejemplo, conreferencia a la figura, si se toma la decision d1 tiene que ocurrir uno y solo uno de los ml sucesos {en, 8v., ,81m,} Como en el caso de las

ESTADisTICA Y TEORIA DE LA DECISION FUNDAMENTOS 13

decisiones, siempre puede conseguirse que los sucesos inciertos correspondientes a un nodo aleatoric sean rnutuamente excluyentes mediante la constlUccion de los apropiados espacios producto, pero la exhaustividad no es £aci) de garantizar; 1a construccion de espacios de sucesos inciertos que conternplen todas las eventualidades relevantes suele exigi! un conocimiento profunda del area de aplicacicn

Ejemplo 2,.LL Oportunidad de una oper acion

Un medico debe decidir si realizar una peligrosa operacion a una persona que se cree puede tenet un tumor, 0 recurrir a una determinada medicacion Si el paciente no tiene el tumor su esperanza de vida se estima en 20 afios Si 10 tiene, se opera y sobrevive a 1a operacion, en 10 afios, y si tiene eI tumor y no se opera, solo se le dan 2 afios de vida. Consuuii el corresponpondiente albol de decision

El espacio de decisiones tiene claramente solo dos elementos d, = operar y d, = medicar Si se realiza la operacion el paciente puede sobrevivir 0 rnorir en ella y, SI sobrevive.vla consecuencia final depende de que tengao no tenga el tUmOI Si no se opera no puede morir en I. operacion, pero la consecuencia final depended de nuevo de que el pacienre tenga a no el tumor EI correspondiente albal de decision es, pues,

-ctumor ~ 10 enos de vida supervlvencla

-c no tumor _.... 20 anos de vida

oceracton ~

Id,)

rnverte 0 eflos de 'Vida

------------<c tumor -----. 2 ailos de vida medicaci6n

(d,)

no tumor ___...._ 20 anos de Vida

o

Ia mayoria de los problemas de decision tienen, apat entemente, una estructura mas compleja que la del problema de decision que hemos descrito Por ejemplo, se puede plantear inicialmente si realizar one un experimento y, en caso afumativo, tratar de decidir cual es la acci6n mas adecuada segun el resultado del experimento Podemos, asimismo, considerar problemas secuenciales de decision constituidos pOI la yuxtaposicion de problemas como el anterior Sin 'embargo, como verernos mas adelante, tales problemas complejos de decision pueden set resueltos analizando sucesivamente cada uno de 105 subproblemas, como el descriro, que 10 constituyen, per 10 que bastard que nos ocupemos de resolver este ultimo,

14 BIOESTAOisTICA

Frecuentemente, el conjunto de sucesos inciertcs relevantes es el rsismo cualquiera que sea la decision que se tome, es decir 0i = {8il, 8iZ, ,8im,} =

= {81, 82, ,8m} = 0 para todo i Si, adernas, solo hay un mirnero finite de altetnativas y de sucesos inciertos, entonces el problema de decision puede representarse tarnbien mediante una tabla de decision de 1a forma

Ckm

donde D = {d), d2, dk} es eI conjunto de decisiones posibles, (8) = {81, 82, , 8d el conjunto de sucesos inciertos relevantes, cualquiera que sea la decision tomada, y elj Ia consecuencia de tornar 1a decision d, y que suceda 8j

Ejemplo 2,,1.2, Elecaon de un medio de transporte

Se dispone de un auromovil y de una motocicleta para it a resolver un asunto en el centro de la ciudad La moto es mas rapida, sobre todo si se producen atascos, y puede aparcarse con facilidad en el mismo centro, pero resulta incornoda si hace mal tiempoEl coche, aunque mas comedo, consume mas gasolina yhay que dejarlo en un aparcarniento a cierta distancia del Ingar de destine para carninat a continuacion. Suponemos que no se dispone de una 'linea adecuada de transporte publico y que se considera excesivo el coste de un taxi Construir Ia correspondiente tabla de decision

En estas condiciones, el espacio de decisiones alternativas es D "" {d" d" d,} con

d, = ir en motocicleta d, = I, en automovil d, = it a pie

Un suceso inciei to del que claramente dependen las consecuencias de 1. decision es el suceso

9, == ernpieza a Ilover antes del regreso

Si no se consider. relevante ningun orro suceso incierto, el espacio de sucesos inciertos mutuarnente exciuyentes es simplemente e = fe"~ e,}, donde e, es Ia negacion de 6" y el conjunto ·de consecuencias pue::!e describirse asi

6, = llueve

ESTAOisTICA Y TEORiA DE lJ\ DECISION: FUNDA.MENTOS 15

s, = D~ .llueve

d, = moto

{No se pierde tiempo

G" . Trayecto en moto muy incornodo Pequefio coste

~ No se pierde tiempo

cu Agradable pa.seo en mota Pequeno coste

{ Se pierde bastante tiempo

Cll Conduccion . pot ciudad CoD buen tiempo

Coste moderado

\ Se pierde macho tiernpo

c" {Carninata COD buen tiempo I No hay coste

d,= coche

{ Se pierde bastante tiernpo .

c·" Conduccion por ciudad con mal tiempo

Coste moderado

Naturalmente, el mismo problema de decision puede Iepresenta\se mediante undrbol de decision en la forma

c( 9, e'l
9, eu

9, eo>
-<
e, 0"

e, c"
<
e, . a'2
0 Cualquier arbol de decision, incluso cuando los conjuntos de sucesos inciertos relevantes son distintos para cada decision d.; puede reptesentarse en forma de tabla mediante el artificio de considerar como conjuntoO de sucesos inciertos el espacio producto de los conjuntos correspondientes a cada decision di, pew este prccedirniento oscurece y dificulra la solucion del problema

En resumen, nuestro modelo de problema de decision exige la especificacion del espacio D de las decisiones alternativas y de los conjuntos !Eli de sucesos inciertos mutuamente excluyentes que condicionan lis consecuencias de cad a una de las decisiones El problema de decision consiste entonces en elegit una decision d, del conjunto D sin saber cual de los sucesos eii de (8), tendi a lugar

En 1a proxima seccion describiremos una ~olucion intuitiva a un problema de decision; mas adelante demostraremos que esa solucion es 13 iinica xompatiblecon ciertos principios elementales de cornportamiento coherente ,

ds »: a pie

{ Se pier de mucho tiempo c" Caminata con mal tiempo No hay coste

d,

0, _

donde los iii tienen el significado dado en la tabla

16 BIOESTAOisTICA

22 So1uci6n Intuitiva a un problema de decision

Aunque los sucesos que componen cada Bi son inciertos, en el sentido de que no sabernos cual de elias tendri lugar, no nos resultan, en general, igualmente verosimiles En efecto, aunque no se disponga de la informaci6n suficiente para detenninar cual de elios tendt a lugar, tipicamente se dispone de cier ta informacion que hace unos elementos de cada E>i mas verosimiles que otros ASI, aunque no es posible anticipar can seguridad los afios de vida que le que dan a una persona sana que acaba de cumplir los 40, nos parece mas verosimil que viva otros 10 afios a que rnuer a el mes proximo 0 a que Ilegue a centenario

Nuestro primer objetivo seria precisar de forma cuantitativa el contenido de esre tipo de informacion incomp1eta Una forma de hacerlo sella asignar a cad a suceso incicrto un nurnero que midiese 1a verosimilitud que se le atr ibuye, de forma que a los sucesos mas verosimiles se les haga corresponder un rnimero maYDI.

Desde hace varies siglos, la incerridumbre existente sobre 1a ocunencia de algunas clases de sucesos ha venido midiendose por un mimero entre 0 y 1 al que se ha liamado su probabilidad

Para hacerlo, la unidad de probabilidad corrcspondiente a un suceso cierto se disiribuye entre una clase de sucesos mutua mente excluyentes de forma que el rnimero asignado a un dererminado suceso -su probabilidad-c- es tanto mayor cuanto mas verosirnil se juzga la posibilidad de que tenga Iugar

Supongase, pOl' ejemplo, que se lanza una moneda al aire sabre una superficie lisa. Solo pueden tener Iugar dos sucesos inciertos mutuamente excluyentes: cara 0 cruz La mayoria de nosotr os dirfamos que ambos sucesos nos parecen igualmente verosirniles de forma que si debernos distribuir entre ellos la unidad de probabilidad les asignar iamos 1/2 a cada uno De forma similar, si lanzamos un dado solo pueden tener lugar seis sucesos mutuamente excluyentes que de nuevo considerarfamos igualmente verosimiles, por 10 que si debemos disttibuir entre eIlos 1a unidad de probabilidad les asignariamos 1/6 a cada uno. En general, si consideresemos igualmente oerosimiles a n sucesos mutuarnente excluyentes les asignariarnos a cada uno de ellos una ptobabilidad l/n

Existe otra clase de sucesos a los que r esulta £adl asignar una probabilidad aunque no presenten las propiedades de simetrfa caracteristicas de los juegos de azar. Se trata de aquelios sucesos que es posible observer repetidamente en identicas condiciones En efeeto, considerernos una situacion B que puede 0 no dar Iugar a un suceso A, y supongamos que tal situacion puede repetirse indelinidamente Es un hecho empirico que, frecuentemente, el cociente min entre el numero de veces m que tiene lugar el suceso A y

ESTADisTICA Y TEORiA DE LA DECISION FUNDAMENTOS 17

eI mimero total n de observaciones se estabiliza y parece tender a un limite Parece razonable pensar que, en ausencia de otra iniormacion releuante, tal limite mediria en una escala de 0 alIa verosimilitud que se concede al suceso A en las condiciones descritas poi B. Se sabe, porejemplo, que aptoximadamente e1 51 % de los nacimientos humanos dan Ingar a un varon Es por tanto un hecho ernpfrico que los nacimientos humanos tienden a di.stribuirse en un 51 % de varones y un 49 % de hembras En consecuencia, en ausencia de ott a informacion relevante, parece razonable distribuii en 0,51 y 0,49 Ia unidad de probabilidad y descr ibit con tales mimeros las ptobabilidades de que una mujer embar azada de a luz, respectivamente, a un varon 0 a una hembra

La existencia de simetrias 0 de datos ernpiricos sobre frecuencias relativas es ciertarnente util para precisat cuantitativamente nuestra ineettidumbre sobre un deterrninado suceso pew no es en modo alguno necesaria. En efecto, no se comienza una escalada 51 parece probable que vaya a habet torrnenta ni se empieza una forrnacion profesional si no parece probable encontrar trabajo al terminarla, continua mente asignamos probabilidades, aunque sea de forma cornpletamente inconsciente, a todo tipo de sucesos. Debe advertirse, ademas, que la mayoria de sucesos relevantes a un problema de decision no presentan simetrias ni son repetibles, de forma que un ccncepto de probabilidad restringido a tales clases de sucesos seria inevitablemente insuficiente AS1, POt ejemplo, las consecuencias de muchas decisiones pueden depender de un cambio politico en el pais .. Para tamar razonablemente tales decisiones result a, pues, necesario valorar la verosimilitud de tal cambio Es obvio que las crisis polfticas no presentan simetrlas ni son repetibles: results clara la necesidad de un concepto de probabilidad que pueda aplicarse a cualquiet tipo de suceso

Para nosotros, la probabilidad de un suceso A en una situacion H, que representaremos pot p(AIH), sera una medida sobre una escala [0, 1] de la verosimilitud que se concede al suceso A en las condiciones descritas par H, esto es, una medida del grado de creencia en A que nos sugiere la informacion contenida en H En un extrerno, si dado H se esta seguro de que A tendra lugal', p(AIH) = 1; en el otro extremo, 51 dado H se esta convencido de que A no sucedeia, p(AIH) = 0. Otros valores en el intervale (0, 1) expresan grades de creencia intermedios La probabilidad asignada a un suceso es siempre condicional a Ia informacion que se posee sobre el: no existen probabilidades «absolutas». Sin embargo, con objeta de simplificar la notacion, la condici6n H sera omitida cuando ello no de lugar a confusion, escribiendose ptA) en Iugar de p(AIH)

Volviendo al problema de decision, 1a informacion que e] decisor posee sabre la verosimilitud de los distintos sucesos inciet tos de cada €lien el momento de tamar la decision podda pues set cuantificada distribuyendo la unidad de probabilidad, para cad a di, entre los sucesos {ail, ai2, ,aim, } que

15 BIOESTADisTICA

cornprende Eli. Puesto que, pOl hip6tesis, estos sucesos son mutuamente excluyentes, podt iarnos describir 1a informacion disponible sobre su verosimilitud, en las condiciones H en que debe tornarse 1a decision, mediante un conjunto de mimeros {p(8)d" H), j = 1, 2, . " m.} para cada i, tales que

o ~ p(eiMi, H) ~ 1, ~ P(8ij!di, H) = 1

j=l

(1)

Si no hay confusi6n posible, omitirernos la condid6n H y escribiremos simplernente P(8iMi) en lugar de p(SiMi, H)

Consideremos un problema de decision en eI que tanto el espacio de decisiones como el de sucesos inciertos son finites Sea D = {dJ, d1, . ,dd el conjunto de decisiones alremativas y 13i = {siI) 8;z, ) 8im,} el de suce-

sos inciertos mutuamente excluyentes correspcndientes a la decision d, De acuerdo con la notacion ernpleada en la seccion anterior, llamaremos Cij a Ia cons~cuencia de que suceda eij cuando se ha adoptado la decision d,

Obviamente, el decisor tendra sus preferencias entre las distintas consecuencias En principio, tales preferencias podrian ser cuantificadas asignando a cada una de las consecuencias eij un nurnero U(Cil) que midiese la utilidad que cada una de ellas tuviese para el decisoi , PO! ejemplo, podria asignarse el valor UI a 1a consecuencia. mas preferida, el valor uo a la menos preferida y valores interrnedios u( Cij) al resto de forma que si una consecuencia es preIerida a ott a Ie sea asignado un mimero mayor La {uncion de utilidad asi· construida mide las preferencias del decisot entr e las posibles consecuencias de sudecision, de forma parecida a como 1a pr obabilidad antes descrita mide 1a verosimilitud que Ie mrecen los posibles sucesos incier tos .. Los conceptos duales de probabi1idad y utilidad, que aqui se utilizan en su sentido coloquial, senin formalizados, respectivamente, en las Seceiones 24 y 25

Una vez especificadas las probabilidades p(BiMi, H) que describen la vetosimilitud de los sucesos inciertos y las utilidades u( eij) que describen las preferencias del decisor entre las posibles consecuencias, el problema planteado tiene ya una soluci6n inrnediata En efecto, inrroduciendo en el arbol de decision las probabilidades y las utilidades mencionadas, tendifamos

ESTAOfsTICA Y TEORiA DE LA DECISION FUNDAMENTOS 19

p(e" I d •. HJ
p(S" I d. HI

p(e,., I d •. HI

d,
p(e11 I d. HI
<
d, p{e" I d, HI
pie,., I d, HI

d,
pie,., I d •. 111

piS" I d,. HI

p(~ ..... 1 d. HI ______ 0«,,1

Asf, si se toma la decision d, en las condiciones H se puede obtener utilidad U(Cil) con probabilidad P(6iMi, H), ute,;) con probabilidad p(8aid), H), , u(e"",) con probabilidad p(e;."" id,) H). POI 10 tanto, la utilidad media de la decision di, a la que llamaxemos 1a utilidad esperada de d, y representarernos por u*(d;), vendra dada por

=.

u*(d,) = 2:U(Cij)P(Siildi) H)

1:d

(2)

Resulta natural elegit como decision mas razonable aquella que maximize la utilidad esperada, esto es aquella que hace maxima la expresion (2) entre las k alternativas {dl, di, ,dd Este es el criteria Bayel para la toma de decisiones

20 BIOESTAOisTICA

Ejernplo 2 .. 2.1. Participacion en una loteria

En una lila que tiene mil mimeros, se sortea un pr emio de 5.000 ptas y se dan 100 a todos los billetes cuya ultima citra coincide con la del primer premio Suponiendo la utilidad del dinero proporcional a su canridad, de terminer el precio maximo que debe pagarse pOI par ticipai

Si representamos POI x el coste de participar en 13 rita, el arbol de decision en terminos de sucesos inciertos y ccnsecuencias de

primer premio 5000-x uts

comprar

'- no premia , ~

no comprar , ---"-_~_.,-- __ __'_ __

100-x pts

-}{ pte

Opts

La probabilidad de obtener el primer premia es obviarnente 1/1 000 = 0,001 Y Is de obtener un premia menor (100-1)/1000 = 0,099 En consecuencia, la probabilidad de quedarse sin premio es 0,9 Como suponemos las utilidades proporcionales al dinero, el arbol de decision, en terminos de probabiiidades y utilidades, sera

~ . 0001 •

co7:,;ar .------(J------ 0099

.___ 09

no comprar

Id,l

Usando (2), Ia utilidad esperada de comprar (d,) sera

u*(d.) = 0,001 (5 ODD-x) + 0,099 (100-x) -0,9 x = 14,9-x

~ )':!JvO _?.D6--x

100-x

o

y esta sed la decision razonable si, y s610 si, u*(d,) > u"(d,) = 0 esto es si 14,9-x > 0 y pOI 10 tanto si x < 14,9; el precio maximo que debe pagarse PO! un mimero de la rifa es 14,9 ptas

Si el conjunro de sucesos inciertos relevantes es el mismo cualquiera que

ESTAOfsTICA Y TEORiA DE LA DECISION: FUNOAMENTOS 21

sea la decisi6n que se tome, de forma que Eli = El = {61, e2, ,8m} para todo i, es mas cornoda la representacion en forma de tabla .. Asf, si introducimos en la tabla de decision lasprobabilidades {p(BiIH), i= 1, 2, ,m} que describen la verosimilitud de los sucesos inciertos en las condiciones H en que hay que decidir , de forma que

m

2P(8iIH) = 1

;=1

(3)

y

y las utilidades tI(e,j) que describen las preferencias del decism, obtendremos

u(en)

U(Clm)

U(CH)

Si se toma la decisi6n d, en las condiciones H se puede obtener una utilidadu(cil) con probabilldad p(81IH), U(CiZ) can probabilidad p(8zIH), .... , U(Cik) can probabilidad P(8kIH). En consecuencia, la utilidad esperada de la decisi6n di es

m

U'(di) = L: u(e;j) p(8iIH)

i=l

(4)

Obviamente, las ecuaciones (3) y (4) son un caseparticular de (1) y (2). La decision mas razonable, la que maximiza la atilidad esperada, 0 decision Baye~, es aquella que maxirniza la expr esion (4)

Ejemplo 22 .. 2.

Eleccion de un media de transporte (cont )

Considerese de nuevo el problema del Ejernplo 2.12; especiflquese funcion de utilidad y determfncsc, en funcion de la probabilidad p de llueva antes delregreso, eual esIa decision mas razonable

una que

22 BIOESTADisTICA

d .E~ el Ejemplo 2 1 2 se desc.tiben en forma de tabla, las posibles consecuencias de Ia

e~l~lon ~1 orde,n. de prefere~aas entre tales consecuencias dependera de la personalidad y e esta a de arum,: del declsor. Si~ por ejemplo, detesta.l1eVat una moto cuando Ilueve few ie gusra conduc:rla can buen tiernpo y aprecia un corte paseo por 1a ciudad perc e mo es:a perder el tiempo, sus preferencias podrian set descritas en una escala de 0 a 1

POI la sigurente tabla '

p(B, = llueve) = p pea, = no Ilueve) - 1 P
d, mota 0,0 1,0
d, = coche 0,6 0,8
d, = a pie 0,2 0,5 En este case, las utilidades que pueden set esperadas de las distintas decisiones son

u:(dd = 0,0 p + 1,0 (1- p) = 1-:- p u~(d,) '" O,6p + O,8(1-p) = 0,S-D,2p u (d]) = 0,2 P + 0,.5 (1- p) = 0,5 - 0,3 p

En Is figura se representan graficamenrs las recras correspondientes, como fundones de p

Obselva~d~ 13 gni.fi:~ se advler te clararncnte que I. decision mas razon"ble, es dedI Ia que maximrza la utilidad esperada, es d, (coger la moto} si la probabilidad de que queva antes ;Iel regreso es menor que 0,25, es decir , si se considers que es almenos tres ve~es mas probable que se mantenga el buen tiernpo, y d,(cogeI el coche) en case co~trauo . CD~ la~ u~hda?:s anreriorrnenre descritas, nunca resultaria razonable it a pie en enguaje mas zecnrco dirfarnos que d, es, en esre contexto, una decision inadmi,ibi", r

2.3.. Principios de coherencia

Considerese u.n problema de decision definido por su espacio de decision y los correspondiemes conjuntos de 'sucesos incier tos En el resto deiesre

ESTADisTICA Y TEORiA DE LA DECISION. FUNDAMENTOS 23

capitulo dernostraremos que, si el decisor esta dispuesto a aceptar los principios de comportamiento coherenteque a continuacion se exporien, entonees debe decidir de acuerdo con el procedimienro descrito en [a seccion anterior, esto es, debe especiricar unas probabilidades que describan la vetosimilitud de los sucesos inciertos, debe determinar unas utilidades que describan sus preferencias y debe tomar aquella decision que maximice su utilidad esperada

En la vida real, cuando se elige una determinada forma de actual', no es frecuente poder elegiz enne consecuencias predeterminadas: ya hemos comentado que, en general, las consecuencias de adoptat una determinada decision suelen depender de Ia ocurrencia de deter minados sucesos indertos .. FOlmalmente, llamaremos una opcion y denotaremos pot 1= {elIA1, c2lAl, , c'kIAk} a una situacion en la que se obtiene la consecuencia Cl si sucede AI, la "2 si sucede A2, ., la C'k si sucede Ak, con la condicion de que los suce- 50S Ai sean exhaustivos y mutuamente excluyentes, esto es, que tenga que suceder uno, y s610 uno de ellos Algunos autor es emplean el terrnino loteria; asi, Ci seria el «prcmio» obtenido si «sale» Ai, y de aqui la eleccion de Ia letra I

Es inmediato observer que, con esta nomenclatura, cada uno de los elementos del espacio D de decisiones es una opcion; aid, las decisiones que aparecen en el arbol de decision comentado en la secci6n anterior pueden ser descritas como

dr = {ellIBu, [12/e12" (1m, le1m1}

d2 = {C21/e21, (221811, C2m,I82m, }

(1)

Las consecuencias predeterminadas son, obviarnente, casos particulates de opciones, puesto que si .n es el suceso cierto, que sucede siempre, una consecuencia c equivale a la opcion {c/ [l }

(i) COMPARABIIIDAD

Continuamente expresamos nuestras preferencias entre las disrintas op· ciones que se nos ofrecen Dadas las opciones II y 12 escribiremos II > 12 si se prefiere la opcion II a Ia opcion [2, 11 - l2 si resultan igua1mente deseablcs " y II ~ l2 si II es preferible 0 igualmente deseable a h Hemos rnencionado que las consecuencias son casos particulares de opciones; por Jo tanto, podernos utilizer 1a rnisma relacion de orden para comparar las consecuencias entre S1

24 BIOESTADisTICA

Dado un conjunto de consecuencias, parece tazonable suponer que puede encontrarse una consecuencia c*, perteneciente 0 no a ese conjunto, que sea preferible 0 igualmente deseable a cualquiera de las que 10 integran, y otra consecuencia c*, que no es estrictamente preferible a ninguna de elias, De

esta forma, para cualquier consecuencia c del mencionado conjunto, tendremas c. ~ c ~ c", Para evitai el caso trivial de que todas las consecuencias

sean igualmente deseables, supondremos ademas que c. < c"

POSIULADO C1. Para todo pat de opciones II Y 12, el cierta una de las tres relaciones it < l2, II > 12 0 I, '"" 12 AdemaJ, eJ posible encontrar dos consecuencias c" y '. tales que c* > c. y que para toda consecuencia c,

c. ~ c ~ c" ..

La hip6tesis de comparabilidad es esencial para el resultado que nos proponemos dernoszrar Conviene, pues, considerarla con cierto detalle Puesto que, segtin hemos visto, las decisiones son casas parriculares ide opciones, eI postulado CI equivale a suponer que e1 problema de decision en ambiente de incettidumbre tiene solucion, esto es que no exisren dos decisiones incomparables; que el decisor siempre prefiere una de elias, 0 las considers igualmente deseables E1 postulado de comparabilidad refleja el hecho observable de que en Ia practice se comparan opciones de muy distinto tipo, forzados pal Ia necesidad de actual' Asi, pOI ejemplo, se ar gurnenta a menudo que el valor

'del tiempo libre no puede medirse;: sin embargo, cada uno de nosotros le asigna un valor concreto en el momento que decide S1 aceptar 0 no un trabajo extraordinario .

La comparabilidad de opciones implica en particular Ia comparabilidad de consecuencias y de verosimilitudes Ya hemos vista que las eonsecuencias son casas particulates de opciones Ademas, comparar 1a opcion II = {c*IA, c.I.il}

con 12 = {c"IB, 'JB}, donde A, B son, respectivamente, los sucesos compleplementarics de A y B, equivale a, comparar las verosimilitudes de A y B, Obviamente II sed preferible a 12 si, y solo si, A es mas verosimil que B Sin embargo, hay quien ha sugerido que existen dos tipos de sucesos: unos cuya verosimilitud puede set facilmente descrita en terrninos cuantitativos y ot1'05 que no admiten tal descripci6n Entre los primeros esrarian los sucesos relacionados can los juegos de azar y aquellos de los que se conoce ernpiricamente su Irecuenciarelariva Entre los segundos se contarian sucesos no repetibles tales como los eventuales resultados de una elecci6n politica Los primeros sedan sucescs estadisticos, cuyas verosimilitudes podrfan set comparadas enHe si, los segundos ser ian sucesos no estadfsticos cuyas verosimilitudes no podrian set valotadas y cornparadas can las de otros sucesos Sin embargo, tal clasilicacion es ilusoria En primer lugai , es Hcil encontrat sucesos que se resisten a ser clasificados de esta manera Considerese, par ejemplo, el

25

ESTADlsTICA Y TEORiA DE LA DECISION FUNDAMENTOS

bani el rimer intento el examen de conducir». Cietta-

suceso «Jorge a~r? ala en 1 P " -de personas que aplueban al primer

mente las estadlStlCaS sobre a proporClon 1 br Ia veIos'lmilitud

, "nf" re evante so re

intento pueden proporcIOnar 1 Olma,clon! tanto ser un suceso estadfst, ico

d I ocupa que parecetta, po ,

e suceso que nos '1 " formacion sobre el caliictel,

Sin embargo tarobien es re evante nuestra ill ~ d " ensar

los reflejos y' ]a habilidad mecinica ~e Jorge, y est~d~o~ul:u~~lcaes:sPcomo

que e1 suceso ~Ianteado noes es):ad~:l~~n ~~r~::ente est~distieos para una

«muerte en accidente de carretera q , eli id iHasta que

, te para un in V1 uo . C

casa de seguros no 10 son n,e,ees~Ilam~~uctores que perecen en la eanetera

punta es relevante la prop~r:dIO~ de co ted [ector tenga un accidente para detetminar la probablh ad e que 1 ~fi5 ad'os en ~omparables e incom-

1 S- 1 no pue en set c aSI C • bl

mortal? 1 as sucesos at aciones parece! azona e

parables, y cieltamente efectuam05 algunas comPd, - decidi- cual de dos

f rzo adecuado siempre po llamas' 1

sugerir que con un es ue ' ,'" 'I 0 si ambos nos parecen igt13-

sucesos espedficos nos pareee mas velOSlml

mente verosfmiles,

(Ii) TRANSIIIVIDAD

, . b bI mente incomodo si le pun··

Cualquieta de nosotros se encontrane pIO a ,e h bla afumado que la

nto de su lazonam1ento a

tualizasen que ,en ~n marne I I I era que aeababa de atir mal que I,

opci6n II era plefeuble a Ia 12 y la 2 a a t P -cl ., ' deben sel rransitivas

era preferible a 11 postulamos pues que as pr erencias ,

POSlU1ADO C2 Si 11 > 12 y 12 > li, enton[e~ la II > t, Analogamente si

I I 1 1 entonce) II - II

1 _' 2 Y 2 -- ),

Results faei1, pOl leducci6n al absurdo, defender el postulado d~ transitividad En e£ecto, si el decisoi plefiere II a 12 y l2 all, deheria elsta~ dls~~es~o

_ ' d « de [a situaci6n I, a a situacion 2,

a pagal u~a Cd lena cantida d x t~l ;~;a; Pero si adem as prefiere II a Iii tamy otra canuda y pot pasar e a 2 I, id d at sustjtuir Ia bien deberia estar dispuesto a pagar ,una cier ta c,antl a 'ti~oP decisol habda situacion II per la II En consecuencie, nuestro rntlanSI • e1 rocesO vuelto a 1a situacion original, il, ua~ .habel fagado x + ~ +e~e ) de r!'iiquina podtia repetitse; un dedso, I inttansltlvo sena pUles una S?Iogo puede utili-

1 d- U a1gumento tota mente ana

perpetua de rega ar mero. n . I 'I l la I a Ia 1)

" ' 1 ; , I es equiva ente a a 2 y 2 '

zatse para [ustificar que 51 a operon I

entonees la opci6n II debe ser equiva1ente a la lJ

(iii) SUSlIIUCION Y DOMINANCIA

. _ . puede set estab1ecida pOI PaJ-

Clalarnente, la eqUlvalencla entre opClones, 1 - r I en

tes As! pOI ejemplo, si la opcion II se juzga equwalente a a operon ,2

26 BIOESTADisTICA

los dias Iaborables, y tam bien en los festivos, entonces las opciories II y lz deben siernpre set juzgadas equivalentes Formalmente si representamos pot A el suceso complernentario de A,

POSIULADO C3 5i II > 12 cuando sucede A y 11 > 12 cuandolUcede A, entonces II > 12 AnaZngamente, Ii 11 _. /2 cuando sucede A y II _, [2 cuando sucede A, entonces II ~. 12

En general, si dos opciones II = {cl,[AJ, ,clk!Ad Y 12={c:IlIAk, ,cnlAd

tienen los mismosvsucesos inciertos Ai y las consecuencias de la primers dominan a las de la segunda, de forma que Cli ~ en para todo i, entonces II ~ 12; si, ademas, eli > c2ipala algun valor de i entonees II > 12

En virtud del principia de sustitucion, en una opcion puede reemplazarse una consecuencia por otra opcion equivalente a dla .. En efecto, si Cl ~ II la opcion 12 = {ellA, cJA} es equivalence a II :::: UdA, c2IA} .. Basta observar que si sucede A, 12 da lugar a 01 y 13 a II y puesto que por hip6tesis Cl - II tenernos que, S1 sueede A, 12 ._, /3. Si sucede A, ambas opciones dan Iugar a (2 Y porIo tanto 12 ~ 13 si sucede A Consecuentemente, en viItud del Postulado C}, 12 - h

(iv) SUCESOS DE REFERENCIA

Hemos anticipado que para poder tomat decisiones de forma razonable es necesario medir la informacion y las preferencias del decisor expresandolas de forma euantitativa Para poder medir es necesaria una unidad de medida. Can este objeto, postularemos que es posible imaginal metodos para elegit punios al azar en el cuadrado unidad, de forma que resulte igualrnente verosimil elegit cualquier punta, y los utilizaremos para construir con ellos una familia de sucesos que nos sirvan como referenda, como unidad de medida.

POSIULADO (4. EI decisor puede concebir un procedtmiento de generar un punta aleatorio z en el cuadrado unidad, esto el, un numero z :::: (x, y), o ~ x ~ 1, 0 ~ y ~ 1 tal que pala cualquter par de regiones RJ, Rz del cuadrado unidad el suceso {z E Rd le resulta menos uerosimtl que et sucera {z E R2} si, y solo si, el area de Rl es menor que la de R2

Es fadl imaginar rnetodos de general puntos aleatorios en el cuadrado unidad. Por ejemplo, haciendo rodar una ruleta de circunferencia unidad y anotanda la Iongitud del arco, en sentido positive, que separa un origen ptefijado del punta sefialado pOI Ia aguja, se obtendra un rnimero aletorio x en [0, 1].. Repitiendo el proceso se obtendra otto nurneroaleatorio y en [0, 1] EI punto Z:::: (x, y) detetrniriado pot las coordenadas x, y seria entonces un

ESTADisTICA Y TEOR1A DE LA DECISION FUNDAMENTOS 27 punto aleatoric en el cuadrado -unidad Observese que e~ ~ostula,do C4 s: limita a afirma! que el decisOl puede tmagznar un procedimlento ce g~nela"

t el Cuadrado unidad que et considert aleatoTtol No se exige 13

pun os en b" .

construcci6n fisica de tal plOcedimiento ni su car.kter «oi Jetlvo»

Para simplifiear 13 notad6n y sicrnpre que no. se preste a confusion, denotaremos pOI R tanto una region del cuadtado umdad como el lU~elo de ~,ue un punto aleatorio, en el sentido del Pastul~do ,C4 se situe en dicha re?10n Donataremos pOI R a1 suceso comp1ementano oe R en el cuadtado unidad.

El Postulado C4 nos per mite constr uit una baterla de op~ones co~ las que medir, por comparacion, la deseab~lidad de todas las demas Especiticamente, consideralemos opciones de 1a forma

{c"'IR, (*IR}, R c [0, 1J2

esto es situadones en las que se obtiene la rnejot consecuencia posible c' S1 sucede {z E R} y la peor posible (,'.' si tiene=lugar el suceso complemen-

tario {z ¢ R}, donde z es un punta aleatotio del cuadrado unidad

E.jemplo 2 .. 11

Cpciones economicas alternatioas

Consider ense los sucesos

AI: el indice de intlacion de este afio seui ,menor del 15 % ..

A2: habra elecciones generales d~ntr'O del ploxim~ afio, .

y considerense las opciones alternatives a que se recucen determinadas deci-

siones, que vienen dadas pOl'

II = {lOOOIAt, -8oolAd
12 = { 500lAl, -100\A2}
13 == { 200[A, n A2l IoolA! n A2, -1501Ad
14 == { 4oolA1 n A4, 300lAI n Al, -350IJL} donde las consecuencias se han expresado en miles de pesetas. Especi:6:a!·. p~·e. Ierencias entre los' seis posibles pares de opciones que satisfagan los pnncipios

de coherencia

Obviamente, no existe una solucion unica a este problema U~a. solucion q,:e satisface los principios de coherencia, cuando A" no parece muy verosimil pero A., S1 10 pa-

rece, es

28 BIOESTADisTICA

t. < I, t, < I, I, < I, 1, > I, t. > I.

I, < t,

que conjuntarnente implican I, < t. < t, < I,.

2.4.. ProbahiIidad como grade de creencia

. En 1a Secci6n 2..2 comentamosla necesidad de deterrninar la probabilidad asignada pOI el decisor a los distintos sucesos inciertos que puedan infiuir en las las consecuencias de sus decisiones. .

Historicamente, . el concepto de probabilidad surgio con el estudio de los juegos de azar, en los que se dan ciertas simetrias que perrniten concebir la probabilidad de un suceso como e1 cociente entre el mimero de casas en que puede darse y el mimero de casas totales, cuando todos los casas se juzgan igualmente verosfrniles y rnutuamente excluyentes Asi, puesto que al.lanzar un dado suelen juzgarse las seis caras igualmente verosirniles, Ia probabilidad de obtener un mimero par seria 3/6, = 1/2

Mas tarde, con el estudio de los problemas planteados por las compafifas de seguros, aparecio el concepto de probabilidad de un suceso como el Ifrnite a que tenderia 13 frecuencia relative con que cse suceso se presentarfa si se repitiese indefinidamente la misma situacion en identicas condiciones. AS1, puesto que aproximadamente el 49 % de los nacimientos humanos dan Iugar a nifias, la probabilidad de que una mujet ernbarazada tenga una nina seria 0,49

Obviamente, la mayor parte de los sucesos inciertos que intervienen en ~n pl?blema de decision no presentan simen ias ni pueden ser repetidos indetinidamente en identicas condiciones .. Asi, POt ejemplo, para deddir si debe set utilizado un nuevo £,irmaco en un deterrninado paciente, hay que estirnat la probabilidad de que este nuevo fatmaco Ie sea eficaz y no Ie produzca trastornos secundatios; sin embargo, no existen simetrias ni experiencia previa en identicas condiciones que permitan especificar la ptobabilidad buscada:

Aunque pueden servit para cuantitativizar 1a verosimilitud de determinados sucesos, los concepzos de simetria y frecuencia relativa no sirven, como algunos han prerendido, para dejinir el concepto de plObabilidad. Ademas de referirse a clases de sucesos demasiado restringidas para set utiles en un problema de decisi6n, tales definiciones resultarian necesariamente circulates En efecto, una definicion de probabilidad no puede basarse en la existencia de sucesos igualrnente probable I como 1a definicion clasica «casas favorablesj' casos posibles» exige POI ott a parte, al afirmal la existencia de un «limite»

ESTADisTICA y TEOR1A DE LA DECISION. FUNDAMENTOS 29

de las frecuencias relatives de! tipo p = «lim» min se hace referenda a un hecho empir ico, no a un limite rnatemritico: en realidad, incluso para valores enormes de n, no es imposible que m j n este !ejos de p, es meramente improbable El intento de definici6n resulta asi circular. Sin embargo, los postulados de coherencia que hernos descrito perrniten definir la probabilidad de un suceso cualquiera Esto se consigue comparando el suceso en cuestion can el suceso de que un punta aleatoric se sinie en una deterrninada region del cuadrado unidad y eJigiendo Ia region de forma que, para e1 decisor, ambos sucesos sean igualmente verosimiles .

DEFINICI6N 24 J La probabilidad de un JUUW E en las condicione5 H, que denotaremcs pay p(EiH), eJ igual al area de una legion R del cuadrado

unidad. elegida de forma que las opciones Il={c*IE, c.lE} y l2={t'iR, cJR} sean igualmente deseables en las condiciones H

En la definicion E, R son, naturalmente, los sucesos complementarios de E, R y las consecuencias c", c* las que aparecen definidas en el Postulado CL Es Heil demostrar que la probabilidad de cualquier suceso queda asf bien definida, esto es, que siernpre existe una region del cuadrado unidad que cumple la condicion exigida; que si dos .regiones dis tint as la cumplen deben tener la misma area; y que Ia probabilidad asignada es independiente de las consecuencias de referencia c", c. que se hayan elegido

En efecto, comparando la desabilidad de l = {c *[E. c.lE} en las condiciones H con los elementos de una sucesion de opciones de la forma l(~) = {c*IR(x), c.IR(x)}, donde R(x) es el suceso de que un punta aleatoric se sinie en una determinada region del cuadrado unidad de area x, tendremos necesariamente que 1(0) .::;: I, .::;: i(l) y, dada la continuidad de los mimeros reales, debera existir unx tal que I - I(x). con 10 que p(EIH) = x Ademas, en virtud de latransitividad y de la definicion de experimerito auxiliar, si dos regiones dis: tintas satisfacen las condiciones de la Definidon 2 4 1. deben tenet la misma area Finalmente, el principio de sustituibilidad permite comprobat que el valor de p(EIH) no se altera

si se modifican las consecuencias de referenda. .

I.a medida de probabilidad que hemos de£nido tiene las propiedades clasicamente atribuidas a las probabilidades. En efecto,

TEOREMA 2 41 Cualquiera que sean las condiciones de referendaH la medida de probabilidad ocriiica

(1) Para todo suceso A, 0 :;;;; p(AIH) ~ 1 y p(HIH) = 1 (ii) Si A y B son dos ·luceSOI incompatibles dado H, peA U BIH) = p(AIH) + p(B~H)

(iii) Para todo par de sucesos A y B,

peA n BIH) = p(AIH) .. p(BIA H) = p(BIH) . p(AIB, H)

30 BIOESTADisTICA

Demostracton

[i) Por construccion, tratandose de rueas de un subconjunto del cuadrado unidad todas las probabilidades estan comprendidas entre 0 y 1 Ademas, dado H, el suceso H es un suceso cierto, igualmente verosimil pot tanto a que un punto aleatodo se sitiie en el cnadrado unidad Su probabilidad es, pues, el area del cuadrado unidad, es decir una

(ii) Sean R, y R, dos regiones del cuadrado unidad, tales que en las condiciones H, R, ~. A y R. - A U B (vease figural

o i, DIAl H}---J J ~p(AUBIH)

Entonces, en las condiciones H, B ~ R, - R, En efecto, si fuese B < R, ~ R, entonces, puesto que tanto A y B coma RI y R, - R, son incompatibles, y ademas A ~ RI, tendriamos que. A U B < RI U (R, - R,) = R" 10 que contradice 13 definicion de R, De forma analoga, tampoco es posible que B > R, - R, Por tanto, ell viItud de la comparabilidad, B - R, - RI, en las condiciones H, y poz tanto p(BIH) sen, el area de R, - RI, csto es piA U BIH) - p(AIH), como queriamos demostrar

(iii) Sean Rl y R, dos regiones del cuadrado unidad tales que, en las condiciones H, R, ~ A y R, - BrA Tales regiones pueden set escogidas de la forma descrita en Ia figura

T p(BIA,H)

1

o f-p(AIH)____j

Claramente, dado H, A n B - R, n 1(, puesto que el sucesoA n B es equivalente

ESTADisTICA Y TEORiA DE LA DECISION: FUNDAMENTOS 31

al sueeso A seguido del BIA y esto, en las condiciones H, ES igualmente verosimil que R, seguido de R, En consecuencia p(A n BIH) es el ru'ea de RI n R" es decir p(AIH) par p(BIA, H), coma quetiamos dernostrar

Para nosotros, la probabilidad p(EIH) de un suceso E en las condiciones H es una medida, sobre 1a escala [0, 1] de 1a verosimilitud que el decisoi concede a1 suceso E en 1a situacion descrita pOI H, esto es, una medida del grade de creencia en 1a ocutrencia de E que la informacion contenida en H Ie sugiere al decisoi

Hay dos puntos importantes que deben subrayarse. En primer Iugar, la probabilidad asignada a un suceso es siempre condiciona1 a la informaci6n que se posee sobre el; no existen probabilidades «absolutas» En segundo lugar, estamos intentando cuantificar mediante probabilidades 1a informacion que una persona determinada posee sobre los sucesos inciertos que afectan a las consecuencias de sus decisiones: no existen probabilidades «objetivas». Asi, per ejemplo, si denotamos por E el suceso «se 1anza un dado y se obtiene un cinco», podrfamos escrihir p{EIH) = 1/6 donde H significa «el de cis or juzga que el dado esta perfectamente construido»: limitamos it escribir p(E)=lj6 y pretender que esta fuese una probabilidad «absoluta» y «objetiva» no ser ia correcto: es posib1e que el decisor tenga motivos para sospechar que el dado esni cargado, en cuyo caso no seria razonable que asignase esa probabilidad.

Ana10gamente, si V es el suceso «Maria dare luz a un hijo varon», podiiamos escribii p(VIF, H) = 0,51 donde F significa «el 51 % de los nacimientos en Espana producen varones» y H «no hay motive para suponer que Maria tenga una tendenda a tenet hijos varones distinta de cualquier otra mujer espanola» Sin embargo, escribir p(VIF) = 0,51 y pretender que esta fuese una probabilidad «objetiva» no seria correcto: el albol .genea-_ Iogico de Maria podrfa sugerir una tendencia en 5U familia a tener mas hijos varones que 1a media de la poblaci6n

En aquellas situaciones en las que no exist en simetrias aparentes ni datos historicos sobre frecuencias relativas puede parecer mas dificil obtener una rnedida numeric a del grado de creencia en un suceso. Sin embargo, no se empieza una escalada S1 parece probable que vaya a haber tormenta ni se realiza una inversion si no parece probable que sea rentable; de nuevo, nos varnos continuamente obligados a asignar probabilidades, aunque sea inconscientemente, a todo tipo de sucesos para poder actual', para poder sobrevivir Incluso sucesos tan pintorescos como Ia existencia del monstruo dellago Ness pueden ser objeto de analisis, como demuestra el hecho de que una famosa compafiia de seguros accptase una poliza disefiada para cubrir el riesgo de

su aparicion (BOlch, 1975) .

Obviamente, con 1a definicion adoptada, la probabilidad de que .un punta aleatoric se situe en una legion R(x) del cuadrado unidad de area xes precisa-

32 BIOESTADisTICA

mente x En consecuencia, una forma altemativa de describir Ia situacion represenrada pOI la opci6n

l( x) = {c*IR(x) cJR( x)},

que perrnite obtener c· can probabilidad x y c * con la probabilidadcomplementaria. 1 - x, consiste en escribir simplemente {e*I;.:, C * 11 - x} En general, can la notad6n

describiremos una operon que perrnite obtener Ia consecuencia Cj con probabilidad PI, C2 con probabilidad Pl,., Ck con probabilidad Pk

Ejemplo 2 .. 41.

Temperatura l

Considerense los sucesos siguientes referidos a Ia temperatura t en grades

centigrados que hara manana en Valencia a mediodia.

Al = t < 16

A2 = 16 !( t < 19 & = 19:( t < 22 ~ = t ~22

Asignarles una distribuci6n de probabilidad

Claramente, no existe una solucion iinica. EI resultado depende de Is informacion del decisor y de la epoca en que se asigne la distribucion de probabilidad Una distribucion razonable para un ciudadano rnedio, refer ida a principios de octubre puede ser

ptA,) = 0,05, p(A,) = 0,15, ptA,) = 0,60, P(A.) = 0,20

10 que significaria, por ejemplo, que se ha consider ado cuatro veces mas probable eI suceso t < 22 que el suceso t ~ 22, y rambien cuatro veces m:is probable el suceso t ~ 19 que el t < 19,

2,,5.. Maximizacion de la utilidad esperada

Los postulados de coherencia tambien permiten definir Iormalmente una medida de las preferencias del decisor entre las consecuencias En efecto, definiremos 1'1 utilidad de una consecuencia c como un rnimero u(c) en Ia escala [0, 1] que mide Ia deseabilidad relativa de la consecuencia c. En esta escala, como veremos a continuacion, lautilidad de Ia consecuencia menos preferida c * sera u( c ) = ° y la de Ia mas prefer ida ser a u( c*) = 1:

(1)

ESTADisrlCA Y TEORiA DE LA DECISION FUNDAMENTOS 33

Como en el caso de las probabilidades, necesitamos un elemeuto de referenda pam poder medii. En aquel caso utilizabamos las regiones del cuadr ado unidad. Aqui compararemos la deseabilidad de una consecuencia con Ia de una opcion del tipo {e*lx, c .. 11- x), que permite obtener la conse-

cuencia c" con probabilidad x, 0 Ia '. can probabilidad 1 - x

DEFINICION 2.5.1, La utilidad de una consecuencia c, que denotaremo, par u(c) ella probabilidad x que debe asignarse a la mejor consecuencia (..* para que la consecuencia c lea igualmente deseable que la 0 pci6n {z *Ix, cJ I -- x } De esta [orma, para toda consecuencia c,

c>« {c*lu(c), c* 11 - u(e)}

En virtud de los postulados de comparabilidad, transitividad y sustitudon, siempre existir s un mimero u(c) en [0, 1 J que cumpla esa condicion puesto que c*~· {c"I, c*/O}, c ; ~ {e'la, (.lI} y c ; 4 ( ~ c". Ademas, la utilidad de c queda asi bien definida salvo -una t1ansfo~maci6n lineal -que, como verernos mas adelante, no afecta a la elecci6n de Ia decision optima

En efecto, si las consecuencias de referenda c' y t.. se sustiruyen; pOI ejemplo, par otras consecuencias Co < l. y C, > c", podemos encontrar dos rnirneros po y P" las utiIidades de c. y t.' en la nueva escala, tales que p. < P"

c*, {c,lp" col {l- PI}} c .. - {cllpo, col (1- Po)}

(1)

., Si ute) es Is utilidad de Ia consecuencia G en Ia escala pr imitiva, tenemos par defiriicion que

(2)

y sustituyendo (1) en (2)

l' (c,jt/(e), <011- u'(c)}

(3)

donde

u'(c) = (p,-Po)u(c) + po

(4)

En consecuencia, Ia utilidad de c en la nueva escala, u'(c) es una simple transfotrnacion lineal de la utilidad original u{e); en particular, u'(c*) = po, u'(c.) = p, Naturalmente, las utilidades asociadas a los extremes de Ia nueva escala son, de nuevo, cera y uno: u'(co) = 0, u'(e,) = 1

34 BIOESTAD1STiCA

Utilizando los principios de coherencia postulados en la Seccion 2~3 hemos podido asignar a los sucesos inciertos unos mimeros (sus probabilidades) .que miden la verosimilitud que les asigna el decisor en el momento, y en las condiciones, en que toma Ia decision. Analogamente, hemos asignado a las consccuencias otto conjunto de mimeros (sus utilidades) que miden las preferencias del decisor entre elias, EI paso final consiste en asignar un mimero a cada una de las decisiones posibles de forma que la mejor decision sea aquella a .la que se asigna eI rnimero mas alto .. Esto puede hacerse sin invocar nuevas principios ni hacer nuevas asignaciones numericas. En efecto, tornat la decision d, es aceptar la opciori

donde Eli = {ell, aiZ" , 8im } es el conjunto de sucesos Inciertos mutuamente excluyentes que pueden afectar a .las consecuencias de tornar la decision d; Y Cil es la consecuencia de habet tomado la decision d, cuando sucede ei, De acuerdo can las Definiciones 2.41 Y 251 el decisor puede asignar, pata cada 6ii la probabilidad p(eiildi, H) de que suceda 8ti cuando se elige d, en las condiciones H, y la utilidad U«(ii) de la consecuencia a que esto da lugat

lEOREMA 25,1 (Cnterio de decision Bayes) Considerese el problema de

decisi6n deiinido par D = {dt, d: ,dd donde

Sea p(lliMi, H) la probabilidad de que suceda eil si Ie elige d. en las condiciones H y sea U(Ci,) la utlfidad de la consecuencia a que ello da lugar Entonces, fa utilidad esperada de la decision d, es

u*(dil = L: U(Cii)p(eiMb H)

j;:::l

y la decision optima el aquella con maxima uti1idad esperada

Dernostracion

En efecto, por definicion de utilidad,

Y pol definicion de probabilidad,

(5)

(6)

(7)

(8)

ESTADISTICA Y TEORIA DE LA DECISION Fl'JNOAMENTOS 35

Introduciendo (7) Y (8) en virtud del postulado de sustitucion y del Leorema 241,

d,-· {c*lu(c,dp(enld" H), <*lu(c"}p(B"ld,, H),

cJO- u[<IL)]p(6,M., H), . "" I[ 1- u(c")]p(B,>id,, H),

y, pOI tanto,

(9)

donde u*(d,) viene dado por (6) AhOI'a bien, en Ia fonna (9) todas las decisiones son inmediatamente comparables y, en virtud de Ia transitividad, la mas preferible es aquella que da mas probabilidad a la consecuencia optima c*, es dec:it aquella que maximiza u*(dJ como queriamos dernostrar

Si 1a fund6n de utilidad Ur(C) se sustituye pot una translor macion lineal suya uic) = aUr(C) + b, la nueva utilidad esperada es claramente

Asi pues, si a> 0, la decision que rnaximiza u*(d) rambien maximiza u;(d) Y por tanto, como hablamos anticipado, la elecci6nde las consecuencias de referencia (. * Y c * no afecta a Ia determinacion de la decision optima

. Aunque la funcion de utilidad ha sido definida en 1a escala (0, 1], resulta a veces mas natuial medii 1a deseabilidad de las consecuencias en una escala distinta {tiempo, dinero, afios de vida, ) Siempre es posible, sin embargo, 'reducir lasutilidades asi obtenidas a Ia esc ala [0, 1 J mediante la transformacion

u'(c) = [u(c)-u(c*)]/[u(c')-u(c"l]

(10)

dande c" y c. son, respectivamente, la meier y la peer de las consecuencias eonsideradas Sin embargo, puesto que (10) es una transformacion lineal tal reduccion no es necesaria, segrin hemos vista, para determinar la decision optima EI usa de la escala [0, 1] tiene, no obstante, 1a ventaja de permitir una interpretacion probabilista de las urilidades

Ejemplo 2 .. 5.,1.

Opcione s economicas alter natioas (cont)

Considerese de nuevo la eleccion entre las opciones li, li, h Y l4 consideradas en el Ejernplo 2 3 1 Asignar probabilidades a los sucesos inciertos. y

36 BIOESTAOisTICA

determinar la utilidad esperada de cada una de ellas suporiiendo la utilidad proporcional al dinero

Si, por ejernplo, se consider a p(AdH) = 0,3 y p(A,IH) = 0,6

u*(I,) = 1000 x 0,3 -100 X (1 - 0,3) = - 260 u*(l,) = 500 X 0,6 - 100 X (1- 0,6) = 260

,,*(1,) = 200 X 0,3 X 0,6 + 100 X 0,3 X 0,4 -150 X 0,7 = - 57 U*(l4) = 400 X 0,3 X 0,6 + 300 X 0,7 X 0,6 - 350 X 0,4 = 58

Estas utilidades esperadas implican las relaciones I, < I, < I. < 1" que son las mencionadas en e1 Fjemplo 2 3 1. El lector puede comprobar sin embrugoque esta esttuctura de preferencias entre las opciones depende crucialmente de la probabilidades asignadas a los sucesos AI Y A, en las condiciones H en que se efecnia la elecci6n

26, Otros crltertos de decision

Cornentarernos a continuacion el alcance y las Iimitaciones del criterio de decisi6n establecido, el criteria Bayes 0 de maximizaci6n de la utilidad esperada, y 10 compararernos con otros criterios de decisi6n propuestos en la Iiteratura

Probablemente, Ia mayor limitaei6n de Ia teoria esbozada radica en el hecho de que su uso esta restringido a un solo decisor y no es inmediatamente aplicable, supucsto que pueda serlo, a situaciones que involucran a dos 0 mas decisores As!, nos heroes referido continuamente a- un iinico deciSOl, dispuesto a expresar sus opiniones y sus preferencias y a ser consistente con ellas, y hemos concluido que tal persona debe elegit la decision que maximice su utilidad esperada; sin embargo, no hay nada en el desarrollo ptecedente que obligue ados decisores distintos a ponerse de acuerdo en las probabilidades asignadas a los sucesos inciertos 0 en las utilidades dadas a las posibles consecuencias

A menudo, una decision debe set tomada pot un organisrno colegiado, POl' un comite, pot una asamblea. En este caso, puede suponerse frecuentemente que todos los componentes tienen los misrnos objetivos, y pot tanto las mismas utilidades, pero que difieren en su apreciacion de la realidad, esto es en sus probabilidades En OtIOS casas sin embargo, las preferencias de los decisores son claramente contrapuestas entre sf; sus utilidades (y tal vez sus -probabilidades) son diferentes y nos encontrarnos en consecuencia en una tipica situaci6n de conflicto .. No existe una tcoria axiomatica que resuelva el problema planteado por las situaciones de cornite 0 de conflicto de forma comparable a Ia solucion que la teoria expuesta ofrece para e1 problema de decision unipersonal La consecucion de tal teotia es una de las mayores necesidades de nuestra epoca

ESTAOfsTICA Y TEORIA DE LA DECISION. FUNDAMENTOS 37

La fuerza del criterio de maxirnizacion de la utilidad esperada reside esencialmente en su fundamenta axiornatico .. Es el unico criteric de decision compatible can los principlos de coherencia expuestos en la Secci6n 2 J. Cualquier otro criterio es equivalents a la rnaxirnizacion de una urilidad esperade, 0 es incoherente En el teste de esta secci6n comentaremos brevernente algunas criticas hechas al principio de la utilidad esperada y ejernplificaremos la inconsistencia de otros criterios de decision

Una de las objeciones frecuentes al principio de maximizaci6n de la utilidad esperada consiste en afirmar que no tiene en cuenta el riesgo Por ejernplo, una persona puede afirmar que preliere 100 pesetas seguras a 101 con probabilidad p y nada can probabilidad 1 - P par proximo a uno que sea el valor de p 2POl' que arriesgarse a perder 100 por Ia posibilidad de ganar un poco mas? Es faeil vet que esta afllmaci6n, que obviamente viola el principio de maximizacion de la utilidad esperada, es incoherente

En efecto, si

100> {lOllp, 010- p)}

entonces, presumiblernenre,

101 > {102ip, 01(1- p)}

y pot 10 tanto

y prosiguiendo de esta forma

Sin embargo, para un p tal que poo sea suficienternente grande, cualquiera preferiria 1000 con esa probabilidad a 100 seguras, 10 que, segun hemos visto, contradice la afirmaci6n original

Otra forma de decir que el principio de la utilidad espet ada no. tiene en cuenta el riesgo consiste en sostener que, en cualquier situaci6n de posible inveIsion, maximizar Ia utilidad esperada irnplicaria invertir todo el capital en el tipo de acciones que se espere sea mas rentable, en contra del principio ernpfricamente establecido de Ia diversificacion Quien utiliza este argumento esta confundiendo las cantidades de dinero con su utilidad La mayotfa de n050t105 tenemos una funcion de utilidad concava para el dinero, con una utilidad marginal decreciente para cantidades adicionales Puede cornprobarse (Lindley, 1971 b, cap. 5) que Ia decision optima que se deduce de maximizar la utilidad esperadn con una funcion concava para la utilidad del dinero es generalmente .la de diversificar 1a inver sion (ver Secci6n 7.3)

38 BIDESTADTsTICA

A juzgar pOI los textos clasicos de teoria de la decision, eI criterio minimax podrfa set una alternativa razonable al criterio de maxirnizacion de la utilidad esperada En una de sus versiones, el criterio minimax' consiste en toznar la decision que maximiza la utilidad garantizada: se detertnina 10 pear que puede pasar en eada .caso, y se elige aquella decision para la que resulta menos malo Mas tecnicarnente, 1a decision optima segiin este criterio es la que maximiza 1a utilidad minima a que puede dar Iugar

Asf, en el problema de decision definido por la Tabla

min

°

°

1

0,3

0,.3 max

0,.3

la decision optima segiin e1 criterio minimax es dl, puesto que d2 maximiza la utilidad garantizada En consecuencia, segtin este criterio, d2 > d, De forma analoga, en el problema de decision definido pO! la Tabla

min

0,3

0,3 1

0,3 max

°

°

encontraremos d2 > d3 Considerernos una nueva decision d, que consiste en elegit d, si sale cara y d, si sale cruz Considerando ahora todas estas de:

cisiones juntas tendriamos .

81 8) min
d, 1 ° °
s, 0,3 0,3 0,3
d3 ° °
d4 0,5 0,5 0,5 max con 10 que d4 > d2 Tenemos pues una situacion en la que se prefiere d2 tanto a d, como a d), pem en la que una cleccion d, y d3 basada en lanzar una moneda al aire es preferible a d) Esto es incoherencia.

En otra version -del metodo minimax se escoge aquella decision que bace minima Ia mayoI perdida de oportunidad posible, entendiendo .pOI talla diferencia entre la utilidad conseguida y la que bubiese podidoconseguir.

ESTADisTICA Y TEORTA DE LA DECISION' FUNDAMENTOS 39

Consideremos - el problema de decision de£nido pOI las tablas siguientes (utilidades a la izquierda, perdidas de oportunidad a Ia derecha)

81 0,8 0,2

0,0

0,4

0,4 min

0,0 0,6

0,0

0,6

0,4

Clararnente, segiin el criterio minimax, debe preferirse d1 a d2 Considerernos ahora una tercera decision posible, d3, de forma que las nuevas tablas de utilidades y perdidas de oportunidad resultan set

0,7

0,0

0,7

0,7

0,8

0,0

0,6 0,3

0,7 0,0

0,2

0,4

0,6 min

0,7

0,1

En este caso, el criterio minimax sugiere la eleccion de d2 Resulta asi que la consecuencia de incorporar una nueva decision d, al conjunto de posibles alternativas es nada menos quesustituir d, > di pOI d: > d, Es como S1 se prefiriese estudiar Medicina a Ciencias pero, por el becbo de pensar tambien en Filosofia, se concluyese que se preferiria Ciencias a Medicina Esto es incoherencia

A nivel intuitivo, Ia causa de la incoherencia del metoda minimax reside tanto en su excesivo pesirnismo como en el becho de que no utiliza la informacion de que se dispone sobr e la verosimilitud relativa de los sucesos Desde un punto de vista tecnico.Ta causa de la incoherencia esta en el hecho de que el criterio minimax no satisface el postulado de sustituci6n

Otro criterio de decision frecuentemente empleado en la practica es el criterio condicional que consiste en tomar la decision que resultaria optima si el suceso mas probable tuviese efectivamente lugar. Considerese, poi ejernplo, el problema de decision descrito pOI la tabla de utilidades

0,6

0,5

0,5 0,4

0,7

0,4

y supongamos que p(el) = 0,30, p(Sz) = 0,25, PIS;) := 0,45 De acuerdo con este criterio, d2 > d, puesto que si el suceso mas probable (8,) tiene lugat , da una utilidad mayor Sin embargo, obseivando que las utilidades cones-

40 BIOESTADisTICA

pondientes a d, y d: coinciden, el problema de decision puede reformularse mediante la tabla

05 0,4

0,6

0,7

deride, obviamente p(al u a2) = 0,55 v p(83) = 0.45. El suceso mas probable es ahora (8, U 82) y por tanto dl > d1. De nuevo. esto es incoherente, A nivel intuitivo el metodo descrito, desgraciadamente muy utilizado en la pnictica, es menos razonable de 10 que puede parecer a pnmera vrsta, En efecto, puede suceder que una decrsior; que no sea optima para la mas probable de las posibilidades sea sustancialmente meior que las dcmas en el resto de ellas, y resulte meror en conjunto.

Ejemplo 2.6.1-

Forma de estudio

Un alumno debe decidir si repasar con mucho detalle una de las dos partes del programa 0 repasar con menos detalle las dos, antes de examinarse. Analizar el problema segtin los distintos criterios de decision mcncionados, suponiendo que Juzga que 10 mas probable es que el examen contenga mayoritanamenre cuestiones sabre la segunda parte.

EI espacro de decisiones es

a, == repasar con detalle Ia pnmera parte d, == repasar can detalle Ia segunda parte

a. == repasar todo el programs can rnenos detalle

y el de sucesos inciertos puede describirse como

e, = el examen contiene mavoritanarnente temas de Ia pnrncra parte e, = el examen connene mavontarramente remas de Ia segunda parte e, = el examen esta equilibrado

Una tabla razonable de utilidades serla entonces del tipo {otras tablas parecidas sertan igualmente aceptables).

e,

0,6 max

e,

e,

min

d,

0,9 0,2 0,5

0,2 0,9 0,5

0,6 0,6 0,7

0,2 0,2

ESTADISTICA Y TEORIA DE LA DECISION: FUNDAMENTOS 41

El enteric minimax recorruenda elegir siempre d, independientemente de las verosirnilitudes relativas de e, Y e,. El cnteno de maximlzacion de Ia utilidad correspondiente al suceso mas probable recornienda elegir siempre d" puestc que par hipotesis p(9,) > p(e,) y p(9,) > pled. Ambas soluciones son .claramente dernastado rigidas,

En etecto, las utilidades esperadas de las tres decisiones son

u"{d1l = 0,9p + 0,2'1 + 0,5(1- P - q) = 05 + O,4P - 0,3q u*(d,) == 0,2p + 0,9q + 0,50- P - q) = 0,5-0,3p + O,4q u"( d,) = O,6p + D,6q + 0,70- p - q) = 0.7 - D,lp - O.1q

donde P = p(e,), q = p(e,) y, por hipotesis, e > P V q > 1- P - q, esto es p > L - 2q.

Es inmediato cornprobar que u*(d,l >u*(d,) 81, Y solamente si IJ> q; como, por hipotesis q > p, d, siempre es mejor que a" Tecmcamcnte, a, es una solucion madrmsible para este problema.

Puede cornprobarse ademas que u*(d,l > u*(d,) SI, V solamente SI, ,O,2p - O,5q + + 0.2 < O. En Ia figura se representan los conjuntos de pares de valores (P. 'I) para los que la decision optima es una u otra,

I P

o

0.30.5

Por ejemplo, 51 P = 1/3 Y a = 0,5, la decision OPtima cs a-, esto es repasar todo el programa. rmentras que si P = 113 pero q = 0,6, la decision optima es d, es decir repasar con detalle 13 segunda parte.

2.7. Discusi6n y referencias

Los resultados iundamentales del' argumento Bavesiano pueden smtetizarse diciendo que Ia consideracion de unos pnncipros razonables. de comportamiento llevan a la existencra de una medida de probabilidad. de una funcion de utilidad y al princrpro de maximizacion de la utilidad esperada. Sin embargo, los resultados mencionados son tan solo teoremas de exzstencta. Debe subravarse que, .aunque las definiciones de probabilidad y de utilidad son constructivas, no se trata necesariamente de los metores rnetodos para deter-

42 BIOESTADisnCA

rninarlas En los Capitulos .3 y 7 discutiremos otr os procedimientos para la especificacion respectivarnente, de ptobabilidades y de utilidades

El atgumento Bayesiano no es, desde luego, nuevo En esencia se rernonta a los trabajos de Bayes (1763) y laplace (1812/1912).y siempre ha merecido respeto entre los estadfsticos Sin embargo, en afios ! ecientes ha aparecido en la discusion un nuevo elemento: el hecho de que, en delta sentido, los metodos Bayesianos son inevitables porque se deducen de una axiomatica que result a razonable y frente a la que no se ha sabido presentar , con fuerza

parecida, alternative alguna _ .

La primers discusi6n axiomatica se debe a Ramsey (1926) Su trabajo, cuya linea hemos seguido en este capitulo, carece de demostracionesrigurosas, como suele suceder con las obras de los matcmaticos aplicados britanicos de los arras veintc Tales demostraciones Iueron proporcionadas mucho m-as tarde pot Savage (1954/1961) Una demostraci6n rigurosa de los resultados Bayesianos en el caso finito es Ia de Pratt, Raiffa & Schaleifer (1964), basada en un trabaio previo de Anscombe y Aumann (1963); Bernardo y Giron (1980) proporcionan una demostracion rigurosa en el caso general Villegas (1964) y DeGroot (1970) dcsarrollan p~or separado las exiornaticas de la ptobabilidad y de la utilidad

POI otra parte, De Finetti (19J7) produjo en los afios treinta, sin conocer e1 ttabajo de Ramsey, un tipo de argumento muy distinto para la existencia de probabilidades subjetivas Se basa en considerar un sistema de apuestas y exigi! que se hagan de forma que no sea posible perder siernpre El razonamiento tiene el inconveniente de que, a1 introducir apuestas, se cree cierta confusion can ideas de utilidad Los articulos originales de Ramsey y de De Finetti han sido reeditados, junto can ouos clasicos de la probabilidad subjetiva, como el de Koopman (1940), por Kyburg & Smoklei (1964) EI concepto de coherencia ha sido brillantemente discutido por Comfield (1969) en relad6n con la estadistica modema

Una linea de investigaci6n en 1 eoria de la Decision, relacionada con la idea de coherencia, pero mucho mas debil que ella, parte del trabajo de Wald (1950) Sus resultados son mas debiles debido a que supone la existencia de una funcion de perdida, en lugar de dedacir su existencia apattit de los axiomas

Las objecciones planteadas a la postura Bayesiana son nurnerosas, pew ninguna ha llegado a1 fonda de la cuesti6n y criticado constructivarnente los axiomas _ Una excelente discusion sobre los fundamentos de la Estadistica es la contenida en Savage et at. (1962) Lindley (1971 b, cap 1A) expone de forma muy intuitiva y con mucho mas detalle los resultados comentados en este capitulo

ESTAOisTICA Y TEO.9rA_ DE LA DECISION _ FUNDAMENTOS 43

PROBLEMAS

1 Un juego consiste en elegit al azar una carta de una baraja de 40 cartas Si esa carta es una espada nos pagan 200 ptas _ y si es oro 100 ptas , pew en otro caso heznos de pagar 100 ptas Para ernpezar a jugar hay que panel una cantidad inicial de c ptas _ Igualando dinero a utilidad <,Interesara juga! si c = 30 ptas _? (Que va-lor de c haria el juego equilibrado? (Se dice que un juego es equilibrado si 1a ganancia esperada de jugal es igual a Ia de no juga! )

2" EI beneficio esperado de Ia cornercializacion de un nuevo fannaco es de 2 millones de pesetas si SU puesta en venta es anterior a la de un preparado similar ofrecido por Ia competencia, perc se perderia un millen si la competencia se adelanta Determinar Ia decision optima en funcion de Ia probabilidsd p de conseguir adelantarse a Ia comperencia

3" En una prueba clinica se intent a compaur dos crernas diferentes que previenen 1a reaparicion de una deterrninada alergia de I. piel. Despues de probadas can 150 pacientes, obtendremos La siguiente tabla de probabilidade r:

No reaparece Reaparece
crema 1 0,7 0,3
crema 2 0,6 0,4 Como 1a crerna 1 produce determinados efectos secundarios, esto nos influye en las utilidades que resultan set:

crerna d, crema d,

No reaparece Reaparece

0,9

o

0,1

Aparece un nuevo paciente con ese tipo de alergia Deteuninar la crema que debe recetarsele

4 _ L a esperanza de vida de un determinado paciente de cancer es 4 arios Si se opera, y I. operacion sale bien, su esperanza de vida aumenta a 10 afios, pero tiene una probabilidad p de morir en Ia operacion y una probabilidad 0,5 de quedarse como estaba a pesar de operarse <Que valores de p hacen deseable la operacion?

s-- Ante un coso de ictericia que puede habet side causado par una hepatitis 0 pot un clncer de pancreas, el medico debe elegit entre un rratamiento clinico y uno qninirgico La esperanza de vida del paciente en el caso de operar cs de 10 aDOS si tiene, rcalmente cancer; si tiene hepatitis y es operado, tiene una probabilidad 0,2 de morir como consecuencia de la operacion Y una esperanza de 15 afios de vida si sob,revive a ella _ La esperanza de vida del paciente en eL caso de no operar es de 2 afios 51 tiene cancel y de 16 si tiene hepatitis _ Sea p 1. probabilidad que e1 medico asigna a que Ia causa de la ictericia sea hepatitis <: Que valores de p hacen deseable Ia operacion?

6. Un individuo tiene un cierto late de productos Si 10 vende gana 400 pesetas y si no 10 puede vender pierde 300 Puede anunciar 0 no Anunciar Ie cuesta 200 ptas Si pone el anuncio la probabilidad de vender es 4/5 Deterrninar la decision optima

44 BIOESTADisTICA

en funci6n de la probabilidad p de vender si no anuncia Supongase la util'idad proporcional al dinero'

7, Se dispone de dos urnas, que denotaremos pOl I Y II La ulna I contiene 3 bolas rajas y 2 blancas 1 a urn. II contiene 5 rajas y 4 blancas EI juego consiste en sacar un maximo de des bolas Pot cada bola extraida se gana 100 ptas , si es raja, y se pierde 50 ptas , si es blanca POt la pt imera extraccion no hay que pagar nada Por Ia segunda extraccion hay que pagar 50 ptas. si se trata de la urna I y 25 si se trata de Ia urna II Determinar Ia estrategia optima

8" Durante los dias previos a determinadas elecciones al Parlamento britanico, se ofreclan en distinras casas de apuestas londinenses apuestas en proporcion de 4 a 7 contra que ganasen los Iaboristas (una persona que apostase a favor de los laboristas ganaria ] libras por cada 4 que hubiese invertido si los laborisras ganasen las elecciones) y en proporcicin de .5 a 4 contra que ganasen los censer vadores (una persona que apostase a favor de los conservadores ganarla 4 libras par cad. 5 que hubiese invertido si los conservadores ganasen las eIecciones) Suponiendo I. utilidad propercional 81 dinero, determinar Ia estrategia de juego optima en funci6n de la probabilidad pel sonal p que se asigne a una victoria Iabcrista

9" Una cornpafila que fabrica cier ta maquinaria sofisticada, debe decidir su plan de produccion mensual que puede consistir en fabricar 1, 2 a 3 rnaquinas Sabiendo que la demand. puede ser de 0, 1, 2, 3, 4 maquinas al mes y que la probabilidad de que la dernanda sea 2 es 0,4 y el resto de las posibilidades son igualmente probables, encontr ar un plan de produccion optimo sabiendo que hay un beneficio de 7 por unidad vendida, una perdida de 4 pal unidad no satisfecha y una perdida de 1 pot unidad almacenada Considerar la utilidad proporcional al beneficia,

10"

Un medico cree que su paciente tiene una y solo una de las enferrnedades e" Il" e" II., y que sus probabilidades respectivas son p(Il,) = 0,2, pre,) = 0,5, pre,) =; 0-,2, pre,) = 0,1 EI medico dispone de tres tratamientos alternatives It, t: Y t, cuya efectividad viene reflejada en 13 siguiente tabla

I,

o

e.

e,

Il,

e,

o

o o

o

t,

donde un uno es la fila i y columna i signifies que el tratamiento t, es efectivo contra Ia enfermedad 9; y un cera signifies que no 10 es Igualando utilidad a efectividad, determiner el tratamiento optimo

, Considerese que si uri tratamiento no es efectivo puede procederse a otro y determinese la sucesion optima de tratamientos, suponiendo que sus costes respectivos son crt,) = 0,1, crt,) = 0,2, crt,) = 0,3 en unidades de utilidad

Capitulo 3

Medida de probabilidad

EnIa Secci6n 2 4 se introdujo el concepto de probabilidad como grade do creenciav se dedujcron algunas de sus ptopiedades En estc capitulo se estudian las consecuencias matematicas que se deducen de estas propiedades con objeto de poder describir adecuadarnente los Ienornenos aleatorios y de saber expresar convenientemente nuestra informacion sabre su verosimilitud

Concretamente, "se introduce el coacepto de espacio probabilistico con objeto de especificar el conjunto de sucesos para los que la medida de probabilidad esta definida Se cornentan < las propiedndesrfundamentales de la probabilidad y los teoremas basicos a que da Ingar Se estudian los conceptos de independencia e intercambiabilidad. y se enuncian y comentan los Teorernas de Bayel y de la probabilidad total Finalmente, se estudian algunos metod os para la especificacion de probabilidades .

En el capitulo anterior, definimos la probabilidad de un suceso A en las condiciones H, que escriblamos p(AiH), como una rnedida del gtado de creencia en A que sugiere aI decisor la informacion contenidaen H. Sin embargo, la palabrarucem fue utilizada en sentido coloquial, sin precisar el espacio sobre el que Ia medida de probabilidad debia set definida En la proxima secd6n especificarernos este extreme

3"l. Espacios probablhstlcos

Supondremos que en la descripcion de cualquier situacion incierta existe un conjunto de rejerencia n que contiene como subconjuntos a todos los sucesos en cuya probabilidad estamos interesados En un problema de diag-

46 BIOESTADisTICA

nosis medica, e1 canjunta de referenda puede set el de las enfermedades compatibles can los sintornas observados Si tratamos en cambio de rnedir la altura de una persona, el conjunto de referenda sera la recta real positiva 0, mejor, un sub can junto suyo.

En general, no estaremos intercsados en asignar probabilidades a todos los subconjuntos de n ~Que utilidad tendria, por ejemplo, determiner 1a probahilidad de que 1a altura que pretendemos medir sea un mimero entero impat P Pot otra parte, es razonable suponet que si nos interesa 1a probabilidad de determinados sucesos, nos interesara igualmente Ia de sus uniones, sus intetsecciones y sus complementos. Asf, si nos preguntamos la probabilidad de que una persona mida mas de 1,50 mts, y tambien la de que mida menos de 1,80, posiblemente nos interese la probabilidad de que su altura se sinie entre 1,50 y 1,80 nits. Esto nos lleva a exigir una determinada estructura algebraic a para eI conjunto de sucesos sobre eI que 1a medida de probabilidad debe estar deflnida (*).

DEFINICI6N 3.1 J Una familia de conjuntos ertadotada de una estructura de algebra si el conjunto uacio pertenece a ella y ron leyes de composicion interna la union y la complementacion

Es fadl cornprobar que nuestra definicion irnplica, en particular, que el conjunto de referenda pertenece a1 algebra y que la intersecci6n tarnbien es una ley de cornposicion inrerna Asl, si A y B son dos subconjuntos del conjunto de referencia n que pertenecen al algebra de conjuntos en que estamos interesados, A, 13, A U B, A n B, A U 13,A n 13, etc., tambien pertenecenin a ella El algebra engendrada por un conjunto de sucesos interesantes es la familia de todos los conjuntos que pueden forrnarse a partir de elias mediante las operaciones de union, interseccion y complemento Asi, partiendo de un iinico suceso interesante A, se obtiene un algebra de 22 = 4 elementos:

1: = {n, <p, A, A:}

donde n := A U A y <p := A n A. Partiendo de dos conjuntos distintos se puede engendrar un algebra de 24 := 16 elementos; en general, partiendo de k conjuntos intercsantes distintos se engendra un algebra con 22' elementos como maximo

Nuestra descripcion de una situacion incierta cuyo conjunto de referencia es fl quedara completa mediante la especificacion del algebra de subcon-

(xl Puede dernostrarse, ademas, que admitii como sucesos a todos los subconjuntos de un coniunto de referencia puede plantear graves problemas para la definicion de sus probabilidades cuando el conjunto de referencia tiene infinitos elementos

MEDiDA DE PROBABILIDAO 47

juntos de n engendrada pal aquellos sucesos e,,"l cuya probabilidad estarnos interesados y la especificacicn de sus correspondientes probabilidades

DEFINICI6N J 1 2. Un espacio probabilistico er un conjunto n dotado de un algebta 1: de subconjuntov IUYOS y de una medid« de probabilidad P delinida sabre ellos, 10 representaremos mediante el triplete (n, 1:, P)

Naturalmente, en virtud de nuestra definicion de probabilidad, la medida de probabilidad P estara tinicamente definida en las condiciones H que describen la situacion incierta; de esta forma, tendremos de£nidas las probabilidades P{AIH) para todo suceso A que pcrtenezca al algebr-a 1: y, edemas, tales probabilidades vetificaran las propiedades descritas en el Teorema 241

Ejemplo 3"1.1,,

N~tmero de bematies en la sangre

EI mimero media de hematies de un varon adulto es de 5,4 miliones pOI milimetro ciibico en sangre venosa periferica, pero se considers «normal» cualquier cantidad comprendida entre .3,8 y 7,0 millonea/rnnr'. Suponiendo que se este interesado en la prababilidad de que el mimero de hematies este dentro de Iimites normales y rambien en la probabilidad de que este pOI encima del valor medio, construir el espacio probabillstico adecuado

Elconjunto de referencia .0. es el conjunto de los numeros reales positivos, puesto que el ruimero de hematies no puede set negative, y no se ha determinado una cota superior POI' hipotesis, nos interesa la probabilidad de los sucesos

A = {x; ),8 < ~ < 1;O}. B={x; x>5,4}

donde x es el numero de hematies en millones/rnm! En virtud de la Definicion 3 1.1, si A 'I B son elementos del algebra de sucesos inciertos, tambien 1o seran A, B y codas las uniones e intersecciones que pueden hacerse can ellos

1---- A ------I

o 1- __ 5..:., _+ __ s';"_--!I-_~S':___'_--=s.!., --+- + co

3,8

5A

7.0

1----8_

El algebra de sucesos puede obtenerse como el conjunto de las partes del conjunto {S" 5" S" S.} donde

SI:= A n .ij = {x; 0 ~ x ~ 3,8} 52 == A n B = {x; 3,8 < x :s; 5,4}

48 BIOESTADISTICA

S3 "" An B "" {x; 5,4 < x :;;;; 7,0} 5. = A n B = {x; x> l,O}

y contendra, POt 10 tanto 2' = 16 elementos Puesto que los conjuntos (51, 5" 5" S,} forman una particidn de 0. = [0, + 00 [, bas tara asignarles probabilidades a estos cuatro; las probabilidades de los dernas se pueden calcular entonees inmediatamente teniendo en cuenta que son disjuntos y que, pOI 10 tanto, en virtud del T eorema 241, 1a probabilidad de la union de dos 0 mas de ellos es 1a suma de sus correspondientes probabilidades En el problema que nos ocupa, los datos acumulados en los bancos de sangre perrniten asegurar que, para un paciente «medic»,

p{5.) = p( 5,) = 0,025 p{ 5,) = p( S,) = 0,475

r odos los demss sucesos del algebra, excepto el conjunto vado, de probabilidad igual a cero, senin uniones de los Si, y sus probabilidades se pueden determiner par, 10. tanto con la formula p( U S;) = 1:p( 5.) En particular,

ptA) = piS, U )3) = p(S,) + pO,) = 0,95 p(B) = piS, U 5.) = p(S,) + p(5.) ~ 0,5

3.2., 1 eoremas basicos

De nuestra definicion de probabilidad, en terrninos del alea correspondiente a un suceso del expcrimento auxiliar igualmente verosfmil, pudimos deducir (Teorema 2.4.1) unas propiedades elementales queperrniten relacionar entre sf las probabilidades de distintos sucesos .. Como' se recordani, el 1'eorema 24 1 nos garantiza que para todo paJ: de sucesos A, H y cualesquiera que sean las condiciones H en que se asignan probabilidades,

P2 O:S;; p(AIH) :s;; 1 y p(HIH) = 1

P2 Si dado H, A n B = <p, entonees peA U BIH) == p(AIH) + p(lllH,l

P3 P{A n BIH) = p(AIH) p(BIA, H)

Debe subrayarse que si se conocen las probabilidades correspondientes a un conjunto de sucesos, las propiedades PI, P2y P3 permiten determinar las probabilidades de todos los sucesos pertenecienres al algebra que engendran

Las propiedades PI, P2 y P3 , que nosoucahemoaobtcnidocomo una consecuencia matematica de nuestra definicion de probabilidad y de los postulados de coherencia, pueden ser propuestas como postulados, para una definicion axiomatica de Ia probabilidad En tal case, tales axiomas 0 postulados suelen ser justificados en tcrminos frecuencialistas, considerando que la PlObabilidad de un suceso debe set un mimero ceicino; a su frecuencia relativa.

MEDIDA DE PROBABILIDAD 49

Para verlo, considerernos Ia frecuencia relativa con que tiene lugar un sueeso A en las condiciones H POl ejemplo, H podtia describir eI lanzamiento de una chincheta al aire yAel suceso de que la chincheta repose finalmente con Ia punta hacia arriba Para un frecuencialista, p(AIH) seria entonces eI rnimcro alrededor del eual oscila eI cociente min, donde m es el mimero de veces que la chincheta queda con la punta hacia aniba y n el mirnero total de lanzamientos Clararnente, una Irecuencia relativa es un numero entre 0 y 1 y, ademas, Ia Irecuencia relativa de un suceso que, necesar iarnente ha de tener lugar es uno: esto explica la primera propiedad, PI

POI otia parte, considerernos dos sucesos A, B rnutuamente excluyentes en las condiciones H Si el suceso A tiene lugar m, veces entre las 1'1, el suceso B mz entre. las n, y ambos sucesos son disjuntos, el suceso A U B tinene lugar m, + m: veces y pot tanto su frecuencia relativa es Ia suma de las frecuencias relativas de A y de B. Esto explica P2

Finalmente, consideremos dos sucesos cualesquiera A y B Si, en las condiciones H, el suceso A tiene lugar m veces de un total den y en r de esas veces tambien sueede B, entonces r I n es la frecuencia relativa de A n B dado H, min la deA en las mismas condiciones 'y r j m la Irecuencia ~elativa de B dados A y H. Pero, uivialmenre, r jn »: (min) (rim); esto explica P3.

Desde un punto de vista matematico, no hay objecion alguns a una definicion axiomatica de la probabilidad Sin embargo, la justificacion de las propiedades PI, P2 y P3 en terminos de frecuencias relatives no autoriza a suponer que estas propicdades petmanezcan validas en terrninos de gtad~~ ,de creencia, ni a justiiicar el usa de probabilidades en un problema de decision .. La importancia del Teorema 2.4 1 radica en demostr at que los grades de creencia, cuya introduccion es necesaria segun vimos para resolver un pI~blema de decision de forma coherente, tienen las mismas propiedades maternaticas que las frecuencias relativas y se comportan por 10 tanto como las probabilidades clasicas

Las propiedades P2 y P3, a las que se Haman respectivarnente leyes aditiva y multiplicatiua de Ia probabilidad, se pueden generalizar sin dificultad a un mimero finito de sucesos por un proceso de induction Asi,

IEOREMA 3 2.1. la.s condiciones H,

Ak JOn lUceSOl mutuamente excluyentes en

k k

P ( ~A"H ) = ~p(AIH)

1=1

La demostracion del I eorerna 321 a partir de 13 propiedad P2 es trivial, Sin embargo, no es posible deducir que este resultado sea valido en el caso infinite, de forma que

50 BIOESTAOisTICA

si {Ai, i = 1, 2, } son sucesos mutuamente excluyenres en las condiciones H, no es

po sible deducir que

p ( U A.IH ) = ! p(A,IH)

• ,,,,1 i=;l

En Ia linea de la mayor parte de los textos de probabilidad, postularemos, sin embargo, que (1) es cierro La razon de este nuevo postulado, llarnado de a-adituntlad, es exclusivarnente de tipo matemritico, y aparecera en el capitulo siguiente

TEOREMA 3 2 2 Para toda coleccion [inlta de lUCem! AI, A2, k

P ( Q AilH ) = p(AdH) p(A2IA1, R)

De nuevo la demostracion es inmediata por induccion a partir de la propiedad P3 Si se acepta elpostulado (1) de o-aditividad, el teorema 322 puede extenderse tambien ill caso infinite

De las propiedades PI, P2 y P3 puede deducirse inmediatamente otras propiedades de [a medida de probabilidad Asi pOI ejemplo

TEOREMA 3..23. Para todo par de ltICelOl A y B, Y para cualesquiera condiciones H,

(i) p(IIlIH) = 0

(ii) Si dado R, A c B, entonces p(AIR) :« p(BIH) (iii) p(nIH) = 1

(iv) p(AIH) = 1 - p(AIH)

Demostraclon

(i) p(oJIIH) = p(oJI U oJIIH) := p(oJIlH) + p(oJIIH) := 2p(IIlIH) en cittud de P2, pero el iinico uumero x, 0";:; x ,,;:; 1, que satisface la ecuacion x := 2x es x := 0

(ii) Puesto que

A n H c B n H, B n H = (A n Ii) U (B nAn H) y A f1 (B n A) := II> (vease figural, entonces, en virtud de P2

pCB n HIH) := ptA n HI H) + pCB n z o HIH)·

1--

,

y puesto que, en virtud de PI, pCB nAn HIH) ;0; 0, P(B n HI H) ;0; ptA n HIH)

n

H

pero

pCB n HIH):= p(HIB, H) := p(BIH)

y, POI tanto,

prBIH) ;0; p(AIH)

(1)

MEDIDA OE PROBABILIDAD 51

(ill) n:::J H n .n = H luego, en vittud de (il) p(nIH) "" P{HiH):= 1 pero como en virtud de Pl, p(nIH) ,,;:; 1, tenemos p(nIH) := 1

(iv) p(A U AIH):= p(nIH):= 1 en virtud de (iii) y ptA U AIH) = p(AIH) + P{AIH), luego prAIH):= I-p(AIH) .

La propiedad P2 se refiere iinicamente a sucesos mutuamente excluyentes en las condiciones R Sin embargo, no es dificil generalizarla a sucesos cualesquieta. En efecto,

TEOREMA .3 2.4. Para todo par de SUce.lOS A y B y para cualesquiera con-

diciones H,

ptA U BjH) = p(AjH) + p(BjH) - peA n BIH)

Dcmostractcn

Como se observa en la figura, A U B = (A n B) U (A n B) U (A n B) y los sucesos A n ii, A n B y A n B son mutuamente excluyentes En consecuencia, en virtud del leorema 32.1, ptA U BiH) = peA n BIH) + peA n BIH) + peA n BIH)

Pero ademds, como A = (A n ih U (A n B) y B := (B n A) U (A n B), .son descomposiciones de A y B en conjuntos disjuntos

p(BIH) := pCB n AI H) + peA n BIH) p(AIH) = P(A n BIH) + ptA n BiH)

EI teorerna es ahora consecuencia de estas relaciones, sustituyendolas en la Ultima ·expresion del parrafo anteriO!.'

El Teorema 32.4 puedc gcneralizarse par inducci6n a un mimero £nito cualquiera de sucesos Asi, para tres sucesos, puede demostrarse que

ptA U B U ClH) = P(AIH) + p(BIH) + p(CiH)

- [pCA n BIH) + pCB n ClH) + PIA n ClH)] + ptA n B n qH)

(2)

Ejemplo 3 . .2 .. 1.. Problema del cumpleaiios

Determinar Ia probabilidad p de que al menos dos personas en un grupo de k elegidas aI azar tengan el mismo cumpleafios, esto es, que hayan nacido el rnismo ilia del mismo mes, pem no necesariamente del. mismo afio

52 BIOESTADfST!CA

Empezaremos determinando la probabilidad de que Ioscumpleafics de IaskpeIsonas sean todos distintos Cualquiera que sesel cumpleafios de ,: Is primers persona, eI de la segunda podra elegirse entre los 364 dias restantes, el de la tercera pcdra elegirse entre ,363&as y as! sucesivamente En consecuencia, la probabilidad de que los k ciimpleafios sean distintos sera (Teorema 322),

364 363 362

365 365 365

k-1 _~

365-k + 1 {' " }

,365' =. '~ (365 -i) /365'-'

Ys POt tanto, la probabilidad pedida, de que al menos dos tengan el mismo compleaii.o~ serd, utilizando el Teorerna 323 (iv), -

'-1

P == 1- { ~' (365 ., i)} /365'-'

Efectuados los cdlculos se obtiene pam distintos valores de k

k p ,k p
10 0,117 25 0,569
20 O,W 40 0,891
23 0,507 60 0,994 De manera <.!ue, , entre 60 personas, es casi seguro que aI menos dos tienen el mismo cumpleafiosr un resiiltadodifkil de anticipar con razonamientos intuitivos

Eli .algunos pi6bl~mas -de probabilidades es necesario" calcular, el rnimero de subconjuntosdistintos dek elementos que puedenescoge~se de un'conjunto dezy sin repetirse ninguno y de forma que dos grupos sean distintos si tienen algun elemento diferente. A este mirnero, que se denomina numero

combinatoric, se Ie represents pot ( ; ) y su valor se obtiene de la expr esion

(nk) :::::_n!~ (n~k)!k!

donde n! (leido factorial de n) se defi.ne como O! 1 y

n-l

n!::::: II (n-i)::::: n(n,-,1) (n-2)

X 2 X 1, n?;: 1

En efecto, losk eleinentospueden escogerse en unorde# deteilrunado deii(n-'-l) (n--k + 1) rnaneras distintas:elptitnerose'pl1edeescogerelltren posiciones, el segundo entre, (n~l)" etc. POl' otraparte.jen virtud de un.tazon,arn.ientoanaIogoi_e:xisten

(3)

MEDIDA DE PROBABiLlD,AD 53

k(k -1) x 2 X 1 formes de otdenar un conjunto de k elementos, En consecuencia,

el mimero de subconjuntos distintos de k elementos sed

12(12-1) (n-k + 1)

k(k-l) X 2 Xl

III

Ejemplo 3..2.,2,

E,quipol de guardia

Determinar el mimero deeguipos degualdia distintos que pueden fQImarse en un servicio con 25 medicos 3 de los cuales deben estar de guardia

El niimero de equipos 'de guardia distintos sera

'(25) __ 25x24X23 -----=2500

3 3X2xl

3 .. 3" Independencia e intej'cambiabilidad

Sabemos, en virtud del Teorema 2Al,que para cualquiei pat de sucesos A y B,

peA n BIH} =p(AIB, H) p(BiH) ::::: p(B/A, H) p(AIH)

Se dice que A y B son independientes en las condiciones H si se verifica que

,p(A n BjH) :::;; p(AIHl p(BjH)

(1)

Esto no es mas que un caso particular de la definicion siguiente.

DEFINICI6N?.) 1 Se dice que los S/.iCelQS {AI, ~, AJ, dientes en las condiciones H si para cualquier lubcoJlj~nto Ai" Ai,) ""'J Ai., se uerijica que

} son indepenfinito de ellos

k

n Ai.lH) =n P(A;IH)

El motivo de 1a definicion de independencia dada pOL 1a ecuacion (1) es sencillo; en rnuchas ocasiones la ocurrencia de B puede no afectar a 1a probabilidad de A en 'Iascondicicnes H, de forillague

p(AIB, 11)= p(AjH) (2)

54 BIOESTAD1STJCA

10 que podemos enunciar diciendo que A es independiente de 13 En esta forma no tenemos una definicion simetrica, en la .que A y B jueguen el mismo papel, pero 51 rnultiplicamos ambos miernbros de la ecuacion (2) pOI p(BIH) y utilizamos el Teorema 2.4.1, obtenemos la ecuacion (1) que es simetrica en A y B.

La extension a mas de dos sucesos exige tenet cuidado. Si decimos que los sucesos de un conjunto son independientes entre sf, esto debe inter pretarse como que la ocurrencia de un mirnero cualquiera de ellos no afecta a la probabilidad de que ocurra cualquier otto, es decir

p(Ai,IAi", Ai" H) = p(Ai,IH)

ecuacion cuya forma simetrica es la Definicion 3 . .3.1, como es Heil de probar

TEOREMA 3.3.1 Si A y B son independientes en las condiciones H, 101 pares A y 13, A y B, A y B son tambien independientes en las mismas condiciones

EI conjunto A puede partirse en conjuntos disjuntos en la forma A = (A n B) U (A n .8) En consecuencia, p(A n BIH) = p(AJH) _. ptA n BIH), y como A y B son independientes,

P(A n BIH) = p(AIH) - p(AIH) P(BIH) = = p(AIHJ [1 - p(BIH)] = p(AIH) p(BIH)

Y por tanto A y il SOn independientes Utilizando este resultado, y cambiando los papeles de A y B, tenemos que los pares A y B yAy B son asimismo independientes

Un caso importante de independencia aparece en las Ilamadas sucesiones de Bernoulli Se dice que una coleccion de sucesos {Ad Forman una sucesion de Bernoulli si 1a probabilidad de que suceda uno cualquiera de eIlos es una constante p independiente de los dernas, esto es si

Los juegos de azar proporcionan numcrosos ejemplos de sucesiones de Bernoulli

Ejemplo 3 . .3 . .1

Ruleta

Una tuleta esta dividida en 37 sectores iguales, 18 de los cuales son rojos, 18 negros y queda uno para la banca. Supongamos que, disponiendo de 15.000 ptas., se juega a la tuleta, a doble 0 nada, hasta ganar LOOO fltas, 0

(3)

(4)

MEDJDA DE PROBABJLlDAD 55

quedarse sin dinero, empezando PO! apostar LOOO (Cual es la probabilidad de ganar las 1000 antes de perderlo todo?

Los sucesos relevantes {A, i = 1, 2, .} forman una sucesion de Bernoulli con Ai = {Se gana Ia apuesra i} y p{A.IH) = 18/37 = Pi Observese que, en virtud de la independencia, es indiferente apostar siempre a .rojo, siernpre a negt?,. 0 ir cru:nbiando en cuaiquier orden Los posibles desarrollos del juego pueden describirse mediante e1

arbol siguiente

+ 1000

La probabilidad de perder las 15.000 antes de ganar las 1 000 es pues (1 - rr = 0,0695, y pOI tanto la de ganar las 1 000 ant,es de perderlo todo 1 - (1 - p)' = 0,9305

E1 ejemplo anterior plantea un caso particular de un .problem:a geneta~ muy frecuente en 1a practice Consideremos una sucesion de Bemoulli {Ai, i = I, 2, .} y supongamos que p(A;IH) = p, y pot -10 tanto p(AdH) = 1 ~ P Consideremos n sucesos cualquiera de la sucesion y tratemos de determinar la probabilidad de que ccurran pn:cisamente k de .e~os, o ~ k ~ n Como todos los sucesos Ai son independientes, la probabilidad de que ocurran k de eilos, y dejen de ocurrir pOI 10 tanto n ~ k, seta .el producto de sus probabilidades respectivas, esto es pk(l -p r-k. Como eXIS-

ten (~) sucesiones ordenadas de este tipo, mutuamente excluyentes (vel Ejemplo 3.2.2) 1a probabilidad buscada es

(5)

Para cada n, los valores de k pueden it de 0 a n ambos inclusive y,

, . .'

56 BIOESTADISTICA

puesto que se tram de sucesos mutuamente excluyentes, ia suma de las n + 1 prooabllidades ootenidas deoera SeI· necesariamenre la unidad, como puede comprobarse utilizando Ia formula del binomio de Newton.

Ejemplo 3.3,2, 'Sexo ae un recien nacido

Consideremos los n proxrmos alumbramientos que tengan lugar en el Hospital Clinico. Determmar Ia probabilidad de que k de ellos den Ingar a nifias,

Los sucesos relevantes ~ A,. ,= r. 2. .., I forman una sucesion de Bernoulli con A, == l.nina.i y A. "" l nino f. Los datos ce .que se dispone permiren asegurar Que, en eondiciones normales H. esto es, en ausencta ce mrormacion Que penmta asegnrar que alguna de ras madres tenga una tendencra dfsnota ' de Ia normal a tenet hijos varones, p(A,iH) "" 0,49.' En consecuencra, la probabilidad pedida es p(k niiiasin partos, Hl =0

ee (; ) 0.40/ X O.51'~

-Sl, por eiemplo, n "" 3 se obrrene

p(k '" olHl 0< 0.1327 p(k = liB) = 0,3823 p(k '" 2jHl ~ 0,}675 p(k = 31Hl ,",0.1175

Esras son tambion las probabilidades ce iaa distintas composiciones de Ia familia de una pareta que decida tener tres hiios, ell. auseacra de zntormacion Que permrta .asegurar una rendencta distinta de Ia normal s tenet hlios de uno u otro sexo,

En una sucesion de Bernoulli, JAi• 1= 1.2 .... 110s sucesos que la cons" trtuven son, par definicion. rndependienzes dado p, de forma que. Sl la probabilidad p(AilHl = p de que suceda uno cualquiera de e110s es conocida, Ia probabilidad de que ocurran r de un conrunto de n en un orden determinado es JI( 1 ~ p),,-r rndependientemenre del orden eiegido. Sin embargo. Sl el valor de p es desconocido, los sucesos A; ya no son mdependientes: en efecto, Ia ocurrencia 0 no ocurrencia de uno de ellos proporciona informacion sobre el valor cormm y desconocido de p V pot 10 tanto mtluye en 1a probabilidad asrgnada a los ciemas. Puede demostrarse no obstante que Ia procabilidad de que ocurran r de un conjunto de n en UIL orden deterrrunado sigue siendo mdependiente del orden .elegido, Diremos entonces que los sucesos { AI, ' = 1. 2 .... ; SOb. mtercamblables. Formalmente

DEF.lNICr6N 3.3.2. Una coieccion {Aj, z = 1, 2 .... } de sucesos son- inter. camblables :;1 para todo subcontunto 'fimto {AI, Al, , .. } A,j}, ta probabiiidaa

MEDIDA DE POSiBILIDAD 57

r de los n en un orden determmado es zndependiente del orden

de que ocurran .. . .

elegido Y dei suscomunso conslderada.

ObVlamente, una sucesion de Bernoulli {A.;, .Z,:::: ,1,2, , .. f con p\AdH\ ;;;; ~ id es una colecd6n de sucesos lUtercamblables, puesto que 1a pr~bab1

conOCl 0 d r( 1 »r: mdependlente·

lidad de que ocurran r de un eomunto e n es p. - • ",

nte del orden elegido s. del conjunto conslderado- En el ejernplo prox:md 0

me ., . B ulli p(A-IH) =: p d.eSCOnOCl o.

coroprobaremos que una. ~uce.sl0n ce ~no CO~ ,

d a coiecclOn de sucesos mtercamblables.

signe sren 0 ,

Ejemp10 .3,3.3.

Apanci6nae tum ores

Una .deterllllfl.llc.ia enferrnedad puede presentarse en .. dos formas, .bernl3,ll,a . li En 111 forma rnaligna , da Lugar a tumor cerebral con probabili~<1:~ r~lenttas que en .. Ia forma' benigna esta ptobabilidad es tan. SOl~. 0,1. S b deroas que Ill. forma benigna es 4 veces m~s probable. que Ia rna igna. S:aSA~ :1 suceso consiste.nte en que aparezca -un tumor en ,la persona' que padece la enferruedad. Demostl·I!,:,·.que los sucesos {'Ai, 1.'= .1; 2 .. ". t son JD-

tercambiables peru no .mdependientes ..

\:) b . M = jj la forma malign a de Ia eotermec1ad. Omitiendo, por

Sea J.J la forma erugna v . . ...

S1Jnpllficar la notlltion. Ias conoiciones generales H. ~abemos q~e

p(A,iB) = 0,1, p(A,IM} = 0.7,

pCB) = 4p(M) = 411 ~ p(J3) ~.~ PCB) = 0.8

" A n B v A, n M son .disiuntos v .. su union' es 4"

.,L uesto que ~ . . ',I

P(A,l = ptA. n Il) + ptA. n MI '"" p(A<lBl pCB) + p(A,IM) /lIM)

en virtud de las Ieves adiriva v multiplicallva (teorema 2.4.11 de la probabllidad; En consecuenCla.

p(AI\ "" 0.1 X 0.8 -+ 0.7 X 0.2 = 0,22

Arullogamente•

peA n Ai) = peA. n A11.B)-p'(BI + peA, n AjIM) p(M) = (0.1)'0,8 + (0.71' 0.2 '" 0.106

Claramente,

piA, n Ai) == 0,106,.. peA,) P(Ai) = 9,22' = 0.0484

. I A·' - r: 2 h'1o san ·mdependientes. Sin ernbargoJa

y en eonsecllenCJ;I. los sucesos .. ' - , ,... . .

;robabilidad de que entre n paorentes apareecan. ~ rumores es .

.. !.

i

·1

. 58 BIOESTADISTICA

p(klni == p(kjn. B) P(B) + p(kln, Ml p(Ml

{(n'- ) {'nl

== . Ie ) OJ' X 0,9"-' S 0,8 + l Ie ./ 0)' X 03"-'

0.2

que es mdependiente del orden en que se presenten, de forma QUe Ios I A, ,,,, 1 2 ... I

son ratercamblebles. ' ,.

3.4, Teoremas de Bayes y de la probabilidad total

......

Como hemos ihistrado en el Ejemplo 3.3,3, Ia forma lTI!lS sencilla de deterrnmar la probabiIidad de un suceso se basa frecuentemente en Ia consideracion de la probabilidad de ese suceso baro un conjunto de condiclOnes rnutuamente ezcluventes. Asi, en e1 ejernplo crtado, las probabilidades de que aparecresen tumores fueron. obtenidas considerando las p.tobabilidades de que apareciesen en las condiciones, rnutuamente excluventes. de que Ia enfermedad fuese benigna 0 que tuese maligna. E! resultado que vamos a demostrar a conunuacidn, conocido como teorerna de ra prObabilidaa tota; y tarnbien Como tercera ley de fa probabilidad, pone de manifiesto La relacion entre Ia probabilidad de un suceso y Ias probabilidades de ese mismo suceso en condiciones mutuamente excluyentes.

TllOREMA 3,4,1. (Teorema de Ia probabilidad toral.) Para todo suceso A c n. condiciones H y connmto de sucesos mutUamente exctuyentes B1, B2, .. ,' Bk tales que n = UBI,

"

p(AIH) == .2; p(AIB;, H) p(BdHl

Demostraci6n

Si B, n B, ""' q. v IJ. ee U B .. , entonces los sucesos del tipo A n B, son disiuntos v A = U 1 A n B .. }. POl' 10 tanto, en virtud de Ia Iev aditiva



p(AIR) = ! ptA n B,!H)

v puesto que, en virtud de I. lev rnultiplicatrva, peA () B,lHl "" p(AIB" H) p(B,jH) tenernos el resultaco buscadc.

El teorema de Ia probabilidad total perrnrte a rnenudo exnresar la Probabilidad del suceso incierto en que cstnmos mteresados en funci6n de otras probabilidades mas sencillas de obtener,

MEDIDA DE PROBABILIDAD 59

Ejemplo 3.4,1.

Premia literano

En un derermmado premio literano, se anuncian los nombres de los tres finalistas A. Bye, pero se reserva el nombre del ganador para mas tarde, El concursante A razona entonces al presentador que puesto que se sabe que, necesarhlmehte. al menos uno de los otros dos B 0 C. tiene que ser eliminado no Ie da ntnguna informacion sobre sus propias posibilidades Sl Ie dice e1 nornbre de uno de los otros dos que haya sido elimmado . .:Es correcta su argumentaci6n?

Sean A. B, C respecnvamente los sucesos consisrenres en que A, B 0 C sea ei ganador: supongarnos que ttl presentador Ie convence ej argumento del concursante A Y Ie confia, sm mennr, que B ha side elimmaco. Si decotsmos b este suceso, nuestro problema se reduce a deterrnmar p(Alb) v comprobar "1 esta nrobabilidad es 0 no es igual a peA). Utilizando el Teorema 3.4.1.

p(b) "" p(bIB) peAl + p(bl.8) p(Bl + p(bIC) PIC) "" p(blAJ peA) + 0 + peel

y en vmud de Ia ley multiplicanva

peA n b) "" p(AlbJ pCb) peA n b) "" P(bIA) peAl

de forma que

p(bIA)

p(Alb} = p(bIA) P{A)/p(b):= ptA)

p(bJA}p(Al + p(G)

por 10 tanto, p(Albl sera igual II peA), como el concursanre A razonsba al presentador si, y solamente 81, p(bJA) == p(bIA) pIA) + pte), esto es SI p(bIA) := p(C)/(l- prAll. Si, como parece reoonable suponer, p( bjA 1 = OS esto es 81 se tuzga que eo el case ce ser A ei ganador eJ presentacor nombrarta a B a a C can ia misma probabilidad, entonces la I11f(lrmad6n b dada per ei presentador sene irrelevsnte para A 81. peAl = 1 - 2p(Ci. Rota sucede SI, y soiamente si, p(lll ee piC), esto es siempre Que se juzgue que B 11 C nenen micialmente ia raisma probabilidad de ganar. En consecuencia, 51 p(bJA) := 0,5, 1. mtormacion dada por e! preseneacor es verdaceramentc irrelevante para A 01 en S!I .D1nnion sus dos ccntrtncantes uenen ia misma probabilidad de alcanzar el prermo V no 10 es en caso contrano.

La reaccicn natura! en cualqutera que tenga que tomar una decision en ambients de mcertidnmbre es tratar de reducirla mcorporando cuanta informacion adicional sobre lOS sucesos mciertos Ie sea. poslble.

La informaclon del decisor sonre un com unto de sucesosmcrertos exnausuvos y muuramente excluyentes Ill, a" "., Ilk se describe, segtin vimos en el Capitulo 2, mediante unas probabilidades p(81IH), p(e,IH), ,." p(~hJH) tales que 0 ~ p(8;!Hl < 1 y I:p(6;]Hl "'" L E1 efecto de la informacion adi-

:~ .

60 BIOESTADISTICA

cional sera el de modificar 0 XEVIsar estas probabilidades. Si se Ilega . a ontener una iaformacion completa, una de estes probabilidades se hara igual a 1 y el resto se haran igual a O. Una mformaci6n ·lncompleta producira cembios rnenos acentuados. Si llamamos X a esta mrormacion adicional, los nuevos valores de las probabilidades asignadas a los sucesos mciertos, despues de haber obtenido Ia informacion X, seran p(e1IX, H), p(6,IX. H), ... , P(6kIX. Hl. EI result ado que vamos a demostrar a continuad6n. conocido como Teorema de Bayes sirve para obtener las probabilidades [lnaies p(6,jX. H) a partir de las probabilidades tntaaies p«();jH) y de Ia relacion que exista entre Ia mtorrnacion obtenida X V los succsos tnciertos B,.

El Teorema de Bayes es en realidad una consecuencia inmediata de 11'1 ley multiplicatrva de Ia probabilidad, cuyo USo.. para determinar Ja,probabi· Iidad de un suceso, dada crerta mformacion adicional.. hemos ilnstrado ya en el Ejemplo .3.4.1.

'IEOREMA ::>.4.2 (Teorerna de Baycs.) Para todo por de sucesos A, B y para cuatesqtnera condiciones H,

PlAIB, Hl :::::: p(B!A. H) p(AIH)/p(BIH)

Demostrackin

En virtud de Ia Iev mclriplicatrva de J~. probabilidad,

peA n BIH) = p(AIHl p{BJA. H)

v tamhien

peA n BIAl = pCBIH) p(AIB. H)

.Igualando arncas ecuaciones v despetando p(AIB. Hl se obnene ei result. do emmciado.

Consecuentemente, en un problema de decision, .Ias probabilidades }inales de los sucesos rnciertcs , 9" 8" .... 8k despues de haber obtenido crerta ~nfotmaci6n adicional X vendran dadas POt

p(6i!X, H) = p(XISr. Hl P(9iIH)/p(XIH), '''''' 1, 2. ''', k (1}

Puesto que la probabilidad p(XIHl que aparece en el segundo mremhrode [1) es cornun a todos los sucesos rncrertos podemos escribir e.l resultado "en forma proporctonai como

donde el simbolo oc . se iee «proporctonai an ; En efectc, a partzr de Ia -ex-

(2)

MEDIDA DE POSIBILlOAD 61

presion (2) siempre pueden obtenerse las probabilidades deseadas puesto que 10$ valores de las p(fJiIX. H) deben sumar uno. Naturalmenre, el valor de Ia constante de proporcionalidad l/p(XIHl puede deductrse directamente puesto que. en virtud del Teorema de 13 probabilidad total,

"

p(xIH) =.L:P(XIB!, Hl p(e<lH)

'~I

(.3)

Ejemplo 3.4.Z. Test ae tubefculina

En una carnpafia de erradicacion de la tuberculosis, se somete al test de Ia tuberculina a los alumnos de todos los centres de Ensefiansa Media. Se sabe que Ia probabilidad de que una persona que nene tuberculosis de lugar a un test positive es 0,98. mientras que Ia probabilidad de que el test· de positrvo en una persona sana es 0,05. Sabiendo que un 1 % de los alumnos a quienes se aplica el test padecen tubercuiosis, determmar Ia probabilidad de que un alumno escogido al azar, padezca tuberculosis en tuncidn del resultado del test de tuberculins.

Sean + y - los posibles resuitauos del test y sea r el suceso de que ei atumno : tenga tuberculosis, Omitiendo por corncdidad de notation Ills condiciones H, sanemos

que p( +IT) "" 0,98 'Y P{ +JTl = 0,05, esto es 'ios porcentajes de e::01' del test son del 2 % en caso positive y del 5 % eo caso negative, v sabemos tambien que piT) = 0,0l, esto es que 13 probabilidad widal de que un ammno tenga tuberculosis es 0,01. Deseamos determmar p(TI+} v p(rl-i. Utilizando (2).

p(TI + ) C(; PI +JT) peTl = 0,98 X 0,01 '" O,fl098 p(TI+) OC Pl+ITl p(T) = 0,05 X 0.99 = 0.0495 0,0593

y puesto 'l.IIC p(Ti+! + p(TI+J = 1.

P(TI +) = 0,0098/0.0593 es 0,165 p(T! +) = 0,0495/0,0593 = 0,835

de torma que 51 ei test da positive ia pronabilidao de tnbercuiasts pasa de 0,01 a 0.165, raultiplicandose par 16,5. Observese sin embargo que, a pesar de ser relatlvamente bares los porcentaies de error del test, es todavla cinco veces mas ptobable. (?835/0,165 "" 5.06) que este sano a que este tubercuioso un ammno a quien na oado POSItiVO el test. La razdn de ello estriba en ia pequefia incidencia (1 % J ce ia enfermedsd.

Analogamente. S1 el test da negatrvo

p(Ti-1 oc p(-IT) P{T) = 0.02 X om = 0.0002 p(rl-) cc p(-IT) p(Tl = 0,95 X 0,99 = 0,9405 0.9407

·H

....

62 BIOESTADISTICA

oe fOXIn' que 51 el test da negatreo Ia probabilidad de que el aiumno tenga tueercoiosis pasa de 0,01 a 0.0002/0.9407 "" 0.000213. dividiendose par 47.

Una consecuencia mmediata del Teorema de Bayes, es la de que no resulta razonable asignar probabilidades nulas a sucesos tnciertos que se cansidetan poco probables. En efecto, sr Ia probabilidad micial de un suceso A es p(AIH) = 0 entonces, en virtue! del Teorema de Bayes, su probabilidad final p(AIR, H) tambien Seta cero cuaiqutera que sea la mformaci6n proporcionada par B. El usa de probabilldades cera 0 uno represents una actitud dogmatica, pocas veces compatible can Ia invesngacion clentifica. As! por ejemplo, en un problema de diagnosis, se podra asignar una probabilidad muy pequefia a enferrnedades que se consideren muv poco probables pero, en general, no serfa razonable asignarles ptobabilidad cera. para cubnr Ia posibiIidad de que 105 datos climcos (0 eventualmente la necropsra) demostraran que Ia rmpresion micial era incorrecta,

Ejemplo 3.4.3, Diagnosis

Un medico duda entre trcs enferrnedades posibles en un paciente, que denotaremos par EI• E2 V Eg• A la VIsta del estado general del enfermo, B, Ie parece In causa mas probable de Ia dolencia. tres veces mas probable que cuajquiera de las OWlS dos. Sin embargo. ordena un amilisis de sangr: v resulta que los resultados X del analisis se asocian rara vez con E[, muy trecuentemente con E2 y a menuda con E., de forma que p(XIEI};::;:; 0.1, p(X!E2) = 0,9 y p(X!E3) = 0.6. ~Cual es Ia probabilidad final de cada una de las enfermedades?'

Claramente, omitlencio par brevedad l~s condiciones H.

I pCB,) = 3p(E,) .p(E,) = )p(E,)

p(E,) + pCB,) + p(E,} = 1

) p(E,) "" 0.6 ==t> p(E,) = 0.2 . p(B,) = 0.2

Por otra parte. en virtue del Teorema de Bayes .

p(E,IX) 0::: p(X!E,) p(E,) = 0,1 X 0,6 =' 0.06 p(E,[X} cc p(XIB1) pCB,) ec 0,9 X 0.2 = {l.1S p(E,IXl oc p(XIE,l p(E,):= 0.6 X 0,2 = 0,12

0.36

y, en consecuencia,

p(E,jX} = 0,06/0,36 = 1/6 p(E,jX) = 0.18/0.36 = 1/2 p(E,IX) = {J,12/0,36 = 1/3

MEDIDA DE PflOBABILIDAD 63

s, por tanto. tras observar los resuitados del analisis Ia enfermedad E. resulta tres veces menos probable que E, como causa de 1. a:tecci6n.

3.5. Amilisis secuencial

Cuando la mformacion. adicional sabre los sucesos rnciertos se obtiene de forma secuencial, el Teorema de Bayes puede ser aplicado sucesivamente utilizando como probahilidades miciales en cada fase las probabilidadea finales de ia fase antenor.

Supongamos por ejcmplo que se desea obtener informacion sabre un derermmado suceso mcierto A, para 10 que se realizan dos expenmentos cuyos resultados son B, y B1• Entonces, segtin ei 'I'eorema de Bayes,

perc. en VIrtue! de La ley mulnplicanva de Ia probabilidad

p(EJ) EM. H) == p(B,IA. Hl p(BzIBI• A. H) p(E), BlIH) = p(B,lm P(B2IBj, H)

(2) (3)

y susutuyendo en (1)

p(AIB), B1, H) "'" p(B2IB), A, Hl p,(BIIA. H) p(AIH),
p(NR['H) p(BtII'J)
p(BM,Br,H) p(AIBl, H1
=
P(BlIBI,H) (4)

puesto que segun el Teorema de Bayes .

(5)

pero la expresion (4) es de nuevo el Teorema de Baves, Incorporando Ia 111- Iormccion Bl una vez conoclda la informacion B,: el contunto iBl, H) nace en r 4) el papel que H nace en (5) V B2 juega en r 4) el papel que B, juega en (5).

Ejemplo 3.5.1. Prueba del aicoboi

En muchos paises existe una ley que relaciona ei derecho a conducir can e1 contenido tie alcohol en ia sangre. Un test rapido, realizado par la polich

. ~.:

j:

64 BIOESTADISTICA

can un aparato portarll. tiene soiamente una probabilidad 0,8 de set correcto entre las personasque la policia controla, esto es, de dar posrtrvo 81 ei contenido de alcohol en la sangre esta par encnna del Iimrte legal y de dar negatrvo en caso contrano, Aquellos conductores a qutenes el test efectuado por Ia policia Ies da posrtrvo son sometidos en la COIDlSaJ:fa: a un test mas nguroso efecruado par un medico. Este segundo test nunca da resultados InCOrrectos can un conductor sobno, pero ria negatrvo en ei 10 % de 105 conduct ores detenidos que habian, de heche, sobrepasado el linute legal, debldo al tiernpo transcurrido ciesde su detencion. Supcniendo ambos tests mdependientes, derermmar Ia probabilidad de que un conductor que ha sobrepasado el lfrnite legal no sea sancionado, en fund6n de la probabilidad .p. de que sea controlado pot Ia ·polida cuando ha bebido, Supontendo que Ia .probabilidad de sex controlado por la policfa es 0,5 cuando se ha bebido mas de 10 . legal y 0,1 en caso contrano, y que el 15 % de los conductores conducen con mas alcohol en la sangre del permitido legalmente, determmar' laprobabilldad de que un conductor naya bebido mas de 10 iegalmente permitido en fund6n de lOS resultados de los tests.

Omitiendo par sencillez de notacicn las condiciones generales H del problema, denotando por B el suceso de que cJ conductor hava oebido mas de 10 permitido, par P" N" p" N, JOS de que el pruner v el segunco test respectivamente den positives 0 negatrvos, y por D el suceso de que el conductor sea detenido por la polida y sometido al prrmer test,

p(ND. zn = 0,8, p(P,ID. Bl = 0,9.

p(P,ID, .8) = 0,2 p(P,ID, B) = °

y p(DIB) = p, La suuaclon puede cescribirsc mediante un iirbol eo Ia forma siguiente

no soncidn

no snncion

no san cion

no scncrori

La probabilidad de que un conductor que be scbrepasado ej limlte legal' sea sancionado es pues p X 0.8 X 0,9 = O,.72p y por tanto Ia de JlO seuo 1 - O.72p. si, POt etemplo,

MEOIOA DE PR08A81L1DAD 65

existe una probabilidad del ;>0 % de ser controlado- por Ia policia cuandc se ha bebido, entonces existe una probabilidad 0,64 de no set sancionaco.

Si sabemos que p(DIB1"" 0,5, p(Dliil "-" 0.1 v p(B) = 0,15. entonces, por Teorema

p(BID) 0:; p(DIEI p(BJ "" 0,5 X 0,15 = 0.075 .. pcBjDJ DC p(Diill p(.ii)~'OJ X 0,85 = 0,085 0.160

de rorrna QlK':1.'(P'lDj = 0.075(0,16 = 0,469 y p(EID) ex: 0,531. De forma analoga, se encuentra p(Bli5}·~o.089.

Aplicando de nuevo e1 Teorema \:i~.B.ayes; .

~. o~w" " ••• , .... ••

. ',p(EiD;,PJl cc p{PdD, Bl p(lllDl = O;8y ,0;469", 0.3752 p(EID. PI) oc P(l',jj5.·:Bl:il{BID)·;;'; 0.2';('0:531 ",;Q,106,2 ..... 0,4814 :' .. ,.,.

de forma que p(BID, P,) "" O,3752/Q,4814 = 0,779 ~.,;.~;(lilb. P,) = Q,22L De totalmenze an;uog!l, se encuentra Que

p(BID, N,) = 0,181 p(BID, I;l,) = 0,819

.", ~ . ,.-,.~.' .

51 el pnmer test da negativo el segundo va no se realiza: SI ei primer test do positivo

tepqI\O~ .• : at'!icaIl>1:Q Ofl.g. ,v~~ .. :W"s, .oJ ,:rewemaL4,~!llaves. ,"',." . ," :.'.:',':.'

"''', 'pCllj:i/P" P,)cip(P,lhP:::B) ptBID, PI} .,p(BID,.:P r, P,) oc p{F.;IP,,'-D,':i)"JI(BID;.P;)

, . l ~ . , :-:.... . !_., ':" .. ,

.. ... .. , ~ ; .

. " ; ~ .

perc corno- !os .testison mdecendientes..' p{P,IPr; D. nB) "" :P[P,iD;' B)' v 'f(P,IP,;' 'D;"B);;

- • • • I ; • ~ ,

= p(P.ID, :Br:<ie' fcrma que'

;=.;,. I··

p(BID,)>,; P1J:oc·O.9· X 0,779 '= 0,70'11

~ '''' .. -

p(iiID.P.".l'.).o:>O <X 0,<:21'=·0,

03011

. : .. ~' ; .

y, po~ :tanto P(BID, PI.' P,) ='1 y p(BID. p" P,) = 0.,,; '"

Analogamente, s, ei segundo test da neganvo,

'.' p{BID/P,;'N,) ocP(N,ID. ':BJ'ji(BID~ P,) = O,Ix 0,77'7 :i 0,Oi19" .'

, .. ,:. .,. . .. ,. _ .. '.. . .. , ...

·-p(BID. r, N,j cc P(N,ID, iiI p(BID, p,) ~l xnzn ,,;,'{),22iO '. , 0,2989

· ~ ...

"66 BIOESTADISTICA

puesto que p(N,I!?, Bl == 1 - p(ND, Bl v aruHogamente p(N,ID, il = 1- p(P,ID, Ii), En consecuencia,

p(BID. Pl, N,) = 0,0779/0,2989 = 0,261 v p(llID, P" N,) =; 0,739

Las resultados obtenidos pueden resunnrse en el stgincnte diagrams que describe lOS cam bios que sutre Ia probabilidad de .J3. esto es Ia probabilidad de que el conductor tenga un contenido de alcohol en Ia sangre mayor del Iegalmente permitido, en funcidn de la: mtormacicn proporcronada por el heche de ser derenido v por los sucestvos tests a que es entonces sometido

o

Ejemplo 3.5.2. Valor de la tntormacion

Una empress farmaceutica se plantea Ia posibiIidad de Ianzar al mercado un nuevo antignpai. Los beneficios que puede obtener dependen de Ia proporclon a de medicos que 10 receran. Un equipo de marketing Ies ofrece Ia realizacidn de una encuesta para reducir Ia incertidumore sabre e. Simplifi-

_ cando el problema, pucde suponerse que La proporcion a de medicos que recetarian el nuevo anttgripal puede set alta (ell, media (e.) a baja (6]/ y que los beneficios que la empresa puede esperar son, respecttvamente, 5, 1 'J -.3 millones de pesetas, La informacion micial de la ernpresa farmaceuttca permrte suponer que pCel) = 0.2, pial) := 0,5, p(B3) = 0,3, La encuesta propuesta puede aconsejar Ia prcduccion (x = 1) a desaconsejaria [x = 0) y las probabilidades de que el resuitado de Ia encuesta sea aconsetar Ia producdon, en fund6n de e. son p(x;::;1191)=O,9, p[x=1191)=O,5 y p\x=111);)=O,2, Supornendo Ia utilidad proporcional al dinero, deterrninar el precio maximo que debe pagarse POt Ia encuesta,

Si denoramos por a. JA decision de encargar ja encuesta, PO! a; I. de producir ej nuevo -anngnpai v por c el coste de Ja encuestacIa srtuacicn puedeser descnra mediante ei arhol de Ia figura, Asf, 51 se acepta 1l; encuesta, vesta produce un resultado positivo (x,= 1), pueden ganarse 5-c, J.~C 0 -3-c millones, can probabilidades p(e"" "" 1), p(e,lx = 1) v p(e,lx == 1) respecnvamente. Estas probahilidaces pueden calcuIarse mediante el Teorema de Baves, En efecto,

MEDIDA DE PflOBAB1LlDAD 67 p(e'l:< = 1) oc PIx = lie,) p(a,) = 0,9 X 0,2 == 0,18

p(e.l.>: = 1) cc P(X = lie,) pre,) "" 0,5 X 0,5 = 0,25

p(e,lx = 11 ex: PIx = lie,) pee,) = 0,2 X 0,3 == 0,06

0,49 = pix = 1)

5-c

1 - c

-3-c

CJji

-c

5-c

1 -c

-3 -c

Op

-c

-3

o

y, por tanto.

P(Olix = 1) = 0,367 p(e,lx = 1) ec 0,510 p(i9,x = 1) = 0.123

68 810ESl'AD1STICA

de forma que Ia utllidact eSl'erada de prodnclr (d,l C\1il.tl<lO 01 resurtadc 'de Ia encuesta 10 accnseta (x = 1) es

.u"'(d,l" = 1J = 0.,67.,(5-0] + 0,510 (1~c'l + 0.1;2.3 (-3-Ci = 1,976-c

Obviamente. ia utilidad esperaca de no product (d.) =do el resullado de Ia encuesta

es x =.l. es

u"(dJx = 1) =-c

En consecuencra, 51··e1 resultado de 13 encuesta es x = 1. debe tomarse

ilid d erada de ' 976 - c millones.

de producir, 'I se tienc una ut 1 a esp .,

S"I;"'e!'" r"Sultado. de Ia encuesea es x '"' 0, renemos que

An"logamente u

.. 'p(et1~" == "ci;.ci: Plx '" ole,)' pee;) = 0.1 x 0.2 = 0.02 p(a,lx = OJ DC PIx = OIG,) .. 'p(9;)= 0.5 x 0.5 = 0.25 p(9,lx = 0) cc Plx ",,()r~l) pCB,) ='0)1 x Q,J = 0,24

0,51 = P\X = 0)

13 decision

v por tanto

de torma que Ja utilidlid.esperada de ptodUClI (dp) cuando ef .resujtado de 10 encuesta 10 oesaconseia (x ,d··OJ·es < .

. u*l,;/plx.,...,.O) .. :::: .. Q.,0311 (5-cl ~,0,490 (l-C) + 0,471 1-3 -c)=:"'- O,728-c

., d I ) -Pnr 10 tanto 51 el ~esultndo de la encuesta es

~u: ~: l~:~~~si~~e 6~~'j~~ Xe:= n~ ;od!J~;r. cP;Jo que ~e h.bra perdido Ia cantidad c, que

coste In encuesta.

cd CIt es, '·en· vtrtud POt otra parte, 1. probabilidad: de que 1. encuesta aconseje pr u ,

del teorema de ia probabllldaci total.

p(x = 1) = P(X = 119,) pIG,) + p(x '" 119,) p(9,} + P(x = llll,>. .pia,)

ha

sid 0 caic!Jiada, Obteniendose 1J(x = 1) '= 0.49.

Analog.mente

Esta sum. va PIX = 0) =.:0,51. ..

En consecuencza, .. I,\. lltilii4~ espera(\a 81 sc encarga 13 encuesta es

u~(d,) ;:: rI~.(d,lx ;=; 1) P\X"" I} + "U*fi;l,ii = 0) PIx = 0) = (1,976-c) X 0.49 -c X 0:51 ~ 0,968-c

Finatmente. 51 no se encarga Ia encuesre. Ia utilidad esperaaa de producir es, utilizanoo las probabilidades In,i:_i .. ales,

u*(d,) "" 0,2 X 5 + 0.5 X 1 + 0,3 X (-)) "" 0,6

mientras .ta de no prcducir es ooviamente <,.eyo. En conseeuencl~' ~~tldeci:ion optuna 51 no se encarga)',enGuesta es producir, <on utilldad esperada ce O. rnr one.

MEDIDA DE PROBABIUDAD 69

La encuesta debe encargerse sr, Y solarnente si, u""(d,) > u*(d,) esto es si 0,968-< > 0,6 v por tanto c < 0,36(l. As! pues el preclO· miixlmo Que debe .. pagarse .por 13 encnesta es 368,000 pesetas. Si el precro c de Ia encuesta es mfencr a 368.000 ptas., Ia estrategta fsucesi6n de decislones I optima es encargarla, y actuar segun su resurtado, esto .es pro" dUClendo sr Ia encuesta 10 aconseia v no procucienoo -en caso contrano .. con 10 que se trene una utilidad esperada de 0.968 - C millones ce pesetas. st. el precro c de ia ell" cuesta es superior a .368.000 pesetas, la estrategia 6ptlma es no encargar.a y pasar a pro" dum eJ anngnpel, con una utilidad esperada de 0,6 mlllones de pesetas.

3.6. ASignaciOn de probabflldades

En ei capitulo segundo na sido establecida -la . necesidad axiomanca de cuantificar mediante probabilidades nuestra Informacion inicrat sobre la relatrva vcrosrmilirud de los sucesos mctertos que pueden afectar a las consecuenciaside las decrsiones, Se advrrtio entonces que. aunque se 'daba 'una definicion consrructrea de Ia .probabilidad, este no era necesanamente ei rnetor metoda de asrgnar probabilldsdes. En -esra secclon nos ocuparemos de tlesarrollar algunos metodos alternatives.

Las probabilidades refleian la informaci6n del decisor, Si esta mforrnad6n se basa esencralrnente en resultados muestrales previos, entonces es razonable suponer que las probsbilidades asignadas seran proximas II las Ire .. cuencras relanvas, Si se basa en la percepcion de determinadas simetrfas. podemos esperar una relacion con Ia definicion clasica de probabilidad, Sin embargo, todas las probabllidades son subjetivas 'I, en general, la Informacion anterior (que algunos Ilamarfan «obietrva») se combinara con otto tipo de mformaclon, muy relcvanre, pero dificilmente expresable en ternnnos de .srrnetrfas a de frecuenciae reiatrvas. Asi, Ia probab.illdad que un crnuano asigna al e:g:lto de una operacion dependent en parte de ia frecuencia .relativa con que In operad6n en cuestion ha renido extto en artuaciones «similares»: pero es obvio que Ia doclaracicn de «similaridad» entre determinados pactentes es un juicio subienvo del crrujano y que, ademas, la probabilidad que asigne dependeni asrmrsmo, y rnuy notablemente, de la impreslon que nene el crruiano soore el caso parttcuiar que presents el pacienre que va a operar, El C1" rujano debera ccordinar ambos npos de mformaci6n para asrgnar de forma razonable Ia probabilidad que necesita.

Existen rnucnas tecnicas disefiadas para especiticar probabilidades. En general. se oasan en pedir al decisor que eliia entre una sene de opciones alter" nanvas disefiadas de forma que las probabilidades buscacas pueoan deducirse de sus respuestas,

Supongamos, por ejernplo, que desearnos obtener la probabilidad p(AjH). que, en las condiciones H. el decisor asrgna al suceso A.· Una. forma de bacerlo consiste en pedir al decisor que, en las condiciones H, eliia entre

.,..-

70 BIOESTADISTICA

(i} quedarse como estaba (status quo)

(ii) recibir X 51 sucede A 0 recibir Y encaso contrario.

Modificando convenienteroente X e Y obtendremos un par de valores Xo y Yo tales que (i) y (ill resultan rgualmentc deseahles pata el dectsor. En tal case, si representamos par S la siruacion de status quo tendremos, en vlrtud de los pnncipios de coherencia

S ...., {XIA, YI-.41

u( S) = u(X) p(A!H) + u(Yl ll- p{AIR)}

p(A!Hl __ u_(S_) _u_(Y_\ _

- u(X)-u{Y)

Un caso particular muv irecuente es que X e Y sean respectrvamente un beneiiao v una perdido monetanos. Si las cantidades mvorucradas son suficientemente pequefias para que la utilidad pueda considerarse proporctonai al dinero. teadremos u(S) = O, u(Xl == aX v (t(Y) = - aY, claude (I es una constante de proporcionalideo. Consecuentemente. (2) se reduce a

o +aY Y

PlAIR) ::::: :=:: --~

aX + aY X + y

que resulta, de hecho, independiente de ia constante de proporcionalidad a elegida.

Si el decisor fuese perfectamente coherente, 18 probabilidad obtenida con otros pares (Xi, Yi) que sansfagan ia condiccion (1) deberia ser lao misma, En general. no 10 sed, pero la media de los valores obtenidos sera una estrmacion razonable de Ia ptobabilidad que el decisor asigna al suceso A en las condiciones H.

Ejemplo 3.6.1. Prondsttco de un partido

Una persona encuentra justa una apuesta segun Ia cual recibe 600 ptas.

Sl un deterrmnado partido 10 gana el equrpo local v debe pagar 1.000 el caso contrario, y una segunda apuesta segun la cual recibe 1.200 en caso de empate v debe pagar 400 sr el empate no se produce. Snponiendo Ia utilidad propercronai 81 dinero. deducir Ia probabilidad que tal persona debe asignar, 81 es coherente, a una victoria del equipo visitanre.

Si L represents una victoria iocei, X un empate V V una victoria del eqtnpo visltante, tenemos que

(1)

(2)

(3)

MEDIDA DE POSIBILIDAD 71 status qUO ~ f 6001L. ~ 1.000lX u V)

status gutJ ~ 11.20()IX. ~ 400lL U V)

y )lor Io tanto

O = 600 p(L) ~ 1.000 ll- p(L)).....,. p(LJ = 0.625 0= 1.200 p(Xl- 40011- p(X)} ...... p(X\ "'" 0.250

de rorma que

p(V\ = I - p[Ll - p(Xl = 0.125

Otra forma de obtener probabilidades que describan la mformaci6n de que dispone una persona que ya conoce el concepto ce probabilidad es, POt supuesto, preguntarselas directamente. En tal case, puede ser convemente proporcionar a esta persona un estlmuio que Ie rmpulse a realizer un analisrs cuidadoso de fa mforrnacion de que rea/mente dispone: este estimulo suele conslst~r. en un premio cuyo valor esperado, para ia persona que asigna las probabilidades, sea maximo cuando describe exactamente la mformacion que posee.

Supongamos, pOt ejemplc, que. en las condiciones H, se trata de asisnar probabilidades (pl, P1, . ", PI,) a los sucesos rnciertos mutuarnente excluyentes (6),9.2, ... , Ski, de forma que 0::;;;; Pi';;:; 1 v Zp; = L Llamaremos 8" al suceso incierto que finalmentc tuvo lugar. Nos proponemos determmar una funci6n ae pago u, de forma qlle u{ (p" p" __ ., Pk), S'} determine el trremto obtenldo pot Ia persona que aSlgn6 las probabilidades, una vez observado el suceso W que ha tenido finalmente lugar (.,).

Obviameme. Ia Iuncion de pago u debe set oefinida de rcrma que

(i) estimule a meiorar la tntormacion, exigrendo que el premio obtenido sea una funcion creciente de Ia prcbabilidad p* asignada a1 suceso e* que Iinalmeme tnvo Iugar.

(ii) esurnnle a dectr ta verdad. exigiendo que el premia esperado sea maximo cuando Ia distribucion expresada describa iielmente Ia informacion de que se dispone.

Good (1971) ha puesto de manifiesto que todas las funciones de Ia familia

U{(Pl, ...• Pk), 8*} = _A __ [{p*/(Lp'7)l/a1-"'-' -lJ + B

tX~ 1 ..

(4)

con IX > L, A > 0 V B arbitrana verifican tales condiciones.

(*\ Esta. fund6n de page es un ejemplo sofisncaco de Iunci6n de utilidad, En Ia Seccion 7.3 se descdben aigunos procedinuentos que racilitan Ia especificacion de utilidades,

72 BiOESTADISTICA

En etecto, (4) es obviamente una runcidn creciente de p", 1<1 probabilidad aszgnada ai suceso cue finalrncnte tuvo Iugar,

Adem.s, denvando parcialmente respecto a ias P" zgualando a cero V resolviendo el correspondlente sistema de ecuaciones so comprueba que el valor esperado del premic, esto es

.es maximo S1, V sclamente si..», = p(9;jH), .donde las p(a.[J;l) represenran las uerdaaeras oprrucnes del derrsor.

Ejcmplo 3 .. 6,2 Calificaci6n de exdmenes .

Para obtener la maxima informacion posible de una .pregunta con respuesta multiple debe exrgirse 'que se asrgne unadistribucicn de probabilidad 'sobre . las pesililes-rcspuestas 'q1iei:lescdba Ios conocrmrenros del alumno, en -Iugar-de Iimitarse 'apedir que se sefiale larespuesta que parece mas apropia~a"'AsUi;i 'la pregunta tlenek ·tespuestas propuestas e;; , ... ' 6k' de' las que' se ·sabe"que·uba • .y solamente-una, es correcta, .el alumno 'debe asignar probabilidildes Pi = 'p(S;!H), -donde H'sansus conocimientos,' tales queG :;;; Pi :;;;' 1 V :Ep, = 1.

Para calificar tales corirestacroneabasta, dcacuerdo con la ecuscion (4), con aSlgnar

A ~' ..

-- [(p'! p':'ll/o f~-' -1J + B

ox -1 '

puntos, don'de Pi = p(0ilHl y p" = pW{S), a una pregunta cuya contestsci6n correcta era 9* Las constantes A, B y (f. sirven para elegir La escala de la pun tuaci6n.

Naturalmente, se ohtendra una puntuaci6n maxrma 81 se asigna probabiIidad uno. ala respuesta correcta \y por 10 tanto-cere a las demasj y miruma SI se asigna prooabilidad uno a una respuesta rncorrecta (afirmando por 10 tanto. de forma categonca, un error). Se pretende determinar las constantes A. B y (f. deforma-que, con' Ie respuestas propuestas

.,: (i).:, .se .obtengan M.puntos .pot una respuesta correcra.Iinformacirir: per.. Iecta) .. t

':\ ..

.. ~

"" .. '

(5)

MEDIDA DE P.ROBABILIDAD 73

(ii) seobtengan mo puntas con una distribucion uniforme (11k, ,,,, l1k1 (informacion nula I-

f iii) se pierdan m puntos pot Ia afinnacion ca tegorica de un error (falsa informacioni.

El valor de (51 cuando p" = 1 \y por tanto el testa de ias Pi son ceto i es simpremente B. En consecuencra, (i) unplica B '" M.

El vaicr de (51 cuando existe. una PI == 1 disnnta de 1>" \y por 10 tanto las demas probabilldades son nuias) cs B - A/((l: -1l. En consecuencia, (liil rmplica que A = 111:-11 [ivl4-,ml.-

Finalmente, el valor de (5) cuando todas las probabilidades valen 1/ k es

A

--- {k"- .. J! .. -1 f + B 0:-1

V por 10 tanto (in rmplica que

(M -I- m)'{k".-a.Jf"-_l f + M == m«

esto es,

C 'l' m + m, 11

0: = log(k)/ i1og(kl -I- log --- I (

.... ,M+m))

Si. en partlcu]ar,M == 2. m = 1, me = 0,25 v k "" 4 result. A = 5.141. B = 2 v a. = 2.714 con 10 que.Ia calificacion <"Ie una cuestion en-estas condiciones. vrene dada par

3 [{p"I!:P'C}'/"J - "t" con a;'", 2,714 danae »" es Ia prooabilidad asignada a ia resnuesta correcta.

La tabla de Ia pagina sigurente proporcrona algunos valores numericos de Is expresian (6) para disnntas .asignacrones de probabilidad sunoniendo, sm perdida de generalidad, que Ia respuesta correcta era In pnmera, Observando (6); results obvio que Una perrnutacion de ias probabilidades asrgnadas a Ias respuestas rncorrecras no alters Is puntuacion obrenida,

(61

CD1l'IO querfamos, 1. .puntuacidn oscila de 2 a-I, decrece con za probabilidad asignada a Ia respuesta verdacera, y es 0,25 cuando no se sabe mosrrar preterencta alguns entre' las cuatro-respuestas posible s. Puede observarse 'adem"s que, para un nnsmo valor de P_la l:>untuaci6n es Iigeramenre mos' alta -cuando et rcsto de Ia .unldad. de prcbabilidad se distribuye de forma equilibrada entre las respuesras equrvocadas: ·esto resulta, raaonable cuando se piensa que ~~!gnl\r una prooabilidad .alta: a una respuesta eqruvccada .es rnosrrarse convencido de un error. 'Fineunente, es oovio a Ia vista de' (6) que Sl se asigna probabilidad cere a Ja respuesta correcta Ia puntuacion es -,I, cuaiesquiera que sean 'las demas probabilidanes asignadas,

3.7. Dtscusion y -referenclas

Las.' pnncipales propredades .matematicas .de ia .probabilidad sevconocen, hace . sigios, pew .no .fueron rigurosamente. establecidas ·hasta' que'. Kolmogo-

74 BIOESTADlsTICk
n. = n" p, 1JJ ». u
1.00 0,00 0,00 0,00 2,000
0,90 0,10 0,00 0,00 1,995
0,80 0,10 0,10 0,00 1,987
0.80 0,20 0,00 0,00 1J57
0,70 0,10 0.10 0.10 1,971
0,70 020 0,10 0,00 1,929
0,70 0,30 0,00 0,00 1,82<1
0,60 0.20 0.10 0,10 1.881
k"i' 0,60 0.20 0,20 0,00 1,822
{),GO 0,30 0,10 0,00 1,731
'il'f" 0,60 0,40 0,00 0,00 1,502
F"~' 0,50 0,20 0.20 0,11} 1.704
j:.': 0,50 0,30 0,20 O,{)O 1,502
."W·l:~
:. ,~, ; !~~ • 0,50 0,40 0,10 0,00 1~267
~;l~~f~~ 0,50 0,50 0,00 0,00 0,9.36
/01'::: 0040 0,20 0,20 0,20 1J65
}~::j 0.40 0,30 0,20 O~lO 1,200
0.40 {lAO 0,10 0.10 0,909
0.40 0,50 0.10 0,00 0,546
;;;mJ' 0.40 0,60 0,00 0,00 0,249
'!~!!" O,}O .0,30 0,20 0,20 0.615
0,30 0,30 0,30 0,10 0.483
iN! 0,30 DAD 0,20 0.10 0.344
j:.itl 0,30 0,40 0,30 0,00 0,215
O,}O 0,50 0,20 0,00 0,042
, 0,30 0,50 0,10 0,10 0,072
0,30 0,60 0,10 D,OO -0,167
0,25 0,25 0,2.5 . 0,25 0,.2.50
.~ 0,20 0.30 0,30 0,20 -0.194
0,.20 0,80 0.00 0,00 -0,725
0,10 0,30 0,30 0,,0 -0,774
);'·;1·,-· 0.10 0.90 0,00 0,00 -0,931
l~:l~{. , 0,00 0.40 0,30 0,30 -1.000
i·:.I'.i_. 0,00 1,00 0,00 0,00 -1,000
IJii'
I{ I.' (1933) propuso definzcion axromatica basada las propiedades de
~:~k rov una en
las Irecuencias relatives que consider a a la probabilidad como un caso pat-
";1';..' medida fimta que ei total mide Ia unidad, El .necho
II'.' trcuiar . ete en espacio
n~: notable de que lOS grades de creencia se comport en de acuerdo can las mrs-
mas Ieyes que las frecuencias reianvas (Teorema 2.4.1) da Iugar a una teoria
unificada de Ia probabllidad, mdependiente de 1a interpretacion que se Ie
attibuva. La mavor parte de los textos de teorIa de ia ptobabilidad adoptan Ia definicion axromdzica de prooabilidad de Koimogorov, basada en probabilidades «absolutas», a Ia que afiaden una defimci6n 'de probaoilidad condicionada. Puesto que todas las probabilidaues son condinonadas r aunque a rnenudo se orrntan las condiciones para abrevtarIa notacion) pazece mas oportuno desarrollar la teorla de Ia probabilidad parnendo directamente de las propiedades

MEDIDA DE PROBABlliDAD 75

de las probabilidades condicionadas. Estas propiedades (las del Teorema 2.4,1) .. ' tueron tomadas por Renvi [1962/1966) como base de su definicion axiornatica. El texto de Lindley (1965) se basa en esta nnsma defimci6n.

Las libros de Feller [1957/1966) y Cnedenko (1962) se ocupan de ias propledades matematicas de Ia probabilidad a un nrvel relatrvamente elemental. Con respecto a Ia rnterpretacion de Ia probabilidad, son importantes los trabajos contenidos en Kvburg & Smokler (1964) v las de Laplace (18121 1912), Keynes (1921), Jeffreys (1939/1967), Rerchenoach [1969), Braithwarte 095.3), Catnap tl950), GOOd (1950), De Finetti (1970/1975) v Fine (1973).

No nos hemos ocnpado apenas del lado combinatorto de Ia prebabilidad cuvas aplicacrones se centran casi exclusrvamente en los juegos de azar, Casi rodos los textos de probabilidad incluven una discusi6n elemental de cornbi. natona: puede consultarse , par ejemplo, Feller (1957/1968) 0 a un mvel mas elemental DeGroot (1975). Los libros de Whitworth (1901) y David & Barton (1962) tratan estos problemas de rorma rnonogrefica,

EI postulado de c-adirrvidad es aceptado de forma casr unrversal debido a Ia simpliticacicn matemanca a que, segrin veremos, da rngar. DeGroot (1970) da un razonamiento sabre su plausibilidad, Una notable excepd6n es De Pinettr (1970/1975) quren desarrolla su Teena ae ta Probabllidad sm utilizarlo.

En nuestro tratamiento del Teorema de Baves, hemos subrayado su utrlizaci6n sistematica para mcorporar mrormacion adicional, Esta es una caractenstica especffica de la escuela Bayestana de inferencia dentro de cuvos pxesupuestos esta escnto este libro. Conviene suhrayar sin embargo, que el Teorerna de Bayes, como tal Teorema, es un resultado maternatico que se deduce rndiscutiblemente de las propiedades de Ia medida de probabilidad: es la interpreracion de las probabilidades como grades de creencia, y no el contentdo formal del Teorema de Bayes 10 que se haya surero a controversia.

Exrste una rmportante bibliografia sabre el terna de la asrgnacion de probabilidades , La referencia clave es Savage (1971); des trabaios recientes sohre este terna son los de Murphy & Winkler (19751 y Spetzier & Stael von Holstein (l975}, Son rrnportantes las cornentarros de Lindley (1978) sobre Ia conveniencra de «extender 1:3: conversacions y esnmar vanas probabilidades relacionadas entre sf pot las Ieves de Ia probabilidao como, pot eiemplo, peA), pCB), p(AjB} y ptAji3) que deben curnplir ptA) c=: p{AIBl pCB) + p(Aj13 I {1- pCB)}; en efecto, esto permrte veriiicar Ia coherencia del decrsor v rnejorar ia precision de sus esumaciones. La idea ha sido recogida en Bernardo & Basulzo (1978),

78 BIOESTADISTICA

PROBLEMAS

1. A las elecciones para Ia alcaldia de una cmdad se presentan ulllcamente tres con" didatos A. B v C. Si se Tuzga Que peA) '" p(Bl = 0,4. construir el espacro prcbabiIistico relevante a -un problema de decision cuvas consecuencias dependen del' candidato eiegido.

2. Se sane que et 1 % de los rndividuos de una poblacion son daltdnicos. -Deterrnmar el tamano'mlnrmo " de una muestra de esa poblaci6n para que Ia .probabilidad de 'que contenga ai menos un daltonico sea como mfrnmo 0,95.

3. Deterrmnar 1. prooabilidad de obrener 8 uno. en 10 Ianzamrentos de dado.' Repetrr el problema supomendc que se aslgna probabiIidad 1/4 It que el dado est'; cargado de forma que las probabilidades de' obtener L 2< 3, 4. :5 0 6 sean respectivamente

1/5, ,1/6,1/6, 1/6, 1/6, 2/15. > •• '

4. Una parera ha tenido- tres hiios. varones consecutivamente. Se ovc a, menudo argumen tar que es mis probable Q1,l" el cuarto nacimiento.esea e1 de. .una. nina puesto que; se -sabe que. aproximadamente, hay eJ mismo nurnero de nacrmientos ce cada

sexo. -Comentar 10 falacia ad' argumento. . ','.' . .;,t. _

5 .. 'Sesabe Que entre las 120 esmdlantes de una residenCla';i!~'ay, 60 que estudian zyIedi· . cma, 50 cue estudian FaxmacJa'y 20 que cursan ambCi~ .estudios SllIlulilineariiente.

Determmar Ia' .probabilidadde -oue uno de ellcs, escogido "ai azar, estudleMediclna "0 Farmaeia v.Ia de .que no esiudie ambas srmultancamentc. Calcular. ademas. [a pro-: babilid.d de que estudle Medicina un alumno del que va se sabe que esmdia ,.Farmacw ..

6. Tenemos tres caias ue-rnvectables: la, cats A contiene :10 unidades. de los cuales '4 .estan alteradas: ia::cal.,ll, ,6'con una alteradayIa cai~ :C, 8 con tres alteranas.rSl : escogemcs una .. ca)a al azar, ,;I exrraemos un mvectable alteradc. eCli'll .es :Ja probabi",.' lidad deque' tar lnvectable pertenecrese a I. caja B?

1 •.. Se dice que en las' condiciones H Ia ocurrencta de' B' favorece ''j~ de A' 31 p(AIB. H) > p(AIH), Supongamos-vque, en las mrsmas -condicrones, '1a ocurrencia de A favorece Ia de B v Ia ocurrencza de B favorece la .de C. lEa cierto entonces que la ocurrencra de A tavorece 'Ia 'de C? Dernostrarlo err caso afirmanvo 0 dar un contraeiemplo "en cesc.negatrvo.

8,,' , UlJ medico cree que StI pacrente ttene una de tres enfermedaces A, B,: C (cada una de Ias cuaies es rncornpatible con las otras dos) cuvas prooabilidaces son.j.respec-. trcamente, .

. Las zres entermedades exigen una' intervencion qum.jng'iCa para au curacion, La' probabilidae, de ell')to -de piCha mtervencion depende de 'la'. .enfermedad del pacrente, V S1) estrmacidn nor el medico. es fa sigurente: :

p(EXzloiAI '" 0,5 p(ExitO]B) = O,S p(:BxtfoIC) = 0.7

~CusI es Ia probabilidad de extto pam Ia mtervencion qumirgica? cY Ia de fracaso?

MEDIDA DE PROBABILIDAD 77

9. Un test medico dlscfiado para la diagnosis de una enterrneoad detects dicha enterrneuad en el 90 % de las pacientes que ra padecen v que son sometidos OJ mrsmo, pero da tamhien positive en eJ 2 % de personas que Sin padecerla son sometidos at test. Sin embargo. at pasar eJ test a una poblaci6n deterrmnada, 01 porcentale de contestaciones naca menos Que positivas del test correspondientes a personas no afectadas por III enfermedad es del :;0 %. Expllcar este heche en runcion de Ia proporckin de persona. no atectadas par 1. enrerrnedad eo 13 poblackin estudiada,

10. Un paciente que pien sa que puede tener cancer consulta . a un medico A, del que sabe que diagnosnca canre;: umcamente al '60 % de los que 10 nenen V nunca a los que no Io tienen, El medico A no Ie diagnostica cancer pero, para estar mas seguro, consult. a otro medico B del que sabe que diagnosnca cancer al 80 % de los que 10 nenen V al 10 % de los que no ]0 trenen. (Que prcbabilidad mieial de tener cancer debe tenet el pacrente para que Ia probabilidad final, despues de que rn A ill B Ie hayan diagnosncaco Clineer sea todavla D,5? lY para que sea O,l?

/

Capitulo 4

Cantidades aleatorias

En este capitula, se introduce el concepto -de cantidaa aleatona para pocer tradueir el espacio probabllisnco relevante 11 un contexte nurnerico mas ficilmente mampulable,

Se define Ia rancion ae distribution de una cantldad aleatorta, poniendo de manifiesto que contiene toda Ia mforrnacion que puede necesrtarse sobre ella, Se distingue entre cantidades aleatcnas diseretas V connnuas, ,. se rntroducen las densidades de probabilidad, msrsnendo en su interpretacion mtuitiva. Se esrudia el concepro de tunci6n ae una cantidad areerona

Se definen V estudian los mementos de una distrlbuclon de pro· babilidad, poruenno de mariifiesto la torma en que permlten una desnlpd6n aproximada de la disrribucion. Se mtroducen las tunctones generatrtces subravanco su doble utilidad para identificar una distrrbucion ypara obtener SIJ.S mementos.

Se mtroducen los ueciores ateaiorios 0 cantidaaes aleatorias rnultidimensrcnales, se. definen las ccrrespondientes distribuciones marginales V condicionales, v se estudian las tunctones 'de vectores aieatones,

Resulra conver rente poder representar de forma numerics el espacio probabilistico que describe una dererrnmada srtuacion mcierta. Utllizaremos para ello una tuncion que asocie un numero real a ceda uno de los elementos del eonjunto de referencta, A esta funcion se Ie suele llamar variable ateatorta, algo rnaudito tratandose de una funcion. De Finetti propuso llama~le cantidaa aieatona. sugerencra que nosorros hernos aceptado.

80 BIOESTADISTICA

4.l.. Cantrdad aleatoria Y funcion de distribuci6n

En algunas sttuacrones, los sucesos inciertos retevantes en un problema de decision pueden expresarse directamente en forma numerica; asl, por ejemplo , aunque el estaco de salud de un paciente es dWell de medir directs'mente podemos cuantificar distrnras caracteristrcas suyas: temperatura, presi6n sanguinea, cantidad de hematies en Ia sangte, etc.

En otras srtuacrones. Sill embargo. los sucesos incrertos relevantes no son de tipo nurnerico: asi, los de etas de un tratamrento hormonal dependen de que el· paciente sea hombre 0 muter y la mcidencia de una enfermedad depe!}. de de Ia region geografica considerada; sm embargo, con obi eta de poder trabajar siempre en terrnmos numericos- se procura, en estes cases, aszgnar 'un numero a cada uno de los posibles sucesos mciertos .. AsL podriarnos asignar er nurnero 0 a los hombres y el 1 a las muieres, Y podriamos asrgnar a cada region geognifica su extension, su altura maxima, 0 simplemente su niimero por orden alfabericc. Una cantidad aieatorta es Lilla fund6n que asigna un numero a cada suceso incierto. Mas forrnalmente,

DEFXNICION 4.1.1. Dado un espaao prooabilistzco (n., )";. P), una cantidad aleatorra es una funci6n que asocza un nzimero rea a cada eiemento de D._

En realidad •. no todas las fnncmnes srrven como cantidades aleatorras, En erecro, 10$ sucesos en que cstarnos tnteresados en Ia recta rear son los mtervalos a sus combinacrones. Queremos, PU<:$, defirnr In runcion de forma Que Ia imagen mversa de cualquier intervalo real Sea un suceso perteneciente al algebra de sucesos mteresantes, can obieto de "poder determmar SU probabilidad. Se dice entonces que Ia funci6n considcrade es medible. Una cantldad aieatoria debe set una runcidn medible: tcdas las funciones que se utilizan en este libra 10 SOn.

Naturalmente, unos valores de Ia cantidad aleatoria resultaran mas probables que otros porque corresponden a sucesos mas pro bables, Asi, dado un cspacio probabilistico m. ~. PI), Ia medida de probabilidad p, definida sobre todos los elementos de ~ data Iugar a una rnedida de probabilidad Pl sobre los sucesos mteresantes de la recta real R, esto es, los intervalos y sus combinaciones, de forma que 51 X es una cantidad aleatoria

As! la probabilidad de que La cantidad aleatoria X tome un valor perteneciente al mtervalo I es simplernente 12 probabilidad de que tenga Ingar uno de los sucesos mcrertos W cuya rmagen, mediante Ia runcion X, pertenece a I,

CANTIDADES ALEATORtAS 81

Ejemplo 4.1.1. T emperaturas

En un modele srmplificado, el estado general de un determmado tipo de

: paClente debe ser uno de los elementos del conjunto 1 WI, lO2, lO3, W4, W5, WO, lO7 f.

Se sa be que a lOt Ie corresponden ternperaturas mfenores a las normales, a W2 yaws temperaturas normates. a W4 y lO, Iiebre mocerada y a 006 Y W, Iiebre alta y rouy alta respectrvamente. Defimr una cantidad aleatona que a csda estado general le haga corresponder su temperatura media: suponiendo que las probabilidades de los distmtos est ados generales son

p(lOll = p("W-r) = 0,05 P(lU2) == 0,25 P(W3) = 0}35 P(Ul4) =P(I»5) l= P(W6J = 0,1

determll1ar Ia probabilidad de que tal rantidad aleatona tome un vaior mayor de 39°C, y la que 10 tome entre 36 y 37°C.

De Ja experiencia acquirida con otros pacientes, se sabe Que las temperatures medias correspandientes a los tipos de fiebre descntos son, aproxrmadamente, 3.5,6, 36,6, 37,7, 39.9 V 40,6·C .respectivamentc. En consecuencra, Ia cantldac aleatorra deseada X quedara ddinida mediante

X(Wi) = 35.6

X(w,) '" X(w,] = 36,6 X(w.l = X(w,) = 37,7 X(w,} "" 39,9

X(w,) = 40.6

y, por Jo tanto.

PIX> 39] = P[X = 40,6 U X = 39,9J = P[w.] .j" PEw,] = 0.1 + 0,05 == 0.15 P[36 < X < 37] = P[X = )6,6] = P[w,] + pIw,] = 0,25 ..j. 0,35 = 0,60

Todas las probabilidades relativas a los vaiores que puede tamar una cantldad aleatorra pueden obtenerse directamente a partir de una funci6n, la iuncion de distribuci6n que represents aSI un titil resumen de los valores que Ia variable puede tomar y de las probabilidades can que los toma.

DEFINICI6N 4.1.2: L4 funcion de distribucion de una cantidad. ateatorza X. que represestaremos con ia tetra F es ta funci6n deiinida mediante

F(x) = p[X -s.::;; »l.

-oo<x<=

AS1, el valor de Ia fund6n de .distribucion de una cantidad aleatoria en el punto teal » es igual a la probabilidad de que la cantidad aleatoria X tome un valor menor 0 rgual a x,

TEOREMA 4.1.1. Tona _funci6n de distribucion F de una cantldaa aieatoria satisiace tas proptedades ugUientes;

~:.

i~' '.11.'

~c::

~. '.~

~1~tijl

til

v.r:,;.-:.

;:"it

. 1:~1'·1·1 ,

I

!'fiH

~~,i!j!! ,

'\"I'r1j

~iJi)~'

'~.'11Ii.)I·I':ili

\!')'I

il:t.:~j.l,l.·~ .. !.f1.!.: ..•.•. '~J~i

:;A t-

iiJi:~:, !~;fi; iitlJ/ Plj fJJ:

~;fpl 'i-!~i""~

82 810ESTADtSTICA

(i) No aecrectente: Xl < X2 --l> F(x!) ~ F(X2) Oil lim F(x) = 1 v lim F(x) = 0

Demostraclon

En efecto, puesto que

F(",,) = P{]- =. xtl}, F{x,);= 1'{1- 00, x.]}, x, < x, i

tenemos que ]- ==, x,] c J- =, x,] y par 10 tanto. en Vlttud del Teorema 3.2.3 (iill P{]- 00, Xl]) « P{]- 00, xJ}, 10 que demuestra (i]

Si "'~ 0<>. F!X) nende • PHJ- 00 oan;= PfO} '" 1 v 81 X~ ~ 00. F(x) trende a /'f<lJ} = O. 10 que prueba (ill.

Ejeroplo 4.1.2. Temperatures (cont.)

.Construir v representar Ia Iuncion de distribuci6n correspondiente a Ia cantidad aleatoria ddinida en el Eiemplo 4.1.i.

Por definicion F(xi '" P{ X E J- ec . xJ) Y POl tanto, - cc < X < 35,6....;> Pix) = Pf<J,\} = 0

.35,6.-( X < 36,6 -7 F(xi = P{ w, f "" 0,0'-

36.6'_:;; X < 37.7 -7 F(xi = Pfw, u w, U w,f = 0,65

37,7 ,,;; x < 39,9 ....,.. Fix) "', Pf w, U w, U W.I U w, U Ill, I = 0.85 .39,9"; x < 40,6 ~ F(XI'" Pfw, U w, U w. U {», UN, U w,1 = 0,95 40.6"; x"; + co....;> F(xj = pm} = 1

La correspondienre representacicn grafiea es una Iuncidn en escolera:

I I .,._....,

••

35

36

37

39

38

40 41

.f' v

CANTIDADES ALEATOR1AS B3

valores posibles de Ia variable aleatona X son 35,6, }6,6. 37,7, 39,9 v 40,6, que respectrvarnente can probabilidades 0,05, 0,6, 0,2, 0,1, 0,05, sltuacion que describirse mediante ia grafu;a

p l Xe x)

41

'C;

35

Ohservese como lOS valotes de las probabilidades p(X = !':d, corresponden exactamente . a los «saltos» de Ia :funci6n de distribucion Fix).

Dlstrfbnctones discretas

Las cantidades aleatorias pueden set esencialmente de dOB tipos diferen'tes, segtin el rnirnero de valores distintos quepueden tamar.

DEFINlcr6N 4.2.L Se dice que una cantidar: aieaiorta X es discrete st solo puede tomar un numero tintto, 0 iniinita numerable (*» de uaiores disnntos. Su funcion de probabilldad p(xi se define mediante

p(x):=::: p{X = x}

La cantidad aleatoria definida en el Eiemplo 4,1.1. era discreta, Para todo mimero x que no sea uno de los vaiores posibles de ia cantidad aleatoria X tendremos, evldentemente, p(x) = 0, Per otto Iado, si Ia sucesion {Xl, X2> .,.} incluye todos los valores posfbles de X tendremos :Ep(x,) = 1. Asi, una cantidad aleatoria discreta da lugar a una distribuclon discreia de probabilidad, entre el conrunto, flmto 0 numerable, de sus vaiores posibles, de forma que o < pCx/) < 1 Y '.4p(x;i = 1. Naturalmente, disnntas cantidades alearorms pueden dar rugar a la nusma distribucion de probabilidad.

La funci6n de probabllidad de una cantidad 'aleatoria discreta, esto es, Ia

(*\ Un conrunto A es tIIfil1!ta numerable si es posible establecer una biyeccion entre A v .lOS numeros naturales.

I~

;;~:;i:~!L

.a',

,i! .

84 BIOESTADISTICA

funckin que a cada numero real Ie asocra su probabilidad, suele representarse gr~Hicamente mediante una calecci6n de segmenros verucales srtuados en cada uno de los valores posibles y con una Iongrtud prcporcional a la de sc probabilidad. La funcirin de distribucidn de una cantidad aleatorra discreta es una funci6n en escalera con saltos iguales a P(Xi) en cada uno de los valores x, que puede tornar Iver Ejemplo 4.1.2.:'

Frecuentemente, Ia tares de determrnar la funcion de probabilldad de uni cantidad aleatona discrera se reduce .a Ia de resolver un sencillo problema db probabilidades,

EjemplQ 4.2.1. Elecci6n de pacsentes

En la saia de espera de una policlimca se encuentran en 1:01a 3 hombres y 7 muieres, de los que se hace pasar a los 2 pnmeros. Determmar Ia fun" cion de probabilidad del, mimero de hombres que pueden entrar.

La correspondlente cantidad aiearona X puede tomar los valores 0,1, Y 2. La5 prooabllidades respecttvas seran

'76-; PIX"" 0) = -- - "" -_

10 9 15

3 i 7 3 7

P(X'"" 1)=-- -+--- =--

, 10 9 10 9 1.5

321

I'\x=2) =-- -=--

10 9 15

La funcien de prooabllidad de I. canridad aleatorra X toma pues los valores 7/15, 7/15, 1/15, en los -puntos 0, ! Y 2.

Las representactones grances de esta fundon v de su correspondiente funcion de distribucidn son

It f

I

0.5 ~

r t

i

r

2 Xl>

-

p{)(j

Ft)()

- ,

I I

a 1

CANTIDADES ALE;ATORIAS 8S

La mas sencilla de las distribucrones discretas es la distribucion de Ber-

DEFlmCl6N 4.2.2. Una caniidad ateaiona discreta X tsene una distribu:, don de Bernoulli con par!imetto 0, 51 puede tamar tos oalores 1 y O. Y to bace con prooabiiidades e y 1 - B. Consecuenzemente, su funci6n ae probabilidaa, que aenotaremos BrrxlB) sera de la forma

p(X 0;;: Xl = Br(xl~) = B"(I - BJI-x para x = D, 1

:::::: 0, para cuaiqiaer otro calor de x

donae 0 < B < I .

Entre las distribucrones discretas de probabilidad mas utilizadasse en" cuentra 1a distribuci6n binonuat, Inttmamente relacionada con ia disttlbucion de Bernoulli, y con las sucestones del mismo nornbre, estudiadas en la Secdon 3.3.

DEFINICION 4.2.3. Una cantidaa ateatorta discrete X ttene una distribucion binomial 51 su tunci6n de brobabilidaa, que denoiaremos Bi(xI6, n}. es de ta forma

,. n ~

p(X = xl = Bi(xI6, n) = I ! S'(l- e)n-~. para x = 0, 1, ..•• n

, x J

=: 0, para cualqiaer otro pat or de x

donae 0 < B < 1..

Consideremos una sucesion de Bernoulli i Ai, ,= 1, 2, ... ? Supongamos p(AIl = e y consideremos n sucesos cualesquiera de Ia sucesicn: entonces, Ia probabilidad de que ocurran exactamente x de ellos, 0 ~ x ~,n es, segiin

vimos en Ia Seccion .3.3, [ : ) eX( 1 - BY' -'<. En consecucncta, el mimero de ocurrencias en una sucesion de Bernoulli es una cantidad aieatoria con una distribucion Binormal cuvos parametres, e y n, son respectrvamente Ia pro" babilidad de que ocurra uno de los sucesos v el nrimero de sucesos considerado.

Ejemjilo 4.2.2. Sexo de un reciin nacido tcont.)

Representar Ia funcion de probabilidad y Ia funcicn de distribuci6n de Ia cantidad aleatorra X que describe el mirnero de nifias que pueden nacer en los tres proxtmos alumoramrentos que tengan lugar en el Hospital Cliruco.

Como vnnos en el Eiempto 3 . .32, las probabilidades correspondientes resuitan sex

86 8!OESTADIS"flCA

p(X,=, 0) = BiIOf0.49. 31 := 0.1237 p(X = 1) = BinI0.49, 3) =0,3823 p(X"" 2) = Bi(210.49. 3) = 0,3675 p(X = 31 = BiC3j0.49. 31 = 0.1175

y, en consecuencra, Ia ±und6n de prooabilidad es

• 0.4 ~

~3~

O.2r

0.1 r

o

2

3

x

v Ia correspondienre funcicn de distribution

;

I .~

I

t il-

I r

0.5 ~

~

...

i ~ !

r+:

I I

I

t--'-i

Flxl

I I

,,_....-!

b

2

3

x

En ccasrones, se manejan cantidades aleatorras cuva dlstrihucion es Binormal con e muy peque.fio y n muy grande. En estas condiciones, el oilculo

de 13 correspondiente funcion de prohabilidad Bi(Xle, n I resulta muy Iaborroso, perc puede obtenerse fac.iImente una aproxrmacion adecuada en fund6n ~ del producto ), =91'1. En erecto,

TnORJ;.MA 4.2.1. Paran -+ cc .y e-+ 0, con nB =: ).., lim BHkI9. /1) = e-J..).!jk!

1'1-+0;-;1 . -

CANTIDADES ALEA"fOR1AS 87

Demostracion

Utilizaooo 10 definicion de mimero combinatono (Ecuacion 3.23),

n(n-ll ... tn-Ie + 1)

Bi( kia, 1'1) = e'( 1 - !l]"_'

h!

).' I' 11-1 n-k+ J (J_2: r f ). ~ -.
I 1--1
I
kI n It n n J "- n )
V tomando Iimites, cuanco tt --"" co
n tt-l .n=:» + 1 r l~~ r'
lim =1
n II n ... n ) Hm

( A. I"

I 1--- I == e-J.. l n .I' f

resulta lim ...... 00

Bl(ki6, nl = e-).)..'Ik!

EI result ado anterior sugiere Ia definicion de una nueva distribucion de ptobabilidad.

DEFlNIcr6N 4,2.4. Una caniidad sieatona discrcta X tiene una distribuci6n de POisson SI tu fU11ci6n de probabiiidad, que denotaremos Po(:d}.,), es de la iorma

p(X = xl = Palxl}.,) = e-).)..'/x!, x;:::: D, 1,2, .. ,

= 0 en CU(1lq1t1er afro caso

aonde ); > O.

De esta forma. 101 Teorem.a 4.2.1 puede enunctarse de la forma sigmente

lim Bi(xin, 8) = PQ[xln6)

~tH:IJEJ.ry.Q

(1)

Ejemp!O 4.2.3. Probabiiidaa ae cancer

Se sa be que entre las personas sometidas a la accion de un cierto agente cancerigeno, el 2 % llegan a contraer Ia enfermedad, Determinar la probabilidad de que mas de una persona contraiga cancer en un grupo de sesenta que se han visto sornetidas a Ia acci6n del mencionado agente.

La cantidad aleatoria X que describe ei mimero de personas que contraeran Ia enfer-

88 SfOESTADfSTICA

rnedad ttene oovrarnente una distribuci6n binomial, Bi(xIO.02. 60), con 'a = 0,02. nequefio, v n "" 60, grande. En virtud del Teorema 4,2,1, tal distribud6n puede aproxrmarse por una distribucion de POisson Po(x11,21 con -parametro )" "" 0,02 X 60 = 1.2. En consecuencra, la probabllidad de que exactarnente Ie personas de las 60 contraigan Ja enfermedad es aproxunadarnenre

p[X,= kJ = PO(kll.2) = ~~"'(1,2t1k!

v por tonto la probabllidad pedida sem

P[X> 1] = i - P[X == 0] - P[X = 1] "" .l- (1 + l.2)/e'·l "" 0,3.374

4.3. Dlstrlbucrones continuas

Frecuenternente, ias cantldades aleatorias pueden tomar un mimero mfinrto .. no numerable. de vaiores distmtos, Gracias al postulado de er-aditividad, Ia probabilidad de que Ia variable tome un valor perteneciente a un deterrnrnado mtervalo puede expresarse mediante una Integral (").

mPINlcr6N 4.3.1. S e dice que tina caniidad ateatorta X es connnua st exsste ana tunci6n no"negatiVa p( x), llamada :funci6n de densidad de probabilidad tat que para todo tnteruaio (a, b) deta recta rea! R,

I'b

P[X E (a. b)] = I p(x)dx

,fa

Una notaci6n mas precisa para 1a funcidn de densidad v J.a funci6n de dis" tribucion deuna cantidad aleatorra X, que emplearernos cuando resulte necesano, consrste en utilizar, respectivamente px[xl y Fx(!d. Ceneralmente, Sin embargo, puede utilizarse sin ambigiiedad 1a notaci6n snnplificada P\x) v F{x).

La cantidad ateatorza que al ultimo pacicnte mgresado en e1 hospital le. asocta su altu:t:a es, conceptualmcnre, una variable continua:' En Ia prdcnca, debido a los errores de medida, las cantidades aleatonas son casr siempre dis. cretas Cia altura se registra generarmente como un mimero entero de cerrtimctros, can 10 que 160,333 ... no resulta un valor «posfble» de Ia cantidad aleatorra). Sin embargo resulta conveniente .• puesto que 'sllnplifica enormemente los calculos sin modiiicar apreciablemente el resuitado, deseribir como. continues aquellas cantldadcs aleatorias que conceptualmente 10 son.

Una cantidad aleatoria continua da lugar a una disiribucion continua de probahilidad, esto es. a una distribucion de 1a unidad de probalrilidad de forma

["1 Se trata de un resultado de teoria de Ja medida, cuva descnpcicn detallada no es posible aJ nrvel matematico escogido para este Iibro,

CANTIDADES AlEATORIAS as

. . . de sus valores posibles con mayor aensidaa en aq~;:-

.~ontmua entre el conl~to ellos vl.llores para los que la funcion

.n nas mas veroSlmlles. esto es, en aqu

; as;e:sidad de probabilidad p(xl es mayor. . . .

.' . bilidacles smo denSlClades de pro·

La funci6n de densidad no aescrlbe p.ro.Dba ~ . , 4 0, 1 la probabilld(l,d de

. . erdo con Ia eilnlC10n .~ . . ,

babilldad. Sin embargo, .pe acu d por lntegrad6n a parnr de la run-

lqUler tntervaio puede set deter.mma a

.::~; de densidad de probabiHdad.

C1 n . t a X tome un valor

. b bilidad de que una cantidad aleatona can ~~u

La pro a E ef ct por deJlmclOn

determmado x cualquiera es cero. n e 0, '

1'"

P[X::::= x] = I Plx1dx = 0

"X

blli _, d era son o todos los sucesos de proba 11 ... a c

10 que subraya el heche de que n X ~ es perfectaroente posible, pero su

lmp.osibles. En este easo , ei suceso did x la de un punto, es lllfin1tamente

bilid d ea cero porque su «me 3».

proba 1 a. d' d d lhtervruo.

pequefia comparada con Ia «me 1 Sf> e un

.' ., d dt'nsidaa de /Jlobabilidaa satlstace ias pm·

TBOREMA 4.3.1. Yotta [uncton e

pledattes S!guu:ntes

(ii J_~.. p(x)dx == 1

'd d . F(x) Plx) = dF(x)/dx.

(il) En ios puntos de contmuz a ae ,

Demostracion

s610 toroa valores reales: por 10 tanto Una canridad a.teatona es una fund6~, que

P[X E R] = L Per otro JaClO, por defimClOn.

r=

P[X e; R] = I p(x)dx

,/-""

tr (.) Ademas 'On vlrtud de las DefiniciolOCS 4.1.2 \' 4.3.1.

In que demues a 1. •

r.

F!xl =P[X 0;;;; x] = pfX E]- oo , x]}:= J.,. p(x)dx

v derlvando obtenemos (jil.

L! mas sencilla de las distdbucwnes contmuas es La distribution uniform!?

Una cantidad ateatona continua X ttene una distribuci6n DEFINICION 4.3.2.

90 BIOESTADISTICA

uniforme en el snteruato [a, 13 ] SI SU [uncion de densidad de prooabilidaa, que denotaremos Unfxi·lh, S) es de ia forma

P(xj == Un(xlo:, (3) = __ 1~. para «:;;;; X ~ B 13-0:-

== 0, para cuaiqzaer otro "X

donde a E R, 13 E R y CL < B.

Su funci6n de d1stribuci6n es. clararnente,

F(xJ=O, It x<<<

(~ .' 1 r - x - «

= I Un(xja, aldx == --- dx ='---.

a « B-a ~ B-a'

= 1, Sf «:» B

1 1

--~--- - -- ---- - ,..--------------,

13-·t:t' ,

. t

I I

I I

x

(3

1----- - - ---- - - - --_ - - ------ ------ - --:.FIx)

x

8

a

CANTIDADES ALEATORIAS 91

Para definrr Ia fund6n de densidad de probabilidad de una cantidad ale arort a contmua X basta especificar una funci6n f(xl tal que P(X) IX f(x), En efecto. .sl se sabe que p(X) ::= C/(x), 1a constante de proporcionalidad C puede .. ser determmada utilizaado el heche de que una densidad de probabilidad debe Integral' uno; asf,

y, par 10 tanto,

(,,,,

C = 11 J _~ f(x)dx

Esra riltima Integral puede resultar difidl. En los etemplos de distribuciones contmuas que damos a continuacion, se especifica el valor de Ia constante de proporcionalidad correspondiente a cada uno de ellos aunque, como verernos mas adetante, no auele ser necesano conocer su valor.

Frecuenternente, se quiere describir Ia Informacion de que se dispone sobre una cantidad aieatoria que solo puede tamar vaiores en el intrevalo ]0, 1[, por 10 que results mteresante disponer de una familia de distribuctones de probabilidad cuyas correspoudientes densidades solo tomen valores no nulos en ese intervale. La familia de distribucicnes Beta da Iugar, vanando los valores de sus parametres, a mlinrtas densidades con esas ccractensticas.

DEFINICl6N 43.3. Una canttdad aleatorzs conttnua X tiene una distribucion Beta SI su tuncion de densidaa fie probabllidad, que denotaremos Be(xia:. B) es de ia forma

p(xi = Befxla, 13) = Cx .. -l(l-x)~-'. SI 0 < X < 1

= 0, para cuatquser otto x

donae ex. > 0 y B > O. EI uatcr ae ta constante ae proporczonalidad es C = na + ~)/r( o:,)r(f)) ("').

La distrlbucion uniforme stanaara, Un(SIO. 1) es un caso particular de distribucion Beta, concreramente Ia Be (911, 1)_

(*1 Por definicion. Ja tunci6n gamma, uenotada n;<:1 es el valor de Ia integral definida

r"

rlx) = I r=«: Puede demcsrrarse adrneas que. para x, rr" -i" 1) 0= xf(x} y

.I"

rli) = ~. En consecuencra, para vaiores enteros, nn) = in -11!_

(.

"

1."0

~; .

lr:'

·i~ .'

i.~

92. BIOESTAOISTICA

Tambien 'resulta frecuente desear describir Ia inlormacion de que se dispone sabre una cantidad aleatoria que s610 puede tomar valores positrvos. La familia de distribuciones Gamma da Iugar, variando los valores de sus paramerros. a rniiniras densidades de probabilidad que s610 taman valores no nuios en el intervalo J 0, 00 [.

DEl'INICr6N 4.3.4. Una castidaa aieatorta continua X tiene una disttibud6n Gamma st su _funcMn ae densidad. de probabilidad, que dcnotaremos Gatxl.:>:. (3) es de ta torma

p(XJ = Ga(xl«, B) = Cx~-'e-~·. SI x > 0 = O.

= 0, Para cuai quter otro x

donde (j, > 0 y B > O. El oaior de la constasue ae proporctonalidad es C:=: B"/r(a).

El caso particular de Ia distribucidn Gamma en que .(".1; = 1 :tecibe er nomore de disttibuci6n exponenctai con parametro 13, Bx(xl~), y e1 caso particular quee -=:..n/2 y !3 = 1/2 el de distribucion i: con n grados de iibertad.

En numerosas ocasiones, las proplas condiciones del problema sirven para especificar Ill. forma de Ia funclon de densidad.

Ejemplo 4.3.1. Longitua de una ulcera

Se sabe que, bajo determmadas circunstancias, Ia probabilidad con que se presents un trpo de Ulcera es inversamente proporcional II la rafz cuadrada de su Iongrtun, que puede llegar a set de 16 mm. Deternnnar y representar 13 funci6n de densidad de probabilidnd y la funci6n de distribuci6n de 13 cantidad aleatona longrrud de la Ulceta. Determtnar Ia probabilidad de que Ia ulcera sea mayor de 8 rom.

Por hipotesrs, se sace que

p(x) "'" C/fi, 0 < x < 16

= O. en caso contrano y puesto que f~ p{x)dx = J., sabemcs que

rH. fiG .i

p(e;}dx = C I -aX. = 2C...;x I:' = C2v'16 = 8C = ~

.J, J.Yx .

y par tanto C:::: 1/8. En eonsecuencra, la funclon 'de censidad de probabilidad es

CANTIDADES ALEATORIAS 93

P(X) = ~ , 0 < x < 16 Bvx

= 0 en case contrano

f(x) = O. oX";; 0

r~ a« Vi:

= JI --=--.0<x<16

c u 8vx 4

= L. x;;;: 16

cuvas represent.clones grmc"s son

0.5

p(xi

x

4

8

12

16

x

16

4

Flnalrnente,

Ii[X ~ 8J = p{X E [B. 16]} = J." P(x)tlx =

1 rIO ax ..;xl" VB

=~ J _=~. =1--=0,2929

8), fi 41. ·4

,:. " ' ..

',j ".!I

94 BIOESTADISTICA

Entre las distribucrones contmuas de prooabilidad mas conocidas se encuentra Ia distribaclon normai que recibe su ncmbre precrsamentc par la frecuencia con que aparece,

DEFINICION 4.3.5. Una cantidad ateaton« continua X tsene una distribucion normal st su funci6n de densidaa de probabilidad. que denotaremos N(x!(1., 0'), es de fa [orma

danae - ex> < u. < 00 Y 0 < cr < OQ

La funci6n de densidad normal es acampanada, sIDletrlea can respecto a Ia recta X ::= j,t, con un maximo situado en x :::;: U y dos puntos de mflexion situados en x == p: ± 0', La correspondiente iuncion de distribucion, que POl" def1ruci6n es

{'x

P(x) = I

"-N

1 -...:... {~)2

-~_ e 2 'a ' ax

(J'V2.1c

no nene una expresion analftica exacta,

La probabilidad de que una cantidad aleatoria cnva disttibuci6n es N(xil-L. (J'] pertenezca a un oetermrnado intervalo (11 .. b) es, claramente,

rt.

p{x E [a, b]} = I

.J.

y haciendo el cambia de vanablc t = (x ~ U)/u,

"

e~2 at ==

-rs:

1

. ~"

.,-

donde

r x 1 "

<P(xj = J _= "Y'J:i e -2 dt

(1)

(2)

CANTIOADES AlEATORIAS 95

es ia fund6n de distribucion de la cantidad aleatona standard N(xiO, 1). La fund6n w(;.;) se halla extensamente tabulada para vaiores positivos de x. Puesto que Ia funcion de densidad N(xjO, 1) esni centrada en ° y es sirnetrtca,

• i

4

x

-;.

resuita que

'(3)

y, en particular, <P(O) = 0,5.

La funcion de distribucion de Ia normal standnrd N(xIO, 1), esto es 4>(x), y su funci6n inversa «»-l(X) se utilizan continuamente en Ios problemas de estadfstica, Algunas calculadoras lIevan tncorporadas estas functones,

Hemos insistido ya en que la distribuci6n normal aparece con rnucha Irecuencra. En efecto puede demostrarse, (Teoreme central del limite) que 51 una cantidad aleatona es el resultado de muchas causes actuando mdependientemente unas de otras. V cada una de ellas tiene un efeeto muy pequefio sobre el resultado :6081, su distribucidn es aproximadamente normal.

As! pot ejempio, la altura de un individuo es el result ado de rnuchas causas de importancia limitada (herencra, allmentacion, medio ambienre, etc.) actuando Independienremecte y, en efecto, Ia distribud6n de la altura humana es aproximadamente normal .

Ejemplo 4.3,2. Pesos

Se sabe que los pesos, como las alturas, nenen una distxibuci6n normal y que el 50 % de los varones de 18 afios pesan entre 57,65 y 68.45 Kg. Determinar ' los parametres de' Ia distribccion correspondiente, representar su funcion de densidad, y determinar la probabilidad de que un varon de

.,;

\1.

·96 BIOESTADISTICA

18 afios pese menos de la media, pero tmls de los 54,39 Kg de peso medic de una mUJet de su misma edad,

Debido a Ia simetria, saoernos que el peso media es

ll. =: (57,65 + 68.45)/2 = 63,05

Adewols. Ptx e; (57,65. 68,45]} = 0,5. y l?ox snnetria p[x> 68,45] = 0.25. En consecuencra. utiliaando (11,

i 68,45 - 6;',0.5 ) Plx > 68.45] = ptx IS J68.45. + = [} = .1>( "" ! -Il' l---(f---, '"

'" 5,4 )

= 1- W 1- = 0.25

, C1 J

r 54 '

y POt tanto ~ , -;- J = 0,75. Buscando en Jas tablas de Ja lUncl6n de distribucidn

normal. a utllieando una calculadora cue disponga de est-a funci6n .. encontramos <P(0,6745) = 0,75 y, pot 10 tanto, 5,4/CT = 0..6745 y ,,= 8,006. En consecuencia, la distribuci6n,en Kg, del peso de los varones de 18 afios <!S N(xI63,05. 8,0(6).

N ( X I 63. 05 , e . 006 J

x

....

50 65 8)

Finalmente, utllizando (1), (3) 'J ras tables de Ia fundOn de distribuci6n normal, p[54)9 < x < 63.05] es tgual a

( 63,05-63,05

<!>l

)< r 54,39 - 63,05 ')

-wI !

8,066 ~ " 8.006 )

= <1>(0) - <1>(-1,08\ = 0,5 - [1- <1>(1,08)] =

= <1>(1,08)-0,5 = 0.,8599-0.5 "" 0,3599

La dlstribuci6n norrnai aparece tambien como Iinute de una familia mas amplia de distrlbucrones, las distribuctones Stuaent.

CANTIDADES ALEATORIAS 97

DEFINICI6N 4.3.6. Una cantidaa ateatona continua X ttene una distribuci6n Student st su funci6n ae densidad de probabilidaa, que denOfaremos st(;.::Iv-, 0', ar es, para tcao x reai de ia forma

( 1 (x-!.1 P)-~

p(xi =St(x/r., 0', 0;) = C) 1 + -l I ( 2

" a 0') J

donde U E R, 0' > 0 y IX. > O. El valor de la constante ae proporaonelidad cs

1

Puede comprobarse que Ill. distribuci6n normal es un limite de distribuClones Student. Especi£icamente,

lim

St(xi[1, !J", <xl = N(xfIJ, 0')

4.4. Funciones de una cantidad aleatorta

Toda funcion de una cantidad aleatona (~,) es una cantidad aleatorta, puesto que tambien asccia un mimero real a cada elemento del conjunto de referencia,

Si X es una canrldad aleatona discreta e Y = f(X) una funcion suya, Ia funci6n de probabilidad de Y se obtiene faciImente a partir de Ia de X. Ell. efecto,

p!'yj = pry = y] = p[f(X}.= y] =:: 2:A p(x)

(1)

donde se suma para todos los elementos x pertenecientes a1 conronto A == {x; {(xl =: y}.

Ejemplo 4.4.1, Pacientes bostntalizaaos

La distribuci6n de Ia cantldad aJeatona X que describe el rnimero de pacrentes que estardn hospitalizados manana en una deterrninada sala es de Ia forma,

(*) Realmenre, tOGS fund6n medible COlnO, POt ejemplo, una biyecci6n.

sa BIOESTADISTICA

p(X = 0) = 0.1 p(X"", 1) = 0,2 piX = 2) = 0,2 AX = 3) = 0,4 p(X~ 4) = 0,1

Determmar la distribuci6n de Ia cantidad areatoria que describe si hay mas de una cama ocupada,

Una funci6n :v = f(xi que describe SI h"v 0 no mas de una cam. ocupada es ra definida par

frO) = f(ll "" 0, /(xl <= 1

para todo

y su distribueion de probabilidact es

PlY"" 0) = pIx = 0) + P(x == 1} == 0,3

PlY = 1) = Plx == 2)+ P\x = 3) + Ptx;;::' 4) = 0,7

Si X es WIa cantidad aleatoria continua el problema es mas complicado.

TEOREMA 4.4.1. Sea X una cantidad ateatorta continua. sea px(x) su tuncion ae densidad de probabilidaa y sea Y = f(X) una tuncion suya continua .. y estnczamente crectente 0 estrsctamente decreciente. Entonces., ta tunci6n de densided de Y utene dada por ia rf?tacio11

" . I dg(y) I I "df{x) •

'Px\YJ ::= px[&\Y)] -.- = pxlx)/-,-I

ay ax I

x = g(y)

acnae g\y) es ta tunci6n tnuersa ae I(x), esto es tat que sz y = f(xl entonces x = gf.y).

Demostraelon

Supongamos que t es creciente, enronces.

F"{YJ = p[Y:;;;:v1 = p(f(X) <:;; y] '" p[X:( gly)J ee Fx[&\Y)] derIl'aUdo con respecto a :v resuita, en VlItud del Teorema 43.1 (ill, dgb')

Pr\YI:= p,..[g(y)]--

tty

come querfamos demostrar, Si t es decreciente, tenemos

y por tanto

Fr(Y) = p[/(X) <:;; ,,] '" p [X ;;. gIY)] = l-Fx[g(ylJ

. dg(y)

pbJ = - Px[g(y)] -dy

to que complete Ia oercosrracion,

CANTIDAPES ALEATORIAS 99 Si una funci6n es biyectiva pew no es estrrctamente creciente a deerecienre, puede descomponerse en secciones en que 10 sea y aplicar el Teorerna 4.4.1 a cada una de ellas.

Ejemplo 4_4.2. Normaihaci6n de una distribuci6n Beta

Sea X UIl.~ ~antidad a~eatorla con una distribuci6n Beta, Be(xla:, (:l}. Deterrmnar 1a funcion de dcnsidad de Ia cantidad aleatorra Y=log{X/(l-X)} (*).

Es Hell comprobar que y "" logtx/(l- xl} es una fund6n "'Stl:lctaroente creoenle I SU deuvada es positive .1. Aderrut5,

x :v""log~ -ei-X

x e'

e'= __ 4 X= __

.i-x 1+&'

de forma que su fundon mversa es x = e"!{1 + e'l, cuva dcnvaoa eo dx/dJi "" &/(1 + e')' En cansec.uenCla, como 101 funci6n de densidad de x es p(x) = Cx"'-'(1- x)~~' d de C '" r(<<. 'f- 13)/r(a)r(~), Ia funclon de densiciad de Y sera, en vlrtud d~l Teorezna 4~~J~

La G.ntidad aleatoraa X esta deflnida en r 0, n mtentras que Y 10 est.{ de R En la ligula se nallan represent-des ambas densidades para «. = 2 v G =:.5. en euvo csso, C = 30.

x

(*) Aqul. como en todo el ~bro, se emolean Iogaritrnos nepertanos, esto es de base e, de torma que, para cuaiqurer numero teal x, X = exp[1og{xlJ, Se sabe que e '" 2.7l83.

=_",1

100 BIOES"fAD1STICA

Puede observ'arse que Is densidad de probabllidad de Y se parece mas a una normal que I. de X. Este heche se utiliza. Como verernos, para obtener apto=~ClDn~: a 1'too:,,bilidaces asocrad as a una d1stribuci6n Beta. utilizando las tablas de ia funcion oe distribueion normal,

Supongamos que X es una cantidad aleatona continua, cuya funci6n de distribuci6n es F«. Entonces, a Ia cantidad aleatoria Y = Fxf.X) se llama su transiormaaa zntegrat de probabilidad,

TEOREMA 4.42. La transjormada tntegra; ae proaabilidaa Y = Fx(X) de una cantidaa ateatorsa continua X es una cansidad. aieasorta contmua con distribucion uniforme en [0. 1].

Dernostracion

En etecto, y "" E,( XI es una funcion estnctamente c~e;lente de x, ceva denvada es 1>,\X), 1. tuncion de densidad de x. En consecuencra, utilizando et Teorema 4.4.1 v reniendo en cuenta que df-'(y)/dy = (df(~)/dxr'

MY) = 1>x(x}/p",(XI = 1, sID";;; y";;; 1

esto es, una densidad uniforme scbre [0, 11.

El Teorema 4.42 puede urilizarse para cornprobar una hipotesis sabre Ja distribucion de una cantidad 'aleatorIa. En efecto, 51 f Xl, X2, _ •• , Xn" fuesen ooservaciones de una poblaci6n con fund6n de distribuci6n Fx, los valores {YI, Y1, ... r .y" icon y; = Fx(x;] sedan observaciones de una distribuci~~ UDIforme en [0, 1]. Per otra parte. 1a representacion grafica de ia funcion de distribucion de una cantidad aieatona Y uniforme en [cc, !H es, segrin hemos vrsto, la recta F(y) ::;;;: (y - a)/W - a) y per tanto, en nuestro caso, F(y), = Yi en consecuencia, una forma de comprobar que los vaiores {XL. •.• ,' X. r provienen de una poblacion can funcion de distribucion Fx es ,representa! Ios vslores de la fund on de distribucion correspondiente a los Ji's y cornprobar que, aproxrmadamenre, se sinian sabre Ia recta F(y) = y.

Ejemplo 4.4.3. Test de normalidad

Comprobar SI los valores - 0,73, - 0,87, 1:18: -.2.09, - 0.32. 0,90. - 0,16, 0,15. -1,87 Y 0,87 provienen de una disttibucion nomal N(xIO, 1).

Los correspondientes valores )I, "" lUX,) resuttan s.e~ 0.23. 0.19. (j,88. 0.018. 0,;'7, 0,82, 0,44, D,'i6. 0,0.31 Y,oBl; asociando La rmsms probabilidad, esto ~s 1/10, .• ~ada. ;lllO ae estos 10 valores results una cantidad aieatona discreta CUVa funclon de distribucicn. a I. que se llama 'fund6n de distribucion emtnrica del conjunto l )", y" ... , y,,}, resulta Set

CANTIDAOES ALEATORIAS 101

o

y

0.5

Puene comprobarse que los diez puntas {YI, p(Y';;:;)I, i determl11ad()s POI 1. funci6n de distribuci6n empirica de los y, se srtuan aproximadamente airededot de Ia tecta F(y) = y. El aruste es razonablcmcnte bueno tenrendo en cuenta Q1)C solo se nan utilizado diez datos (~) pot 10 que no e:aste monvo para recnazar la -hipotesis de nonnaHdad.

Supongamos ahcra que X es una cantidad aieatcna contmua cuya funcion de distribuclon es Fx, que Fr es otra funcion de distribucion, y que pretendemos encontrar una funcion f(X) euyn funci6n de distribuci6n sea precrsamente Fy. Esto nos permitirfa stmzuar observacrones-de cualqnier distribucion a parttr .de observaciones de una distribucion conocida,

TEOREMA 4.4.3. Si X es una, cantidad aieatona conttnua cuya ftmci6n ae distribucion es Fx, ia tuncion de distribuci6n de Fy,-j[F."{X)J es preasamente F'l.".

Demostracl6n

Sea z = Fv-'[Fx(x)J; ententes

puesto que, en virtud del Tcorema 4.4.2, W = Fx(X) uene una disttibudoll uniforme en [{), 1]' cuva funtion de distribud6n rEcuaci6n 4,3.1) es F,,(xi = x, En consecuencrs, como cuerfamos dernosrrar F, :0= F,.

(*) E1 an.tUsis c[lantltabvo de Ia bondad de este aiusted es un tema lmportllnte. pero rebasa los Ifmites .rmpuesros a cste volumen, Un andlisis Bavesiauo de' este problema, es el de Bernardo [1980 b).

W2 BIOESTADisTICA

El resnltado que acabamos de demostrar pemnte stmuiar observaciones de una disttibucicn cualquiera utilizando numeros aieasortos, esto es senes de mimeros en los que caca uno de los diez dfgitos 0, 1, ... , 9 aparece con probabilidad 1110; este metouo de simulacion es gencralmente conocido como metoda de Montr:carlo. En efecto, agrupando digltOS aleatonoa puedcn simuIarse 'ooservacrones ):i de una 'distribud6n uniforme en [0, 1], que mediante la fund6n Y "'" P-i(X) daran -lugar , en virtud del Teorema 4.4.3 a observacrones yl que simnlan las que se obtendrian a partir de una distribuci6n cuya £und6n de disttibuci6n fuese precrsamente F. Se han publicado numerosas tables de mimeros aleatorros.

Ejemplo 4.4.4. Simulaci6n de observaczones normaies

Obtener PO! simulacion cuatro observaciones independientes de una distribuci6n NCxio, 1).

Agrupados ce cuatro en cuatro lOS digitos aieatonos de una 'determrnade tabla, encontramos

2.369, 8971; 2314. 4806

Considerados como observactcnes en [0, 1] tenemos pues los mimeros 0,2369. 0,8971, 0,2314, 0,4806. Sus imagenes mversas en la Tabla de la funcidn de distribucion normal son aproxrmadamente, temendo en cuenra Ia relacion iN-xl = i-<lJ(x),

- 0,716. 1,265. - 0.734. - 0.0486

Estos nrimeroe pot 10 tanto puenen urilizarse como 81 fueran 4 ooservacrones mdependientes de una dlsrrfbuckin N(xlo. 1).

4.5. Caractertsticas de una distribuci6n

Lo mas relevante de la mformacion contenida en ia fund6n de distnbuci6n de una cantidad alcatoria puede sintetizarse mediante unos ntimeros, sus caracterisucas, cuva observacion nos de una idea aproxrmada de la configuracion de la cantidad aleatcria cuya distribucion estudiamos, Es cierto que solo retenemos con elios una parte de la mformacion contenida en ia fund6n de distribud6n, pero se trata de Ia parte mas utiI.

DEl'lNICI6N 5.5.L Sea X una cantidaa aieatorta y sea I(X) una funcioh suya. La media 0 csperanza ae f{X), que aenoiaremos E[f(X)] es, SI extsie ei valor de la expresi6n

CANTIDADES ALEATOl1lAS 103

Sl.X es una cantidad aleatorta discreta'Y ei ae

f'~

E[f(X)] = J f(xl p(x)dx

.i -(IQ

SI es continua.

E:n realidad una definlci6n formal del valor espezado de una cantidao ateatcna exige que Ia sene 0 ia zntegrar que I. defineu sean absoiutamel,te coJt1Je'gentes, esto es, que J:lf(x,llp(xd < 00 0 flf(x)lp(x)dx < ee Todos los eiemplos utilizados en este libro cumplen eSG condicidn,

Observese Ia analogi a entre ambas formulas. En el caso discreto se trata de una suma sobre todO$ los vatores posibles de /(X) multlplicados por sus probabllidades; en el case connnuo el sumatorto se transtorrna en mtegtal v JlI funci6n de probabilidad en tund6nde densidad de procabilidad, De hecno, es posible dar una definicion unificada utilizando conceptos de teorta de la medida.

EI concepto de valor esperado es ei que nos permite defimr caracterisncas de la distribucion de una cantidad aieatona que constituven una descnpcidn aproximada de sn configuracion,

DEFINICI6N 45.2. Los mementos absolutes de oraen k, ms, y i05 momentoscentrales de orden le, Uk, de una cantidaa aieatorta X son los numeros

l1k =E[{X-E(X]}k]

En particular, m; = E[X] es ta media y [.1,2 = VeX] ta vananza de ia distrioucion «e X.

A D[Xl ta PI'Z cuadrada de ta oananza, se ie llama desviacidn tipica Y lZ D[X]/E[X] coeficienre de variackin,

La media de una distribuci6n es una medida de su iocaiizaclon y puede ser rnterprctada COIDO el centro de graved ad de Ia disttibuci6n. La aesvtacion tiptca de una dist!·jbuci6n es una medida de su dispersion, que se mide en las rmsmas unidades que X y que E[X]. El coeiiaente de oariacio» es una medida adimensional de la dispersion de Ia distribuci6n.

Tanto ia media como Ia vananza, Y POt tanto Ia desviacion tIplca, de una distrlbucion pueden no exrsnr, pero cuando existen su valor es tinico.

TEOREMA 45.1. (Llnealidaa dei operador esperanza). Para toda cantidad. aieaiorza X y para todo a, b, se uerijica que

(i) E[aX + b] ca "E[X] + b

""j""

",!,

:~"-:

104 BIOESTADISTICA

y, como consecuencm,

Dewustracion

Por ddioid6n. 51 X eo una cantidao ateatona discreta,

B[aX + b] = :E(ax, + b) PIX;) = df;x,p(xl) + b:ZPlx" = = al:x,p(x, j + b = aE[X] + b

la dernostracidn para el caso continuo es ~nillog".

Adem~,. utilizando este resultado,

D'[ax + b] = E[{aX .... x-EtaX + b)}'J = = E[{aX -+- b-aE(Xl-b}'] =:

= E[a'{X -E(K)?] = a'E[{K -E(X)}]' = a'D'[X]

Los mementos centrales se pueden poner en funci6n de los mementos absolutes: en particutar.

TEOREMA 4.5.2. Para zoda centidad aleatoria X,

Demostracl6n

Por definiclon

D'[Xl = B[{X -E(X)}'] = E[X'-2E(X)X + E'(X}]

y, utilizando el Teorema 4.5.1,

D'[X] = ErX'1-2E(XlE(X) + E'(X) = E[X'] ~E'[X]

La media no es Ia tinica medida de Iocalizacion de una distrlbuci6n de probabilidad m La vananza, 0 su raiz cuadrada la desviacion tfpica, es su iinica medida de dispersion,

DEFINICI6N 4.5.3., Iln cuantil de oraen 1J de una oansidad aieatorza X es una soiuclon ae sa ecuacion F(xJ :::: p, donde Fix) es fa tunci6n de distribucion de X. A un cuantil ae orden 1/2 se Ie llam(l medians. At znteruaio dellnida par los cuantlle: de 6rrienes 1J y 1 - fJ se le llama intervalo rntercuantilleo de orden p.

.J I

CANTIDADES ALEATORIAS 105

La mediana es una rnedida de Iocalizacion de Ia distribuci6n. Si existe. eo e{ punto que divide los valores posibles de Ia cantidad aleatoria en dos comuntos equiprobables: SIn embargo, Ia znediana puede no existir.

Los tnteruatos tntercuantiiicos son medidas de dispersion, EI tnteruaio intercuartilico, Irecuentemente utilizado, es el rntervalo intercuantflico de orden 1/4.

DEFINICr6N 4.5.4. Una moda ae ia distribucion de una cantidad aleaiorza es un uaior que maXlmiza ta tunci6n de trrobabilidad, st X es discrete, 0 ta funci6n ae densidad de probebilidaa, SI X es continua.

La mod a de una cantidad aleatona, que es su valor mas probable, es otra medida de Iocalizacion. Cuando existe, no es necesartamente umcs.

Ejemplo 4.5.1. Elecci6n de pactentes (cont.)

Determinar las caracteristicas pnncipales de la cantidad aieatoria discreta definida en el Eiempio 4.2.1. cuva funci6n de probabilidao es

p(X :::: 0) = 7/15, p(X:::: 1} = 7/15, p(X = 2) = 1/15

Por defirncidn, I. media sera

Z ., 7 1 9

E[X] =xIPlxd = 0-- + 1-- + 2-- = -- = 0.6

15 15 • 15 15

v, analogamenre

! 7 7 .i 11

E[X'J = XiP(X,1 = 0' -- + P -- + 2' -- = --

15 15 15 15

En consecuencia, is. uarianza sera

11 / 9 l'

D'rX] =E[X']-E'[X] =-- !-

15 ~ 15 ,

156 255

(' 156 '111'

D[X] = -) '" 0.8327

225,

v el coeflciente de vanaclon

D[X]/E[X] = 0.3.327/0.6 '" 1,3878

:J~:. " -

·106 BIOESTADISTJCA

t a.sf

r I

Ptxl

Or---~O---+-+-----2~----~X~~

E [X]

Existen do, rnocas. X = 0 v x =·1 Y no existe medians.

Como puede observarse en el eremplo anterior, la media de Ia distribuci6n de una cantidad aleatoria, a diferencia de la mcda, no bene necesarramenre que coincidir con alguno de sus valores posibles.

Ejemplo 4.5.2. Tiempos de espera

Se sabe que el tiempo que permanecera el quirofano de una pcliclfruca sin ser ocupado es una cantidad aleatorra cuya densidad de probabilidad es .de Ia forma

PIX) = Ce~"" S1 x ;» 0

= O. para cualquier otro x.

Determinar sus caraccensticas principales.

En primer mgar debemos determmar 13 coristante C de proporcronalidad. Pue$to que Jp(x)rlx = 1 y

3

tenemos C =

[f~ e-"dx ] _. = 3. Ade.tnas. pot definicion. Ia media sera

E[XJ = f~ xp(x)dx = 3 J: x.-=dx = ~

CANTIDADES ALEATORIAS 107

anru.ogameote.

E[X'l = f_~ x'p(xldx = 3 i~

uananza seta

1 D'[XJ = ErX'J -E'[X] =- 9

.v por tanto, la cesviacicn tipica D[X] = 1/3 v el coeficiente de vanacidn D(XJ/E[XJ=l.

La tunci6n pC,,) = 3~-" no tiene ningtin maximo v pot tanto no existe mnguna moda.

L" tuncidn de distribuclon es

F(xl = 0, x"'; 0

j>.

F(xi = j,

I' 3e"';.r = ~ (;-:';1 r

f.

=l-r'\ ,,>0

La mediana. a cuantil de orden 0,5. es Ia solucion de Ia ecuacion 1- e:" = 0,5, csto <:5 X = -lOll (0,5)/3 = 0,231

3

Es convernenre disponer de algunas de las caracterfsticas de las distrrbuciones mas .unportantes.

,-:"

108 BJOESTADiSTICA

8 V

..... 8 '"

V V V

s V

v

8

\l

'0"

::i:

"';s. .. ~

,~.;..,., ..

~

.... '"

CANTIDADES ALEATORIAS 109

Ademis. ia mod a de Be!61a;, S) es (0. -1 )/( a: + (=I - 2) y ta de Ga(SI«, Sl es (a-1)!!3. Las nzodas de N(xl[J., O'J y St{xlp... 0', t;() coznciden con sus par tratarse de distribuC1-ones slm!:trzcas.

La demosttaci6n puede encontrarse, PO! eiemplo, en Raiffa & Schlaifer '~:(i96l, 3.' parte).

En Ia Secci6n 4.4 estudiamos Ill. forma de deterrnmar la distribucidn de . una funci6n Y = j{X) de una canridad aleatoria X. Sin embargo, si io que "'hecesitamos es tan s610 una idea aproxirnada de sus caracteristicas, no es ne. 'cesariO -determmar toda ill. distribuci6n para caicularlas, .En efecto,

TEOMMA 4.5.4. Sea X una cantidad aleatorta y sea Y = f(X) una fund61?suya Jujiczentemente regular. Entonces,

(i) . B[Y] "= f{E[Xl} + ~D2[X] f"{E[X]} 2

(ii) V[Y1 = [f'{EIX]} JZ JY[X)

Pemostraci6n

Desarrollando f(X) en sene de Taylor alrededor del punto B(X}.

~

fIX)'"" f{E[X]} + IX -E[X]) r(E[X]} ... -{X -EIX]}' f"fE[Xl} + ... 2

v puesto que ia esperanza es un operador lineal, tomando valores esperadas en ambos lades cbtcnemos (il.

Ademds, 10 ecuacion antenor puede reescribirse ell Ia forma

L

Y -!{E[X]}--D'[X] rUl[X]} 2

'" (X -E[X]) IU[X]} +.:. [{X-E[X] }'-D'[X]J ["fEIX]} + ... 2

y, en virrud de (i), ei pruner miembro de 1. ecuscion es aproximadamen-e Y - E[Y]. Elevando at cuaorado, quedandose solo con ios termtnos de orden {X - E[X]}', v tomando esperanzas, se obnene (iil.

Ejemplo 4.5.3.

Normalit.aci6n ae una distribucior: Beta (cont.)

Sea X una cantidac aleatorra con una distribncion Beta, Be (xio:., ~) v considerese la funci6n Y = log{X!(l-X)}, De acuerdo con Jo expuesto ('0 el

11<) BIOESTADISTICA

Eieroplo 4.4.2 Ia distribucion de Y seni, aproxrmadamentc, N(yIE,[Y], D[Y]). Deterrnmar los valores aproximados de E[YJ y de D'[YJ

Sabernos (Teorema 4.5.3) que E[X]=a/(a+~) y que D'[X]=ccP/{a.+fl)'(a+i>+l)}.

Ademas,

2x-~

x 1

Y '" log ~~- -7 y" = ---- -+ y" = ----

1-X xil-xi x'(l-x)'"

En consecuencia, utilizando el Teorema 4 . .5.5

E[Xl 1 2E[X] -1

E[y] = log + - D'[X] :---~-----

l-E[X] 2 E[X]' {l-E[X]}'

1 'I •

'I D'[Xl E[X] ll- EIX]}

( D'(y] ee I

,

y, susnruvendo

EIY] = log(o:/~) + 10:- 13)/20:13 D'[Yl "" (a. + I'll/cd3

En general, el calculo directo de los mementos de una distribucion a partir de su dehnicion es complicaoo. Exisre un metcdo mas eficaz, basado en Ia funci6n generatrtz de mementos.

DEFrmcr6N 4.5.5. La funcion generatnz de mementos ae una, cantidad .iueatona X) -que representaremos con ta tetra IY. es \lI(n == B[ e'X].

La funci6n gcneratrrz no existe necesariamente para todos los valores de t, aunque siernpre existe para t == 0, puesto que entonces \11(0) == E[eOX] = = B[l] '= 1. Cuando Ia funcion generatnz extste para todos los valores de t en un mtervalo que contenga al punto t = O. pnede utilizarse para determi-

nar los mementos absolutes de Ia disttibud6n ("). ",_

TEOREMA 4.5.5. Para toaa cantidaa aieatoria cuyo momento absoiuto de orden k exzsta,

donde Il/k\O) eS et autor de to k-stma dersuaaa de ta funci6n generatre: en .ei puruo t ::= 0.

(., La funci6n caI'acterfst,c(I,. E[r"X], donde , es In unidad tmaginerra, existe sternpre V es una generalizacidn de Ia Iuncion geacratnz de rnornentcs. Su esrudio. SID embargo, soorepasa los Iirnrtes rmpuestos a este libra,

CANTI DADES ALEATORIAS 111

En virtud de Ia definicion deIa funcion e',

",(t - E[ 'X] _ I~" (IX)' 1 "',J- s -El4--,

.~, kl" J

puesro que Ja esperanza es un operador lineal.

2; " '2 t'

"" 'kIErX'J'" -- m, =! + tm, -f. -"-m, + _::'_m, + ...

,.,' .=, kl 2!:3!

Derivando.

tl. t1

'1"(1) = m, + 1m, + --m, + _" ~m, + ...

2! 3!

'l'''(t) "" t'

tn, + tm« + --In, + __ III, +

21 3! , ..

y, por tanto ':1:"(0) = m" ",,"(0) '" m, .," 'l"')(O) = m •.

Ejemplo 4.5.4.

Tiempos ae espera (cont.)

Sea X Ia canridad aieatoria definida en el Eiemplc 4.5,2, cuya funcion de densidad de probabilidad era

;:;:; D. para cuaiqurer otro x,

Deterrnmar su .funcion generatnz y utilizarla para xieterminar E[X] y lY[X].

Pox oefinid6n.

1-:

~; .

r, t: i;

112 BJOESTADISTrCA

ia runcion generatr.tZ no existe, en este caso, para t ;;;'.3.

.3 'l"'(tJ=_~f3-t), .

6 'JI"(t)<=---. (.3-1)'

.I o/((}) = E[X] = - .3

2 'I'''(O) = E[X') = - 9

v par 10 tanto D'[X] = E[X'] - E'[X] = 1/9.

Baro condiciones muy generales, Ia funci6n generamz caracteriza a la distribucion. de forma parecida a como 10 hacen 13 funcl6n de distribuckin o ia de (densidad cie i probabilidad, EI estudio derallado de este tema excede, srn embargo, los Ifrnites de este volurnen.

4.6. Dlstrlbucrones multlvarrantes

En nuznerosas srtuaciones es necesano considerar snnulnineamente las propiedades de dos 0 mas cantidades aleatorias, Per ejernpto, las consecueneras de un deterrntnado tratazniento pueden depender simuitdneamente de 13 presion sangufnea y de 1a cantidad de azucar en Ia sangre: los posibles dec. tOB de una deterrnmada enferrnedad heredirarra pueden depender stmulta, neamente del sew. 10). edad y el grupo sanguineo del paciente.

DEFlNICr6N 4.6.1. Dado un estaczo prooabiiisszco (n, Z, P), un vector aleatorio de dimension Ie es una tuncion que «soaa un etemento if? R'a cada etemento ae n.

Naturaimente, carla una de los componentes de un vector aleatorto es una canridad aleatoria, Asi. sr a un nuevo pacrente Ie asrgnamos su tempera- , nrra, presion sangufnea l' ectad, hem os definido un vector ateatorio de dlmen- ..... si6n tres, cuyos componenres son las cantidades aleatorias menctonadas.

Todas las probabilidades relatrvas a los valores que puede tornar un vector aleatorro pueden obtenerse directarnenre a partir de sn iuncion de distribucion.

DEFINlCI6N 4.6.2. La funci6n de distribucion de un vector ateatono X"" {Xl, X2 ••• '. Xd es ta [uncion de Rk en [0. 1J aelinida mediante

F(x], -"" ... , Xk) "" p[{X1 ~ XI] n {X2':;;; x,} n ... n (Xk ~ xd)

. Si un vector aiearono X puede tomar tan solo un ntimero fimto 0 numerable de valores disrtntos, dccimos que es discreto. Sus componentes son

CANTIDADES ALEATORIAS 113

. entonces cantidades aleatcnas discretas v su tundon de prol7abitidad es Ia . fund en de Rk en [0, L]

P[XI, X2, ••• , XnJ = P[{X, =xd n {Xl = xzf n ... n fXk = xdJ

(1)

Par otra parte, SI la prohabilidad de que un vector aleatorio X de dimeJlsion If. pertenezca a una determinada region A de R' puede expresarse mediante una integral de Ia forma

r (' I'

P[X E A] ::::: I , .... JI P(XI, Xl, .•. , xU ax, aX2 ... dx; (2)

J" A

decimos que X es un vector aleatcrio contmuo y que p(xJ, :0., ."J Xk) es su tuncion de aensidad de probabilidad. Sus componentes son entonces cantidades aleatonas contmuas, y se verifica que

okF(xJ, X2, xki

aXl fJxz ••. OXk

[3)

Es ObVIO que los conceptos reianvos a vectores aleatorios son una generallsacion natural de los comentaocs en las secciones antenores para canndades aleatorias.

Las distribuciones de subcomuntos cualesquiera de las componentes de un vector aleatorio pueden set deterffimadas a parnr de Ia distribucion del vector y reciben el nomore de distribuclOnes ml1rgznaies.

DEFINICION 4.6.3. (Distribucrones marginales}. Sea X un vector aieatorzo de dimension Ie, sea (X" Xl) una P?lrtlci6n ae ias componentes de X y sea t ia dimension de X,.

Si X es discrete, Y su [unci6n ae probabitidad es PIx" X,:J, ia iuncion de probabitidad de X, es

donde fa suma se erectaa sobre todos lOS puntas (x, ~J para tos que X, = x..

Si X es continuo, y SU funci611 de densidad de probabilidaa es Pl x., X2), ta tunci6n de densidaa de probabi/idad de X, es

r

P(x1) = J Rk-. P(X" x2)dx~

fi

; ,~

114 BIOESTADISTICA

Ejemplo 4.6.1.

Tipos de entermedad

Se sabe que un determinado sindrome puede ser causado pot tres enfermedades distrntas, que cada una de elias nene una forma oenigna y una rnaligna, y que el porcentare de veces en que se presenta cada una de Ia combinactones posibles es

B M

30 10

40 9

10 1

Deterrmnsr Ia funci6n de probabilidad de un vector aleatorio que desertba Iasituacion v las de sus dos distribuciones margmares.

La situacidn puede ser deSITlI", por ejernplo, mediante ei vector aleatoric Z = (X, Yl donde

XIB)=O. Y(w,)'=j,

XIM1"" 1

,= 1.2,3

Ia corresoondiente Iuncion de probabilidao sera claramenre

pro, 1) = 0,30, pte, 21 = DAD, pro, 3) = 0.10

p(L 1) = 0,10, P[l. 2) = 0,09. p(l, 3) = 0,01

In marginal de 1. csntidad aleatorra X que describe 51 Ia enterrnecad se present. en torma cenzgna 0 malign. es

Pix == 0) '" prO, 11 + pro, 2) + pro, 3) = 0,$0 Pix = 1) = »(1, II + p(1, 2) + p(l, 3) = 0,20

de forma Que el 80% de los cases son bemgnos.

L~ marginat de I. cantidad alearcna Y Que describe la enrerrnedad es

FlY = I) = prO, 1) + p(l, 11 = 0,40 P(Y", 21 '" pro, 2) i" p( 1. 2) <= 0,49 pry = 31 = PrO, 3) + p(1. 3) = 0,11

de forma Que 1. enrermedad mas rrecuente es (,,), que se present. en el 49 % de los cases.

En general. el valor de unas componenses de un vector alearono influye sabre el valor de arras. Esto no sucede cuando son tndependientes.

CANTIDADES ALEATORIAS 115

DEF1NICIQN 4.6.4. Se dice que tas componentes de un vector eteatorto X son rndependienres entre si. 51 se oeriiica que

P(XI, ... , XI,) ::o:.P(X,), P(Xl}, ••• , P(Xk)

es aectr su funci6n de probabilidaa, 0 ae densidad de tirobabliidaa, es zgual at tguat at producio de las correspondientes [uncumes margmates.

L:! independencm es un caso particular de un concepto mas general y mucho mas frecuente en Ia practica, Ia tntercambiabilidad.

DEFINICION 4,6.5. Se dice que tes componentes de tin vector aieatono X son intercarnbiables entre ri, sz para toaa tiosible permutacion suya (XI" XI" .. " Xi, j se ueriiica que

de forma que su tunci6n de probabilidad a de densidad de nrooabilidad es sndependiente del orden en que se suae».

Intuitivamente, un coruunto de cantidades aleatorras son rntcrcambiables cuando las conclusiones que pueden extraerse de su observaclon no dependen del orden en que han sido observadas.

La tnfluencia de unas cantidades aieatonas sabre otras puede set deterrninada 51 se conoce Ia disttibuci6n del vector areatono que ... se obtiene tomandalas como componentes.

DEFIN[Cr6N 4,6,6, (Distribuctones ccndicionaies.! Sea X un vector aleatono de dimension k, sea [X" X2) una particio« ae las componentes de X y sea t ta dimension de X,. Si p(x" X2) es ta tunci6n de proeabilidad, en ei caso discreto, 0 ta tunci6n de densidad de prooabiiidad, en ei caso continuo, dei uector X, ta distribution de Xl cuanao se save que X. = Xz utene anita POI'

La definicion de las distribucroncs condlcionales esta claramente motivada por el Teorema de Eaves, Naturalmente, si XI Y X;, son independientes, V solo entonces, results que p(xll":J) = p(xI),

Ejemplo 4.6.2, Tipos de entermedaa (conr.)

Detenmnar las distzibuciones condicionales correspondientes 1'\1 vector aleatono del Eiemplo 4,t,,1.

116 BIOESTADISTICA

Las distribuciones ccndicronaies de Ja cantidad aieatona X. que determtna .1 Ia enfermedad se present. en form" bemgna. dada Ia enterraedad, seran

prO. 1) {J,30

( PIx"" oly = 1) = = -- = 0.750

~ Ny = 1) 0,40

(- PIX = 11Y = 11 = 1- 1'\x = Oly = 1J = 0.250

pro. 21 0.40

, PIX = Diy = 2l = = -- = 0.816

\ Ply = 2) ()A9

~ Plx = 11Y = 2) = 1- PIX = Oly = 21 = 0,184

pro. )) 0.10

~ t, PIX = Oly =)) = -- = 0,9()9

ply = 3} 0,11

PIX = 11Y = 3} = l-PIX "" Oly = 3) = 0.091

Amilogamente, las distribaciones condicionales de Ia cantidad aleatoria Y. qne deterrnma ia entermedad. sabiendo si la torma es bemgna 0 maligns seran

pro, 1J 0,30

I, ply = 11" = 01 = = -~ = 0,375

p(x = 0) 0,80

I pro, 21 0,40

) Ply '= 21x =; 01 = = -- '" 0,500

, P(" "" 0) 0,80

~ PlY =; 31x = 0) = 1- PlY =, llx = {I) - P\Y = 21x = 0) = 0,125

pO,11 0,10

~' PlY = 11x = 1) = = -- = 0,500

P(x = 1) 0,20

. p(l. 2) 0,09

)PIY '" 21x = 1) = =-- = 0.450

, PIX = 1) 0,20

\PIY = .31" = 11 = i-Ply = * = I)-PlY = 21,,= 11 = 0,050

Una Iunckin de un vector aleatorio es otro vector aleatoric (0 una cantidad aleatorra, que no es mas que un vector aieatono de dimension uno),

La distcibuci6n de una fun cion biunivcca ~ de ill) vector aleatono puede set deterrrnnada mediante un teorema que generaliza .el 4.4.1.

TEOREMA 4,6.1 Sea X ::: tXt, .,_, Xd es an vector aieatono cuya densidaa ae probabiiidad es pxlX} y sea.Y "" !(X) = {ft{X), ... , fk(X)} una transiormacion biunivoca suya. Enzonces. ta densidad ae P/'obabilidad ae X es

Py(yJ = px[g{y)]](y)

CANTIOADES ALEATORIAS 117

danae x = glY) == tgllY), et [acobiano

gklY)} es ta iuncion tnuersa de f(xl, szemtir«

J(y) ==

, exssta, no sea mao, y tenga tod«: sus denuad.as parctales conunuas.

La demostracion es una generalizacion mmediata de Ia del Teorema 4,4.1, Para determmar Ia distribuci6n de una funci6n ilx) de un vector aleatorio k-ditnensional cuya dimension i es menor que k puede procederse de Ia forma sigurente: (i) Se detcrmrna orra funcion Mxj de dimension k - i, de forma que Ia transformacion conjunta i(x} == (fdx), hex» sea una transforrnacion biunivoca; (ii) se determma entonces la distribucion de fix) mediante el Teorema 4,62 y [iii) se precede finaimentc a cbtener ia distribuci6n marginal de flx).

Ejempio 4.6,3. -Distribucion ad coaense

Sea X = (XI, X.} un vector aleatorro continuo cuya funcion de densidad

de probabilidad es .

p(Xj, x2i "" 4x,xz, 51 0 < x, < 1 Y 0 < X2 < 1 = A., en CUi!lqmer otro caso.

Detcrmmar Is distribution de y, = X!lX2•

De acuerdo con el procedirmento Que acanarnos de·descrlhir. empezamos cornpletando ra transrormaclon para hacerla biUI1;VOC~, Una sencilla clecci6n es Y, = X"

Si y, = X,fX" y Y, = X" entonccs X, =Y,Y, V X, = Y, de forma que sa correspondiente ±uncl6n rnvetsa es g[y) = {Y'Y1, y,} V su Jacobian<) resuira ser

I y.

](y} = . 0

~I i

1 i = Y,

Lit region 0 <:,c, < 1. 0 <:,c, < 1 se transtorma en .10 0 < y, < 00 0< y. < 1, 0< YJY, < i.

:'1".';.'

J.

y; .

118 BIOESTADISTICA

XI

o

y por 10 tanto Ia runcion de densidad de prcbabllidad de ~ sera

P(y" y,) <= 4,.y" 0 < y, < PO 0 < y, < l v 0 < y.y, < 1 = 0, en cualqurer otro caso,

Ficalmenrc, la densidad de probabilidad de y. sera

r Y! I'

P(Yd = ! p(y.y,Jdy,. "" 4y. ~'- = :l'.,

.J 4 e

0< y, < 1

y'" \ 'J../"I,

=tlYI~'~' I

. 4 0

1 <:VI < 00

3

Los conceptos rclanvos a las caractenstscas de las cantidades aleatonas se generalizan sm dificultad a los vectores aleatorros. Asi, el vaior esperado de una funci6n f(X) de un vector aleatorro sigue tornando Ia forma de Ia De, tinici6n 4.5.1. teruendo en cuenta que en el caso continuo se trata ahora de una integral multiple.

. ,

... .i. ':

CANTIDADES AlEATORIAS 119

Si X = (X], Xl, ... , Xk) es un vector aleatorio k-ditnenslonal, su media E[X] es el vector je-dimensronaj {E(X1), ... > E(X.)} cuyas ccmjonentes son las medias de las k dlstrlbuciones margrnales de sus componentes. Su matns; de oenanzas-cooarumuu, JY(X), que generalise el concepto de vananza de una cantidad areatona, es ia matnz srmetnca de dimension k CllVO elemento general es

crx, XI] "" E[{Xi-E[X;]} {Xi-E[Xj]}]

De esta farina los elementos diagonales de Ia matnz de vatlanzas-covananzas son precisamenra las vananzas de las k dlstribuciones margmales, esto es C[X;. Xd = D"[Xd. Los demas elementos de Ia matnz reciben el nombre de couartanzas. El coeiictente ae correlacion entre las componentes X, Y XI se define como

Interesan rrecuentemente las caracteristrcas de Ia distribuci6n de una combinacidn linea! de cantidades aleatorras,

TEOREMA 4.6.2. Sea X = : Ki, _." Xl<} un vector aieatono cuya esperanza extste. Entonces .

Demostrackin

E[a,X, + ... + a.X. + bJ =

("

I I [a,x, + ... + Ilk'!. + h] p(x" .... x.}dx., '''. ax, =

u' J

(> f'

'" il, I X,p(x.)dx, + ... + a, , :>;,p\x,ldx, + " =

~ J

como queriamos demostrar, La demostracion para el caso discrete cs analog".

TEOREMA 4.6,3, Si XI, ... , Xk SOIl centidaaes aleatorzas maependientes cuya cstieranza easte,

120 BIOESTADISTICA

Demostraci6n

POt definicion, 51 las X, son mcependienres, P(X" "', "d :=: )]P(xd, En consecuencia, en el caso continuo,

r r J

B[IIX,] = ) J (IIx,J)]P(X;i "" II x,Pix,) = IIE[X,]

Et mismo resultado se obtrene en ei caw discreto, Finalmente,

crx, XiJ =E[(X,-E[X,]) (X,-E[X,])]=E[X,-E[X,]l E[X,-E[X,]] ",0

TEOREMA 4,6.4, Si x; '''' Xk son cantidades aieatortas tnaependientes cuya uananza extste

Demostracion

Dernostremos prtmero que D'[X. + X,] = D'[X,] + D'[X,J. En erecto,

D'[X. 'i' X" = E[{X, + X,-E[X,] -ElX,]}')

ee EUX. ~E[XLJ }'+(X,-EIX,]}'+2iX. -E[X]]} {X,-E[X,])]:=: = D'[X,] + D'[X,] + e[x.x,] = D'[X,] + D'[X,]

en vtrtud del Teorema 4,6.4, Extendiendo este resultado a k variables V urilizando el Teore-

rna 4SJ (iil se completa ra dernostraclon. .

La mas urilizada de las distribuciones continuas multlvariantes es ia distribucio» normal mt,ittv(mante que generalize Ia distribucion normal definida en In Seccion anterior.

DEFINICI6N 4.6,7. Un V13ctOI' aieatorto continuo X de dimension k ttcne una distribucidn normal sz SU tuncion de aensidad de probabilldad, que aenotaremos Nk(xll-L, 1:) es de ia forma

1 1

P(XIJ .", xki = ......,--,-----,:- expl (x un::-l(x ). ,

11:)112 (211:)"/2 • - 2 . - . - u.. ,

donae x,' = {Xl, "') xd E R'; 1.( = tJ,11, .... ILk} E Rk.y :E es una matrtz aetinida posittoa (*).

("\ Una matriz A es definida positiva si para GU31qUleJ: vector x ¢ 0 sc veri fica que x' Ax > O. donde x' es el vector transpuesto de X,

CANTIDADES ALEATORIAS 121

Los parametros IL y :z:; contienen, respectrvamente. los mementos de pnmero y segundo orden: en efecto,

TEOREMA 4,6.5, Si X es un vector aieatorto con distribucion normat Nl1xlp., 1:), E[X] = u y ~[XJ = 1:.

La demostracion puede consultarse, par ejemplo en Raiffa & Schlaifer (1961, Cap, si

Cuando Ie = 2, Ia correspondiente densidad normal biuanante es una superficie acampanada centrad a en ei pun to (x~ X2) F (tJ.l, !-L2j. Para facilitar la rnrerpretacion de los resultados, 111. normal bivanante se sueJe describe como tunci6n de sus medias iJ.l, U2, desviaciones tiprcas 0'" 0'2 Y coeficiente de correlacion c. De esta forma, can

(4)

y

Ia ±unci6n de densidad de Ia normal bivariante resulta ser

1 ( 1 [ ( XI-{J.! )2
e..'!:P) 2(1-jl) j -
21',;0',0'1 v' (1 _ pl) " 0',
{ X.-IJ" J ( Xl-[.l.2 I (, X2-It! fn
-2p! / +
. 0'1 l O"z / 1]',
Voiviendo al caso general, TEOREMA 4.6,6, Sea X un vector aleatono can distribucio» normal Nk(xi.p., :L:) y sea (X" X2) una parucion. de ias componentes de X, sea i la dimension X"

I:n]

I:22 )

tas correspondientes partiaones de [.l. y L. Entonces

p(X,) = Nl (x11!-11, :Ell)

PtXdX2) = NtrX1!J.1l + 1:ut;' (x" - J.1~), 1:'1 - :E12I:;;'1:2l!

La demostracion puede consultarse, par eremplo, ell Raiffa &. Schlaifer (1961, Cap. 8). Cuando k = 2, results

"

! ;~

I~, .'

122 BIOESTADISTICA

TEOREMA 4.6,7. Sea X = (XI, X,i un vector aleatorzo con distribuci6n normal N(xl, :dU,b [J,l, O'J, 0'2, PI. Entonces,

p(xtl =:: N(Xll[L" 0'1 i p(x2i = N(X,I[L2, ",.i

". 0"1 ~ \.

p(Xllx" = Nl xllI-t, + (J-- (;0:;2-[..\2), O'ly(1-t}) I

0'2 ~

Ejemplo 4.6.4.

Pesos y estaturas

Se sabe que Ia distribucidn conjunta del peso en Kg Xl, Y Ia estatura en em X, de un varcn de 18 alios es una distribudon normal cuyos parametros son

. _ (' 63,05'1 u ~. I I.. 174,5 I

J: = (64,09 36.55) \36,55 42,55,

y

Determiner la probabilidad de que un Varon de 18 afios y 167 em de estatura tenga un peso comprendido entre 54,39 y 6.3,05 Kg. Comparar el resultado con e.l obtenido en el Eiemplo 4.3.2.

De acuerdo Con (41 lOS parametres de ia distribucion conjunta oe (X, X,) seran III = 63,0.5, I.b = 174,.5, 0'. = 8,Ol, 1)', "" 6,.52 y p = 0.70. Consccuenternente, 1:1 distnbucion -condicionai del peso X.. dada Ia estatura X, "" 167 serf, utilizando e.l Teorerna 4.6.7

8m

Nf x,i63,05 + 0,7 -~ (167 -1745), 8.01 vll- O,7')} = 6,52

ee Nf x,156.61, 5.718}

Par tanto, utilizando J~ Ecuacion 43.1 IF las tabla. de la Normar.

p[54.39 < X, < 63.0,5JX, = 167] =

= 1> ( 6),0:; - 56,61 ) _ q, ( 54,39 - 56,61 '!

.. 5,718 j 5,718 j

"" W(l,126)-¢r-0,388) = 0,5211

Como era de esperar, 1. probabilidaa obtenkla, {I,5211 es bastante mavor que 10 ootenida en eJ Ejemplo 43,2. 0,3599. En erecto.ua altura l' el peso estan positivamenre relacionados, de forma que sabiendo que ei sujeto nene una altura de 167 'em, inferior

CANilDADES ALEATORIAS 123

a ia media. es de esperar que su peso sea tambien Interior a I. media, V POJ: tanto que sea m~s alta 12 probabilidad de que se snue en un intervale de vaiores mfenores a Ia media.

4.7. Discusi6n y referencias

Los conceptos discutidos en este capitulo son rndependientes de la interpretacirin que se de a la nocidn de probabilidad, En consccucncia el concepto de cantided aleatoria, 0 variable aieatona C{]IDO se Ie llama mas frecuentemente, aparece en todos los textos de Teorfa de Ia Probabilidad.

Un tratarruento profundo de las ideas desarrolladas en este capitulo exige ciertos conocimientos de zeona de ia medida, El usa de tales ideas perrrute unificar el estudio de las cantidades aleatorras discretas v connnuas, pero reduce notablemente el conjunto de personas que pueden seguirlo,

Existen numerosas distribuciones de probabilidad, ademas de las definidas en las Secciones 4.2 y 4.3, que aparecen frecuentemente en las aplicacrones, Nurnerosas monogtafias ban side dedicadas a su estudio srstematico. Entre las mas cornpletas pueden citarse 105 cuatro volrimenes de Johnson & Katz (1969/1972), que mcrayenadernds una extensa blbHografia, V Ia tercera parte del texto de Raiffa & Schleifer (1961).

Entre los textos clasicos que discuten el concerto de cantidad aleatorra merecen mencion especial las de Laplace (1812/1912), Hausdorf (1914), Von Mises (19.36), Jeffrevs (1939/1967), Kolrnogorov a933), Feller (1957/1966), Loeve (1955/1977), Renvi (1962il966), Gnedenko (1962) y De Finetti (1970i1975) todos ellos de iectura obligada para un estudioso de ia 'I'eoria de la Probaoilidad.

CaS1 todos los textos de estadfstica maternatica incluyen una discusion de los conceptos desarrollados en este capitulo. Podemos mencionar entre elios los de Freeman (1963); Hogg & Craig (1965), Lindgren (1962), Lindley (1965), Mood, Graybill & Boes (1963/1974), Papoulis (1965) y Parzen (19601. A un nrvel 1Ilas avanzado estrin los textos de Anderson (1958). Ash {1972), Cramer (1946), Feller (19.37(1966), Fisz {1963), Kriskberg (1965), Rao (1965), Rohatgi (1976) y Wilks (1962), ademas de los «clasicos» ya- mencionados. Ellibro de Kingman & Taylor (1966) proporciona una mteresante mtroduccion a Ia teoria de la probabilidad como un caso particular de teozia de Ia medida,

La existencia de densidades de probabilidad esta relacionada can el postulado de (J'-aditividaa que, como mencionamos en el Capitulo 3, es aceptado por casr todos los autores, con La notable excepcion de De Finetti (1970/1975). Este autor es pot otra parte responsable del ooncepto de cantidades aleato-

124 BIOESTADISTICA

nas tntercambiables que, como veremos mas aoelante, aparcce de' forma natutal en los problemas de mferencra.

Entre los conceptos y resultados que hernos deddido omrnr en nuestro breve tratarntento de las canridades aleatonas, hay que rnencionar (0 el concepto de tunci6n caractensnca que generalize el de tunci6n generatrtz, (ii) su usa para identificar distribucrones y para determmar 101. distribucion de sumas' de cantidanes aleatcnas mdependientes y (iii) los problemas de conuergenaa de sucesrones de cantidades aleatorias. Merecen atencion especial los teoremas de limite. sobre los resultados de tai convergencia, de los que el Teorema 4.2.1 y el ieorema central del limue mencronado en 1:.'1. Seccion 4.3. son los etemplos mas conocidos. Todos estos ternas pueden ser eonsultados en cualquiera de los rextos avanzados que nemos crtadc,

PROBl.EMAS

1. El numero de operaciones que seran realizadas en e; Departamento de Traumata" rogra del Hcspitar Cliruco de Ia Umversidad de Valencic en las proxunas 24 noras es una cantidad aleatoria cuva runci6n de probabilidad vrene dada por la Tabla

x Plxl
0 0.10
0.15
2 0,35
3 020
4 I 0,15
., I 0.05 Representar graneamente Pix) v 'U eorrespondiente nmcion de distribuci6n. Determiner p[X;;" 2,5J, prO < X < 2], pro < X ~ 2), p[X > 6], p[X == 1,5J.

2. El numero de Ilamadas que deberan set atendidas W1a determmada madrugada par un medico de guardia es una cantldad ateatona X cuva tunci6n de probabilidad es de Ja forma

Plxl eo C/(x + 1), :or = O. 1, 2. 3. 4.

= O. en otto caso.:

Deterrntnar C. dibujar las correspondientes runcrones de probabllidad v de distribud6n v caicuiar p[X > 1J.

'"'-

CANTIDADES ALEATORIAS 125

3. Las noras transcurridas entre dos urgencies consecunvas es una cantidad aleatorra X cuva tunci6n de densidad de probaoilidad es de Ia forma

=0.

en 01:1;0 caso.

Calcular Ia corresoondiente constant" de proporcionalidad, representsr las tunciones P(XI v·Flx}, v determmar p[X;;;'O,5].

4. La cantidad m, en gramos, de protelnas conccnidas en 100 ml de plasma sangulneo de una persons adult. es una cantidad alearona X con distribucion normal N(xI6,72, 0,35). Calcular p[X < 6] v p[6 < X < 71 v determinar un mtervalo centrado en 6.72 cuya prooabilidad sea 0.95,

5. $e sabe que La cantidad de potasio contenido en La sangre numana completa es una cantidad alearona X con distribucicin normal centrad. en 43 mg/lOO ml, V que p[X"';; 32J = 0.025. Deterrmnar V[XJ v p[X > 50].

6. El rogantrno decimal de Ias horus necesanas pa~a realizar una determmada operacion es una cantidad alearona X can distrlbucion normal N(xIO,5. 0,3). Determinar 1. probabilidad de Que Ia operacion dure mas de cuatro horas,

e , La probabilidad de sobrevrvrr una neligrosa operacion cerebral es una cantidad alearoria X can distribuckin : Beta. Be(xI6. 4). Utilizar el hecho de que Y = jog{X/( 1- Xl} nene entences una distribncidn aproxrmedarnente ncrmai para determmar p[X;;;' 0.5].

8. En Una sala de espera se encuentran 15 pacientes, 5 hombres 'f 10 muteres. de los que se hace pasar 0 los 3 prtmeros, Sea X et mimero de mureres e Y oj nurnero de hombres selecctonados. Determrnar Ia distribuclon v las prrncmales caracterrsticas de Ia cantidad atearoria X - Y.

9. La ancnura de 10 peivrs X. V ej perimetro toracico X, en em en mutercs de'l8 afios tiencn una distribution contunra normal bivanante con

( 22,0 '\

E[X] "" .: I

63.9 )

( 1,09 2,28 \

D'rX] =[ ,

\ 2.28 9,82)

Determrnar P [X, > 66J, Pr20 < X. < 22.J v P[X, > 661X, = 211.

10. LIs cantidades de 'cido citrico X, V de ,lciclo laeneD· X, conrcnidcs en Ia orma nenen una distribucion normal bivnnante centrad a en 678 V 350 mg!24 h resoectrvamente, V con un coeficiente de correlacidn 0.9. Sablendo cue P[X. < 1281 "" P[X, < 100] "" 0.02. dererrmnar prx, > 8001 v PfX, > 8°°IX, =·500}.

·1··

. J: \1·.···

+

I.

·:·.·.1···

...

·;1:· ~J~

Capitulo 5

EI proceso de aprendizaje

, .

En este capitulo se describe el proceso que permtte incorporar 31 analisis de uo problema de decision la Informacion proporcionada POt datos expenmentales relacronadcs con sus sucesos incrertos resevantes,

Este proceso extge precisar, mediante Ia rtlnci6n de oerosimilitua, Ia relacicn existente entre ios datos y los sucescs mciertos: describir, mediante una distribution de probabilidad, ra informacion tntcial que se posee sobre Ia verosunilitud de su ocurrcncia v determinar. mediante el Teorersa de Bayes, ia distribuci6n final. que ·describe ta mrormacion que se posee sobre los sucesos mciertos tras rncorporar a Ia tnformadon miciai Ia que proporcronan los resultados expenmentales.

Este proceso ae aprendizaie constituve ra base de toco problema de mterencia: hacer inrerencias sabre eJ valor de e se reduce basicamente a detemnnar GU distribucion final. Los problemas de prediccion se resuerven como una extension natural at los problemas de inrerencra mediante ei usa del teorcma de Ia probabilidad total .

La reaccion natural de cuaiquiera que tenga que tornar una decision euvas consecuencias dependen de Ia rnagrntud de una cantidad desconocida Il es intentar reducir Sil incertidumbre obteniendo mas mforrnacion sobre su valor. El problema central de la interencta estadistica es el de proporcionar una metodoIogia que permrta asuriilar Ia informacion que resulte accesilile, con obieto de merorarrmestro conccimiento del mundo real.

',II

_- ~

128 BIOESTADISTICA

- 5.1. Cuantificaci6n de la mformaclon rmctal

Supongamos. sin perdida de generalidad , que estamos mtezesados en el valor de Una cantidaa ('q e que denorninaremos parametro de interes. De acuerdo con ios argumentos ofrecidos en el capitula de Fundarnentos, Ia infermacion disponible sobre el valor de 8 deberd ser expresada mediante una medida de probabilidad que describe el grado de creencia del mvesngador en Ia ocurrencia de los disnntos vaiores posibles de 6. Se trata pues de una cantidad aieatorta cuva distribud6n de probabilidad describe la mrormacion sobre el valor de e que rnicralmente se posee; esra distribucion recibe el nom. bre de distribucion' inicia; de B.

Si 8 es una cantidad aleatoria discrete, su dlstribuci6n de probabilidad puede ser descrita mediante Ia correspondienre funcion de probabilidad pte) == {PI, p~ .... f. Las probabilidades PI = p(8;) pueden set determrnadas mediante el uso de tecmcas como las rnencionadas en Ia Seccion 3-.6, 0 mediante el esrablecumento de relaciones entre elias que pernutan determmarlas.

Ejemplo 5.1.1.

Diagnosis

Las consecuencias de un determmado tratamrento dependen de ia enfermedad del paciente. Se considera que existen CU1CO enfermcdades 91, O2, E3, 84' y 8s compatibles con los slntomas observados. Las opimones del equipo medico soore estas posibilidades son ales que

pf 8. U ad = p{ e, u 84 U 85 f 71{82J '-= p{8q} '-= 4p{eJ}

y creen muv remota In posibilidad de que se trate de Ia entermedad as. Deterrnrnar la correspondiente distribution inicial.

Sea p, "" p{ Bd y supongarnos 1>, = 8, donde Ii > 0 es un mimcro pequefio, pero mayor que cero, Claramenre, tenemos ei sistema.

p,+p,=p,+p,+1i

p, = 41);

p, + p, + Pl + p, + Ii = 1

(* 1 Sj los sucesos mcrertos en que estamos -mreresados son de Ia torrna { A;. 1= 1. 2. _ .. \ podernos considerar en su lugar Ia cantidaa 0 = 1. 2, ...• de rorma que ptA;) = p(€ = il.

EL PROCESO DE APRENDIZAJE 129

ce cnatro ecoacicncs can cuatro incognrtas cuva solucidn, en tunci6n de 6. es p[ll) = {Ph 1", P" P., III con

1 4 1

p, = -~(1 + 88), p, = ti, = --(1-28), p, "" -~(1-2o)

10 10 10

En particular, 51 se tuzga 20 veces mas probable que B, no sea 1a causa de Ia doIencia a que \0 sea. tendriamos (1 - 6)/8 = 20, esto es 15 "" 0,048 V par io tanto

pre) = j 0.138, 0.362. 0,090, 0.362. O,048l

Observese que Ii puede ser tan pcquefio como se quiera, pero debe set rnavor que cero a menos que pueda garantlz~ru que a, es »racucamente smnosible.

Si e es una cantidad aleatorra continua. su distribucion de prcbabilidad puede ser descrrta mediante la correspondiente funcicn de densidad de probabilidad p(I)). Generalmente, se empieza eligiendo una familia de densidades de probabilidad suficientemenre amplia como para contener una distribucion que aproxrrne adecuadamente 71(8). As!, par eternplo. si e es una eantidad aieatoria tal que - 00 < 8 < oc y nuestra rnrorrnacion sobre B puede representarse per una densidad de probahilidad unimodal, srrnetrica v con forma acampannda. puede empezarse supornendo que p(a) puede aproximarse par una densidad Normal, N(6111-, o-j, de Ia que tocavfa debemos determiner sus parametres.

Una vez elegida ta familia de densidades apropiada es necesano establecer condiciones que nos perrmtan detezmmar los para metros de Ia distribucion. pertenectente a esa familia, que describe. mejor nuestra mformacion ID1Clal. Estas condiciones puecen ser ce InUY diversos tipos. pero rrecuentcmente consisten en una medida de Iocalizacion y una .medida de dispersion de Ia distribucion de B. Entre las medidas de Iccalizacion suele utilizatse Ia media 0 Ia moda; entre las de dispersion cuantiles 0 mrervalos mtercuantilicos.

Ejemplo 5.1.2,

Caniidad ae nrosm«

Las consecuencias de una determrnada medicacion pueden deternunarse a partir de Ia cantidad de tirosrna contenida en ia anna. La informacion inicrai score la cantidad de nrosina 8 contenida en Ia onna de unadeterminada paciente puede describirse mediante una distribucion normal centrada en 39 mg/24h y tal que p{ e > 49l = 0,25. Deternnnar la correspondiente distribucion rrncial.

Se sabe que pte) ""N(61.39. cr); debemos determmar cr utilizando Ia condicirin p{S > 49} = 0,25. Claramerte, utilizando III Ecuacidn 4.3.1,

r 49-39 ' p{B > 491"" p{49 < e < ee f = <Pr=I-(jll--~ I

(}' >

En consecuencia, <P( IO/(}'i = 0,75; utilizando las tablas de Ia distrlbuckin normal. 11)!(}' "" 0.6745 v 1>01' tanto a ;= 14.83, La distribuci6n mici>il es pues N(el'>9, 14,83)

• 0.05 r

o

Una vez deterrmnada Ia distribucion imcial, debe procederse a calcular algunas de las probabilidades que implica: esto permrte comprobar S1 las probabilidades calculadas son consistentes con nuestra mformaci6n rmcial y, consecuenternenre, SL la familia elegida permrte una buena aescritcion de 1a mformacion inicral.

Ejemplo 5.1.3.

Cantidad de tirosma (coni.)

Determinar el punto eo tal que p(S > 80)jp(8 < eo) = 20 de acuerdo can la distribution mrciai obtenida en el Eiempto 5.1.2,

Claramente,

pre >- eo) p(B < eD)

p(e> aD) 20

~---- "".;20 ~ PIs> eo) == ~ = 0,9524

L - pre >- eo) 21 .

Utilizando de nuevo Ia Ecuaclon 403.1

EL PROCESO DE APRENDIZAJE 131

I 9,-39 \ p[ e > 601 = p{ e. < a < co I = w( 00' - w l--. -) 14,83

~ 6,-39 J'

=l-wl --- =0,9524

~ 14.83

En Ias tables de Ia disrribucion normal, puede observarse que WI1,67) = 0,9525; por

tanto,

(l,-39

--- = - 1,67 -;. eo = 14,23 14,83

De forma que Ia distribud6n mlcial encontrada tmplica que es vemte veces mas probable que 6 sea mavor de 14,23 mg/24 h a que e sea menor Que este valor.

Si e es una cantidad aleatoria tal que 0 < e < 1 v nuestra mformacion sobre e puede r~resentarse por una densidad de probabilidad unimodal, puede empezarse supomendo que p(e) es una densidad Beta, BelSla, (1) y precisar condiciones que permrtan determmar sus para metros .

Frecuentemente. una de estas condiciones cos la media. m, de Ia distribuci6n y La otra un cuantit cualquiera, esto es un valor eo tal que p[e:Q60] =». donde p es una probabilidad conocida, El valor de m es e1 centro de gl'avedad de Ia disnibucion: para valores de p proximos a uno; 60 es una especie de cota superior, y para valores de p proximos a cera una cota intenor, de los valores de e que resultan verosimiles a la VIsta de la mrormacion de que se dispone.

Los parametres a y B de la distribucl6n uncial Be(Slex, ~)pueden set aproxrmadamenre expresados en f:unci6n de m, flo y p, haciendo usa de Ia transformaci6n normalizadora descnta en e1 Ejemplo 4.5.3.

Supongamos, en erecto, que PlO) =BeC6!a, ~J, H(9) = m y p(S ". a,} = p. Utilizando el Teorema 4.5.3 . .be) = rxi(a + f:l), de forma que'm = rr,/(rx 1" ~) y, por tanto,

l-m i3=---tx m

Por otra parte, 51 pre) = BerBltx, til tenemos , utilizanoo 105 resultados del Ejernpio 4,5.3, que 81 1,; = lag re/{l- en,

p(<;;) ",NCq!J., "'1

].I. = log(ctJ~) + (ct- ~l/(2rx~J

a: = fa + 13l/rxi3

(2)

(3)

y, en consecuencra, 51 t;.. = log [9./(I-B,l},

P = 1'[9", aD] = p[log {9/{1- el} ~ log {6,/(1-6,)}J = = 1'[1;';;;1;,,) = <P[(s.-!J.l/(}')

:,: ... ,

t

C

!;,

';{ .;!

132 BIOESTADISrlCA

de rorma que

I;,-u

-~-=l1p a

conde n. es ra soluckin, que puede encontrarse en Jas tablas de Ia ±unci6n de distribuci6n n0100al. de 1" ecuacion <P(X) "" ti.

Susutuvenco en (4) las expresiones U V " en funcion de (1. V 13, tenernos Ia eeuacion

J.og [e%- e,)] "" log la/lll + i((.- ~)/(2(tI3) + 1'1,1"[(0: + ~)/a:~]

v utilizcndo (1) para poner Il en funcidn de a; resurta

e, In 2m - 1 1 ?Iv 1

log--- "" log--- + ---- + ----

l-e, I-In 2(1-m) r:t V(1-Inl »[o:

Perc [5) es una ecuaci6n de segundo grado en i = l/Y4. cuva solucion es mmediats. DespeTMOO a, rcsulta, para m .. 1/2.

c>; ce rL _---,-2a __ -',' b + v(b'-4acI

donoe

a = [1-2m)!(2-2mj b =< 1'1,/ V[1 - rm

[ l-m e, ]

c = log -----m 1-9,

st m < 0,5, v estes mismos valores cambiados de srgno SI m » 0,5. Si In = 0,5. la ecuasidn (5) es de-primer grado en i == l/va:: resolvidncola v cesperando a, reSUlta'

a. = 2nJ /10F? [6,/(1- e.)]

Las ecuaciones (1), (6) v (7) resuelven el problema planteado.

Una forma alternanva de especificar una distribuci6n irucral en este problema es empezar suponiendo que w = log{lIj(l - e)} nene exactamesse una distribucidn normal, y dar condicrones que perrmtan determmar sus parametres. La disttibuci6n nucia; de e sera entonces aproXlmadamente Beta, y sus parametres (J. y B estaran reiacionados con los parametros u. y a de Ia distribucion de w mediante Ias ecuacrones (2) y (3 J.

Ejemplo 5.1.4.

T asas de morbididad

La rnformacion de que se dispone sabre el porcentajc de personas afectadas por una epidemra en una deternnnaca comunidad puede descrlbirse mediante una distxibuci6n cuvo valor esperaco es el 20 % i se sabe ademas

(41

(51

(6)

m

EL PROCESO PE APFlENDIZA,JE 133

que Ja probabilidad de que tal porcentaje supere ei "1 % es 0,95. Utilizando una transformaci6n normalizadora, determiner una distribuci6n Beta que describa aproximadamente esta mformacion. Determinar ademas La probabilidad de que el porcentaje de personas afectadas por Ia epidemia no supere eL 30 %.

Llamando B :al tanto par uno de personas arectadas, buscamos una distrihuclon Be(loc. m. cuva media sea m=O,2·v tal que pCB > 0,07] =0,95, esto es pce.:;; 0.07]=0.05.

Con la nctacidn que acabamos de mtroducrr, tenemos m = 0,2. v p = 0,05; utilizando ' las tabla. de Ill' disrribucion normal (0 una calculadora que disponga de esta funcirin) encontramos 'lI(-1,6449) = 0.05 y, par tanto, n, = -1,6449.

Utilizando las ecuaciones (6) v (1), podemos determinar los parametros de Ia distnoucion pedida que reSIDUn ser a = 3 y ~ "" 12. de rorma que 10 distribuclcn micial pedida es1lerel3. 12),

Finalmente,

('O,'

pca < 0,3] = J. Be((lp, l.2ld(l

puede obtenerse de las tablas de J~ funciorrde disrribucion de Be(SI3, 12), 51 se aispone de ellas 0, .aproxrmadamente, mediante 13 transformacion normalizanre l; = log {B!(t -a)}. En etecto, utilizando de nuevo los resultados obtenidos en ei Eiemplo 45.3.. SI e tiene una dlstribuci6n .l.ie(613, 12) entonces <; tzene, aproximadamente, una distribucion N(<;I-l,51, 0,646), En consecuencia,

p[O < B < 0,3] = p[ - cc < 1: < log (O.3!O,?)} = p[l; < -.0,84] =

r -0.84 + 1.51 \

= <!? ' I = <1>(1.029) '" 0;8482

, 0.646 j

que no est. leios del valor exacto 0.8392 obtenido resoiviendo IS integra, anterior par mtegracion numerica.

Be(eI3,j2)

2

e

o

0.5

0.3

;'> ••

134 BIQESTADISTICA

Si e es una cantidad aieatona tal que a < a < cc 0 y nuestra in'formaci6n sobre S puede representarse pot una densidad de probabilidad unimodal, puede ernpezarse supornendo que Ia distribucion de e. 0 iade alguna sencilla transformaci6n suva como l/e 0 1/82, es una distribucion Gamma y especrficat II contmuaci6n condiciones que permitan identificar sus parametres. Otra alternatrva es ernpezar supornendo que log B trene una distribuci6n normal. Tras obtenet 11 distribucion inicial es nnportante comprobar, mediante el estudlo de sus consecuencias, que Ia distribuci6n encontrada refleja realmente Ia mforrnacion de que dispone el deC1S0!,

5.2. Funci6n de verosimllltud

Frecuentcmenre, can obi eta de mejorar nuestra Informacion sabre el parametro de mteres e, puede realizarse un experimenro E cuvo resultado x es una cantidad aleatnna con una distribud6n p(x!B) que depende de a,: en tal case, Ia observacion de x proporcionara, rndirectamente, informacion sobre el valor de e.

Como funcidn de x, para un 9 ,,=90 fiio, PlxlSo) es una densidao de pro- \. babilidaa que describe Ia probabilidad de obtener los disnntos posibles valores de x, 81 el parametro de interes tuviese el valor e ;;:::;80• Como fund6n de e, para un x "" Xo njo, p~xole) es una funci6n que describe, como vamos a vet. Ia verosrmilitud de los distintos valores de e a Ia Iuz del resulrado expertmental observado Xc. En efecto , los valores de 9 que hacen grande PJxolSl son aquellos que naclan mas plausible a priori Ia observad6n del resulrado Xo que ha sido eventualmente observadc: en consecuencia. despues de observat Xa, estos valores de 6 resulran mas oeroszmiles que los dermis. A Ia fundon de H. p{xole), se Ie llama tuncio» de: uerosimilitud (de e, dado xoJ y ia denotarernos can t",(fl). Debe subrayarse que la funci6n de verosimilitud

t •• {9) = p(xoI8) es una funci6n posittsa de 8, pete no una funcion de probabilidad. Consecuentemente, m Ia suma de Sus valores, 51 B es discreta, m su integral 31 es continua. tienen par que ser Ia unidad.

Ejemplo 5.2.1. Diagnosis (cont.)

Con obieto de merorar Ia rnformacion descrrta en '€I Ejernplo 5.Ll sobre Ia causa de la ooiencia de un determmado pacrente se realizan dos tests l;UYOS .resultados XI. X). son cantidades aieatonas Xl. X2 cuya distribuci6n depende de Ia verdadera causa de la dolencra. Especfficamente, el resultado de eada uno de los tests puede set positivo (x, = 1) 0 negative (x; :::::: 0) Y se verifica que

p(l, 1181):=; 0.60 pel. 118~1= 0.10 peL 1193) = 0.15 Pli. 1184) = 0,10 p(l, lies) = 0.25

EL PROCESO DE APRENDIZAJE 135

p(l, 0181) = 0,10 p(1. 0le2) = 0,50 p( 1. 016,) = 0.10 p( 1. 0!84) ::= 0.05 p(1, 0185) = 0,25

y que p (0. 0181) = 0.10 para todo S;. Deterrmnar Ia funcien de verosimilitud correspondiente a los distintos resultados experimentales posibles.

Si Ios dos tests dan resultados positives, esto es Sl so observa (1, 1), la tuncion de verosanilitud correspondiente es de acuerdo con IS tabla

'u(S) = {O,60. 0,10, 0,15, 0,10. 0,251

10 que aumenta In verosunilitud de a. como causa de 10 dolencia, Observese que iI, ,(8) "0 es una distrlbucion de probabilidad de '9: sus elementos no surnan la unidad,

Allalog.mento. 51 se observa (1, 0). la funcldn ce verosrmllirud correspondiente es

i..,(e) "" 10,10. 0,50. 0.10. 0,05, 0,25~

de tonna que ei resultaco (1. 0) aumenta I. vcrosrrnilitud ae e,. y en parte, 1. de ~" como posibles causas de ra dolenria.

Pnesto que para e, ilia, P(x,. x,le,) debe ser una distribucion de probabilidad Y per io tanto sumar ta unidad, las probebilidades correspondienres a que el Primer test de negatrvo V eI segundo positive son

P{ll, lie,) = 0,20 pro. lie,) = 0.30 p(O, liB,) = 0,65 pro, 118,) = 0.75 p(O. lie,) = 0,40

de Iorma que Ia tundon de verostmilitud correspondiente al resuitado (0. 11 es

t,. ,(6) = f 0,20. 0,30. 0.65. 0.75, 0.40 f

Pinaimente, Ia runckin de verosimilirud correspondiente 11 (0, 0) es

i. is) := JO.10. 0,10, 0.10, 0,10. 0.10}

es to es uniforme, de lonna que, en este erempio. S1 ambos tests dan resultados negatives no obtenemos mtormacion alguna sobre III verdanera causa de 10 doiencia,

Supongase, por ejemplo, que se esta interesado en Ia morbididad de una deterrmnada enfermedad, esto es en Ia frecuencia de su apancion en una determmada poblaci6n; 51 se denota con e 111. prooabilidad de que una persona cualquiera de Ia poblacion tenga 13 enfermedad. estamos mteresados en el valor de e. La rnforrnacion de que mrciaimente disponemos sabre e.l valor de e vendrd descnta, de acuerdo con 10 expuesto en Ia seccion anterior pot una deterrninada distribuci6n rntciai p(O). Una forma de metorar esta mfozmacion es observer un elernento 'deIa poblacion y comprobar si tiene D no Ia enfermedad,

Si denotamos par x el resultado de una observacion, con x ;::::: 1. SI tiene Ia enferrnedad y x = 0 si no Ia tiene, esto es p( xiS 1 = Bre xl a 1 de forma que IlHl = B es Ia ' funci6n de xerosrmilitud de x = 1 y lore) ;::::: 1- e ia "de x:= O.

DEFlNlCION 5.2.1. Llamaremos muestra aleatorra de tamano n de UtM pobladan cuyos elementos ttenen una distribuci6n p(xIO) que depende de e,

a UI1 Can/unto (Xl, x" xni de ooseruactones independientes dado "8, esto

es tales que P(X" X2, , x"IBl = p(xIIBl p(x2jSl .,. p(xnle).

Supongase ahora que se extrae una rnuestra aieatorra de tamafio n de Ia poblaci6n que queremos analizar, esto es se observan It elementos de la poblaci6n escogidos al azar v se examina cada uno de ellos para deterrninar 51 nene 0 no Is enlermecad. Denotando por XI el resulrado correspondiente (XI = i si el elemento , nene la enfermedad, XI = 0 51 no Ia nene), de forma que para todo xI, p(xilOI = ]1'(x,IO), tendrernos

donde r = :EXI es el nrnnero de elementos en Ia rnuestra de n que tenian Ia enfermedad. En consecuencra,

es Ia iunci6n de oerosimiiitud correspondiente a ra obtenci6n de r enfermos en una mueatra aleatorra de n zndividuos, Por ejernplo, para n ::::: 10 y r = :obtenernos Me) = 8l{1- 9)1.

I ..

EL PROCESO DE APRENDIZAJE 137

0.003 r j

0< fL<!

0.002 r

I

i

0,001 r

e

o o

0.3

0,5

La observaci6n de la representacicn grMica correspondiente hace patente que, a la Vista de esos resultados expenmental.es. los valores ~e 0 alrededor de 0,3 (en general der)n) resultan mas oerosimites que los dernas.

DEPINXC16N 522. Llamaremos estirnador maximo-verossmil de e at valor!i" de e que 11tIJ.'Xlmlza ta tunci6n de veroszmilitud.

En el caso anterror , el estimador masrmo-verosrmil es el valor de e que rnaximtza (1), esto es !l = r / n.

Consideremos otra srruacion frecuente: supongase que se ewi ~nteresado en Ia temperatura TJ, de un dete.rmmado paClente. Claramente,' se dispone de cierta mlormacion zructai sobre el valor de U: se sabe que esta necesanarnente

nt 35 v 42°C que su valor esperacio para una persona sana es .36,5 oC, ~tc.; e re, . . , " d pr) SI ne esta tnfotmaci6n estara contenlda en Ia distribucton micia: e TJ" ,[.I... -

cesitamos una mforrnaclon mas precisa recurrrrnos a un expenmento obvio: medir con un rermcrnetro la temperatura del paciente.

Toda medida estii sujeta a distmtos tipos de error, Si las causas" de estes posibles errores son numerosas, todas del mismo orden de rnagnrtuc, e mdependientes, el teorema central del Iimrte (Secci6~ 4:3) ?,erm1te asegu:-ar que el valor medidc es una can tid ad sleatoria con distribucion aproxrmadamenre normal centrada en Ia medida verdadera. En nuestro case. pOdemos" suponer pues que la Iectura dada por .el rermometro es una cantidad aleatorta x con distribucion normal N(xt[J., (l') centrada en bl temperatura ver~~deta" del "p>'!ciente U y desv1ad6n tlpica Ct "C que depende de Ia constrnCClOn del terrno-

oj

138 . BIOESTADfsTICA

metro. Si s~ nos dice, POt erernpio, que a' == 0,05. Ia funcion de verosimilirou correspondiente a una Iectura x del termometro seta

1 (" 1" X 12~."

l,(p.,) ~ . =p s- I - I.t •

. 0,05,,(21':) ... 2 I, 0.G5 i >

la observacion de Ia grafica obtenida para una lectuza x = 38"C perrnite reconocer que. despues del experrmenro. todos los valores de IJ, aletados de 38 OC resultan clararnente mcerosimiles.

El conrunto de valores verosfmiles de !J,. puede todavfa reducirse realizando nuevas medidas, Asi, si mcdimos n veces consecunvas Ia temperatura del - paciente, que suponemos constante en ese nempo, obtenrendo las lecturas z;:::; lXI, :>:2, ... , x,,}, Ia correspondienre £unci6n de verosimilitud sera

1£[J,J = (

1 '1 n S 1 ~ ( x, - IJ,

0,05y(21ti / ezp (--2 4

0.05

\2'1 I '

r (

) ,

Ia observacion de Ia griifica obtenida para tres lecturas .3 8, .38.1 y 38,05 DC pernute reconocer que despues de elias, todavfa es mas reducido e; conrunto de valores verosfmiles de IJ,.

"or ~
~
~
100~ /1
r
~
I , i, (;U),2=(38, 38.1,38.051
~
~ 1
lJs(M)
0 iJ.
37.75 38.00 38.25 Observese que, en las funcrones de veroeimilitud. Io uruco que importan son .L~s 3.fturas retattvas para una sstsma curva: no son distribuciones de probabilidad y, pot tanto. no tienen por que mtegrar la unidad.

El PROCESO DE APRENOIZAJE 139

En general. Ia funcion cie verosimilitud correspondiente a una muestra aleatotla {Xl, Xz •.•. , Xn I extraida de una poblaci6n normal N(xip;, r:rj sera de . ja forma

"

PlXl, - .. , xhir.· 0') = n N(x,II-L. e-) =

( 1 ( )~)

T!'l· 1 J I x,-!J,.,~

= --- exp \--. ----) (

"~~. r:.,j (21(;) <. 2;, cr J

(2)

Como veremos mas adelante esta expresidn ruega un papel central en la deduccion de una parte nnporcante de los resultados de usa mas Irccuentes : en estadfsnca, Es Heil compronar que. como funcl6n de !-t, la expresion (2) alcanza su maximo para X={'J.:,xi)/n y como funci6n de rfl para f=r,(x,~x'!ln que son. pot tanto. Ios correspondientes esttmadores maxtmo"verosfmiles.

5.3. Distribuci6n predictiva

Considerese Ia d1stribuci6n p(xiSl del resultado x de un determmsdo ex.penmento E. Generalmente, e1 valor de e es desconocido y, en consecuencia, Plxffl) no puede utilizarsc para determmar los vaiores de x que resultan mas probables, Sin embargo, aunque el valor exacro de e es desconocido, stempre se dispone de cierta informacion sobre e, que es Ia descrrta POt su distribucion miciat p(e), Esta mformac16npuede cornbinarsc coo la distribucidn p(xle) para poder describir la mformacidn que se posee sabre los posibles valores de x. En efecto,

(1)

51 e es una cantidad aleatorta discreta y

P(XI = J p(xjS) p(S)de

(2)

51 se trata de una cantidad ateatoria continua, proporcionan una dlstribucion de x totalmente conocida que podemos utilizac, entre otras casas, para hacer predicciones sobre los valores de x a que dara lugar el expenmento I!, pot 10 que recibe el nombre de disiribucion predicszua. Naturalmcnee, en las expre-

140 BIOESTADISrlCA

srones (1) y (2), P(X) es una funcion de probabilidad a una funcidn de densidad de probabilidad segiin x sea una centidad ateatoria discrete 0 una continua.

Puede observarse que la expresion (1) no es mas que una forma del teorems de Ia probabilidad total (Teorema 3.4.1), v que (21 no es mas que Ia forma connnua de (11 en 1a que la funcion de probabilidad p(a .. ) se sustttuve por Ia de densidau de probabilidad p(Sl y Ia operacion suma 'par ia operacirin integral,

Ejempio 5.3.1.

Diagnosis (cons.)

Determmar la distribuci6n predictrva de los resultados de los tests descntos en el Eiemplo 5.2.1 utilizando Ia distribuci6n uncial score las posibles causas de la dolencia construida en e1 Eiemplo 5.l . .1.

De acuerdo con ia ecuacion (1), la distrlbucidn predictrva del resultado U:" x,)

de ambos tests vendra dada por ,_

, .

En el Eiernplo 5.1.1 se determine ia distribuci6n micial pIG) = rO.138. 0,362. 0,090, 0,362. 0.048} v en el Eiemolo 5.2.1 so especifican los valores de p(x" x,le;). Operando,

=b '

p(l. 1) "" 0,60 X 0.138 + 0.10 X 0,362 + 0.15 X 0.090 + X 0,10 X 0,362 + 0,25 X 0,048 = 0.181

Analogamenre,

p(1, 0) == 0,235; prO, 1) = 0,484; pro, 0) = 0,100

Naturalmente, ia soma de los cuatro vaiores obtenidos es Ia unidad, puesto que se trata de una distribuci6n de probabilidad. Resulta. pues, Que ei resultado mas probable del expenrnento, COn probabllidad 0.484, es (0, 1), esto es Que el nrrraer test de negattvo y ei segundo positivo.

Las corresoondientes distribucrones margrnales SOn

(PlX' = 1) = 0,181 + 0,235 = 0,416 l PIx, = 0) = 0,484 T 0,1\)0 = 0,584

!/ p[x, = 1) = 0.181 -i- 0.484 = 0,665

, Plx, ;:; 0) = 0,235 + 0.100 = 0,335 .

de forma que so nene prooabilidad 0,584 de Que el primer test de neganvo v 0,665 ae que ei segundo de positivo,

EL PROCESO DE APRENDIZAJE 141

Considerarernos ahara distribucrones predictivas correspondientes a las , .SltuaClOnes experrmentales mencionadas en la seccion antenor,

Supongase par ejeznpio que piensa extraerse una rnuestra aleatona de tamafio n. {Xl; X2, ... , Xli} de una determinada poblacion con obieto de determmar en cada uno de los elementos de La muestra S1 tienen (x; = 1) 0 no tle.nen (X, = 0) una oetermmada caracterfstica, y precisar el numero t "" Lx; . de los que Ia nenen. Obviamente, r puede tamar cualquiera de lOS valores o L 2, . _'.' n. Si supiesemos cual es la probabilidad e de que un clemente cualquiera tenga ]a caracteristica obieto de Ia mvesngacicn, conoceriamos Ia distribucion de r. En efecto 81 ptxilel === e entonces, segtin vimos en la Secd6n 4.2,

PtrlS, ni=Bi(rla, n)=( n. ) 8'(1-8)"--

l l'

(3)

Si el verdadero valor de 8 es desconocido, sed necesano Iimitarse a utiIisar 1"1 mrorrnacicn rrucial que se posea sobre su valor, informacion que vendra descnta por su distribucion rmcral pee). En tal caso, utllizando (2), Ia distribucl6n predictiua de r vendra dada POt

rl

p{rinl = Ja wlS, n)p(81dB

(4)

Frecuentemente, ia mformaci6n uncial sabre e puede set aproxrrnadamente descrrta por una distribucion de la familia Beta, En tal case, si p(8l = Bf'(8[«, ~) Ia expresion (4) resulta ser

.wln) = f Bitrle, n) Be(IlIIt., ~)de rca + ~)

Hal r(~) na: + 0) r(<<) rw)

(5)

r(iX + rJ r(~ -i- n - r) rca + 8 -i- III

DEFINICION 5,3,l" Una cantidad aieatorza discreta :x ttene una distribuci6n Beta-binomial st su tuncion de PTobabilidad. que aenotaremcs Bb(xia., ~, nl es de La forma

p{x) = Bb(xl«, B, n) = na + Xl r(i3 + IZ-X) na + B + 12)

.. X = 0, 1, .... n

= 0, para cuaiqtaer afro x,

.j:

, .~~:

'I'

. '.

·l~2;;:BIOESTADISTICA .', :'

"DtiliZl1nQo.IaDefiruci6n 5,3.1. Ia ecuacion (5) puede reescribirse en ia . <forma

rI

I Bi(rle, n} Be(91°c, (jldO = Bb(tt'a, ~, n) Jo

Ejemplo 5.3.2. Tasas ae mOl'bididad (cont.)

Co~ . objeto '. de merorar Ia inrormacion disponible sobre Ia mcidencia d

una epidemia de gripe un eq di . e

. . uipo se rspone a obtener una muestra de- 10 ele-

mentos doe .Ia poblad6n aleatoriamenre elegldos, Si la informacion de que el equipo dispone S?bte.l~ probahilidan e de que W1 mdividuo cualquiem te _ ga gripe puede descnbirse mediante Ia distribucior; Be(et3 12) c t .f

1 E' 1 5 '. , • ons rutda

en ~. jemp 0 .1.4, determinar Ia distribuci6n ptedictlva del rnimero r de

indivlduos entre esos 10 que los tnvestlgadotes pueoen esperar que tengan gripe,

De acuerao con 1a ecuaci6n (6), ra Bb(rI3. 12. 10); en ccnsecuencll!,

distdbud6n pedida es Ia Beta-binomial

pet) = r 10 1 r051

~ r J T(.3)r!12)

r(3 + r)T(12 + 10-ri ri15 + 10)

Dando valores, se obtiene ra distribuci6n

p(r) = Bb(1'13, 12. 10)
0 0,1798
1 0,2569
2 0,2.312
3 0.1623
II 0.0947
5 0,0468
6 0,0195
7 0,0067
8 O'{)O18
9 0.0003
10 0,00003 de maneto. que, en pa~t!cular 10 mas probable

gripe (probabilidodes 0 2569' v 0 2312 . es que aparescan uno o des eiemenros con

, .' resjJectlvamente), aunque 0 v 3 son aSlmlsmo

(6)

EL PROCESO DE APRENDIZAJE 143

, valOteS bastante probables, Valores de r supenores a 5 son S10 embargo muy poco probabIes.

Supongar.o.os ahora que desea medirse una magnitud cuyo verdadero valor. desconecido, denotarernos p., v que Ia medida que Vol a obtenerse .x tiene una distribucidn normal centrada en ]J. y can una desvracion tip",;:a conocida a, S\ eonociesernos [.1., conocerlamos totalmente la distribucidn de X que seria

1 P(xiP.i = N(xjv., 11} = q...rEr,

exp ~ - 2_ r _X __ i-L_) 2'\Jf

~ 2 '- <1

Como el valor de u. es desconocido, par eso efecruamos la rnedida x, tendtemosque limitamos a utilizar Ia mformacion que poseemo$ sobre su valor, des-

crrta pot Ia distribucion uncial PO,],]. ,

En tal case, utilizando (2), 12 distribucion predictiua de x vcndra dada por

r+~

P(xJ = J __ NlxlI-tJ. 0') P(I-t)di-L

Frecuentemente, Ia informacion imcial sobre 1.1 puede describirse mediante una distribuci6n de la familia Normal. En tal case, 51 Pll-tl = N(J.1i]J.n, 110), Ia expresion (7] result a ser

) 1 ( X-iJ, ,\1')

exp )-- J ~

._ 2. tr ,

x

Resoivrendo la mtegral y reordenando el resuitado, resurta

que es una densidad norma! de media Uo y vananza ~ + (Jz Este resultado puede escribirse en hi forma

(8)

·344 BIOESTAtilSTICA

··'Ejemplo·S.3.3. Cantidaa de nrasina (cont.)

Con obieto de adquinr informacion sobre las condiciones en que se encuentra un determmado paciente, va a medirse Ia canridad de trrosina (en mg/24 h) contenida en su erma. Debido a distintos errores expenmentales, et valor ootenido no sera, en general, e1 verdadero valor IJ" sino una cantidad aleatorra x con una distribucion normal centrada en r.L Y con una desviacion tipica (T que depence del proceso de medida.

Supondretnos que otras medidas realizadas can ei mismo aparato permiten suponer que 0' = 2 mg/24 h. Si Ia informacion rmcral sobre el valor de !k puede describlrse mediante la distribucion N(JJ,139, 14,83 \ construida en e.l Eiempio 5.1.2. determinar Ia distribucion predicnva del valor x que va ~. ser obtenidc.

La distrihucion condicional de x es N(xl!)., 2) v 12 distribucion inicial tie e es N(~139" 14,S31. En consecuencra, de scuerdo con (8), Ja distribuckin predicnva de x sera normal con media 39 V desviaclon nprca v(I4,83' -I- 2') = 14.96.

Pot eiemplo, es poco probable obtener valores de X superiores a 60 puesro Que

(60-39 \ p[,: > 60] = p[60 < x < co] "'" <ll(",,!-¢ '---J "" 14.96

= I - <PI 1,404) '" 0,080

y muv probable que sean rnayores que 10 ouesto que, como se comnrueoa con faciIidad, p(x > 103 "" 0,974.

La distribucirin predicnva Plxi iuega.: respecto al. valor experrmental x que va a ser obtenido. el mismo papei que La distribuci6n IIDClal p( e 1 respecto al valor e del parametro de interes: arnbas distribuctones describen la informacion de que se dispone; sobre ei valor x que va a observarse en el caso de Ia distribucion predictrva, sobre ei verdadero valor de e ell el de la distribucion uncial. La ecuacion que las relaciona, p(x) == f p(x!e)p(e)dfl.

permite analizar las consecuencias de adopter una deterrnmada distribuci6n irucial pee) en terrrunos de sus rmplicactones sabre Ia plausibilidad de los dis, nntos valores posibles de x, descrita por P(X!.

Ejempio 5.3.4. Cantidad de ttrostna (cont.)

Con los mismos supuestos del Eiemplo 5.3.3, supongamos que Ia informacion irncial sabre 1J, puede describirse mediante la distribucion N().tI39. 4l. Detenmnar Ia nueva distribucidn predictiva.

La distribudon condicionai sigue siendo N{"l~, 2), mientras I. inrcial es ahara N(f1i39, 4) esto ell con Ia mrsrna media perc menor oesviacion tipica. De acueruo con (81

EL PROCESO" DE APRENOlZA)E

145

normal de rned.i1\ 39 y desVlad6n tl.ptca di ~-. de'" sera anora.

Ia disttlbucion pre icuva

v'{4' + 2') '" 4,47.

p,(Xl == N(xi}9, 4,471 P,(XI = N(xl)9, 14,96)

x

70

o 10

60] ~ () v PlX > 10) "" l.. .

coo 10 que P Lx > - . li La eduction en ia deSl/lacl6n np).ca

La mayor mfonnacl6n mlcial sabre .. que 1:;1/O~a lnt;tmad6n sabre lOS vnlores de x de 511 distrili11d6n lnicial se ~raduce en, ~n~formad6;n mid~l de que se dispO;le en el que pueden set esperad05. Ast~ll::S~ ~e vaiotes plausibles ~e. x, esto( e;~l ~~~JU;;l.

segundo esse permlte t~dUC1f b b'lidad ap,,,dablementc POSltlV'. de 3. a ,

de valores de x con densldad de pta a 1

5.4.

de Bayes y distribuci6n final Teorema

f·, d que sc dis· bi to de meiorar Ia in ormactou e

Supongamos que, con 0 Je.. un ex timento E que da Ingar a unos

pone score ei valor de .Il~ se reansa idad:: j?tobabilidad 51 x es una cantiresultados x con pxobabllid.ad (Oo=sfunci6n de x y e. Plxle) esel moaelo dad. aleatona cantlOua) P(x\tJ). C., ue se supone entre los resuLtaaos expe· probabilisttco que define ra reioctOn ~ e Sea pee) la distribud6n inicial ae 8. rtmentates x 'j el pardmetro de mtere~el' ex ef1l11ento, la mformad6n de que De.-;pues de obse[var el resuHlldo ". de$Cr1~ por su distribuci6n final p(Olx). disponemos sobte el valor de e estara 1 distribuci6D. final p(ll\x\ a patttt de El Teoretncl tie Bayes pernute obtene\ a ., de ve:toslmilituci del resultado Ia distribuci6n iniciai p(6) y de launClon

obtenido W~\e).

146 BIOESTADISTICA

TEO~E~A 5.4.1 (Teorema de Bayes). Sea« ..

E deiinido mediante et m aei . Ill) x los resuttaaos asi eXjJemnemo

La distribUci6n finat de ,,0 eto Plx y sea p(S) fa distribuci6n Iltlezat de "8

. u es entonces .

p(8jx} "" pixie) p(S}/P(xj aonae P(xl es ia dist7ibuci6n pr.edictzva ae x.

El tcorem» anterror es una eneralisaci ,

bilida.d, 0 de densidad de ptobatilidad d~~;' natural a funclones de p.tobaestudiado en Ia Seecien 3.4. ,eorema de Bayes para sucesos

Sin perdida de generalidad el T

forma > eorema de Baves puede expresarse en la l

pC'!'!lx) DC Plx!S) p(O) ::::: W:!l p(O)

(2) de manera que 51 dos modelos probabiHstl

dan necesarlamente Iugar a Ja di cos . Son proporclOndes para rodo e,

rnisma lstrlbuC16n £lnal, y puede eseribitse

DiSt1'ibttcion final ex: _v ero~militud X D' tri. . ,

IS rtouczon mtcia;

E £ .

n e ecto, l~ .constante de pl"oporClonalidad .

momez:t? Ut11rzando Ia propledad de puede determlnars~ e~. cualquicr

probabllldad, fp(6Ix)d6 = 1 el que, par ser PCB)x I una dl.stnouci6n de

. en caso continuo u I;p(8 I) 1

discrete Especfficamente SI p( el.· c ( . " ; x =. en el caso

> xJ = p x/B) pre)

.f P(Slxide = C jP(xI6) p[8)de = i

C = 1/ J P(x/S) p(B)dS = l!p(xi

r. anilogamente.

~p(eilxj ::::: C 2;P(xIBj) p(ei} ::::: 1 C = 1/ .zP(xI81) p(l);) = IIp(x}

ia expl'esi6n (2) es generalmente In' ,

L . . ., as comoda de 1nabe_1al" que la expresi6n f1 I .

. a dlstrlbuCIOl1 final P(Slxl co bi .,

tenida en p( B) Con Ia rnform, '6 rn Ina Ia mrormacron miciaj sabre 6 con-

acr n sobre e pr p ,

experlmelltal x. La distanola entr pre I (8 orClonada POt el resurtado

tntormaci6n ptoporclOnada p e b· :>:) Y P ) .es pues una medida de Ja

. Dr x so re el valor de e.

(.3)

(4)

EL PROCESO DE APRENOIZAJE 147

DEFINICION 5.4,1. Sean x los resultados ae un expenmento Ii- cuya distrtbuci6n es p(xlll) y sea p(6) fa distribuci6n miaai de e. La mformaci6n proper. .. ,. cinnada par x sabre et uaior de 6 es entonces

. r· p(Blxi

16{f, p(II)lx) = ; p(elx) log -~ dB

. J p[O)

(5)

(6)

en et discreto.

Puede observarse que Ia informacion proporcionada par x es ei valor esperado, despues de haber observado x, de Ia diferencra log p(6Ix) ~ log p(6), esto es de la diferencia entre los Iogantmos de las probabilidades (densidades de probabilidad I asociadas al verdaoero valor de e despues y antes del expenmento. Es Hell demostrar que para cualquier expenrnento y cualquier disttibud6n uncial ]C{ E, pce )ix} no es nunca menor que cero, esto es ios datos no pueden troporaoner intormacion negatwa, y es cere SI, v solamente si, p(elx) = p(S) esto es si, y solamente S~, lOS datos no modificanIa distribucion micial. Razonamicntos mas completes que iustifican esta oefiruci6n de informacion pueden encontrarse en Good (1966) y Bernardo (1979 ai,

TEOREMA 5.4.2. El valor esperado de ia cantidaa de mformacion necesaria oeraaaero oaior de una csntidaa aieatona discrete e can funci6n de nrobabilidaa p( 6) utene dado par

H{p(9)} = - L;p(S;) log p(B;) (7)

Demcstracidn

Para determinar e1 verdadero valor de e necesitarfamos unos resut tauos X tales que Ja correspondlente distribucion tina! asignase prcbabilidad ! at verdadero valor de e V cero a todos los demas, Utilizando Ia Definicion 5.4.1 para esta distribud6n final, y teruendo

en cuenca que

Hm X Jog (x) = 0

..... ' obtenemos (7) ., conslderar valorcs esperaoos.

Pot motrvos historrcos, relacionados con 5U aparicion en termodinsmrca, Ia expresion H{p(8)} recibe el nombre de entrotna de Ia distribuci6n pre).

DEFll'IIGXQN 5.4.2. La cantidad de informacion sabre II que puede esperarse de los resultados x de un expertmenso '€ Plene dada par

Je{.s, peS)} = ·r p(x) r{e, p(Blx)}dx

.J

",St x es una ctltt.tidcrd aieatorta consznu« 0 bien por

IB{S, P(B)} = ~P(X}j la{;;:, p(6)ixj}

SI sc es discreta.

Cuando se utili.za 1a base dos para las Iogantrnos, las unidades de infermad6n obtenidas se Ilaznan bits (*) y describcn el mimero de preguntas binarias sobre e con respuestas equtprooebles cuyas respuestas proporcronarfan, en valor medio , Ia rnrsma mformacion (Renyi, 1962/1966, pag. 564)' Naturalrnente, basta dividir par log (2) "'" 0,69315 los resultados de operar can iogantmos nepenanos para obtener el resulrado en bits.

Ejemplo 5.4.1. DiagMiis (cont.)

Las consecuencias de un deternnnado tratannento dependen de la entermedad del paciente, que puede set 61, 82, ej, 84 0 85• La opinion rmcial del equipo medico puede describirse mediante Ia distribuci6n imcial.

pie) ::;;; fO,138, 0,362, 0,090, 0,362, O,048}

construida en el Ejemplo 5.1.1. Con obieto de mejorar esta informacion se realizan los tests descrttos en ei Ejempio 5_2.1. Determrnar la distribucion final correspondiente a cada uno de los resultados poslbles, y Ia cantidad de

'lUformad6n score e que estes resultados proporczonan, .

De acuerdo con los datos del Ejemplo 5.2.1, Ia tabla de funcrones de verosirnilitud es
(1. 1) (1,0) (0, 1) (0, 0)
a, 0.60 0.10 0.20 0,10
6, 0,10 0,50 0,30 0,10
e, 0,15 0,10 0,65 0,10
S. 0,10 0,05 0,7.5 0.10
e, 0;25 0,25 0.40 O,Hl (") E1 terrnmo bit cs una conrraccidn de Ia exptesi6n mglesa binary digtl. digito hin":-1O. En efccro, en un ntimero escneo en base 2, cad. dfglro proporcrona precrsarnente una unidad, en base 2, de mtormacidn puesto que solo puede tornar cos valores, 0 V 1, equiprobables v -0,51og,(O,5)-O,51og,(O,5) = 1.

(8)

(9)

EL PROCESO DE APRENDIZNE 149

de totm" que, par eremplo, p(l, lie,) = 0.10. Si el resultado del expcrunento es (1. I), Ia di,ttibuci6n fina; sera de Ia forma

p(e,I!. 1) oc p(l. lIe,) p(6,1 =" 0,60 x 0.138 '" 0,083 p(B,j!, 1) GC p(l, liB,) pte,) = 0.10 X 0,362 = 0,036 p(B,il. II oc p( 1. 119,) pre,) = 0,15 x 0.090 = 0,014 p(e.11. 1) 0: 'p(l. liB.) pre,) = 0.10 x 0,362 = 0,036 p(B,jl. 1) ex: pel, 116,) p(e,) = 0,25 X 0.048 = 0.012

0,181 = P(1, 1)

En vrrtud de (4), Ia suma de .ios vaiores obtenidos. 0.181 es p(l, 1), 10 que ccmcide con el valor encontrado en el Ejemplo 5..3.1, 'II' l~ constance de propotClonalidad 1/p(l. I) "" 1/0,181 = 5.525 con 10 que Ia distribuci6n iinal de e es

p(ejL 1) = 10,459, 0,199, 0,077, 0;199, 0,0661

Coroparandoeste resuitado con Ia disrrlbucion micial se observa que, como era de esuerar, J.<I probabilidact asignada a e, se h. mcrementado mucno como conseCtlenC1a del resultado experlmental, pasando de 0.138 a 0.459, mrentras las de B, V B. descienden

tuerternente.

De forma rotalmente "muoga, puede obtenerse que

prell, 0) = r 0,060. 0.771, 0,039, 0,078, 0,052} p(olO, 1) = 10,057. 0.224, 0.122, 0,562, 0,035! p(6fO. 0) = {0,138, 0,362. 0,090. 0,%2. o,Q48!

Como era de esperar, puesto que pcO. 0\6,) es constante para todos los 8,. el xe&ultadO (0. 0) no propoIT!Ona Intormad6n algnna sobre e v resulta que p(aID. 0) = pte}, esto es

la distdbucion finat es sguar a I" uncial.

La tntormacion score (j proportiOn"da por cada uno de los resultados expenmentales cos, utiIizando (6),

ID{s, p(B)i(1. III = 0,3225 IB{ E, P(6}1(1. OJ) "" 0.4606 ]B{ E, p(a)j(o. I)} "" 0,5541 JO(£, p(S)i(o. 0)) = °

de manera que el. resultado mas mrorrnatrvo, eJ que mas cambia las epmrones lnici~les, es (0 1) nnentras que (0. 0) no proporcrona mformacion aiguna porque no rnodifica las ooimones mieiales .. La mformacicn que podra esperarse score e antes de observar. X sera. segun (8) v lOS resurtados del Eiempla 5.3.1 de 0.4348, esto es 'de ?,6273 bits, comparable por tanto a un 62 % de Ia 'que pl'OpOrClOnarla una pregunta blnana sabre et verdaderu valor de e con sus dos respuestas eqUlpJ;obables.,

1 SO 'B10ESTADiSTICA.

. C6rislderetnos ahara las distribuciones finales correspondientes a las 81- ; tuaciones experrmentales descntas en Ill. Seccidn :;;.2.

Supongamos primero que. con objeto de merorar nuestra mforrnacidn tmcrai .sobre Ill. proporcion e de elementos de una poblacion que poseen una determinada caracterfsttca se observa una muestra aieatona de n elementos. r de los cuales resultan poseer Ia caracterisnca rrrvesrigada. S1 Ill. Informacion inrcrai sabre (I es descrrta por la distribucion mtcial P(8), Ill. correspondiente distribucion final sera, en virtud de 5.2.1 y del Tcorerna de Bayes. de Ia forma

p(Slr, II) DC p(rln. 6) pee)

0: 8'O_B)n-r p(S)

Si ademas, 13 distribuci6n imcial es de Ia familia Beta, pte) :=: Be(6Ia, 6) esto es, segun 13 ehmd6n -4.3.3. de Ia forma, p{e) 0;: 8"-' (1- B)~-', resulta

y, par tanto, comparando can la definicion de distribucion Beta,

p(Gjr., n) "" Be(9lo:. + r, 8 + n - rl

En este tipo de calculos puede observarse 18 ventaja de utilizer el Teorema de Bayes en su forma proporcional dada par (2).

Ejemplo 5.4.2.

T asa de morbldidaa (cont.)

La mformacion sabre la proporeion B de personas afectadas pOI una epidernia de gripe puede descrihirse mediante Ia distribucion Be( 01.3, 12\ construida en el Ejernplo 5.1.4. Para mejorar esta informacion, se observan 10 individuos exrraidos al azar , de los que 2 estaban afectados, Deterrninar la correspondiente disttibud6n final ,!, utilizando una aproximscion normal. .Ia prooabilidad final de que e < 0,3.

De acuerco con Ia ecuacion (10), Ia distribucion final es Beta con parametres 3 + 2 = 5 v 12..J-, 10 ~ 2 "" 2D, La pzobabilidad pedida es

1'0'

p[O < O,3lr = 2, n = 10J ::: J, Be(8j5,. 20) d6

CU'I'O cdlculo "".,,0 es complicado. Sin ernoargo, utilizando los resultacos del EiemP!O 4.53, 51 e trene una distribuci6n Be(ej5. 20), 1: = log {6/(l - ~)} trene una distnbucidn aproxrmadamente Normal N(~i~ 1,461, 0,5) v par tanto

(10)

EL PROCESO DE APREI~DIZAJE 161

r 0.3 ]

p[B < 0,3ir'" 2. n = 101 "" P l1: < logo.? = p[_ eo < 1: <~0.847] =

( ~O.847 + 1.461 )

= <l) I = <1>(1,2881 '" 0,8903

.. 0,5

Cornparando con el V'IO~' 0.8482 obtenido en el Eiernplo 5.1.4 para Ja probabilidad del rrnsmo rntervalo en ill diserlbucion roicial. observernos que el resultado obtenido 12 enrermos entre 10 personas}, anmenta esta probabilidad, 10 que resulta fiUY razonable puesto que este resultado aumenta ia verosunilitud de los valores de e proxrmos a 10 properd6n muestral rill = 02.

EI Teorema de Baves puede ser utilizado de forma rterativa; en efecto, 51 tras observer los resultados expenmentales x y transrormar pte) en prelx) deseamos realizar un segundo cxperrmento CllVO resultado denotaremos pot y, pocernos ohtener la nueva distribud6n final p(el;.:. y) utilizando p(BIX) como dlsrribucion uncial. E1 resultado,

(11)

es namralrnente el l111Smo que e1 que habrfamos obtenido analizando srrnultaneamente ambos resultados expetlmentales; en efecto , en este iiltuno caso,' tendrfamos

p(Blx, yJ 0;: p{x, yls) p(Sl = p(x[e) Plyl8) p(Bl

DC p(yjB) p{xIS) p(B)/Plxl = PlyIO) p(elx)

que es Ia expresion (11),

Ejemplo 5.4.3, Tasa ae morbididad (cont.)

Supongamos que can objeto de obtener todavla una informacion mas prccrsa sabre Ia proporcion e de enfermos de gripe, se obuene una nueva muestra de 10 elementos, 3 de los cuales result an estar atectacos. Dererrninar Ia nueva distribucion final.

La nueva distribucidn inicial es ia dlstribuclcn final obtenida en ei Ejernpto 5.4.2, esto es la distribuclon Be(915, 20). De acuerno con (10) ia nueva distrlbucion finai sera Beta con parametres 5 + 3 =8 v 20 + 10-3 = 27. esro es JM6!8. 271.

El rcismo resultado se puede obtener ccmbinanco las dOS rnuestras r = 2 + 3 t= 5, n '" 10 + Hl = 20 v utilizando 1a distribucion rnicial ongmai Berel3, 12l, En electo, Ia distribuclon [mal seria entonces Beta con patamettos 3 + 5 = 8 y 12 + 20 ~ 5 == 27.

1',(01 = Be(e[3, 12) Pl(e) = Be(eI5, 20) p,((ll == Ee[aI8, 27)

En Ia representacion grOfic~ de las distribuciones inicial, mtermedia (final del Ejern- 1'10 5.42, e micial del 5.4,}1 V final, puede observarse como Ia mtormacion proporcionada par 10$ resultados expenmencaies va concentrando sucesrvamente Ia densidad de probabilidad de 6; a medida que obnrviesemos mas mtormaclon, 1.. censidad final de e se ida madificando basta concentrarse totalmente sobre elwerdadero valor de fl.

Supongamos ahara que, con objeto de meiorar nuestra Informacion sobre una magnitud u, realizarnos n medidas rndependicntes Xl, Xl, .••• x; cada una de las cuales tiene una distrlbucicn normal centrada en u yean desviacion tipica conocida cr. Si la tnforrnacion uncial score II es oescnta par la distribuci6n uncial P(~). la correspondiente distrlbuci6n final seta. en virtud de 5.2.2 y del Teorema de Bayes, de 13 forma

"

S 1 !("X'-11 \,)

oc exp )-- -' -_' I }

~ 2 (J'.! )

~=I

(12)

omitiendo innecesanas constantes de proporcionalidad.

Puede comprobarse ademas que

EL PROCESO DE APRENDIZAJE 153

~.dOIlde x=Zxdn y r== !;(x;-x?!n, En consecuencia, [a expresi6n (12) puede ponersc en Ia forma

SL ademas. Ia distribution irncial es de Ia familia normal, p(~) = N(~I!-4J .. (1',), resulta

Mediante el usa de Ia identidad

AB

A(x-cd + B(x-PP = IA + B) (x-m)' + ---(.(X-Sf A+B

m = iAoc + B~J/(A -I- B)

(14)

III expresion anterior puede set expresada en 1a forma

(15)

donde

(l/a;,) = (l/~) -+- (nlil) !-In = ql,,{([1o/~) + (nX/o-")}

(16)

(17)

Camparando (15) con ia defimci6n de una densidad Normal y defiruendo las prectsiones respecnvas (*) mediante bn = 1/0:, ho = 1/~ y h = 1/(12 obtenemos finalmente

(18)

O'n = 11 Y(!i;J, h. = ho -+- n»

(19)

Un = (hofJIJ + nxh)/(ho + nh)

(,20)

r*l Para cuaiquier cantidad aieatona Ia precision se define como ei recipmcc de In vananza ; cuanto mas concentrada est" una dlstribucion, mavor sera su precision, Frecuentemente, en el modele normal, es mas tad! expresar los resultados en termmos de precistones que en terrninos de vananzas 0 desviaciones tfplcas.

BIOESTADISTICA

Puede observarse en (19) que Ia precision £inal bIt es Ia suma de' Ia precisi6n irucial b« y la proporcionada par los datos nb . y en (20) que ei valor mas probable p" de Ia distribucion Mal es Ia media pOllderada del valor mas probable IJ.il de Ia distribud6n uncial y de la media muestral x, con pesos proporcronales a las respectivas precisiones. Ambos hechos descrlben ia forma general en que la distrlbucion £nal combina Ia mfonnacion micral y Ia que proporciona ei experimento.

Puede ooservarse ademas que, puesto que la distribucion :final de !L solo depende de Ia muestra i_Xl,o ••• s x,,} a traves de Ia media muestral x y de su tamafio II, el par in, xl resume toda la informacion relevante; tecrucamente;· se dice que e1 pat (n. x) es, en este caso, un estadtsuco (esta es, una funcion

de la muestra) saiiciente. 'r-

La caniidad ae tnformaci6n proporcionaoa per Ia muestra se obnene, de acuerdo con (5), resolviendo 1a integral

JJJ.{e, N(]J.I[l{J, Cl'O)IX1, X2 .• "'J xr.] ::;::

r I N([L11-tI" 0',,)

::;:: Jl N(v- 11", 0',,) log N( I· du.

I.t 11«, 0'0)

cuyo valor esperado resulta ser, simplemente,

esto es el Iogaritmo del mimero de veces que Ia muestra consigue reducrr 1a amplitud de Ia desviacion tlplca que mide nuestra mcertidumbre sobre !-to Como podria esperarse, 1a expresi6n (21), que tamblen puede escribirse como .i,1 log (1 + l$b/ho}, es una funcidn concava y creciente del tamafio muestral n .. y una funcien creciente del cociente hi ho entre hi precision de las observaciones y la precision imciai.

Ejemplo 5.4.4.

Cantidad de tirostna (cont.)

La informacion inicial sobre 13 cantidad de rirosma lJ, contenida en. Ia orina de un deterrmnado paeiente puede describirse mediante Ia distribuci6n N(]J.1.39, 14,8.3) obtenida en el Ejemplo 5.1.2. Can obietc-de mejorarla, se realizan tres medidas que resultan ser XI = 40,62, Xz = 41,8, Xl = 40,44 y que consntuyen una rnuestra aleatona de tamafio 3 de una poblacion Normal centrada en I-t y con desviacicn tipica ~ == 2 mg/24 h. Determmar la cortespondiente disttibuci6n final, ia informacion proporcionada por 1a muestra y 1a probabilidad final de que e sea mayor de 42 mg/24 h.

La distribuclon Iniclel es N{Oliilo. ",.) con u" = 39. 0', = 14.83 Y«, por tanto.

(21 )

EL PROCESO DE APRENDIZAJE 155

IJ. = 11 rft, '" 0,0045. La. precision de' las observaciones es b '" 1/ tr' = 0.25, Ia media muesnat es oX = 40.953 Y su tamafio n = 3. En consecuencia, utilizande (19) y (20).

IJ, = h. -I- nt:J = 0,0045 + 3(0,25) = 0,7545 fJ., = l>Mho + nh;r)/h, = 40,94

y, puesto que 0',"" l/vfh.J '= 0.151.·J3 dlsteibucion finou es N(f.'140.94, 0,151).

La informaci6n proporcionada por 13 muestra score el valor de !J. seta, utilizando (21), . !ogla'o/IT,J = 4.59 esto es 4,59/]og2 "" 6,62 bits; equrvale por tanto a algo menos de 18. que proporcionanan las respuestas a stete preguntas binanas sobre el valor de [.I., con respuestas equiprobables a prrori,

5.5. Parametres margmales

En Ia seccion anterior hemos supuesto que, con objeto de metorar la mformacion de que se dispone sobre e1 valor e del parametro de interes, puede realizarse un experrmento e cuyos resultados x nenen una distribuci6n de probabilidad p(xIS) que solo depende de ij. Frecuentemente, sm embargo, Ia distJ:ibuci6n de los resultados expenmentalcs x no solo depende del pararnetro de mteres a sino tambien de otro parametro w. que denomrnaremos paramesro margma: (*), de forma que los resultados expenmentales x nenen una distribuci6n de probabilidad p(xle, wi.

En esta sttuacion, para poder realizer mferencias sobre ei pararnetro de rnteres a, es necesano describir la informacion imcial de que se dispone, tanto sobre (j como sobre w, mediante Ia correspondiente dlstribucion mtaa; confunta p(O, wl. En vrrtud del Teorema de. Bayes, la correspondiente distribucion final contunta sera

p(e, wlxJ cc p(xle, WI pCB, w)

'<J la distrlbucion fin<li del parametrc de mteres e sera la distribud6n marginal reievanre, esto es

p(Slx) = 2: p(S. wdx)

81 N es discrete c,

r

p(6Ixl::;:: I p(ll, wlx) aw

.,

si w es una cantidad aleatorra continua.

f") Algunos autores emplean ei rermmo 'Mramelro Mtturb!ldor.

I

I

I

I

!

I

1"56 BIOESTADISTICA

Ejemplo 5.5.1.

Diagnosts

Con obieto de determmar la causa e de un determmado s1ndro~e (8 = 91, 8 = 9l 0 6 = 83] se realiza una exploJ:>lci6n cuvo resulta~,? puede ser positrvo IX = 1) 0 negatrvo (x = 0). La distribucion de ptoba~llidad.del

~ ~ .' . 1 del sfndrome e y de ia posible

resuttarto ~ expenmental depende de a causa 111u.

exlstencla to de una mfeccion (w = 1 e~nste mfeccion, w = 0 no existe J de

manera que p\x!9. wf es de fa forma

plx = 111, 1J = 0,9 p{x = 111,·0) = 0,7 p(x = ilz, 1) = 05 Plx = 112, 0) = 0,2 p(x "" 113, 1) = 0,2 Plx = 113, 0\ = 0,0

La mformaci6n imcial sobre los pares (B, w) viene dada POt Ia tabla

e = e, e = 92 9 = 83
w=l 0,1 0,2 0,3
w=o 0,2 0,1 0.1 . Deterrninar Ia distribuci6n final de 6 segun sea el resultado de 13 exploracion,

Si el result ado es positive (x "" 1) renemos, "11 vittud del TeOJ:em" de Baves

p(6. wix '" 11 oc Pl:< = 116. W} piC. (,)1

Realizando opex"CIOneS Y normalizando, ia corresponcliente distribocl61l finai contunta vrene <lad. pot ia tabla

w=i

0,22 0,34

0,24 0.05

0,15 0,00

l' POt 10 tanto Ia disttibuci61l final de 6 51 Ii = 1 resulta set pcel" = 1) = (0,56, 0,29,0,l.5)

EL PROCESO DE APRENDIZAJE 157

cornop(x =; ole, w I = I ~ P(x "" liS. to), Ia distribuci6n final de 9 .1 X = 0 puede de' terminarse de talmo analog. v result. ser

p(a!", = 01 = (0,12, 0,31. 057)

La distribucidn micial de e era p(O) = (0,3, 0,3, 0,4) Que dab. a las Ires posibles causa" del sindrome una probabilidad parecida. Puede observarse que 81 el resulzado de Ja exploracidn es positive, aumenta 1. verosrmilltuo de a = 9, como Causa del sfndrorne, mientras cue SI el resultadn es negatrvo aumenta la verostmilitud de a = OJ, como cabia esperar de Ia simple observacion ce Ia tunci6n de verostmilitud.

Conchnremos esra seccidn estudiando ias conclusrones que pueden obtenerse a partir de una muestra aleatona de una poblad6n normal sobre el valor de su media J). cuando tambien se desconoce Ia desviecion tipica 0" ~

Segtin v:tmos (Ecuacion 5.2.2), Ia funci6n de verosimilitud corresponmente a una muestra aleatoria z = (Xl> X" ... , Xn) de una poblacion normal N(xil-', en es

"

r __ 1 _IT exp ~ _ ~ "( s: _U_~12)}

\ 21tif') t 2.4 IJ' •

,~,

Si PllJ.-, CT) describe Ia Informacion imcial de que se dispone sabre los vaIores de I-t y de 0", 13 distribucion final de J.t y <1 sera

(2)

y Ia diatribucidn final de IJ,

'"

P([.tJXI, .. -~, x,,] :;::: j p(\1, "'\xl ..... , x .. )drr

(3)

Como verernos en el capitulo proximo. Ia srtuacidn en que no se dispone de informacion mrcial sabre u y (J' puede describirse, en esse contexto, mediante Ia funci6n p(J.i,cr-l = o:: de forma que sustrtuvendo en (2) y realizarido Ia rntegral (3) se obtiene

{4}

(5)

15B BIOESTADlsTICA

Comparando (4) con Ia Definicion 4.3.6 de una distribuci6n Student resulta que, en ausencta ae mformaci6n znscuu.

Ejemplo '5,5,;!. pH de ta sativa

Para Ia elaboracion de un determmado preparado farmscoldgico- resulta necesano precisar ei grado de acidez (valor pHJ medio de la saliva de AOS pacrentes a que va dingido, Tomada una muestra aleatona de' 10 pacientes se obtienen los valores

5,60 5,95 6,01 ~,06 6,52 5,85 6,15 6,43 5,34 6.41

Suponiendo que los datos proceden de una distribucion normal N(xlp., 0'), y en ausencia de informacion imcial sabre sus parametres. determinar Ia distribuci6n final de TJ, Y Ia probabilidad de que TJ, > 6.

Utilizando las expresiones (5), so obnene en este caso

x = 6,03,

y por tanto s/y(n -1) = s/3 '" 0,118 de iorma que Ia distribucion pedida es

pUJ.IXJ, ... , x"i "" 51(1116.03, D,ll8, 9)

4.5 r

!

3 ~

i

1,5

O~----~~~~LL~------

5

6

'"' ,

(6)

Finatmcnte,

EL PROCESO DE APRENDIZl\JE 159

( 6-6.03 l

p[6<[L< ""Ix" ... , )C.J = .... (~J-w.

- \ 0,118 ,

= i-W,(-0.2;5) "" <l!,(O,25)

donde ill, es Ia tuncion de distribuci6n de Ia , de Student normalizaoa COn 9 grades de lfbertad, Haciendo usc) de las tabla. correspondientes se obtiene <ll,(0.25) '" O.8D4, que es Ia prcbabllldao pedida.

5.6. Prediction

Frecuentemente, el parametro de interes en un problema de decision no es el parjimetro de una distribuci6n sino ei resultado de una cbservacion futHra, ASl por etemplo, el suceso mcrerto relevante para decidir SI someter 0 no a un nuevo paciente a una determmada operaci6n es el estada final (x = i satisfactorto, x = 0 insausfscronoj de ese paciente y DO laproporcion a de pacrentes can los que se ontiene un resurtado sansfacrono. Sin embargo, ia mforrnacion acumulada sobre el valor de 8 mediante el Teorerna de Bayes puede ser utilizada para predear el posible resultado de operar al nuevo paciente,

En general, SI Xl, X" •. ,> x. son resultados rndependientes can una distnbucicn cormin p(x,IS), y p(91 describe la informacion mtcial sobre el valor de e, la informacion acumulada sobre e vendra dada, en virtud del Teorem« de Bayes por

"

p(9lxlo Xl, , •. , x") OG n p(xlle) p(Gl

Esta mformaclon puede combinarse con Ia distrlbucion PlxIS) de una nueva observacion x para describir 1a infonnacion que se posee sobre sus posibles valores, En efecto,

(1)

81 a es una cantidac aleatorta discrete y

r

P(x]XJ. Xl, ... , x");:;:; f p(xI8) p{eIXl. X2, • "i xn)de J

i Ii "

ii

II

(2)

~:l'E",

t,:r"· ~: :::':::"00"' OM ,"'nlb"".n de x _monee conocid

~ .. :.:II.· . q~e p?~emas bacer prediCClones. Esta distribudc5n recib el a .. con .la

.~ trtbuczon predicttva final Su' .... ,e nombre de dIS.

i! . estudiada en Ia Secci6n 5.3 seroeJanza con .IS distribuclOn predictren (iUlClal)

ii~~ stones :; 3 1 ~ . . .es .obv~a: tan solo heroos sustrtuido en las re-

,.,! (el" y 5.3;...'" 1a dl~trl~ucI6n rnicral pre) par Ia distribuci6n~ .

r fl P xi, X2, "" x«). ,--,on Ia dIstnbuci6n predi . nat

: ..••. ':.·I·,.;!1:.. predicCIOnes Sabre ei resuitada e . allCtiVa !nlclal p( X). pueden hacerse

al .'. . xpenmenr x antes de realizar observacio

. guna, y puede utihz~rse para analizar las I1n r . .. n

::!- tnicial. En 1a distribud6n predictlva final p,lcaCIones de Ia distribucion

'f lnfoJ:1naci6n PJ:oporclOnada per Ias ob P(XXl,X2, ... ,Xn) se recoge la

!I'! u servactones Xl X2 X 'Ii

"'.1 para predecn- ei resultado de 1 p • . .?" ... , "v se un za

:1' problema de lnf a roxima obsetvao6n x. Se trata aquf de un

I~' obtenci6n de Ia &~~~~c~:e ~~~ puede set resuelto Una vez analizads 1~

I ;~

1:\

ri

U

Ejempjo 5.6.1.

Diagnosrs (conr.)

DetermlhHI la .distdbud6npredictlV8 fin 1 d 1 .

descrltos en el Eiemp!o 5::Z 1 utili 1 <~ .e ~s, resultados de los tests

de las dolencms obtenidas' ~~ el 1 ~:~dp~o \ ~S~tlbuClon :6naI sobre las causas positivos. ~ .. " cuanda ambos tests resultan

Si el result.do del lest es (1, 1) la disrrlbucion final de e result.b. ser p(ell, 1) "" j 0,459, 0.199. 0,077, 0.199, 0,0661

y, en consecuenCla. utilizando esta distrlbuci6 < •

procedlendo COIno en ei Ejemplo 5' 1 b n en lugar <Ie La dlsttlbucion micia] PCB) v

._" se 0 tiene

p(l, 111: 1) = 0,345 t(l. 011. 1) = 0,181 prO. 1/1, 1) = 0,374 pro. 011. 1) = 0,100

Comparnndo este result.do

plo 53.1 COll ia dlstcibucion predicuva rnicial Obtenida en ei Ejern-

pel. 1) = 0,181 peL 0) "" 0,235 p(O, 11 = 0,484 p(O, 0) = O .• l1JO

puede obsetvarse que, como era de es crar .

vet hace mas Probable que '(11.1elVa a s~ced~ ~ hecno deEque (L 1) . ~ava sucedide una e nuevo. sta prot>abllidad solo se man.

EL PROCESO DE APRENDIZAJE 161

tendm constante 51 el valor de 6 tuese conocido, en cuvo caso p(l. 11 serfa constantcmente 19l1aJ. a P(I. 118) puesto que nuevo, resultados expenmentales no podrian va . metorar nuestra mforrnaclcn sobre e.

Conchnremos esra seccion considerando distribucrones predictivas finales correspondientcs a las dos srtuacrones expenrnentales repetidarnente mencionadas en este capitulo. descnras respectrvamente por las distribuciones Binomral y Normal.

Considerese que se ha obtenido una muestra aleatona de tamafio n de una poblaci6n y que se ha encontrado que r elementos de Ia muestra poseian una determmada caracterisuca. Se desca saber Ia probabilidad de que un nuevo elernento de la poblaci6n escogido al azar tenga (x = 1) a no tenga (x = 0) la caracterfstica mencionada. Si B es Ia proporci6n (desconocida) de elementos de Ia poblacion que tienen tal caracterisnca tenemos

p(x = liB) = e p(x=Olei=l-B

En consecuencia, 61 p(~lt, n) es la distribucion final que describe la informacion de que se dispone sabre e tras observer los resultados expenmentales, tendremos en virtud de (2)

r

p(x = llr, n) = J e p(e,r, n) de = E{B,r, nl

y, naturalmente, P(x ::::: air, n)::::: 1- F(x = 111', n), de forma que la probabilidad de que un nuevo elemento de la poblaci6n tenga 1a caracterfstica estudiada es simplemente Ia media de Ia discribuclon iina; de e.

En particular, si Ia distribuci6n uncial de e es Be(Blo;, p) y por tanto (Ecuaci6n 5.4.6) su distribucion :final es Berelc.r; + r, 0 + n - r), Ia probabiIidad buscada es, en virtud del Teorema 4.5.3,

c.r;+r

p(x = llr, nl = ---:;c---- 0;+0+1'1

(.3)

que, para valores grandes de r y de n, es aproximadamente 19uaJ a Ia proporcion muestral rln.

Ejemplo 5.6.2.

T asa ae morbididad (cont.)

Determmar la probabilidad de que un elemento de Ia poblacion escogido al azar este afectado de gripe 51 Ia distribucidn uncial sabre Ia ptoporci6n 8

.!!

,

I I

III

162 B[OESTADIS'j:TCA

de elementos en Ia poblacion con gripe es Ia distribucicn Be(ei3. 12) cons. truida en el Eiernplo 5.1.4 y una muestra de' 20 elementos contenfa 5 en" fermos.

U tilizandO 1; ecuacion (3)

3-1-5 8

p(x ." 115, 20) = = _. ~ 0.2.3

.3 + 12 + 20 35

que es la media ce Ia distr:ibud6n nnal BeeSjS, 27) descnta ell el Ejemplo 5.43.

Considerese final mente que se ha obtenido una muestra aleatofia (XL. x~, .'" Xn) de una poblacion Normal de media [J. Y desviacion tfpIca conocida (1'; se desea determinar la distrlbucion predictrva final de una nueva' ~bservacion x. Por hipoteslS

En consecuencia, 81 P(Y,!Xl. .... Xn) es Ia distribucion final que describe Ia informackin de que se dispone soore )1. tras observar los resultados expenmentrues, tendremos, en virtud de (2),

r

P(XiXl, -." x,,) = I N(xltJ., 0') P{llixJ, .. '.' X,,) du

J

~n particular, 51 Ja distribution mzcial de 1-1 es N{lllfl<J. (To) y par tanto (EcuaClan 5.4.18) la distribucion final es N(l-tl!.tn, O'"i doade I-tn Y if. vienen dados

par las ecuaciones 5.4.19 y 5.4.20. results .

r

. . . I

P(XIXI, ''', Xu) :::: j N(xi[L,O') N([L/lLn, (1'n) diJ, =

N(xil-tn, V(ri< + a-2 ))

"

de forma anaIoga a 13 Ecuacidn 5.3.8. Cotnparando Ia ecuacion (4) can la 5.3 .8 se ooserva que, como era de esperar, Ia distribucion predictrva fin:!l es de Ia ~Sn:a f~~ma que la distri?uci6n predictrva inicral con los parametres de la distribucion final de I.l. en Ingar de los de su distribucion nucial.

Compuando (4).coo la dis~dbuci~? final de [..\, N(v.Il..\n, O"n), se observa que tiene 13 _mlsma rnedis y una deSVI3ClOn tiptca necesarramente mayor. Cuando e1 camano rnucsrral n crece, 1a desviacion tiPIC3 de Ia distribucion final 0' n tle~de a cera, 10 que nos perrmte eonccer el valor de IJ, can una precision arbI~rar~am:nte gra~de; sin embargo, wando n crece Ia desvracion tfp1ca de Ia distribucicn predicnva final solo uende a (J' par 10. que no podemos aspirar a prececir can mayor precision el resultado de una observaeion future. ..

(4)

EL PROCESO DE APRENDrv,JE 163

Ejemplo 5.6.3. Cantidad de tirostna (cont.)

Deterrmnar ia distribucirin predicuva de Ia proxima medicion de ia cantidad de nrosina I.l en Ia orrna de un paciente 51 tales mediciones se suponen normairnence distribuidas con media u y desviacldn tiprca a = 2, Ia dis. ttibuci6n inicial de J1, es Ia N(ui39, 14,83) obtenida en el Ejemplo 5.1.2 y se Ilevan realizadas tres mediciones, Ia media antmerlca de cuyos resultados es 40J953. Determrnar Ia probabilidad de que tal medicion resulte superior a 42 mg/24 h.

La correspondiente distribud6n final. obtenida en el Eiemplo 5.4,4. es p(J.llx" Xl, XJ I "" = N().I:j40,49, 1.151): en coasecuencra. en virtue de (4), 1- distribuci6n pedida sera

Pixlx" X" Xli = N(xj40,94. v12" + 1,151')) "" N(xl40,94, 2,308)

Finalmente,

( 42- 40.94 )

= 4>( ~ 1- <P 'l '-2,308 = 1- q,(O,46) = 03230

5.7. Dlscuslon y refereneias

Tradicionalmente, el problema de mferencea se formula como el problema de extraer conclusiones probabilfsticas sabre los valores de los parametros de una distribucion basandose en Ia observaci6n· de una muestta exrraida de ella. En este Capitulo hemos desarrollado Ia solucion Bayestana a este problema que. como. hernos VIsta, consiste en acumular a la mformaci6n 101- cial Ia Informacion proporcionada por sos datos mediante el uso del Teorema de Bayes. Esta solucion es Ia umca compatible can los pnncipios de coherencia expuestos en el Capitulo 2.

Existe una bibliograHa creciente sabre los rnetodos estadisticos Bayesianos. Resuiran ya clasicos los textos de Jeffrevs (1939/1967), Good (1950. 1965), Lindley (1965), De Finetti [1970/1975. 1972), DeGtoot (1970), Zellner (1971), V Box & Tiao (19731. Entre los Iibros de rexto mas elernentales recrentemente aparecidos podemos crtar lOS de Novick & Jackson (1974), Phillips (1973), Savage (1968), Schmitt (1969) y Winkler (972), Sin embargo. una proporcion impcrtante de los resultados conocidos en mferencia Bsvesiana has que buscarlos todavfa en las revrstas especializadas: Lindley (1971 a) proporciona un ctetallada analisis de los publicados sntes de esa fecna.

.Recienternente, han aparecido vanas colecciones de artfcuios que recogen aportaciones importanres a Ia rnetodologia Bavesiana. Merecen especial aten-

....

764 . BIOESTADISTICA

cion los editados por Godarobe & Sprott (1971), Ayk.ac & Brumat (1977), Fienberg & Zellner (1975), Harper & Hooker (1976), Barra et, ai. (1977), Zellner (1980) v Bernardo et. o.i. (19801.

La escueia clasica de mferencia se basa en pnncrpios radicalmente diferentes: no se derrva de comunto axromatico alguno Y viola, en particular, los prmcipios de conerencia mencionados en Ia Seccion 2.3. Extsten vanos textos que permrten un analisis cornparanvo de ambas metcdologias: podernos War entre ellos los de Barnett (1973), Cox & Hinklev (19741 y DeGroot [19751 que adoptan, respectrvamente, posturas eclecnca, rusl.ca v· bayesiana.

PROBLEMAS

1. Se sabe que la cantldad de gamma grutamil-transpepdlrasa (yGTl en el suero sanguineo en varones, a. nene nn valor medic de 22.75 mU/m.i V que, con probabilidad 0.99. es menor Que 42.75. Determrnar la distribuci6n normal que meier describe est. inrormadon.

2. Se sabe que' In procorcxin e de personas CUl'O grupo sanguineo es el A csra entre el 30 v cl 70 % can probabilidaci 0,90. Determmar, utilizando tablas, una dis, tribud6n Beta que describa adecuadarnente esta inrormaelen. Comparar este resurrado con el que se obtiene utilizando la transrormacion Ioganrmica para normalizer.

3. En una mvestigacion sobre Ia proporcidn a de personas arectadas por una epidemia se reallsa un muestreo de 100 personas elegidas at azar, 8 de las cuaies resultsn estar afectadas, Constnnr v representar Ia correspondiente tunclon <10 verosrmilituo.

4. Construtr v representee Ia runclcn de verosimiliruc correspondientc a las medidas x, = 208, x, "" 215, x, = 198, Xi = 218 rngyml obtenidas de una poblacion N(xj(J., 10) al tnvesngar el coiestero] contenido en ei suero sanguineo de un paciente.

s. Para determmar la cantidad de: enzirna yGT, e, contenida en "1 sueio sangulneo de un dererrmnado pacrente va a realizarse una rnedida COn un aparato que produce rnedidas norm ales. centradas en e con desviacion ripiea rguai a ,} mU/mJ.. Determmar 1. correspondiente distribucion predictrva utilizando Ia distribucion micial para 8 de! Problema 1.

6. La rntormacion micial sobre ei colesterol (J. contenido en Ia sangxe de un paciente puede describirse mediante una distribucion normal N(1l-1200. 161. Deterrmnar ia correspondiente distribud6n final una vez cbservados los resul tados descrnos en el Problema 4.

7, Se sabe que Ia proporcion e de personas atectadas par una epidemia puede descnbirse mediante una dlstribud6n Beta de media 0.1 v desviaeion tipica 0,05. Deterrntnsr Ia dlstribucion final de !) una vez observados los resultados descnros en el Problema 3"

.\..

El PROCESO DE APRENDIZAJE 165

8. Al medir I", cantidan de glicerol Iibre u en I~ sangre de un pacrenze se obtienen LOs vaiores <,1. 1,0, 1,3, 0.9 V 1,2 mg/100 ml, Determmar Ia dlstribucion final de IJ, en nusencia de mtorrnacion tanto sobre )..t como sabre la precisi6n de los datos.

9, ~5 sabe que las ptateinas cont~i~as en el Iiquido cefalorraQuideo se smian entre

v 40 mgllOO'll1l ~on probabilidad 0,99. Realizadas dos punciones a un determmado pactente y analizados ios resultados se obnenen vatores de 26 v 23 m /l00 !nI con un metoda que nroporciona resultados con distribucion norma! centr J el V~rda(l~ro val~.t v con desviacidn tlptca igua; a 3 mg/lOO ml, Determl:ar<Js1a e~istribucidn predlcnva snore el resultado de una tercera pund6n.

10, - La etectlVi~ad de dos tratarmentos a1ternatlvos, " V '" para una decermmada enfer ~edad ~erebral C1eP:?(le del contenido ~ de GINa en el 1.(quido cefalortaqufdeo (LCR \: xpresandola en anos esperados de vlda, 1. utilidsd de cada uno de II

dada per e os viene

ult,. 61 = 12 - (a - 720)/10 uti" 91 = 12 - (750 - 9)/8

~e s.;be Que eJ vala! .de e se srtua entre 720 V 750 mg/IOO ml con prababilidad 0,999 ealizados dos andlisis del LCR del pacrente mediante un rnetodo con desVlaci6~ H!J1ca ;2 mg!100 ml se ebrrenen los valores 741 v 743 mg/IOO ml, Deterrmnar el tratamlento optirno,

I II

I'

Capitulo 6

Metodos aproximados de inferenda

En este capitulo se describen un comunto de metodos que permrten obtener conciustones aproxzmaaas sabre el valor de III magnitud de mteres, derrvadas de su distribucion final 0 de aproximaciones a ella,

Como medidas, aescrtptiuas de Ia distribucion final se utilizan algunas de Sus caracterlsticas (media, rnoda, desviacitin tipica ... J y. las llarnadas regiones creibles 0 de confianza,

Se describen algunos merodos para transformar fa distribuci6n final en otra aproxlmadamente normai, can obieto de facilitar su analisrs, Se estudia el comportamtento astntotico de La distribuci6n final a medida que erece eL tamafio de la muestra.

Se define Ia distribucion finm de re terenoia que describe las conclusrones que pueden extraerse de los datos ruanda no se dispone de Informacion inrcial.

S" cementa finaimente 12 estabilidaa de Ia distribucion final frente a cambios en .Ios datos, el moceio. 0 Ia distribud6n imcia.,

E1 calculo exacto de ta distribucion final de la rnagmtud de interes es Irecuentemente rnuy complicado: ademas, mcluso en' aquellos casas en que pnede obtenersc, la distribucion final resulta a menudo un concepto demaSlade complejo para set utilizano por quienes no poseen un cierto grade de sofistificaci6n maternatica. Results en consecuencia deseable disponer de metados que perrmtan obtener conctasiones aproximadas sobre el valor de Ia magnrtud de interes faciles de obtener v sencillas de rnterpretar. Una forma de hacerle es defimr caracterfstrcas fadlmente interpretables de Ja distribuci6n final, que describan aproxrmadamente su localizad6n v SD forma.

T:

!

':<BIOESTADisTICA'

.. ' ··.···'.':D.. . . pC/I' on de Ia distrlbud6n final

6.1. ... ellen

Segun virnos en el Capitulo 2. 113. limca .forma coherente de expresar lit mfo.tmaci6n de que se dispone sabre el vaior de una. :;n,agnltud mcierta e .COnsIste en Ja espec:i6.cad6n de 5U distribucion de probablhdad.

Cuando Ia magrntud de mteres e es discreta, de forma que e: conlu~to de . ..

j ibl de 8 es fimtoo mfiruto numerable. Ia forma mas senci11a de ....

va ores POS! es di funci , d .... ab bi describir su distribuci6n es mediante 113. correspon ~te uneion e pr a -

lidad P(Si) = p(6 = 61), La comptensi6n de su significado Y aicance puede facilitarse mediante su reptesentaci6n griific13. v el c~lcul? de ~lJun~s de sus ~ar13.cterlstIcas (ver Secd6n 4.5) como su media, moda 0 cesviacion npica,

Ejemplo 6.l.1. 'I'asas de morbididad (cont.)

Representar gdfic13.mente V determ~nar las caracterishc13.s ?e la di$ttibu~ d6n Bb(rI3, 12. 10), obtenida en el Ejempio 53.2, que descr.lbe miestra in Iorrnacion sabre el numero de personas a£ectadas. por ia <:!pldemla en una

muestra 13.leatOtla de t13.m13.fio 10.

Plr)
0 0,1798 ro
0.2569 E(r) = "2: rplr) = media = 2
2 0,2312 , ..
3 0,1623 mod a (valor mas probable de ii = l.
4 0,0947
;; 0.0468 "
6 0,0195 Hi:") = ! rp\r) =: 65
7 0,0067 r=O
8 0.0018 D'(n = Err] - E'[r] = vananza = 2,5
9 0,P003
10 0.0000) D(r) = desviacion t\plCa "" 1,581 Eln-Olr)

Elf)

Elr) .. Dlr)

METODOS APROXIMADOS DE INF~RENCIA 169:"

La SImple onservacion de 13 representacidn gratica. donde adernas de la funcion de pro: . nabilidad se h. diburaco una desviacion rtpica a cada !ado de Ja media, proporciona una

. clara idea mruitiva de ra mformacion de que se dispone sobre el valor de r, Los rnomentes pueden tam bien set calcuiacos directamenre a partir de las propicdades de Ia distribuci6n Beta-binomial, en efcczo $1 p(xJ = BbixJa, b, I'll, entcnces . (Raitfa & SChlal· tel'. 1961, p. 237)

na E(x)=:--~ a+b

hat;

I' "+,, +b , a -t- b .... 1

)

D'(xl""---~

(a + hi'

Susntuvcndo por a "" 3, b =: 12 v n =: 10 se renroducen los valores encontrados.

Cuando el pararnerro de mteres es una rnagmrud contmua, 113. forma mas sencilla de describir su disrribucion es mediante Ia correspondienre densidad de probabilidad. La asrmilacion mtumva de su contenldo se facllits enormemente mediante su representaclon grafica, el calculo de sus pnncipales caracterlsncas, y 113. determinacion de un crerro mimero de regsones crelbles.

DEFINICION 6.1.1. Sea e E e una cantidad aieatorza continua con densidad de nrobabilidac: P(S). La region crefble de nrvel de confianza p, que representaremos con 1,,(6), es aque: subcontunto del espaczo paremetnco \8l ae iongitud mtmma entre todos aquellos CUytI probabilidad asoaaaa es p.

Intuiuvamente, una region creible es ill que connene a aquellos vaiores de S que resultan mas probables a la vista de 113. informacion de que se dispone, En eiecro.

TEOREMA 6.1.1. Cuatqutera que sea p, todos ios puntos que pertenecen a ta N!giOh creiblc I p(e) ttenen mayor aensidaa de probabiiidad que cuatqutera ae tos tiuntos que no pertenecen a J,,(6 \.

Demostraelon

Consideremos 13 region I obrenlda .1 seccronar Ia densldac de probabiHdad pte l mediante una paralela at eje de accisas, v sea 1> Ia probabilidact asocrada a I; en 1. Dgllt2, 1. region I esta constrtuida pot er mtervalo (e., e,) mientras que P "8 el area de 13 !egi6n somoreada,

Si modificamos Ia region 1 mantemendo constante Ia probabilidac asoctada a ella (por eremplo desp!!tZando a Ia derecha el mtervaio i de i.a figurn), sumentamos necesanamente BU Iongrtud. En erecto, para cualquier desplazarniento e, > 0 del punto a., ei area mcorporada .e.ro. heciendo usa del teorerna del VaH)t medio, de 1. forma E, p(6~')

con &7 Ere r , e, + Eli v el Area elimmada de 1. forma ~ p(e~} con il: E; (e" 6. + ~); nuesto que ambas ~reas cleben ser 19ual~s V SI, como en .I;J figura, sizponemos {.(B~) < p(s:)

'170 ··BIOESTADIST1CA

resulta ~I > E, V por tanto In Iongrtud del nuevo mtervalo es mavor que ia del ortgtual, Desplazsnoo ci rntervaio nacia In lzoUlerda se obtendrs un resultado noalago.

En consecuencia .• Ia region 1. es In region de iongttud miruma entre las que. nenen Ia mrsma probabilidad asociada V se trata par tanto de Ia region creible de nrvei de con:!lanza P. Reciprocamente, una regi6n creible debe set ce la rorma descrtta en el teorema porque, de otra manera, un pequefio de$»iazam1ento dismmuiria su Iongttud, en contra de la definid6n de region creibie,

Ademas de una interpretacion innutiva del significado de las J:E:gl.ones crelbles. el teorema anterior proporcicna un metodo grafico· de construirlas. En efecto, para construrr una region erefble de ruvel p basta tra:z~s paralelas al eie de abcisas, progresrvamentc mas baras. hasta que la probabihdad asociada a Ia region que determinan sea preClsamente el mvel pedido ts. Por otra parte. el merodo de construcci6n menctcnaoo penmte apreeiar facilmente Ia

MnODOS APROXIMADOS DE INFERENCIA 171

untcidad de la soluci6n. esto es el heche de que para cada mvel solo existe , una region crefble.

Frecuentemenre, las distribuciones finales que aparecen en fa practica son unu:nodales. En este caso, el Teorema 6.1,1 nos perrmte asegurar que las regiones crefbles son mtervalos. A estas regrones creibles conexas se lea llama tam bien mteroalos ae coniianza,

Si ademas de unimodal Ia distribucion final es srmetrica: todos los intervales de coniianza estaran obviamente centrados en el valor medic de la distribucion, esto es, seran de Ia forma [B(I)-r. Eta) + rJ claude el radio r del mtervaio depended del myel elegido, De acuerdo con Ia Definicion 6.1.1. el intervalo de ruvel p debe contener probabilidad p y par tanto

p[E(e)-r < e < E(e) +~] = p

0, alrernanvamente, usando Ia sirnetrfa alrededor de E(6)

pea < E(91 + r] == u + p)/2

Si w = {8-B(B)}/D(8) es Ia correspondiente magmtud ttpiiicad.a, tendremos Iltw < rlDea)} = (1 + p)/2 v por 10 tanto

F.,{rlD(S)} = (1 + p)!2

(1)

donde F es la funcidn de disttibuci6n de co. Resolviendo eo r esa ecuaci6n ...

por medio de las tablas correspondientes puede construirse el mtervaio.

En particular. si la disttibuci6n final es Normal. tendremos P(W] =NI ul!O, 1) y Ia ecuacion (11 sera w{r/Dla)} = 11 + p)/2. Como puede comprobarse en las T ablas correspondientes, los valores 11" para los que se verifica Ia ecuaci6n C:N np) :::;; (1 + p )/2 son, para distmtos valores de p,

p

0,6745 U50) 1.6449 1.9600 2,5758 3.2905

0,5 0.75 0.90 0,95 0,99 0.999

f2}

n"

de manera que r = npDfe) y los correspondientes mtervaios de ccnfianza Beran de Ia forma

Brll) + nJ)(S)]'

(.3)

I

.\

I

I

\

I

II

'I

I,

'_

de confianza correspondientes a distribuciones

1.(8) =: [E(&l- x"D(8),

donde Xp es la solucion de 13 ecuaci6n

F ,,(Xl') =: (1 + p)/2

y F es Ia funcion de distribuci6n de Ia variable upiflcada w={fl-B(8H/D((l). Ge~eralmente 1a soiucion de La ecuacion (5) se encuentra utilfzando las tao bIas estadfsticas relevantes (" l.

Para qU(: los resultados finales de una mvestigacion estadisnca resulten Hcilmente asimilables a nrvel mtuitivo, Ia descripcidn analitica de Ia distn- ' buci6n final correspondiente debe complemenrarse COil Ia represeutacicn grafica de su densidad de probabilidad: es converuente edemas representar sabre Ia mrsma figure los valores de las caracteristrcas pnncipales de la distribuci6n aS1 como las de un conjunto de regiones creibles de nrveles convementemente escogidos. Es trecuente elegir a estes efectos los mveles 0,5, 0,9. 0,95 y 0,99.

Ejemplo 6.1.2. Cantidad de tsrosma (cont.)

Determinar las regiones creibles de mveles 0,5. 0.9. 0,95 y 0,99 conespondientes a la distribud6n final N(JJ.i40.94. 0,151) sobre Ia cantidad de nrosina de un determmado paciente encontrada en el Ejemplo 5.4.4_ Representar gnificamente tales regrones con reiaci6n a la densidad de probabilidad que las origma.

Puesto que ia distdbuci6n Normal es unimodal Y snnernca, tanto I. moda como ia Inedilma comclden can ia media I-' v las regiones crefbles esrsn consntuidas por tnterualos centranos en ese valor,

Utilizando Ia Ecuacion 0) y 1. Tabla (2), las regiones creibles son los mtervalos

p i 0,5 0,9 0,95 0,99

I,([.t) I (40,84, 41.041 (40,69. 41,19) (40.64. ~U4) [40,55. 41,:m

La representacldn grafica correspondiente, que result. ser.

r") La definicion de region crefble set extend ida .1 caso discrete: sm embargo. cuan(10 la cantidad aleatoria es discreta no exrste region crefble para. cualqurer nivel de confianza, sino s6Io nsra algunos de ellos, debldo a las discontmuidsdes de 1. runcirin de distribucion.

(5)

.~

-.!

J

": ~,I

M8'ODOS APROXIMADOS DE INFERENCIA 173

41.5

N(/-t.i40.91;,0.151)

40

1 0_95 (~) IQ99{1-t)

permite una 3S1milaci6n rapida e Jorllitiv2 ne 10 mtormad6n sobre los posibles

de l-t rontenida en su diatrlbuci6n final. valores

6.2. Famflias CODjugadas de distrihuc:iones

~~ el. capitulo anterior, se han mencronado varios elempJos en los que 1 eleccion ce una det la f "Ii . a con' . ermrnana ann ,a. para represenrar Ia Informaci6n mtcia]

S ~~Cla a unos resultados tnatemancos especraImente sencillos Asl en 1 d eccion 5:4 ~nco~;rab~mos que S1 Ia mformad6n imcral sobre e.i 'par~etro a f e ~~a distribucion binomial se descrfbia mediante una distribud6n de 1 a;r:iha Beta . .Ia correspon:'!ente distribuci6n final pertenecfa a esta mlsma t;

~llia. y toda 13 IOformacron proporcionada pot los datos' podia resumtrse en ~,p~rlr~,n]; analogamente, 51 Ja,l,nfor;:naci6n irncral sobreIa media U de una

~sttll::>uC1on ~o~ma.l. ~on desvracion npica conocida se podia describir mediante una dlstnbucion normal.. entonces Ia. correspondiente disrribucion :final resultaba ser aSlmlsmo normal y teda 13 informacion propo.tclonada por la muestra podia resumirse en el pat (x, n), Estes ejernplos son casas particu-

174 BIOESTADISTICA

lares de un amplio espectro de situaciones en las que 1a aproxtmacion, mediante distribuciones pertenecientes a una deterrmnaoa familia. de Ia distribu. don que describe la :mformaci6n imcial, permite obtener resultados sencillos,

de npo analitico, en problemas que de otra manera requenrian tecnicas de· mtegraci6n numerica y el usa sistematico de un ordenador.

DEFINlCI6N 6.2.1. Se dice que una familia de distribuctones de e es contugada con respecto a un determinado modeio probabilisnco P\xjS) SI para cuaiquter distribucion tntczai pertenectente a tat tam ilia se obttene una distrib11ci6n final que tam bien pertenece a ella.

Como vimos en la Secci6n 5.4. Ia familia de disrribuciones Beta es contugada con respecto a1 modele probabillsnco de Bernoulli (y por 10 tanto con respecto a todos los modelos probabilfsticos proporcionales a el. como el Binomial), y Ia familia de distribucionesnormales es conjugada con respecto at modele probabillsnco normal con. desviacion tlprca conocida, Mas adelante, en el Teorema 6.2.2, se citan otros cjemplos.

DE);1IN!C16N 6.2.2. Se dice que un estadistico (esto es. una tunci6n ae ta muestra), t = I(xi. '. __ , Xrt], es suficiente para bacer mierenaas sobre los pa-

rametros (91; ... _, 9k) de un mod eta probabiiistsco p(xlSl, , ihl St cuaiqu!era

que sea la distribucidn tntctai pre!, .... BIo) de estos parametros, su distrlbu- < cion final solo depende de dicbo estadisuco. esto es p(ll!, __ ., Sklxl, _", Xn) =:: . = p(S!, "-J 9kln

El par (~Xi, ni es suficiente 51 el modele es de Bernoulli. En erecto. SI observarnos una rnuestra aieatona (XI.. .. •• Xn) de forma ql.le para todo Xi,

Xi ::= 0, 1

y Ia distribucion iniciat de e es p(S), la correspondientc distribucion ii.nal sera

y por 10 tanto, con r = ~x; y cualquiera que sea p(B), la distrihucion final de e, p(fl!x!J .... xnj solo depende de Ia muestra lXl, .... Xn) a traves del par (r, n.) que es. par tanto, un estadisnco suficiente.

AnHlogatnente, el. par (x, ni es un estadistico suficiente para el modelo normal con desvracion npics conocida. En efecto, SI (Xl, ... , XnJ es una rnuestra aleatoria de una poblacion N(xilJ., J;jJ con a conocido y' P{tJ-l es Ia disnibucion uncial de lJ., ia distribucion final de u resulta set (Ec. 5.4.1.3 )

METODOS APROXIMADOS DE INFEflENCIA 175

que iimcamente depende de Ia muestra (Xl, , Xn) a traves del par (x, nv.

La existencta de un estadfsnco suficrente esta Inttmamente ligada a la forma de la runcion de verosimilitud. En efecto,

TEOREMA 6.2.1. Baio condiciones ml~y generales (*), et par {t(X4 ... , xnj, It} es un estadisttco suiiaente para bacer tnterencias sabre ei Parametro e de un modelo p(xle) basadas en la muestra :l = 1 XI, .... Xn f· S1. Y soiamente 51, ta funci6n de veroslmilitud correstondiente, p(zla) es de la forma

(1)

donae F. G y ~ son iunctones arbitranas.

La demostraci6n excece ampliamente los Iirnites matematicos eiegidos par. este Iibro [~"); es fadl comprobar sin embargo que lOS modelcs mencionados cumplen etectrvamente Ia condid6n del Teorema. A.i, por eremplo, en el case Bernoulli tcncrnos

p(xle) '" III 8',(1- 8,),-- i = (1- a)" exp[CE",)log{Oj(l- am

que es de la forma (1) con Fix) = 1, G(e) = (1 ~ a), t(zj '" Lx, v s(e) = log {e/(l __: en.

Los modelos que pueden ser exptesados· en la forma r 11 constmiyen ia llamada ctase exponenaai. En virtud del Teorema anterior todo modele de la clase exponencial ad mite un estadfstico suficiente. Es Heil cornprobar sdemas. que 51 un modelo pertenece a Ia clase exponencral, entonces las distribuciones de Ia forma

p(9\ 0:: G(S)'" exp {B~{e)}

(2)

constrtuven una familia cornugada para aquellos pares de valores («, ~) que gsranticen la convergencra de la integral r p(e)de.

JfJ

En efecto,"1 PlziB) es de Ia forma (1) V pte) de Ia forma [21 can parametres 0:0 y (3,. la distribucion Iina! resuita set

p(el"i C(: ptzlS) peS) oc·G(El)"., e"p[{t(z) + O,)1;(9)]

(*1 Brown [1964) ofrece un ani!isis riguroso de las condiciones de regularidad que deben Set exlgidas.

. (~*1 Kendall & Smart (VoL 2~ 1956/1977, p. 26) describen de tatoo" ciemental Ia estructura ce Ja dernostracion.

176 BIOESTADISTICA

que eo tam~ien de Ia lonna (2) con.parfrnerros a.. "" 0:0 + n Y (3. = ($, + 1ft.). En el caso de }3ex.n.oull! G(e) "" t 1 - a) v ~(e) = log {e/(l- a)} de forma que sustrtuvendo en (2)

la tamilh cornugans results Set del tipo .

pea) DC iI-Ella r_e_1~ "" (1-e)a.-~ ell I.. i-a)

Claramente, para G + 1 > 0 Y a > f3- r, que son los valores de a.1' f3 que garannzan 1<1

. (' ,,-

convergencra de J, p(e)de. se genera 1. familia de distzibuciones Bers

La gran n:ayorfa de los modelos probabilfsncos utilizadoa en la pnicnca pertenecen a ia ctase exponescua definida por 11) de forma que nenen tanto estadisttco suiiciente como tamilia contugada de distribaciones, En el Tearerna 622 se resumen, para algunos de ellos, su estadisnco suficiente, las correspondientes distrfbucrcnes -conlugadas y Ia relaci6n que existe entre los parametres miciales y fin.a1es.

.. La demostracion de algunos de estos resultados ha side hecha en el texto: el resto pueden ser consultados, por ejempio, en DeGroot (1970. cap. 9).

TEOREMA 6,2.2. Familiar contugadas

Modelo Est, Suficimte Familia Comugaa«
Bernoulli (r, III Beta. Be(()I"'" 1'1,)
Br(xltll r = :Ex, 0:11 ee IXIl + 7'
/3.= [3Q+II-r
POl$SOn (r, II) Gamma. Ga() .. I(X,I, r3,)
Po(xl)") r "" ::Ex, a.=«o+'
'13.=I3,+n
Normat (x, 111 Normal. N(!J.I[l" (l',)
N(xilJ., If) x'" J;x'/JI Q', = l/vh,
" conocldo Ii. = h. + nh
fJ "'" l/cr IJ.. = (p..,b, + nx)/h.
Normal (s', 111 Gamma. Ga(hla,. 13')
N(xjlJ, ") r "" I.(x, - fl.)'/" a.. "" IXo + nn
u conocida Go :::; 13, + ni'll.
Ii ~ UrI"
Expbnencial [r, 11) Gamma. Gatala.;, s»
Ex(xI9) r "" :tx, o:.rt =:("£0 + n
13. = {3. -i- r . Los resultados descrrtos en esta seccion permlten un aniilis.is xapido de datos correspondientes a un modele de Ia .familia exponencral cuando es po-

METOOOS APROXIMADOS Dc INFERENCIA 177

sible aproximar la informacion mlclal per un eiemento de la ramiiia conjugada correspondiente, Hay rnuchas situactones, sin embargo, en que la informacion nncial no pucde set adecuadamente aproximada por un miembro de esafarnilia (por eremplo, cuando exrsten dos zonas disruntas de vaiores muv probables l. En tal caso, no hay mas remedio que determinar una distribucion 1nlCW que describe tal Informacion. aplicar eJ Teorema de Bayes. y realizar los calcutos necesarros para obtener las probabilidades que se necesrtan recurrrendo, 61 es necesarro, a metodos de rntegrad6n numerica mediante. un ordenador.

Cuando ia mforrnacicn inrcialn que puede set descnta pot un rmemcro de la familia conjugada, resuita sendllo determinar sus parametres mediante eecnicas sernetantes alas descritas en ra Secci6n 5.1. En caso contrano, suele ser necesario recurrir al usa de un programs mteractrvo cuyas caracterfsticas dependeran, en general, del ordenador utilizado.

Ejempfo 6.2.1.

Tiemnos de estera

Se sabe que el tiempo en rmnutos que transcurre entre des emisiones con" secunvas de una materia radioactive utilizada como trazador es una cantidad aleatorra con una distribucicn exponencial de parametro e. De acuerdo con la informacion de que se dispone. el valor mils probable de tal para metro a es 0,5 v se esta muy seguro (probabilidad 0,95) de que e es mayor de 0,25. Se observan cuatro emisiones consecuzivas y los trernpos de espera entre ellos resultan Set 2,4. 2 v 1.9 minutes. Determiner 13 probabilidac de que el valor de e sea mayor de 0.5.

Par hipotesis,

La mforrnacidn micial sobre e es unrrnodal (con rnoda 05); podemos pues mtentar dCScribirla mediante un mrembro de la correspondiente famllia conjugada que, en este caso (Teorema 6.22) es la iamllia de distribuciones Gamma, Si p(B) = Co(91a., ~), el valor mas probable de 9 es (Teorema 4.5.,) (a. - l)/Il, Tenemos, pues, que resolver el sistema

{ (a-l)/~ '" 0,5 ) (=

1 Ga(61°c· ~) = 0.95

J""

que puede escrihirse en Ia torma

B = 2a.-2 ,.0",

1-! GarBja., III = 0.95

J.

es dear

F (0.25) = 0,05

a:.~]«-::!

::- . ·.-17S ':'. BIOESTADISTICA

. "ddnd~.F«.'~-.·escla .' funcion de &so:ibuci6n de una cantidad aleatoria Gamma COO pa,r:ittletios.~ 'v 2(1;-2. tJtilizando unas Tsbles to recurnendo 3 una aproxrrnacion normal .. para ,iog9: vex ·Eiel)'>.P10 6.3.11 se obtrene IX = 3,35, .;Ie forma que Ia distrihucion es . pre) ~ G4(9!J,3.5; 4,7). Pucsro que H(x) = 1/6, la representaclnn de Ia correspondiente

distribudOll lie puede avudnr a eneender el significado de esta distrfbucien imcial, puesto que describe ill. mtormaci6n de que znicialmente se dispone Sabre el tiempo medio que transcurre entre dos emisiones consecutrvas,

r

!

I

0.5

De acuerdo con el Teorerna 4.4.1, 51 ~(e) = lie

11(!::;) = p(ellll'l1;mol DC S'·" exp(- ~,1e)e' "" t:;-<." exp(- 4,7/'(,)

cuva represeruacion granca es 1. de la figure.

Si Ill. grdfica de Ill. distribud6u micial encontrada se Jtl2ga consrstente con Ia mtorrnacion inicial, podemos proceder a determiner 13 correspondiente distrlbucion final. Para eJ modele exponencial, ei estadfstrco sunciente eo tr = i:Xl, nJj en nuestro case, r == 6,3 '\' n = 3. La distribud6n finnl correspondiente es pues .. nacienoo usa del 'I'eorema 6.2.2, p(Bll] = G(B)a,., ~.) can C£" "" tI, + n = 3,35 + 3 = 6,35 v 13" = Bo + r = 4,7 + 6,3 = 11. En consecueneia, Ia probabilidad pcdida sera

p(~ > O.5!z·j = (~ GoreI6,35. l1)de "" 0,565

J 0,:5

EI valor ue la mtegra! nueoe obtenerse mediante T ablas a bien. como veremos en el Eiemplo 6.3.2, recurziendo it una aproximacion normal para log a:

6.3. Aproxtmactdn normal a La distribuci6n final

La mayor parte de las densidades de probabilidad que aparecen como resultado de problemas reaies de mferencia son diHciles de rntegrar para obtener las probabilidades deseadas. Aunque, naturalmente, puede recurrirse a 1a mtegracion numerica 0 a La preparacion de tablas, resulta convenrentc disponer vde metodos que permrten obtener resultados aproximados can un

M~TODOS APROXIMADOS DE INFERENCIA 179

minrroo de equipo. Puestc que, a diferencia de 10 que sucede con las distnbuClo:nes Beta 0 Gamma (que requreren una tabla para cada par de vaiores de sus parametros), tcdas las probabilidades que se derrvan de distribucronee normales pneden obtenerse a partIr. de una Untca tabla (Ia de ia. normal standard) resulta muv corroeniente disponer de rnetodos que pernntan reducir el dlculo de pro babilidades asociadas a una distribucicn cualquiera al cilculo de probabilidades asociadas a una distribuci6n normal.

Para poder hablar de a'/JJ"oxftnaci6n de distribuctones con un minimo de rigor necesitamos definrr una medida de la discrepancia exrstente entre una densidad de probabilidad Y su aproxrmacion.

DEFINXcx6N 6.3.1. La discrepancia entre una densidad ae probabiiidad .p(8)

y su aproXimaci6n q(8) es es valor de ttl integral

Si e nene una distribuci6n discrete basta, como sternpre. sustituir en la defiruci6n las densidades de ]?.tobabilidad por probahilidades y Ia mtegral pOt

una surna,

La aproximecion q(8) sera tanto meter cuanto menor sea Ia discrepancia S[p(O), q(e)}, La Defimci6n 6.3.1 puede lustificarse con un argume:nto de npo aJl:lOmatico (Bernardo, 1980 b); POt otra parte, recordando lao Definicion 5.4.1. BU sIgnificado mtuinvo es clare: 3{P(8), q(6)} es Ia cant.ldad de Informacion sobre 8 que resulta necesaria para pasar de Ia aproximacion q( B) a Ia densidad de probabiliciad verdadera pCe).

Ejemplo 6.3.1. Aproxzmaci6n Poisson de una Binomta!

Representar en funcion de 8, ? para los valores n = 1, 2 y 10, Ia discrepancra o{Bi(xln, 8),Po{x, nS)} entre una di.stribud6n Binomial Bi(xln, 8) y su apro::runaci6n Po(xln8) (Teorema 4.2.1).

Se trata de represent.r 101 tunci6n

.

2 p,

6 = I({lini = PI log _. _

a,

( 11 ~

Pi = I . 16'(1-6)"-'

, ,

para lOS valores pedidos de n, EI resultaco es

iC--

·lSO BIOESTADlSTICA

. 0;005 r s

I

~ ~

0.001 f

I

o

8

Como podia esperarse, el valor de I) oecreoe cuando n aurnenta y/r> cuande 9 disminuve. La observacion de Ia gdfica sugiere que para obtener DUenas aproximacrones POisson de distrlbuciones bihomiales, Ia condici6n de que e tenga un valor pequefio nene mas importancra que Ia coadicion ce que n tenga un valor grande.

TEOREMA 6..3.1. La metor aproxrmacion normal a Una distribuci6n p(6), es N{6IE(6), D(e)}, esto es aquella distribuci6n normat con ta mtsma media y aestnacion tiPU:4 que ta distribuci6n ongsnai.

Demostracfon

Nos Iimnaremos Q sefialar sus lfneas esenciales, La discrepancia entre peel y una di.stribuci6n normal cuamuiera N(BI[.t, 0') -viene dada POt

r peal

o{p(6), N(elJ.!., o')} = I p(Ol log . . dB

,; N(6111,0')

..... '.

METODOS APROXIMADOS DE INFERENCIA 181

Puede compcrbarse, por denvaclon bQIO ei srgno mtegral, Que el valor minimo de Ii se alcanza cuando U = JSp(e}d6:= Ere) y 0" = J{e -E(6)}' p(tl)de = D'I&l.

Es tntuitivamente mmediato que, en general, resulta tmposible sproxrrnar bien, esto es C0n una discrepancta pequefia. una distribuci6n cualquiera mediante una distribud6n normal; 10 que resulta sm embargo frecuentemente posible es encontrar una transiormacion monotona ae B, s = 1:;(B), razonablemente sencilla para que el problema sea tratable, cuva densidad de probabiIidad p(B) sea aproximadarnente normal; esto resulta suiiciente para resolver nuestro problema.

En efeeto. SI deseamos calcular p[a < B < b 1 y sabemos que Ia funci6n moncton a de a. 1:; = t;;(B}, nene una disttibuci6n aproxtmadamente normal p(?;) ;;:: NgIE(l;.), D(1:;)}, tenemos

P[a < 8 < b] = p[t;;(aJ < S < s(b}]

de forma que, utilizando la Ecuaci6n 4.3.3., la probabilidad bnscada resulta ser

donde q, es ia tuncion de dlstribuci6n de Ia normal standard,

Para una deterrnmada distribuci6n mrcial pte), el problema de encontrar la meter transformad6n norrnallzadora po sible t; ::::0 1:;(B) en el sentido de minnmzar Ia discrepancis entre pte) V su meior aproxnnacion normal equrvale, en virtnd de los Teoremas 4.4.1 y 6.3.1 a encontrar la funci6n rnon6tona de e, S ::::: s(6) que mmnmza Ia mtegral

,..

J p(s) log [p(WN{SIE(l;), D(s)} ]d~

donde p(s) = p{6)/los/ael y E(s), Des) son respectrvamente la media v ia desviacion ripica de r.. Se tratarie un problema dHicil de cilculo de varia" Clones para el que s610 se conocen resultados parciales: algunos de estos resultados estan contenidos en los Teoremas 6.3.2 v 6.3.3, cuva demostracicn (Bernardo. 1980 a) otnitiremos .

(1)

TEOREMA 6..32. Si p(BI = Be(61et:. ~), enionces s(8) = iog{B/(l-fl)l es ta meter transtormacion normaiizadora aentro de una amplia aase de transtcrmaciones, y se ueriiica que p(t;).:::: N{S!E(s). D(~)} con

E(I;) = '!'(a.I-'!'(~) "" log (t'40) + (a-B)/(2a~) D2(1;) = P'(aJ + 'l"(~l '"" jet -I- 0)/1:<8