Está en la página 1de 27

2012

Examen de Anlisis y Toma de decisiones. Dr. Manuel Juregui Renault

[CADENAS DE MARKOV]
Carlos Delgado Avila. No de Cta: 409083200

Contenido
Contexto Histrico.1 Introduccin...3 Definiciones de cadenas de Markov..4 Notaciones.5 Cadenas homogneas y no homogneas...5 Probabilidades de transicin y matriz de transaccin. .5 Cadena de Markov homognea.6 Vector de probabilidad invariante.........................7 Clases de comunicacin. ..........................................8 Tiempos de entrada.......................8 Recurrencia.......................8 Periodicidad..9 Tipos de Cadenas de Markov...9 Cadenas Irreductibles9 Cadenas positivo-recurrentes9 Cadenas de Markov en tiempo continuo...9 Cadenas absorbentes10 Cadenas ergdicas o irregulares...10 Cadenas Semiergdicas11 Cadenas no ergdicas...11 Cadenas cclicas12 Clasificacin de cadenas de Markov.13 Anlisis topolgico de las cadenas de Markov..13 Propiedades de estado13 Propiedades de clase...15 Aplicaciones de las cadenas de Markov16 Anlisis y toma de decisin del uso de cadenas de Markov; Ejemplo Practico 17 Bibliografa24

Una cadena de demostraciones debe tener su principio en alguna parte JEREMY BENTHAM
An Introduction of Morals and Legislation

Contexto Histrico
Andri Andryevich Mrkov (14 de junio de 1856 - 20 de julio de 1922) Matemtico ruso conocido por sus trabajos en la teora de los nmeros y la teora de probabilidades. Mrkov naci en Riazn, Rusia. Antes de los 10 aos su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andri entr a estudiar en un instituto de la ciudad. Desde el principio mostr cierto talento para las matemticas y cuando se gradu en 1874 ya conoca a varios matemticos de la Universidad de San Petersburgo, donde ingres tras su graduacin. En la Universidad fue discpulo de Chebyshov y tras realizar sus tesis de maestra y doctorado, en 1886 accedi como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio Chebyshov. Diez aos despus Mrkov haba ganado el puesto de acadmico regular. Desde 1880, tras defender su tesis de maestra, Mrkov imparti clases en la Universidad y, cuando el propio Chebyshov dej la Universidad tres aos despus, fue Mrkov quien le sustituy en los cursos de teora de la probabilidad. En 1905, tras 25 aos de actividad acadmica, Mrkov se retir definitivamente de la Universidad, aunque sigui impartiendo algunos cursos sobre teora de la probabilidad. A parte de su perfil acadmico, Andri Mrkov fue un convencido activista poltico. Se opuso a los privilegios de la nobleza zarista y lleg a rechazar las condecoraciones del propio zar en protesta por algunas decisiones polticas relacionadas con la Academia de Ciencias. Hasta tal punto lleg su implicacin en la poltica que lleg a ser conocido con el sobrenombre de "el acadmico militante". Mrkov arrastr durante toda su vida problemas relacionados con una malformacin congnita en la rodilla que le llevara varias veces al quirfano y que, con el tiempo, fue la causa de su muerte cuando el 20 de julio del ao 1922 una de las muchas operaciones a las que se someti le produjo una infeccin generalizada de la que no pudo recuperarse. Aunque Mrkov influy sobre diversos campos de las matemticas, por ejemplo en sus trabajos sobre fracciones continuas, la historia le recordar principalmente por sus resultados relacionados con la teora de la probabilidad. En 1887 complet la prueba que permita generalizar el teorema central del lmite y que ya haba avanzado Chebyshov. Pero su aportacin ms conocida es otra.

Su trabajo terico en el campo de los procesos en los que estn involucrados componentes aleatorios (procesos estocsticos) daran fruto en un instrumento matemtico que actualmente se conoce como cadena de Mrkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Mrkov, hoy da, se consideran una herramienta esencial en disciplinas como la economa, la ingeniera, la investigacin de operaciones y muchas otras.

Universidad de San Petersburgo

Introduccin
Un proceso o sucesin de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algn elemento que depende de un proceso al azar se denomina un proceso aleatorio o proceso estocstico. Por ejemplo, la sucesin podran ser las condiciones del tiempo en Veracruz en una serie de das consecutivos: el tiempo cambia da con da de una manera que en apariencia es algo aleatorio. O bien la sucesin podra consistir de los precios diarios al cierre de ciertas acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de aleatoriedad. Una sucesin de elecciones gubernamentales es otro ejemplo de un proceso estocstico. Un ejemplo muy simple de un proceso estocstico es una sucesin de ensayos de Bernoulli en, por ejemplo, una sucesin de lanzamientos una moneda en este caso el resultado en cualquier etapa es independiente de todo resultados previos. Sin embargo en la mayora de los procesos estocsticos cada resultado depende de lo que sucedi en etapas anteriores del proceso. Por ejemplo, el tiempo en un da determinado no es aleatorio por completo sino que es afectado en cierto grado por el tiempo de das previos. El precio de una accin al cierre de cualquier da depende en cierta medida del comportamiento de la bolsa en das previos. El caso ms simple de un proceso estocstico en que los resultados dependen de otro(s), ocurre cuando el resultado en cada etapa solo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos. Tal proceso se denomina cadena de Markov (una cadena de eventos, cada evento ligado al precedente).

Definiciones de Cadenas de Markov


Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocsticos, esto es, procesos que evolucionan de forma no determinista a lo largo del tiempo en tomo a un conjunto de estados. Por tanto, representa un sistema que vara su estado a lo largo del tiempo. Siendo cada cambio una transicin del sistema. Dichos cambios no estn predeterminados, aunque s lo est la probabilidad del prximo estado en funcin de los estados, probabilidad que es constante a lo largo del tiempo (sistema homogneo en el tiempo). Eventualmente, es una transicin, el nuevo estado puede ser el mismo que el anterior y es posible que exista la probabilidad de influir en las probabilidades de transicin actuando sobre el sistema (decisin). Joan B. Fonollosa Jose M. Sallan

Una cadena de Markov es una sucesin de ensayos similares u observaciones en la cual cada ensayo tiene el mismo nmero finito de resultados posibles y en donde tambin la probabilidad de cada resultado para un ensayo dado depende solo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo. Jagdish C. Arya Robin W. Lardner

En matemticas, se define como un proceso estocstico discreto que cumple con la propiedad de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro. Una cadena de Mrkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribucin de probabilidad condicional de Xn+1 en estados pasados es una funcin de Xn por s sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Markov.

Notaciones
Cadenas homogneas y no homogneas Una cadena de Markov se dice homognea si la probabilidad de ir del estado i al estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto es: para todo n y para cualquier i, j. Si para alguna pareja de estados y para algn tiempo n la propiedad antes mencionada no se cumple diremos que la cadena de Markov es no homognea. Probabilidades de transicin y matriz de transicin La probabilidad de ir del estado i al estado j en n unidades de tiempo es:

En la probabilidad de transicin en un paso se omite el superndice de modo que queda:

Un hecho importante es que las probabilidades de transicin en n pasos satisfacen la ecuacin de Chapman-Kolmogorov, esto es, para cualquier k tal que 0 < k < n se cumple que

Donde E denota el espacio de estados. Cuando la cadena de Markov es homognea, muchas de sus propiedades tiles se pueden obtener a travs de su matriz de transicin, definida entrada a entrada como esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso. Del mismo modo se puede obtener la matriz de transicin en n pasos como: , donde .

Cadena de Markov homognea Decimos que una cadena de Markov es homognea o estacionaria cuando se verifica que:

Es decir que las probabilidades de transicin solo dependen de la diferencia entre los instantes de tiempo y no del valor absoluto de estos. Esta caracterstica se cumple en muchos casos de inters prctico. Las cadenas de Markov homogneas que van a ser de nuestro inters son aquellas en las que en rgimen permanente el vector de estado tiende a un valor asintticamente estable, es decir:

Ejemplo: Erase una vez un hippie, que decide quedarse vagabundeando por la huerta valenciana, especialmente entre los pueblos de Almacera, Alboraya y Tavernes. El hippie en la tarde se puede cansar del pueblo en el que esta, sale a la carretera y se pone a pedir raid. El diagrama que vemos abajo representa las probabilidades de que lo recoja alguien en la direccin dada. En Alboraya, de vez en cuando decide pasar la noche y endulzar su vida con una horchata con fartons. Nuestro inters es conocer las probabilidades de estado y ver si existe un lmite en rgimen permanente (independientemente del lugar en el que el hippie empiece su periplo).

La matriz de transicin viene dada por:

Y no depende del tiempo. Entonces recordando que P(i + 1)= P(i) T (i, i + 1), se calcularan las probabilidades de estado despus de varias transiciones y partiendo de condiciones iniciales distintas:

Luego, como vemos

()
Vector de probabilidad invariante
Se define la distribucin inicial . Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una cadena de Markov si donde P denota la matriz de transicin de la cadena de Markov. Al vector de probabilidad invariante tambin se le llama distribucin estacionaria o distribucin de equilibrio.

Clases de comunicacin
Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y se denotar ) si para algn n, si y entonces diremos que i comunica con j y se denotar ij. La propiedad "" es una relacin de equivalencia. Esta relacin induce una particin en el espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicacin. Dado un estado x, denotaremos a su clase de comunicacin como C(x). Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado si ningn estado de E-C puede ser accedido desde un estado de C, es decir, si para todo xC, para todo yE-C y para todo natural m>0.

Tiempos de entrada
Si , definimos el primer tiempo de entrada a C como la variable aleatoria

esto es,

denota la primera vez que la cadena entra al conjunto de estados C.

Recurrencia
En una cadena de Markov con espacio de estados E, si xE se define: y diremos que:

x es estado recurrente si x es transitorio si

x es absorbente si Una clase de comunicacin es clase recurrente si todos sus estados son recurrentes. , si xEdiremos que:

Sea

x es cero-recurrente si x es positivo-recurrente si se interpreta como el tiempo promedio de recurrencia.

El real

Periodicidad El periodo de un estado xE se define como: donde


denota el mximo comn divisor.

Si d(x)=1 diremos que x es un estado aperidico. Una cadena de Markov se dice aperidica si todos sus estados son aperidicos.

Tipos de cadenas de Markov


Cadenas irreducibles Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre s): 1. 2. 3. 4. 5. Desde cualquier estado de E se puede acceder a cualquier otro. Todos los estados se comunican entre s. C(x)=E para algn xE. C(x)=E para todo xE. El nico conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Markov irreducibles. Cadenas positivo-recurrentes Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si la cadena es adems irreducible es posible demostrar que existe un nico vector de probabilidad invariante y est dado por: Cadenas de Markov en tiempo continuo Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en el conjunto de nmeros naturales, se consideran las variables aleatorias Xt con t que vara en un intervalo continuo del conjunto de nmeros reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Markov se expresa de la siguiente manera:

tal que Para una cadena de Markov continua con un nmero finito de estados puede definirse una matriz estocstica dada por:

La cadena se denomina homognea si . Para una cadena de Markov en tiempo continuo homognea y con un nmero finito de estados puede definirse el llamado generador infinitesimal como:2

Y puede demostrarse que la matriz estocstica viene dada por:

Cadenas absorbentes Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes: 1. La cadena tiene al menos un estado absorbente. 2. De cualquier estado no absorbente se accede a algn estado absorbente. Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados: Su matriz de transicin siempre se puede llevar a una de la forma

Donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz nula y R alguna submatriz. , esto es, no importa en donde se encuentre la cadena, eventualmente terminar en un estado absorbente.

Cadenas ergdicas o regulares La cadena de Markov C1, de dos estados, tiene la matriz de probabilidades de transicin:

Calculemos la potencia decimosexta de esa matriz para aproximar la matriz de probabilidades estacionarias:

Se observa que las probabilidades de estado estable de los diferentes estados son independientes del estado de origen, razn por la que la matriz de probabilidades

10

estacionarias tiene todas las filas iguales. Tenemos entonces una cadena de Markov regular en la que las probabilidades estacionarias no dependen del estado inicial. Adems, ninguna de las probabilidades vale cero. Tenemos entonces una cadena de Markov ergdica. Cadenas Semirgodicas Tenemos ahora una cadena de C2 de cuatro estados, de matriz de probabilidades de transicin.

Si se observa la matriz de la transicin decimosexta, se observa como todas las filas tienden a ser iguales (aunque no completamente, especialmente las dos primeras), con una diferencia respecto de las cadenas ergdicas: existen estados cuya probabilidad de estado estable tiende a ser cero (esto es, que no aparecern den el comportamiento a largo plazo). Por lo tanto, no se trata de una cadena ergdica. Sin embargo, sigue siendo cierto que todas las filas tienden hacia un mismo valor, por lo que sigue siendo regular. Las cadenas de Markov regulares (y tambin otras que veremos ms adelante) con algunas de las columnas de la matriz de probabilidades estacionarias igual a cero se llaman semiergdicas. Las cadenas ergdicas pueden considerarse como un caso particular de las cadenas semiergdicas, en las que no existen probabilidades de estado iguales a cero.

Cadenas no ergdicas La cadena C3, de cuatro estados, tiene la siguiente matriz de transicin:

Si observamos la matriz de la transicin 16, podemos ver que, mientras algunas filas tienen el mismo comportamiento que las de los casos anteriores, vemos que otras tienden a ciertos valores, diferentes de los de las otras filas. Ello quiero decir que, al contrario de lo que sucede con el caso regular, las probabilidades de

11

estado estable si dependen de cul ha sido el estado inicial de la cadena. Se trata de una cadena semirregular

Cadenas Cclicas La cadena C4, cuya matriz de probabilidades de transicin se muestra a continuacin, despus de un nmero elevado de transiciones presenta un comportamiento diferente del de las cadenas anteriores.

Al ir obteniendo matrices de transicin, se observa que estas no convergen a un valor concreto, sino que muestran un comportamiento cclico. En este caso, las transiciones impares tienden a un valor y las pares a otro.

Este tipo de cadenas son cadenas son cadenas cclicas. En este caso particular, nos encontramos ante una cadena de periodo p=2. La columna es siempre cero, por lo que el estado I no aparecer en las probabilidades a largo plazo; quiere ello decir que la cadena considerada no es ergdica, aunque es claro que pueden existir cadenas cclicas ergdicas.

12

Tambin debemos preguntarnos qu ocurre con las probabilidades estacionarias en las cadenas cclicas, ya que si las sucesivas potencias de P no tienden hacia unos valores determinados. Ms adelante, cuando estudiamos el clculo sistemtico de P*.

Clasificacin de cadenas de Markov


De lo expuesto hasta ahora, si queremos analizar el comportamiento a largo plazo de un proceso estocstico que cumpla la propiedad markoviana, necesitamos: Una metodologa para poder clasificar la cadena como ergdica o no ergdica por una parte, y como regular, semirregular o cclica por otra, examinado la matriz de probabilidades de transicin. Una metodologa que permita el clculo de la matriz de probabilidades.

La clasificacin de las cadenas de Markov puede realizarse mediante dos metodologas: El anlisis topolgico, examinando las propiedades de los estados de la cadena y estableciendo clases de equivalencia entre los estados. El anlisis espectral, examinando los valores propios de la matriz de probabilidades de transicin de un paso.

Una vez clasificada la cadena, puede obtenerse informacin acerca de la forma que presente la matriz de probabilidades estacionarias, lo cual facilita su obtencin. Anlisis topolgico de las cadenas de Markov Permite la clasificacin de las cadenas a partir de la informacin suministrada por la matriz P utilizando propiedades relativas a la relacin entre estados (propiedades de estado). Estas propiedades permiten, a su vez, definir subconjuntos de estados denominados clases. Tambin podremos definir, entonces, las propiedades de clase.

Propiedades de estado Dados dos estados de una cadena, pueden establecerse dos tipos de relaciones entre ellos: El estado i es descendente de j si cuando iniciamos el proceso es i existe una probabilidad no nula de que el proceso llegue a j. En este caso, diremos que existe un camino entre los estados i y j.

13

Los estados i y j se comunican si i es descendiente de j y j es descendiente de i. Existir un ciclo dentro de una cadena de Markov si existe un camino en la cadena que comunique al estado i consigo mismo. Dicho circuito se caracteriza por el numero mnimo de transiciones que necesitara el sistema para volver al estado i, si se inici el proceso en ese estado. Dicho nmero constituir la longitud del ciclo.

Obsrvese que, con las definiciones dadas, la existencia de un circuito implica que todos los estados que lo forman estn comunicados. Se conviene que todo estado esta comunicado consigo mismo, ya que se al menos puede acceder a l en cero transiciones (circuito de longitud cero), con independencia de que adems existan otros circuitos de longitud mayor. Para analizar estas relaciones entre estados, es til recordar que, segn la teora de grafos, toda matriz cuadrada tiene asociado un grafo, cuya representacin grfica se puede elaborar a partir de la matriz de probabilidades de transicin, el diagrama de transiciones de estados. Cada estado de la cadena se representa por un vrtice del grafo y cada transicin con probabilidad no nula se representa por una relacin entre los vrtices que representan los estados anterior y posterior de la misma. De esta manera el diagrama se representan todas las situaciones en las que un estado i es descendente respecto de j.

14

Propiedades de clase
Hemos establecido que un estado est siempre comunicado consigo mismo, la relacin entre estados estar comunicado es reflexiva, simtrica y transitiva, por lo que se trata de una relacin de equivalencia. Po este motivo, podemos decir que un conjunto de estados comunicados entre si constituye un clase de equivalencia. De esta manera podemos clasificar diversas clases los estados de una cadena de Markov. Podemos definir la propiedad de clase siguiente para las clases de equivalencia que se hayan establecido: Una clase de equivalencia ser final si cuando el proceso llega a uno de los estados de la clase, en las transiciones siguientes el proceso evoluciona siempre dentro de los estados de la clase. Aquellas clases de equivalencia que no sean clases finales sern las claves de paso. Las clases de paso tienen un inters muy limitado en el estudio de las cadenas de Markov.

Puesto que el sistema debe ser capaz de evolucionar indefinidamente entre un nmero finito de estados, toda cadena debe tener al menos una clase final. Si en su evolucin a lo largo de infinitas transiciones el sistema puede pasar por todos los estados, entonces habr una nica clase final que los englobara a todos ellos. Este caso es el que hemos definido anteriormente como cadena ergdica.

15

Aplicaciones de las cadenas de Markov


Fsica Las cadenas de Markov son usadas en muchos problemas de la termodinmica y la fsica estadstica. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusin de Laplace. Meteorologa Si consideramos el clima de una regin a travs de distintos das, es claro que el estado actual solo depende del ltimo estado y no de toda la historia en s, de modo que se pueden usar cadenas de Markov para formular modelos climatolgicos bsicos. Modelos epidemiolgicos Una importante aplicacin de las cadenas de Markov se encuentra en el proceso Galton-Watson. ste es un proceso de ramificacin que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (vase modelaje matemtico de epidemias). Internet El pagerank de una pgina web (usado por Google en sus motores de bsqueda) se define a travs de una cadena de Markov, donde la posicin que tendr una pgina en el buscador ser determinada por su peso en la distribucin estacionaria de la cadena. Simulacin Las cadenas de Markov son utilizadas para proveer una solucin analtica a ciertos problemas de simulacin tales como el Modelo M/M/1.3 Juegos de azar Son muchos los juegos de azar que se pueden modelar a travs de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro. Economa y Finanzas Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de opciones para determinar cundo existe oportunidad de arbitraje, as como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios. En los negocios, las cadenas de Mrkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. Msica Diversos algoritmos de composicin musical usan cadenas de Markov, por ejemplo el software Csound o Max.

16

Anlisis y toma de decisin del uso de cadenas de Markov; Ejemplo Practico

Modelos empleados para la Toma de decisiones en el cuidado de la salud RESUMEN El anlisis de decisiones es un grupo de herramientas que permiten apoyar y manejar un proceso de evaluacin estructurado. Esta metodologa se usa ampliamente en la evaluacin econmica para planeacin o programas de salud. Este artculo delinea algunas caractersticas de las decisiones complejas y muestra los fundamentos y etapas que deben considerarse cuando se toman decisiones en un escenario de incertidumbre (definicin del problema, seleccin de un marco temporal de anlisis adecuado, estructuracin del problema, desarrollo de un modelo para anlisis, seleccin de la mejor alternativa y realizacin de anlisis de sensibilidad). Finalmente se presentan algunas crticas que se han hecho a esta metodologa.

Tomar una decisin implica escoger entre varias alternativas. Tomar la mejor decisin supone haber hecho un anlisis de lo que hubiera sucedido Tsi cada una de las posibles alternativas se hubiera seleccionado. La toma de decisiones es un acto cotidiano que est involucrado en mltiples actividades que generalmente se hace por tcnicas como la adivinanza, la reaccin visceral, la intuicin, o la experiencia basada en opiniones o sucesos muy parecidos. La toma decisiones de forma intuitiva generalmente resulta poco eficiente dado que esta estrategia no suele incorporar todos los factores que pueden afectar la decisin y sus resultados. Pocas decisiones se toman con plena certidumbre sobre sus posibles consecuencias. El proceso de tomar decisiones puede ser mejorado utilizando una metodologa que combina una estructura explcita y una tcnica cuantitativa de anlisis y que se ha denominado "enfoque sistemtico de toma de decisiones bajo condiciones de incertidumbre". Tal metodologa, que no es nativa del rea de la salud, se concibi inicialmente como un proceso iterativo para generar mayor conocimiento y facilitar la generacin de alternativas creativas que ayudaran a los tomadores de decisiones a realizar mejores decisiones. Por qu puede ser difcil tomar una decisin? La dificultad para tomar una decisin se relaciona con tres aspectos: Estructurales, personales y polticos:

17

1. Aspectos estructurales: Dentro de esta categora se agrupan las siguientes situaciones: a. El grado de incertidumbre: La incertidumbre se presenta cuando no se conoce completamente la probabilidad de que ocurra un evento. Al existir incertidumbre resulta imposible conocer de antemano cul va a ser el resultado de una decisin. La incertidumbre puede relacionarse con el diagnstico, la exactitud de las herramientas diagnsticas, la calidad y disponibilidad de las fuentes de informacin, la historia natural de las enfermedades, las opciones que tomen los pacientes y los resultados del tratamiento. Al existir mltiples fuentes de incertidumbre se hace ms complicado tener un esquema claro de las diferentes opciones y resultados de las posibles alternativas de decisin. b. Cantidad de alternativas disponibles: Entre mayor sea el nmero de alternativas entre las cuales haya que escoger, mayor ser la complejidad del recorrido entre la decisin y las posibles consecuencias. La utilizacin de herramientas grficas, como los rboles de decisin, permiten tener una visin ms clara y precisa de los diferentes cursos que pueden tomar las mltiples alternativas de decisin. c. Consecuencias de tomar la decisin: Entre ms graves son las consecuencias de tomar una decisin incorrecta, ms difcil resulta optar por una alternativa. d. Frecuencia con la que se toman decisiones parecidas: A menor frecuencia, mayor suele ser la dificultad para tomar la decisin. 2. Aspectos personales: Algunas caractersticas psicolgicas de quien toma la decisin pueden dificultar este proceso. Por ejemplo los patrones de personalidad obsesivos, caracterizados por el perfeccionismo, la rigurosidad y la preocupacin exagerada por detalles, suelen presentar una tendencia a complicar la toma de decisiones. Por otro lado las personas impulsivas tienden a tomar ms fcilmente decisiones, pero de manera no acertada, dada la falta de anlisis que aplican a su conducta. El tomador de decisiones debera ser una persona que tenga claridad sobre las caractersticas personales que pudieran afectar el proceso de seleccionar la alternativa acertada. 3. Aspectos polticos: En algunos casos la alternativa ms acertada, escogida mediante un proceso racional y sistematizado, debe supeditarse a consideraciones de orden poltico que resultan prioritarias. Para el manejo de los aspectos estructurales se ha desarrollado una metodologa que permite utilizar un abordaje cuantitativo y estructurado de las situaciones de toma de decisiones, y que permite evaluar decisiones que se deben tomar en situaciones en las que se presenten alternativas complejas y diversas fuentes de incertidumbre. Dicha metodologa, que como ya se mencion se ha llamado "anlisis de decisiones bajo condiciones de incertidumbre", permite: 1. Generar una estructura grfica que permita ver claramente la relacin entre alternativas y consecuencias.

18

2. Asignar valores a las fuentes de incertidumbre: Asignando valores de probabilidad a los puntos de incertidumbre se facilita su manejo. Si hay certidumbre sobre un evento, su probabilidad de ocurrir es de uno (obviamente la probabilidad de que no ocurra es cero). Si no hay certidumbre, la probabilidad de ocurrir ser menor que uno. Posteriormente se mostrar cmo se asignan estos valores de probabilidad. 3. Facilitar la comparacin entre las diferentes alternativas en trminos numricos. En esta metodologa, a las alternativas posibles se les asigna un valor numrico que corresponde a un concepto estadstico denominado "valor esperado". En estadstica el valor esperado (o esperanza matemtica) de una variable aleatoria es la suma de la probabilidad de cada suceso multiplicada por su valor. Dicho de otra forma el valor esperado se asemeja al resultado que se espera en promedio si se repitiera un experimento (como lanzar una moneda, o medir la talla de un grupo de personas, por ejemplo) muchas veces. La utilidad del valor esperado es permitir elegir entre distintas alternativas. En general la alternativa que se elige es aquella que tenga el valor esperado ms alto (aos de vida ganados, muertes evitadas, por ejemplo), pero en ocasiones se selecciona aquella con el valor ms bajo (mortalidad, costos, por ejemplo). Con estos insumos el tomador de decisiones puede identificar fcilmente las opciones viables, predecir sus consecuencias o desenlaces, valorar la probabilidad de los posibles resultados, determinar el valor de cada uno de los desenlaces, y seleccionar la decisin que puede proveer el mejor resultado. En el rea del cuidado de la salud, el anlisis de decisiones es una metodologa que se desarroll alrededor de situaciones clnicas en pacientes individuales. Sin embargo, se usa cada vez ms frecuentemente en anlisis econmicos y para la toma de decisiones polticas. Etapas en un anlisis de decisiones Dado que el anlisis de decisiones es una metodologa que pretende, no solo facilitar, sino adems sistematizar el proceso de seleccin de alternativas, para hacerlo, de alguna manera replicable, se ha definido una estructuracin a lo largo de una serie de etapas sucesivas (8) (debe tenerse en cuenta que la replicabilidad de los resultados se ve fuertemente afectada por los aspectos personales y polticos mencionados atrs): 1. Definicin del problema: Un problema se ha definido como la distancia que hay entre una situacin que existe y otra que se prefiere. El primer paso suele ser escribir el problema utilizando pocas palabras, preferiblemente recurriendo al uso de verbos en infinitivo, y hacer una descripcin de ciertos detalles como magnitud, posibles causas o responsables, momento de inicio, identificacin de afectados con el

19

problema, estrategias con las que ha intentado solucionarse, y posible resultado si no se intenta ninguna solucin. Este primer paso puede ser suficiente para tomar una decisin acertada, lo cual sucede cuando se vislumbran alternativas de decisin que no se haban considerado, cuando se evidencia que se estaba sobredimensionando la gravedad del problema, cuando se ve que se estaba tratando de solucionar el problema equivocado (esto se ha denominado "error tipo tres"), o incluso cuando se encuentra que si no se hace nada, no pasa nada, y lo que genera la dificultad muchas veces son los intentos de solucin (en este ltimo caso se habla de pseudo problemas). Otra posibilidad que surge en este primer paso es encontrar que el problema tiene sub problemas, lo cual implica efectuar un trabajo de jerarquizacin y definir claramente cul es el problema primario o principal. 2. Definicin del horizonte de anlisis (marco temporal): Cuando se evalan alternativas relacionadas con patologas crnicas, el horizonte de anlisis suele ser largo. En estos casos los eventos pueden reaparecer durante el perodo definido en el marco temporal: esto supone utilizar estrategias especiales de anlisis (cadenas y modelos de Markov para eventos recurrentes). Por otro lado, la evaluacin de alternativas relacionadas con complicaciones a corto plazo o con eventos agudos supone un horizonte de anlisis corto. En otras palabras, el horizonte de anlisis depender de la naturaleza del problema de salud que se est evaluando. Cualquiera que sea el caso, debe hacerse una especie de negociacin entre la exactitud del modelo analtico y la simplicidad del mismo (10). Un modelo no debe ser una representacin completa del mundo real sino una sntesis de sus componentes ms importantes. 3. Estructuracin del problema: La etapa de estructuracin supone seguir esta secuencia: - Identificar las alternativas relevantes: Una vez identificado el problema, deben plantearse una serie de alternativas, las cuales suelen caer en alguna de las siguientes categoras: - Esperar y observar, lo cual es equivalente a la poltica de "no hacer nada". - Iniciar una intervencin. - Buscar ms informacin antes de decidir una intervencin. - Definir las consecuencias de cada alternativa identificada previamente: Cada alternativa genera una serie de consecuencias cuya incorporacin en la estructuracin del problema supone que est suficientemente sustentada con algn tipo de evidencia. Las consecuencias pueden categorizarse en dos grupos: i) consecuencias intermedias. ii) desenlaces finales. Por ejemplo, si un mdico se encuentra prestando su servicio rural en un lugar apartado donde no dispone de medios diagnsticos ni posibilidades de remitir rpidamente a sus pacientes, y

20

recibe a un paciente con una herida por arma de fuego en el crneo, podra plantearse, de manera general, que hay dos alternativas: esperar y observar, o arriesgarse a intervenir quirrgicamente al paciente. Las consecuencias de cada alternativa podran definirse de manera simplista en dos categoras: el paciente sobrevive o muere (aqu las consecuencias se presentan directamente como los desenlaces finales). Sin embargo, considerando la falta de pericia quirrgica del mdico, puede plantearse una consecuencia intermedia de la alternativa intervencionista: que la ciruga se complique o que no se complique; cada una de estas consecuencias intermedias puede resultar en la salvacin o en la muerte del paciente. En la Figura 1 se muestra esta secuencia de consecuencias, con unas convenciones de representacin grfica que se explicarn ms adelante.

- Establecer la probabilidad con la que pueden suceder las diferentes consecuencias de las alternativas planteadas: Un paso fundamental en este tipo de anlisis es cuantificar la incertidumbre: esto se logra asignando valores de probabilidad a cada una de las consecuencias emanadas de las alternativas propuestas para la solucin del problema. - Asignar un valor a los desenlaces: Un desenlace es lo que finalmente sucede si se escoge una de las alternativas planteadas. En esta fase de la estructuracin del problema, se debe asignar un valor numrico a los desenlaces. Esta calificacin se realiza con base en el concepto de utilidad. De forma prctica la utilidad se puede considerar como la medida de la preferencia de las personas por un resultado bien o servicio. En particular, en el campo sanitario, seria la medida cuantitativa de la preferencia de las personas por un resultado especfico en salud.

21

4. Desarrollo de un modelo del problema: Un modelo es una abstraccin o representacin de un sistema real, de una idea de un objeto (13). En un anlisis de decisiones el modelo es una estructura que busca representar la realidad del problema, combinando los insumos generados en la etapa previa (etapa de estructuracin), con el propsito de efectuar una serie de clculos matemticos que ayuden a tomar la decisin. Los modelos ms utilizados como estrategia de anlisis son los rboles de decisin. Mediante su uso se pueden integrar, de manera secuencial, los diferentes elementos que surgen una vez se ha estructurado el problema. En la construccin de un rbol de decisin se siguen las siguientes convenciones Punto de arranque: Es la presentacin del problema en pocas palabras. Nodo de decisin: Representa un punto donde se toma una conducta, como por ejemplo las diferentes alternativas de solucin que se plantean al problema. Su forma de representacin en el rbol es un cuadrado. Nodo probabilstico o de azar: Muestra el punto donde se generan las diferentes consecuencias de una decisin, que no estn bajo el control de quien toma las decisiones. Como previamente se coment, las consecuencias generadas de un nodo de azar tienen un componente de incertidumbre cuantificable por medio de probabilidades. Se representan grficamente con un crculo. Nodo terminal: Representa los desenlaces finales. Se representa con un tringulo. Conectores: Son lneas que unen los diferentes elementos descritos previamente. La manera de conectar las diferentes estructuras obedece a una secuencia en la que, lo que est a la izquierda, temporalmente ha ocurrido antes que lo que est a la derecha. La amplitud con la que se desarrolle el rbol corresponde al horizonte de anlisis. Definiciones y valores: Los conectores que salen de un nodo de azar tienen en su parte superior la descripcin del desenlace y el su parte inferior la cuantificacin de la incertidumbre (valores de probabilidad). En el extremo de los nodos terminales se ubican los valores asignados a los desenlaces (utilidades). Figura 2. Convenciones utilizadas en la construccin de un rbol de decision

22

5. Efectuar anlisis de sensibilidad: Teniendo en cuenta que, ni los valores de probabilidad con que se mide la incertidumbre ni los valores asignados a los desenlaces son valores fijos, al efectuar un anlisis de decisiones surge la duda sobre la posibilidad de que la solucin al problema cambiara si los valores de la medicin de incertidumbre y consecuencias variaran. Para resolver esta duda se realizan los anlisis de sensibilidad. Ellos permiten evaluar los resultados ante la posible gama de valores que podran tomar uno o ms de los parmetros introducidos en el modelo. Como resultado se puede conocer la estabilidad de la conclusin dada la variabilidad de los supuestos introducidos en el modelo. Es frecuente que para estos anlisis se utilicen herramientas grficas. En los casos en los que la variabilidad se genera en un solo punto del modelo se utilizan los anlisis de sensibilidad de un parmetro. Si la fuente de variabilidad proviene de varios puntos se habla de anlisis de sensibilidad de mltiples parmetros. 6. Seleccin de la "mejor" alternativa: Al finalizar el anlisis se obtendrn una serie de valores numricos (valores esperados) que ponderarn de manera diferente las distintas alternativas de decisin. Dependiendo de la medida de utilidad manejada, se seleccionar la mejor opcin (por ejemplo si se manejan aos de vida saludable ganados, la mejor opcin ser aquella con el mayor valor). Sin embargo, hay que tener en cuenta que los resultados numricos no son la nica herramienta a la hora de tomar la decisin final. Existen casos en los cuales tiene ms peso algn otro tipo de factor, como pueden ser aspectos clnicos o polticos. La recomendacin general al utilizar este tipo de mtodos es que son solo herramientas para ayudar a decidir, mas no el nico elemento que se toma en cuenta para la toma final de la decisin. Crticas al anlisis de decisiones Los detractores de esta metodologa aducen tres razones para no recomendar su uso: 1. Dificultad As existan herramientas manejables con computadores, la gran cantidad de opciones derivada de la toma de una decisin compleja, hace que la estructura a analizar se vuelva demasiado enmaraada y alejada de la realidad. Algunos tericos de la economa, conscientes de la limitacin impuesta por la complejidad que pueden alcanzar los modelos, han planteado que no es posible escogerla mejor opcin. Dentro de esta tendencia se plantea tambin la utilizacin de modelos parsimoniosos que, si bien no capturan la integridad de la complejidad de la situacin, incorporan los aspectos ms relevantes de la misma. Los rboles de decisin tradicionales, presentan inconvenientes cuando se quiere representar eventos que pueden ocurrir ms de una vez, eventos cuyas probabilidades de ocurrencia cambian con el tiempo, eventos que no ocurren inmediatamente y eventos que tienen implicaciones a largo plazo en los pacientes (16,17). Las cadenas y modelos de Markov permiten manejar estas dificultades que se presentan con los rboles de decisin tradicionales, y son tiles cuando se quiere modelar problemas que involucran riesgos que dependen del tiempo.

23

2. Falta de sensibilidad poltica Se ha planteado que esta metodologa se engolosina con la estructura del problema pero que no le da nfasis a las dificultades que implica poner en la prctica la toma de la decisin. Aunque la objetividad y la neutralidad de valores se han adjudicado a esta metodologa como una de sus fortalezas, se h encontrado que las personas que no han participado en la toma de la decisin pueden mostrar resistencia ante el proceso de implementar la decisin. Esto ha podido verse en el poco impacto que han tenido herramientas para tomar decisiones, como las guas de prctica clnica o recomendaciones generadas en consensos. 3. Limitacin del razonamiento humano Esta es una consideracin ms de ndole filosfica y se basa en el planteamiento de que no hay verdades absolutas, y que lo que se acepta como conocimiento no es ms que el resultado de cmo una cultura ha preparado y aleccionado a un individuo para que evale y juzgue una situacin. Desde esta perspectiva, los hechos sobre los que se basa un anlisis de decisiones no son completamente objetivos, sino que estn matizados por particularidades y caractersticas de un grupo cultural: as las cosas, no tendra mucho sentido efectuar un riguroso anlisis numrico a unos datos que no son ms que distorsiones introducidas por la cultura.

Bibliografa
Matemticas Aplicadas a la Administracin y a la Economa. Jagdish C. Arya, Robin W. Lardner. Pearson Education 2002 Mtodos cuantitativos de organizacin industrial II Escrito por Joan B. Fonollosa Jos M. Sallan, Albert Su. Edicions UPC 2002 Elementos de Probabilidad y Estadistica Elmer B. Mode Reverte 2005 Reimpresin Modelos empleados para la Toma de Decisiones en el Cuidado de la Salud Ricardo Snchez-Pedraza, Oscar Gamboa y Jorge A. Daz Rev. Salud pblica. 10 (1):178-188, 2008

24