Está en la página 1de 10

UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

USO DE CADENAS DE MARKOV PARA


DETERMINAR EL COMPORTAMIENTO DE UN
PROCESO DE VOTACION
Jerson Saluhect Correa Hita Mayra Alejandra Díaz Gómez
2053452 2051964

Bucaramanga 30 de enero de 2010

RESUMEN

En el presente artículo se expone un estudio detallado sobre


Cadenas de Markov como campo de acción de la investigación de
operaciones cuyo objetivo y finalidad es encontrar la solución óptima
para un determinado problema. En este caso presentamos un
modelo probabilístico que contribuye al estudio del comportamiento
de un proceso de votación electoral basándose en elecciones
anteriores y en la intención de voto actual de cierta comunidad. El
modelo utilizado corresponde a una Cadena de Markov dado que
permite analizar la evolución de un sistema a través de periodos
sucesivos, en donde se analizan sus probabilidades de cambio.

Se muestran los detalles de la metodología adoptada y los


principales resultados alcanzados en la aplicación del modelo
empleado.

Palabras clave: Cadenas de Markov, modelo probabilístico, proceso


de votación.
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

OBJETIVOS

 Aplicar la teoría fundamental de cadenas de Markov para


determinar el comportamiento de un sistema de votación a
futuro.

 Destacar la importancia del uso de herramientas de Cadenas de


Markov en todo proceso que se comporte como tal, a fin de mejorar
los distintos procedimientos, logrando la optimización de los
mismos.
 Indagar en otros métodos y consideraciones a tomar al momento de
realizar el Proceso Markoviano.

MARCO TEÓRICO

El modelo empleado que se presenta en este trabajo corresponde a


una Cadena de Markov, comúnmente utilizada en el ámbito de la
Investigación de Operaciones para describir y predecir el
comportamiento de ciertos sistemas bajo condiciones de
incertidumbre a través del tiempo. La utilización de estos modelos
ha resultado adecuada para modelar dinámica de poblaciones,
sistemas de espera, control de inventarios, mantenimiento y
reemplazo de equipos y en apoyo a la toma de decisiones en
administración, ingeniería y medicina, entre otros.

Un modelo de Markov consiste en un conjunto de estados discretos.


Este conjunto es exhaustivo y describe todos los posibles estados
donde el sistema puede estar. La transición del estado i a j ocurre
con una probabilidad pij.

Análisis según el artículo: son Procesos Estocásticos que son útiles al


estudiar la evolución de ciertos sistemas en ensayos repetidos. Los ensayos
son frecuentemente periodos sucesivos en los que no se puede determinar
certidumbre del estado o resultado del sistema en cualquier lapso o intervalo
de tiempo determinado.
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

La Condición de Markov:

Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para


todo k, j, a, b, c entonces el sistema es un estado discreto de
discretas transiciones de procesos de Markov. La implicación de esta
condición es que la historia anterior del sistema a su llegada en (a)
no tiene efecto en la transición a (j). En otras palabras, el sistema
no tiene memoria.

Probabilidades de Transición:

Para una cadena de Markov, se definen las probabilidades de


transición como:

pij = P[Sj(k) / Si(k-1)] 1<= i,j <= m

y las pij son independientes de (k). Estas probabilidades pueden ser


incluidas en una matriz de transición:

P11 P12 ............. P1m

P21 P22 ............. P2m


...........

P= . . . .

. . . .

Pm1 Pm2 ............. Pmm

También note que las transiciones de probabilidad satisfacen

0<=pij<=1 y

∑ pij=1 n= 1,2,3.....,m
j=1
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

Debido a que los estados son mutuamente excluyentes y


colectivamente exhaustivos.

Clasificación de estados:

 Estado transitorio: Si es un estado transitorio si se puede dejar el


estado pero nunca retornar a él.

 Estado absorbente: Un estado i es absorbente cuando no es


posible a alcanzar otro estado excepto a sí mismo.

Pii = 1

 Estado Alcanzable: Un estado j, es alcanzable desde el estado i si


se puede transitar desde j a i en un número finito de pasos.

n
P ij >0 n> 0

Donde n representa el número de pasos (asociado al parámetro de


tiempo discreto).

 Estado Recurrente: Se dice que el estado i es recurrente si f ii =


1. Esto significa lo siguiente: siempre que parta del estado i,
podré regresar a él (en un tiempo finito)
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

 Estado Periódico: Un estado recurrente i es periódico, con periodo


k > 1, si k es el menor número tal que todas las trayectoria que
parte de i y regresan a i, tienen longitud múltiplo de k. Si no es
periódico se le dice aperiódico.

 Cadena recurrente: Una cadena recurrente es un conjunto de


estados de los que el sistema no puede salir. Un estado
transitorio conduce al sistema dentro de este conjunto de
estados. El sistema hace saltos dentro de este conjunto
indefinidamente. La cadena recurrente es también llamada
subcadena de Markov irreducible o de clases recurrentes.

 Comunicación entre estados: Los estados se comunican Si i es


accesible desde j y Si j es accesible desde i.

 Cadena Ergódica

Condición suficiente

Si existe un n>0 tal que Pijn >0, i, j=0,1,2....m.

Entonces, Pijn = k=0 (Pikn * Pkj), luego j = k=0 (k * Pkj) y como
j=0 Pijn = 1, entonces j=0 j =1.

Por lo tanto si todos los estados de una Cadena de Markov son


recurrentes, aperiódicos y se comunican entre sí, se dice que la
cadena es Ergódica.

Finalmente se presentan unos útiles factores de las cadenas de


Markov:

 Cada cadena de Markov debe tener al menos una cadena


recurrente.

 Una cadena recurrente es un estado absorbente generalizado.

 Si un proceso tiene dos o más cadenas recurrentes, entonces la


propiedad ergódica no se mantiene en el tiempo.

 Un estado transitorio es un estado que ocupa el sistema antes de


convertirse en una cadena recurrente.
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

 una cadena de Markov es regular si existe un número de etapas


n tal que la probabilidad de la transición en n etapas entre cualquier
par de estados es estrictamente positiva.

METODOLOGÍA

La técnica de los procesos de Markov constituye una herramienta


interesante para aplicar a diferentes procesos, en este artículo se va
a mostrar el uso de ésta en los procesos de votación. El objetivo que
se pretende es mejorar las predicciones electorales, sobre todo
cuando es elevado el número de indecisos, la mecánica se basa en
realizar la predicción teniendo en cuenta los resultados obtenidos
en las últimas elecciones y la intención actual de voto.

La formulación del modelo se hace de la siguiente forma:

Estado Descripción

V1 Vota por el candidato 1

V2 Vota por el candidato 2

V3 Vota por el candidato 3

* *

* *

Vm Vota por el candidato m

La formulación del proceso de votación como una cadena de


Markov:

Se puede suponer que son tres los candidatos en una elección, si no


se tienen en cuenta los votos nulos y en blanco, entonces éstos
serían los estados posibles:
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

Estado V1= Vota por el candidato 1

Estado V2= Vota por el candidato 2

Estado V3= Vota por el candidato 3

Si se tiene el estado del voto en las elecciones anteriores y se mide


la intención de voto actual, entonces:

Si suponemos que en el estado n=0, es decir en las últimas


elecciones la votación fue la siguiente.

Candidato 1= 45%

Candidato 2= 22%

Candidato 3= 33%

La tabla anterior presenta la probabilidad que un votante que votó


por el candidato 1 (V1) en las elecciones (n=0) pueda votar ahora
(n=1) al candidato 1 (60%) o al candidato 2 (15%) o al candidato 3
(25%) etc.

Matriz de Transición
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

La matriz de transición puede utilizarse para determinar la


probabilidad de voto en el siguiente paso, es decir en las siguientes
elecciones.

A continuación plantearemos la posibilidad que en las elecciones


siguientes gane el candidato 2.

La probabilidad que se vote al candidato 2 teniendo en cuenta los


resultados electorales pasados se formula de la siguiente manera:

Que haya votado por el candidato 1 y ahora tenga la intención de


votar por el candidato 2 o que haya votado por el candidato 2 y
ahora tenga la intención de votarlo de nuevo o que haya votado por
el candidato 3 y ahora tenga la intención de votar por el candidato
2.

Intención de voto por candidato 2 = 0.45*0.15 + 0.22*0.5 +


0.33*0.10 = 0.2105

RESULTADOS

Se calculara este problema como una cadena de markov:

V1 = V 0 P

V1 es el vector intención de voto actual

V0 es el vector intención de voto en elecciones pasadas

P es matriz de transición

La formula anterior es el producto de un vector por una matriz


UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

el resultado obtenido en la intención de voto por el candidato 2 de


0.2105 resulta de multiplicar [0.45, 0.22, 0.33] por la segunda
columna de la matriz.

Usando el programa Excel podemos obtener el resultado de


multiplicar el vector propiamente dicho por la matriz de transición y
obtendremos

[V1=0.347, V2=0.2105, V3=0.4425]

Así obtenemos que la intención de voto es:

Candidato 1= 34.7%

Candidato 2= 21.05%

Candidato 3= 44.25%

CONCLUSIONES

En el presente trabajo se propone la utilización de un modelo


markoviano para predecir el comportamiento de un proceso de
votación electoral. El modelo empleado es satisfactorio ya que con la
metodología adoptada permite enfrentar la incertidumbre presente
en esta clase de problemas, describiendo la dinámica del
comportamiento de los votantes en términos probabilísticos.

BIBLIOGRAFÍA

www.investigacion-operaciones.com/Curso_inv.../Clase3_II.pdf

www.elo.utfsm.cl/~ipd436/clasificacion-estados-markov.ppt
UNIVERSIDAD INDUSTRIAL DE SANTANDER

Escuela de Estudios Industriales y Empresariales

También podría gustarte