Está en la página 1de 25

Cadenas de Markov (año 1960-1965)

Los artículos encontrados en los años antes mencionados fueron muy poco,
solo llegamos a encontrar 2 que a continuación se los mostraremos.
Cristal Apolinar Alonso
Mario Alberto Martínez Benítez
Erick Said Hernandez Monterrubio
Exactitud de los métodos de Monte Carlo en la computación de cadenas de
Markov finitas
N. W. Bazley y P. J. Davis
Los métodos sinusoidales de Monte Carlo se aplican generalmente a
problemas que son demasiado difíciles para "otros tipos de análisis rara vez
hay oportunidad de comparar sus resultados con" soluciones exactas”. En
este artículo se describen experimentos con la cadena de Markov presentada
b: 'Es el juego de Chutes and Ladders de ehildren'. En particular, se considera
el cálculo o la longitud promedio L de una jugada o este juego. Se encuentra
un valor exacto para E de acuerdo con la teoría de la cadena de Markov. El
cálculo de Y [Monte Carlo para L implica 2 1'1 jugadas simuladas o el Además,
las probabilidades de estar en un tiempo determinado por un número fijo o
lanzamientos se calculan teórica y experimentalmente.
2. Descripción del juego Primero se describe detalladamente el juego de
Chutes and Ladders. El juego se considera que se juega en su forma de
solitario. El juego involucra una pieza de juego, un dado y un tablero de juego
que tiene cuadrados numerados del 1 al 100. Ciertos pares de estos 100
cuadrados están conectados por "canales" y otros están conectados por
"escaleras". El propósito de las rampas es retrasar el juego obligando al
jugador a regresar a la casilla en la parte inferior de la rampa si debe aterrizar
en la casilla en su parte superior. Por otro lado, las escaleras aceleran el juego
al permitir que un jugador avance directamente desde el cuadro en la parte
inferior de una escalera hasta el cuadro en su parte superior, y así evitar los
cuadros en el medio. Hay 10 canales que conectan los pares de squarcs
numerados (16,6), (47,26), (49,11), (56,53), (62,19), (64,60), (87,24). ), (93,73),
(95,75), y (98,78). Sin embargo, nueve escaleras conectan los cuadrados (1,38),
(4,14), (9,31), (21,42), (28,84), (36,44), (51, 67), ( 71,91), y (80,100).
Como la pieza de juego nunca puede permanecer en la parte superior de una
rampa o en la parte inferior de una escalera, solo hay 81 cuadrados en los que
se puede detener. La pieza de juego está fuera del tablero en la estrella t del
juego y el jugador debe tirar el dado para determinar un número hom. 1 a 6.
Luego, mueve su pieza de juego a través del mismo número de cuadrados que
el número en el dado. Si su pieza de juego se detiene en la parte inferior o en
una escalera, debe moverse inmediatamente hacia la parte superior de la
escalera. Luego repite el lanzamiento del dado y se mueve en consecuencia. II
En cualquier momento que aterrice en la parte superior de una rampa, debe
proceder directamente a su botLom antes del siguiente lanzamiento de dados.
El juego concluye cuando la pieza de juego alcanza el cuadrado 100. El tablero
en realidad tiene dos posiciones ganadoras, sinee hay una escalera desde el
cuadrado 80 al cuadrado 100. Un requisito es que el cuadrado 100 sea
alcanzado por un tiro exacto del dado.

MÉTODOS ESTADÍSTICOS EN LAS CADENAS DE MARKOV


P. BILLINGSLEY CONSULTA, DIVISIÓN DE MATEMÁTICAS LA RAND
CORPORATION

Este artículo es un estudio expositivo de los aspectos matemáticos de la


inferencia estadística que se aplica a las cadenas de Markov finitas, y el
problema consiste en extraer inferencias sobre las probabilidades de
transición de una observación larga e ininterrumpida de la cadena. Los temas
cubiertos incluyen la fórmula de Whittle, los métodos de chin-square y
maximu-lkelhood, la estimación de parámetros y las múltiples cadenas de
Markov al final del documento. Se indica brevemente cómo estos métodos se
pueden aplicar a un proceso con un espacio de estado arbitrario o parámetro
de tiempo continuo.

Sea ​ un proceso estocástico o secuencia de variables aleatorias

que toman valores en algún conjunto finito. La variable debe considerarse


como el estado en el momento n de algún sistema cuya evolución se rige por
un conjunto de leyes de probabilidad. El conjunto finito de valores que
asumen las variables aleatorias, llamado el espacio del estado del proceso,
puede ser tomado para conveniencia notaciones que consiste en los primeros
enteros positivo.

El proceso es una cadena de Markov de orden t si la probabilidad


condicional

Es independiente de los valores de para m <n-t. (Un orden de Markov de


orden t debe ser distinguido cuidadosamente de un proceso dependiente de t;

la propiedad definitoria de este último es que y

son independientes si n m> t. La terminología en la


literatura estadística es a veces confusa). Cadena de orden 1 también se llama
un simple markov cadena. A lo largo de lo que sigue se asumirá que el Markov
cadena tiene probabilidades estacionarios de transición estacionaria es decir

Es independiente de n. Si t = 1, estas cantidades forman una matriz


estocástica sxs, la matriz de transición del proceso.

Si los probalidades de transición son desconocidos, o son funciones


específicas de un parámetro desconocido, surge el problema de hacer
inferencias sobre ellos a partir de datos empíricos. Por lo tanto, se supone que
se han observado n + 1 estados sucesivos en una secuencia ininterrumpida;

así, uno tiene a mano una realización (o simple) de las


primeras n + 1 variables aleatorio. (El uso de n + 1 en lugar de n simplifica las
fórmulas posteriores). (La siguiente sección tratará la teoría de la gran
muestra basada en los métodos de chi-cuadrado, o el criterio de
Neyman-pearson; cualquier objetivo que pueda encontrarse sobre estos
métodos) en el caso independiente aplique un fortoriori en el presente caso.
Dado que cualquier pregunta probabilística sobre las cadenas de Markov de
orden t se puede reducir mediante un dispositivo estándar a una pregunta
correspondiente sobre cadenas de Markov simples, y dado que la misma es
esencialmente válida para las preguntas estadísticas, solo se considerarán
cadenas simples en las siguientes cuatro secciones. Se necesitarán las
siguientes definiciones y hechos relativos a tales cadenas; para una cuenta
sistemática. Se dice que la cadena es irreducible si para cualquier par i y j de
estados, xx o para algún n, donde

Son las probabilidades de transición de orden n-th Si la cadena es irreducible,


entonces hay un conjunto único de (estacionario) positivo.

Probabilidades, dados por la solución del sistema.


Si se mantiene para n = 1, entonces se mantiene para todo n,

de modo que la cadena esté estacionario. Se dice que la cadena es


ergódica si es irreducible y si es un período (el mayor divisor común del
conjunto del conjunto de enteros n, de modo que es 1. en el caso ergódico,

existen constantes positivas y , , tales como ese

Se mantiene para todos 1, j y n. una prueba elemental de este último hecho se


encontrará en la pág. en la mayor parte de lo que sigue se asumirá que la
cadena es estacionaria y ergódica.

Artículos sobre Cadenas de Markov (1965-1970)


Dentro de este periodo se encontraron pocos artículos, un total de 16 artículos totales, de
los cuales se describen dos a continuación, uno nacional y uno internacional.

Artículo científico nacional


México
Con el apoyo de instituciones nacionales, en 1964, se inició el programa del Centro
de Estudios Económicos y Demográficos de El Colegio de México, teniendo como
objetivos principales el facilitar a los estudiantes egresados de diversas escuelas y
facultades de ciencias sociales y de carreras científicas y técnicas del país, la
preparación indispensable para las tareas de análisis e investigación en economía,
demografía o estadística que se requieren hoy día en los principales departamentos
y oficinas de investigación del gobierno, los bancos oficiales y otras instituciones
públicas y privadas y en los centros de investigación científica de las universidades,
así como preparar profesores en estas áreas para cubrir las necesidades de
docencia en el país. También tienen inclusión de una materia especial: proyecciones
en ciencias sociales por métodos matriciales en donde se analizan las aplicaciones
en demografía de la teoría de las cadenas de Markov, matrices de proyección,
matrices de transformación, así como aplicaciones a proyecciones de la población
económicamente activa, migraciones internas, etc.

Aplicación de un proceso en la cadena de Markov a la proyección de


mortalidad por sexo y grupo de edades
Artículo científico internacional
Chile 1965
Este trabajo se centra su atención en el desarrollo de una metodología para la
proyección de la mortalidad por sexo y grupos de edad. Además, se probó su
utilidad aplicándola a las tablas modelo de Naciones Unidas con fines comparativos.
El procedimiento aquí presentado podría ser clasificado como matemático, en el
sentido de que ese basa en funciones cuya variable independiente es el tiempo,
más bien que en ciertos factores que pueden influir sobre la tendencia durante los
períodos considerados (económicos, sociales, etc.). Difiere de los más conocidos de
este grupo (método de Campbell, curva logística, función exponencial simple o
modificada, etc.), en, por lo menos, dos aspectos. Su base teórica, que viene dada
por el capítulo de la estadística conocido bajo el nombre de: procesos en cadena de
Markov y su tratamiento formal» que hace uso del álgebra matricial.

Cadenas de Markov en los años 1970-1975

Las cadenas de Markov en el análisis de cambios y Asignación de usos de la tierra.


(1972)

El desarrollo de los sistemas automatizados para la captura de información espacial


y para el desarrollo de procesos de análisis ha permitido que la visualización y
modelaje de los cambios de uso de la tierra sobre el tiempo se puedan hacer
resumiendo la cantidad total, tipos y sitios de cambio. De igual manera, se han
desarrollado instrumentos para indagar el patrón espacial de los cambios dentro o
entre las categorías de uso y cobertura de la tierra. En este presente trabajo se
muestra como el proceso estocástico conocido como cadenas de Markov, resulta
ser un potencial modelo descriptivo y predictivo para los análisis de cambios de uso
de la tierra y para las futuras distribuciones o asignaciones de usos. También, se
presenta la utilización de un inter fase automatizado para los análisis de cambios
donde se emplea un sistema de Información Geográfica (SIG) en formato raster y
una aplicación que facilita la construcción y el análisis espacial de los mecanismos
de cambio. La herramienta de análisis espacial es aplicada a un sector de la zona
baja del estado Trujillo, utilizando el software Idrisi para Windows e información de
imágenes de satélite de los años 1988 y 1996.
Cadenas de markov aplicadas al análisis de la ejecución de proyectos de
investigación (1973)

La administración moderna requiere el apoyo de herramientas de diferentes ramas


de la ciencia que ayuden al proceso de toma de decisiones, como por ejemplo la
Matemática Aplicada. En este contexto aparecen variables aleatorias que con el
transcurso del tiempo cambian, y que pueden ser representadas a través de
modelos cuantitativos. Cuando en estos modelos el estado presente de dichas
variables resume toda la información anterior para describir cómo se comportarán
en el futuro, se dice que se está en presencia de una cadena de Markov; una
herramienta eficiente para el análisis de procesos de esta naturaleza, como por
ejemplo la ejecución de proyectos de investigación, el cual reviste gran importancia
en la gestión de ciencia e innovación tecnológica; área de resultados clave en
cualquier universidad. En la Facultad de Tecnología de la Universidad de Ciencias
Médicas de Santiago de Cuba, el análisis de la ejecución de los proyectos de
investigación se consideró como una cadena de Markov, definiendo los diferentes
estados por los que puede estar un proyecto, y las probabilidades de que este se
encuentre en un estado determinado a partir del estado en que se encontraba. Así
se determinaron elementos que permiten apoyar la toma de decisiones a corto y a
largo plazo, a partir de datos históricos, relacionados con la cantidad promedio de
inspecciones a los mismos, probabilidades de un proyecto cerrar, etc.; permitiendo
pronosticar en términos de probabilidades el estado de este subsistema en el futuro.

En los años 1970-1975 encontramos varios artículos relacionados a las cadenas de


Markov.

Artículos que emplean cadenas de markow en 1975 a 1980


El segundo punto de rompimiento se presentó en el tercer trimestre de 1975.
Después de la renuncia del presidente Richard Nixon el 9 de agosto de 1974, la
principal preocupación del gobierno del presidente Ford fue enfrentar la inflación que
estaba aumentando. El foco de la economía empezó a cambiar a medida que el
país caía en una pequeña recesión. En marzo de 1975 el Congreso aprobó y Ford
firmó una ley de reducciones del impuesto sobre el ingreso como parte de la Ley de
Reducción de impuestos de 1975 para fortalecer la economía. El resultado fue que
la tasa de crecimiento real del PIB aumentó 78 por ciento.
El tercer punto de rompimiento estructural fue en el segundo trimestre de 1979. El
periodo está caracterizado particularmente por la segunda crisis energética en los
Estados Unidos. Sin embargo, durante el gobierno del presidente Carter, la
economía estadunidense sufrió una inflación de dos dígitos, a la que se aunaron
tasas de interés muy altas, escasez de petróleo, un desempleo alto y un lento
crecimiento económico. El aumento de la productividad en los Estados Unidos había
disminuido a una tasa anual promedio de 1%, en comparación con 3.2% en los años
sesenta. Se tuvo además un déficit creciente en el presupuesto Federal que
aumentó a 66 mil millones de dólares. En general, se describe a los años setenta
como un periodo de estanflación. La tasa de crecimiento promedio del PIB real
disminuyó 91% a sólo 0.44%, como puede verse en el cuadro 3.
La labor de búsqueda y mejora de procedimientos de modelización del fenómeno de
la movilidad geográfica, inscrita en lo que Sorokin, y más tarde Mayer (1975) y
Sorensen (1975), han definido como una movilidad social de tipo intergeneracional y
horizontal, ha sido intensa, siendo el causal y el dinámico los enfoques más
generales desde los que se ha producido dicha modelización. Mientras los modelos
causales se han ocupado de estudiar los determinantes de la movilidad geográfica,
los modelos dinámicos se han centrado en su componente temporal. Dentro de las
alternativas de modelización dinámica de las migraciones se encuentran las
cadenas de Markov, metodología que, sin haber alcanzado el nivel divulgativo del
discurso causal, ha tocado parcelas muy diversas
A partir del trabajo pionero de Blumen, Kogan y McCarthy (1955), precursores en la
aplicación de cadenas de Markov discretas al estudio de la movilidad social, a lo
largo de las décadas sesenta, setenta y ochenta se produjeron importantes
aportaciones, tanto metodológicas como empíricas, en la utilización de cadenas de
Markov a fenómenos muy diversos, entre ellos la movilidad ocupacional 1975;
Ginsberg
ANTECEDENTES Y FUNDAMENTOS EN LA APLICACIÓN DE CADENAS DE MARKOV
DISCRETAS AL ESTUDIO DE LA MOVILIDAD
Una cadena de Markov es un tipo de proceso estocástico en el que la sucesión de
variables aleatorias que lo definen, unidas mediante la llamada dependencia
markoviana, determinan la ubicación de un sistema en el tiempo, teniendo en cuenta
su posición previa. De cara a destacar las bondades de este planteamiento frente a
los modelos de corte causal en estudios de movilidad, la discusión sobre el grado de
definición causal o incluso sobre la existencia o no de definición causal que
despliega el fenómeno que se está analizando es un aspecto de suma importancia.

Cadenas de Markov (Año 80 a 85)

Los artículos encontrados del Proceso de Markov en estos años fueron 10,
desgraciadamente los informes que se localizaron fueron principalmente internacionales. A
continuación se describen 2 artículos.
Cadenas de Markov en tiempo discreto aplicadas en el área de salud

Uno de los artículos de cadena de Márkov como bien sabemos esta se aplica en la salud
uno de los artículos que nos parecieron interesantes a parte de los otros dos fue la
investigación del sida en los años 80 se ha convertido en una de las mayores pandemias de
nuestra época. En la actualidad, España es uno de los países del este de Europa más
afectados por el virus (Euro HIV, 2005), por lo que el conocimiento de la evolución futura de
la epidemia es un objetivo prioritario para establecer políticas de salud necesarias.
Para esto en ese año se establecieron cadenas de Márkov las cuales son las siguientes:
Definición de los estados de proceso entre ellos:
Establece que cada sujeto de la población está expuesto en uno de los siguientes estados
(sida) este se convertirá en una enfermedad que te causará la muerte en pocos días.

Selección del modelo de Markov más apropiado para el estudio:


La observación de los sujetos se realiza de forma anual, por lo que tanto los estados como
los instantes de tiempo del proceso son discretos. Además, el estado futuro en que se
encuentre un individuo dependerá solo de su estado actual, pero no de su historia pasada.
Por ello, el proceso estocástico es una cadena de Markov discreta.

Estudio de la probabilidad de contagio:


En epidemias humanas, la matriz de transición suele obtenerse a partir de los datos de
población, incidencia, prevalencia y mortalidad publicados en los registros sociales. En el
momento de redactar este trabajo, las últimas cifras registradas sobre la epidemia de
VIH-SIDA en España correspondían a 2004 (Euro HIV, 2005), información que será utilizada
para calcular las probabilidades de transición.

Simulación de cadenas de MARKOV discretas

Informes del Departamento de Psicología General (España 1980)

Esta investigación viene a dar una solución práctica al problema de derivar valores
esperados en los modelos markovianos que consideran un número de estados
relativamente grande, como es el caso de los que se utilizan con frecuencia en teorías
sobre condicionamiento, aprendizaje verbal o memoria. Se ha creado un programa que
permite simular en ordenador el comportamiento de un sistema cualquiera que a) ser
susceptible de hallarse en un número de estados finito, siendo la secuencia de éstos una
cadena de Markov discreta; y b) en cada paso de la cadena el sistema emite una respuesta,
siendo finito el número de respuestas posibles, y siendo sus probabilidades dependientes
únicamente del estado que el sistema ocupa. Como resultado de la simulación, se obtienen
las medias y varianzas de una serie de variables aleatorias definidas sobre el modelo
descrito, así como las frecuencias relativas para cada ensayo de una cualquiera de las
respuestas. Con tal programa es posible hacer estimaciones todo lo precisas que desee de
los correspondientes valores esperados, cualquiera que sea en número de respuestas y de
estados considerados en el modelo.
Cadenas de Markov (años 1985-1990)
Se investigó la aplicación de las Cadenas de Markov en los años 1985-1990 y se
encontraron alrededor de 50 artículos, sin embargo seleccionamos 2 que se
mostraran a continuación.

Aplicación de cadenas de Markov para proyecciones


demográficas en áreas geopolíticas menores

Se presenta el uso de cadenas de Markov para proyectar la población en áreas


geopolíticas menores. El método consiste en proyectar sólo la distribución relativa
que, aplicada a una proyección demográfica previa, arroja la población en
subregiones. Se desarrolla un algoritmo que permite estimar las probabilidades de
transición para la cadena a partir de datos de fácil disponibilidad: la población total
residente en dos o más regiones o estados en sólo dos momentos en el tiempo. Una
vez determinadas esas probabilidades, su proyección y la correspondiente a la
distribución relativa es directa. La aplicación del método se hace con la zona
metropolitana de la ciudad de México, para la cual se proyecta su población y
extensión territorial. En una segunda aplicación se proyecta sólo la población para
tres contornos en que se ha dividido a la metrópoli.
Virgilio Partida Bush
Estudios Demográficos y Urbanos
Vol. 4, No. 3 (12) (Sep. - Dec., 1989), pp. 549-571

1989 Análisis transitorio del modelo de recompensa de Markov y Markov: una


visión general de los enfoques numéricos

La llegada de los sistemas distribuidos y tolerantes a fallos ha llevado a un mayor interés en


las técnicas analíticas para la predicción de confiabilidad, disponibilidad y medidas
combinadas de rendimiento y confiabilidad. Los modelos de recompensa de Markov y
Markov son herramientas comunes para la predicción de confiabilidad del sistema tolerante
a fallas. En este artículo, primero derivamos medidas instantáneas y acumulativas del
comportamiento del modelo de recompensa de Markov y Markov. Luego comparamos la
complejidad de varios algoritmos de la competencia para el cálculo de estas medidas. Los
mejores enfoques para la solución del modelo de Markov deberían conducir a técnicas más
efectivas para el modelado de sistemas tolerantes a fallas.
European Journal of Operational Research
Volume 40, Issue 2, 25 May 1989,
Pages 257-267 AndrewReibman∗∗RogerSmith†KishorTrivedi

Aplicación de las Cadenas de Markov 90-95


TESIS PARA OBTENER EL TITULO DE MATEMATICO
PRESENTA: CLAUDIA CARMEN ITURRIAGA VELAZQUEZ
1990
Un proceso estocástico es una sucesión de variables aleatorias Xt(w),t E T
definidas en un mismo espacio de probabilidad , en donde T es llamado
usualmente espacio de parámetros(T suele ser el tiempo).
Una cadena de Markov con espacio de parámetros T discreto es un proceso
estocástico en donde el espacio de estados S es un conjunto finito o
numerable de los valores de las variables aleatorias y cumple con la
propiedad:

Llamamos probabilidad de transición en un paso a:

La probabilidad de transición en un paso es la probabilidad de pasar del


estado i i al estado j en una unidad de tiempo.

Si la cadena es estacionaria entonces . En tal caso


denotaremos de aquí en adelante como pij solamente.
Haciendo variar i y j encontramos la matriz de probabilidades de transición o
matriz de transición en un paso la cual satisface:
Si S tiene k elementos entonces la matriz de transición es de k x k.
Denotaremos a la matriz de transición por:

Procesos de control de markov con costos y controles no acotados


Universidad Autónoma Metropolitana - Iztapalapa lDivisi6n de Ciencias
Básicas e Ingeniería Departamento de Matemáticas AGOSTO DE 1993
El estudio de los PCMs se puede dividir, por ejemplo:
1.- Según el tipo de espacios de estados:
(a) espacio numerable;
(b) espacio de Borel (i.e. subconjunto de Borel de un espacio métrico
separable y completo);
2.- Según el tipo de índice de funcionamiento: (a) costo descontado; (b) costo
promedio; (c) costo total.
El objetivo de la Teoría de Control Optimo, es determinar las acciones o
decisiones de control que deben tomarse para optimizar el comportamiento de
un sistema que evoluciona en el tiempo.

2.- Modelo de control de Markov.


DEFINICION 2.1: Un modelo de control de Markov (Ma), estacionario a tiempo
discreto, se compone de cuatro componentes, (X,A,Q,C), donde: -
*X es un espacio de Borel [Def. 1, Ap. A] no vacío llamado espacio de estados.
A los elementos de X los llamaremos estados. –
*A es un espacio de Borel no vacío llamado el conjunto de acciones o de
control.
A cada xeX, le asociamos un conjunto no vacío Atx)&(A), la u-Algebra
asociada al espacio A. A Atx) lo llamaremos el conjunto de acciones
admisibles en el estado x. Supondremos que el conjunto:
K:=((x,a) : XSX, ad)
de las parejas estado-control admisibles, es un subconjunto de Borel de XxA.
*Q es un kernel estocástico [Def. 1, Ap. Bl en X dado K, al cual llamaremos ley
de transici6n entre los estados.
*C es una funci6n real definida en K, medible, la cual representa el costo por
etapa.
En este trabajo, se revisaron condiciones recientes de [16, 20, 271 para
obtener la optimlidad en costo promedio de una política de control. Para esto,
primero se revisaron. Los elementos suficientes para plantear el problema de
control optimo y definimos el modelo de control de markov.
Aplicación de las cadenas de Markov en México 2000-2005

Uso de MTGSAM y muestreó de GIBBS en la estimación de componentes de varianza


Por Cadena Meneses, José A; Castillo Morales del Colegio de Posgraduados México,
mayo-junio 2002. artículo Redalyc.
El articulo presenta una estrategia para la estimación de componentes de varianza de un
problema de un establo lechero mediante el uso del paquete computacional MTGSAM que
utiliza el muestreo de Gibbs. Se presentan los diferentes resultados obtenidos cambiando
los valores iniciales de los parámetros a estimar, así como los diferentes criterios para tomar
la muestra de la cadena de Markov.
En el mejoramiento genético animal, con frecuencia se tiene la necesidad de contar con
estimaciones de las componentes de varianza, a partir de las cuales se definen varios
índices mediante los que se determinan los criterios de selección de los animales.
Se presenta una estrategia de uso del paquete MTGSM para la estimación de componentes
de varianza basada en muestreo de GIBBS, que no había sido usado en ciencia animal por
la ausencia de un paquete adecuado y de uso relativamente fácil.
Caso internacional.
Desigualdades funcionales, semigrupos de Markov y teoría espectral
Dado que en una situación estándar (por ejemplo, en el caso simétrico), cualquier
semigrupo de contracción C0 (y por lo tanto su generador) en un espacio de Hilbert está
determinado únicamente por la forma cuadrática asociada, es razonable describir las
propiedades del Semigroup y su generador mediante el uso de desigualdades funcionales
de la forma cuadrática. En particular, si la forma asociada es una forma de Dirichlet,
entonces el semigrupo correspondiente es (sub) Markoviano. El propósito de este libro es
presentar una descripción sistemática de las desigualdades funcionales para las formas y
aplicaciones de Dirichlem en los semigrupos de Markov (o procesos de Markov en un caso
regular). Las desigualdades funcionales consideradas aquí solo involucran la forma de
Dirichlet y una o dos normas de funciones, y pueden ilustrarse fácilmente en muchos casos.
Por otro lado, estas desigualdades implican abundantes propiedades analíticas de
semigrupos y generadores de Markov, que están relacionadas con diversos
comportamientos de los procesos de Markov correspondientes. Por ejemplo, la desigualdad
de Poincar6 es equivalente a la convergencia exponencial del semigrupo y la existencia de
la brecha espectral. Además, la desigualdad de Log-Sobolev gruesa es equivalente a la
hipercontractividad de Nelson del semigrupo y es estrictamente más fuerte que la
desigualdad de Poincard. Por lo tanto, es natural que solicitemos más información espectral
y propiedades de semigrupo a partir de desigualdades funcionales más generales. Este es
el punto de partida del libro. En este libro, introducimos desigualdades funcionales para
describir: (i) el espectro del generador: los espectros esenciales y discretos, los valores
propios de alto orden, el valor propio principal y la brecha espectral; (ii) las propiedades del
semigrupo: la integrabilidad uniforme, la compacidad, la tasa de convergencia y la
existencia de densidad; (iii) la medida de referencia y la métrica intrínseca: la concentración,
la desigualdad isoperimétrica y la desigualdad en los costos de transporte. Para
conveniencia del lector y para completar la cuenta, resumimos algunos preliminares
necesarios en el Capítulo 0. Correspondientes a varios niveles de propiedades espectrales
y semigrupos, los Capítulos 1, 3, 4, 5 y 6 se enfocan en varias desigualdades funcionales
diferentes, respectivamente: El Capítulo 1 y el Capítulo 5 introducen las desigualdades de
Poincard y log-Sobolev, respectivamente, respectivamente, el Capítulo 6, las interpolaciones
de estas dos desigualdades, el Capítulo 3, la desigualdad de Super Poincard, y el Capítulo
4, la débil desigualdad de Poincard. Cada uno de estos capítulos presenta una
correspondencia entre los
la desigualdad funcional y las propiedades del semigrupo y su generador, así como las
condiciones suficientes y necesarias para que la desigualdad funcional se mantenga.
Además, los resultados generales se ilustran mediante ejemplos concretos, en particular,
ejemplos de procesos de difusión en múltiples y cadenas contables de Markov. Estos
capítulos son relativamente (aunque no absolutamente) independientes, de modo que uno
puede leer en su propio orden sin muchos problemas. El Capítulo 2 está dedicado a los
procesos de difusión en múltiples Riemannian y aplicaciones al análisis de geometría. En
particular, la estimación del primer valor propio se relaciona con la desigualdad de Poincar,
mientras que los resultados relativos a las estimaciones de gradiente, la desigualdad de
Harnack y la desigualdad isoperimétrica se utilizarán en la secuela para ilustrar otras
desigualdades funcionales. Los resultados incluidos en w con respecto al primer valor
propio se han introducido en una monografía reciente [47] por el profesor Mu-Fa Chen. La
monografía de Chen enfatiza la idea principal del estudio, que es crucial para comprender la
maquinaria del trabajo, mientras que el presente libro proporciona los detalles técnicos que
son útiles para un estudio adicional. Finalmente, en el Capítulo 7 establecemos
desigualdades funcionales para tres modelos de dimensiones infinitas que se han estudiado
intensamente en el análisis estocástico y la física matemática. Al final de cada capítulo
(excepto el Capítulo 0), se abordan algunas notas históricas y preguntas abiertas para
estudios adicionales. Las notas no pretenden resumir los principales resultados de cada
artículo citado, sino simplemente indicar la conexión con los contenidos principales de cada
capítulo en cuestión, mientras que los problemas abiertos se enumeran principalmente en
función de mis propios intereses. Por lo tanto, estas notas están lejos de ser completas en
el sentido estricto. Al final del libro, se presenta una lista de publicaciones y un índice de
notaciones principales y palabras clave para referencia del lector. Estas referencias se
presentan no para completar sino para una guía útil de la literatura. Lamento que haya
muchas publicaciones relacionadas que no se hayan mencionado en el libro. Debido a la
limitación del conocimiento y la experiencia de escribir, me gustaría disculparme por
adelantado por los posibles errores y las cuentas incompletas que aparecen en este libro, y
apreciar las críticas y correcciones en cualquier sentido. Me gustaría expresar mi profunda
gratitud a mis asesores, el profesor Shi Jian Yan y el profesor Mu-Fa Chen por sus serias
enseñanzas y sus constantes ayudas. El profesor Chen me guió al campo de investigación
cruzada de la teoría de la probabilidad y la variedad de Riemann, y enfatizó los enfoques
probabilísticos en la investigación, en particular, los métodos de acoplamiento en los que
había trabajado intensamente. Nuestras fructíferas colaboraciones en esta dirección
estimularon considerablemente otros trabajos incluidos en este libro. Durante la década
pasada también me beneficié enormemente de la colaboración
Laboraciones y comunicaciones con los profesores M. RSckner, A. Thalmaier, V. I.
Bogachev, F.-Z. Gong, K. D. Elworthy, M. Cranston y X.-M. Li En particular, el trabajo
relacionado con la débil desigualdad de Poincar6 y sus aplicaciones se debe a la
cooperación efectiva con el profesor M. RSckner. En diferentes etapas recibí sugerencias y
estímulos útiles de muchos otros matemáticos, en particular, los profesores S. Aida, S.
Albeverio, D. Barkry, D. Chaifi, D.-Y. Chen, T. Couhlon, S. Fang, M. Fukushima, G.-L. Gong,
L. Gross, E. Hsu, C.-R. Hwang, W.S. Kendall, R. Leandre, M. Ledoux, Z.-H. Li, Z.-M. Ma, P.
Malliavin, Y.-H. Mao, S.-G. Peng, E. Priola, M.-P. Qian, I. Shigekawa, D. Stroock, K.-T.
Sturm, Y.-L. Sun, J.-L. Wu, L. Wu, J.-A. Yan, T.-S. Zhang, Y.-H. Zhang y X.-L. Zhao. También
me gustaría agradecer al profesor Yu-Hui Zhang, al Sr. Wei Liu y a los estudiantes
graduados de nuestro grupo por leer el borrador y verificar los errores. Finalmente, es un
placer agradecer el generoso apoyo de este trabajo por parte de la Fundación Nacional de
Ciencias Naturales de China (1002510, 10121101), el Proyecto Premiado de Enseñanza e
Investigación para Maestros Jóvenes Sobresalientes y el Proyecto 973. Feng-Yu Wang
Beijing, junio de 2004

Aplicación de las cadenas de Markov 2005 – 2010


Se encontraron 15 artículos dentro de este periodo.
DINÁMICA EN EL USO DEL SUELO EN TRES EJIDOS CERCANOS A LA
CIUDAD DE CHETUMAL, QUINTANA ROO.
Gabriela García Rubio 2 de agosto de 2005
El cambio de uso de suelo ha provocado la degradación y transformación de
muchos ecosistemas en todo el mundo. Por esto es importante conocer las causas
que provocan los cambios y su futura dirección. El objetivo de este estudio es
conocer la magnitud y dirección de los cambios en tres ejidos al norte de Chetumal y
analizar las causas y tendencias. Para ello se clasificó la zona del estudio en
imágenes Landsat ETM de 1990 y 2000, se entrevistaron 81 ejidatarios y se
analizaron archivos del Registro Agrario Nacional. Los resultados revelan la
importancia de la cercanía con la ciudad de Chetumal, proporciona fuentes de
trabajo y mercado para productos agrícolas, lo que facilita el flujo de capital.
Además, la cercanía a la capital del estado facilita el acceso a apoyos y subsidios
gubernamentales, pero a la vez se presta para el establecimiento de una “ganadería
recreativa” y de estatus de gente que vive en Chetumal. Se encontró una cantidad
importante de vegetación secundaria mayor de cinco años, como consecuencia de
los Programas Nacionales de Desmonte. Estas áreas deforestadas en los años
ochenta ya no se cultivaron en los últimos años, lo que provocó una recuperación de
0.6% anual de la selva, rebasando así la transformación de la misma para
actividades agropecuarias.
USO DE CADENAS DE MARKOV PARA LA PREDICCIÓN DE LA DINÁMICA DEL
COMPORTAMIENTO DE PACIENTES EN UNA UNIDAD DE CUIDADO
INTENSIVO CARDIOLÓGICA.
Víctor Albornoz 6 de junio de 2006
Ingeniare - Revista Chilena de Ingeniería, vol. 14 Nº 2, 2006, pp. 153-158
Una Cadena de Markov corresponde a una clase específica de proceso estocástico
en el ámbito de modelos probabilísticos [25, 26]. En este trabajo xt denotará el
estado de un paciente en el instante de tiempo futuro t. Esto define un proceso
estocástico que corresponde a la secuencia x0, x1, x2, x3,..., que representa su
nivel de gravedad a través del tiempo, en la cual usualmente el valor de un xt
depende de los valores previos en la secuencia. A medida que transcurre el tiempo,
los cambios de estado tienen lugar en términos probabilísticos y son representados
a través de las denominadas probabilidades de transición entre estados, que en el
caso de las transiciones en una etapa corresponde a la probabilidad de pasar de un
estado a otro desde una etapa de tiempo t a la siguiente t+1.
Las hipótesis que contempla este modelo markoviano en discusión son las
siguientes: 1) supone un número finito de estados para describir el comportamiento
dinámico de los pacientes; 2) supone conocida una distribución de probabilidades al
inicio del horizonte de estudio (t=0), que refleje ya sea a qué estado de los
previamente definidos pertenece un paciente de la UCIC, o bien, los porcentajes de
pacientes en cada estado en la UCIC; 3) supone que la transición de un estado
actual a otro en el futuro depende solamente del estado actual (propiedad
markoviana), y 4) que la probabilidad de esta transición sea independiente de la
etapa de tiempo considerada (propiedad estacionaria), esto es, que no cambie en el
tiempo de estudio del sistema. Naturalmente, la validez del modelo y las respuestas
entregadas dependen esencialmente del cuGmplimiento de las propiedades
markoviana y estacionaria, por ende, resulta necesario un análisis para establecer
cuán adecuadas son en cada caso particular.
Nancy Chávez García.
Arisbeth De La Cruz Anastacio.

Cadenas de Markov del 2010 al 2015.


Los estudios en los cuales se utilizan las cadenas de Markov entre estos 5 años son
demasiados, tan sólo fueron encontrados 456 artículos, de los cuales, a
continuación se les presentan 2; uno en el ámbito nacional y otro en el ámbito
internacional.

Cadenas de Markov Aplicadas a la Evolución de los


Usuarios Potenciales de Energía Fotovoltaica
Armando Uranga, Ramón Luévanos, Facundo Cortés, Claudia Ávila, Juan González (2011)
Como es bien sabido, la energía en el planeta causa contaminación en todos sus
aspectos, en todos lados. Por lo cual hoy en día se están buscando algunos
sustitutos de energía eléctrica NO contaminantes, ya que eléctrica y nuclear no es
una opción factible para dentro de unos 50 años en el futuro. Debido a esto se ha
recurrido a la energía Fotovoltaica, es una buena opción ya que no contamina y es
por tiempo ilimitado (El sol). El presente reporte trata sobre la utilización de las
cadenas de Markov para estimar la cantidad de usuarios que emplearán la energía
solar en una región al norte de México denominada Región Lagunera,
aprovechando las condiciones geográficas de insolación, especialmente aquellos
que usarán la energía fotovoltaica en uso doméstico. Para que esto pudiera ser
posible, fue necesario aplicar un modelo estocástico basado en las cadenas de
Markov. En la metodología se utilizó estadística, cuestionarios que se realizaron a la
población y para el tamaño de la muestra se trabajó con un nivel de confianza a
95% y un porcentaje de error del 5%. El estudio se basó principalmente en datos
históricos sobre la cantidad de viviendas particulares que cuentan con energía
eléctrica. Se asumió que esa cantidad de vivienda es igual a la cantidad de usuarios
para cada año correspondiente. Se desglosaron los datos para cada una de las tres
ciudades. Markov se utilizó para realizar la estimación y así conocer cómo es que la
gente responderá ante esta nueva fuente de energía alterna.

Evaluación de modelos de combustión para la


determinación de la eficiencia en hornos de refinería
Instituto Colombiano del Petróleo-ECOPETROL, Km. 7 Vía a Piedecuesta, Piedecuesta,
Colombia. Septiembre 2015.
La eficiencia de combustión en hornos es la medida del calor liberado en la llama
que es absorbido por el fluido a calentar y es considerada una de las variables más
importantes en la realización de estudios de los procesos que ocurren en una planta
de proceso continuo. La eficiencia de un horno es calculada usando diferentes
modelos matemáticos propuestos en la literatura, los cuales varían en su
complejidad dependiendo de las variables analizadas. Mediante simulación
computacional fueron simuladas mezclas de gas combustible con poder calorífico
inferior (LHV por sus siglas en inglés) entre 800-2500 BTU/pie3, y se compararon
con el gas natural y con datos de proceso; encontrando que las características de la
combustión cambian debido a la variación en la composición del combustible. Se
presentó baja eficiencia debido a la alta concentración de hidrógeno y un aumento
en la temperatura adiabática de llama en función de la composición del gas.
Finalmente el modelo IV permitió evaluar la eficiencia del proceso de combustión de
forma efectiva, pues solamente utiliza la temperatura de chimenea y el exceso de
aire. La simulación de mezclas de combustible en Aspen Hysys ayudó a evaluar las
características de combustión al variar la composición del combustible, permitiendo
rangos estables para el porcentaje de eficiencia energética y temperatura
adiabática. Los datos de simulación coincidieron con los datos del proceso. El
análisis estadístico realizado con el software (Statgraphics Centuriun XV.II) permitió
establecer una mezcla representativa de RG; esta mezcla comprende 8 compuestos
(metano, etano, propano, n-butano, etileno, propileno, sulfuro de hidrógeno e
hidrógeno), que son los más influyentes en el proceso de combustión. Las
temperaturas más bajas del gas de chimenea se presentan para una alta eficiencia
de combustión y esta temperatura disminuye cuando aumenta el porcentaje de
exceso de aire. Las mezclas de combustible evaluadas mostraron temperaturas de
la pared del tubo dentro de los límites establecidos por la literatura para garantizar
que la temperatura alta no cause daños.
Los modelos para el cálculo de eficiencia presentados en el documento se basan en
gas combustible que consiste principalmente en metano, pero su efectividad
disminuye con mezclas de gases de composición variable.
Roberto Islas Hernández García
Melina Hernández García

Aplicación de las cadenas de Markov en un proceso de producción


de plantas in vitro
5 de Octubre de 2015
Se aplicó el modelo de Cadenas de Markov para determinar el número de explantes
iniciales
que se requiere establecer para obtener un número definido de lote de producción (3,000
plantas finales mediante tres ciclos de multiplicación in vitro), según la estandarización de la
empresa.
Se estableció un registro histórico del número de plantas que fueron desechadas,
reprocesadas
y aquellas que continuaron su ciclo de reproducción. Se calculó la matriz de transición de
Markov tomando en cuenta un 95% de éxito en la etapa de enraizamiento y la transición al
empaque final, según registros de la empresa.
A partir de la matriz obtenida, se estimaron las probabilidades de los estados adsorbentes
(empaque y desecho) de cada etapa, mediante las operaciones matriciales:
• Resta de Matriz Identidad con Matriz Transitoria: (I-N)
• Matriz Inversa de 1-N: Minversa(I-N)
• Multiplicación de la Matriz Inversa por la Matriz Absorbente: Minversa(I-N)*M(A).
Con el cálculo de las probabilidades anteriores, se planteó una fórmula para obtener el
número
de plantas requeridas para cumplir con el lote de producción final, de acuerdo con la etapa
en
la que se encuentre el material vegetal.

Dinámica de la inversión extranjera directa en los estados de


México: un análisis de cadenas de Markov.
22 Enero de 2015
El objetivo de esta investigación consiste en analizar la evolución de la distribución espacial
y temporal de la inversión extranjera directa (IED) en las entidades federativas de México.
La literatura que aborda el análisis de la IED en México es abundante y diversa; sin
embargo, se argumenta que el análisis de la distribución espacio-temporal de la IED
condicionada a la interacción espacial en México, aún está ausente. En este sentido,
mediante la aplicación del enfoque de cadenas de Markov espaciales propuesto por Rey
(2001), se encuentra que la divergencia regional en la captación de IED es un proceso que
parece afianzarse cuando se analizan diferentes cortes en el tiempo. En particular, durante
el periodo entre 2006 y 2013 el proceso de divergencia hacia estratos de mayor captación
estaría impulsado por las entidades federativas que interactúan con entidades contiguas
ubicadas en estratos de captación de IED menores.
© 2016 Universidad Nacional Autónoma de México, Facultad de Contaduría y
Administración.

Año Articulo
2015 Stationary probability vectors of higher-order Markov chains
Linear Algebra and its Applications, Volume 473, 15 May 2015,
Pages 114-125
Some improvements of wind speed Markov chain modeling
Renewable Energy, Volume 81, September 2015, Pages 52-56
Aplicación de Cadenas de Markov en un proceso de
producción de plantas in vitro.
Tecnología en Marcha. Vol. 29, Nº 1, Enero-Marzo. Pág.7
Dinámica de la inversión extranjera directa en los estados de
México: un análisis de cadenas de Markov espaciales4-82.

2016 Wind modelling with nested Markov chains


Journal of Wind Engineering and Industrial Aerodynamics, Volume
157, October 2016, Pages 118-124
Sufficient conditions for the ergodicity of fuzzy Markov chains
Fuzzy Sets and Systems, Volume 304, 1 December 2016, Pages
82-93.

2017 Imprecise continuous-time Markov chains


International Journal of Approximate Reasoning, Volume 88,
September 2017, Pages 452-528
Stratified Monte Carlo simulation of Markov chains
Mathematics and Computers in Simulation, Volume 135, May 2017,
Pages 51-62
2018 Kemeny's function for Markov chains and Markov renewal
processes
Linear Algebra and its Applications, Volume 559, 15 December
2018, Pages 54-72
Reachability in parametric Interval Markov Chains using
constraints
Theoretical Computer Science, Volume 747, 7 November 2018,
Pages 48-74
Markov chain-based approach of the driving cycle
development for electric vehicle application
CUE2018-Applied Energy Symposium and Forum 2018: Low
carbon cities and urban energy systems, 5–7 June 2018, Shanghai,
China
Evaluación de la costo-efectividad de un modelo integral de
tratamiento ambulatorio en pacientes con síndrome coronario
agudo: aplicación de un modelo de Markov probabilístico
Cadenas de Markov en la determinación de circuitos turísticos
para la región Puno, 2018

Artículo Internacional
Cadenas de Markov en la determinación de circuitos turísticos para la región
Puno, 2018
El desarrollo integral del turismo en la región Puno es un tema de gran interés para
el gobierno regional, empresas y organismos a quienes incumbe esta importante
actividad económica. El presente trabajo de investigación tiene como objetivos
mostrar provincias de la región con mayor probabilidad de ser visitadas por turistas
nacionales o extranjeros y la ruta más corta entre ellas, en base a la aplicación de
cadenas de Markov, el algoritmo de la ruta más corta, el análisis documental de
información proporcionada por organismos vinculados a la actividad turística y la
aplicación de encuestas. El modelo evidencia el flujo turístico a las diferentes
provincias en cada etapa y las provincias turísticas potenciales que posee la región
mediante el estado estable de la cadena. Finalmente, como resultado de
investigación tenemos el circuito optimo: Chucuito-Puno-Lampa-San Antonio de
Putina-Sandia con recorrido mínimo de 443.6 Km y otros circuitos potenciales
formados por las provincias mencionadas cada uno con un diagrama de la mejor
ruta del circuito, estos resultados se validan mediante intervalos de confianza y
tablas que muestran la eficiencia del modelo en la toma de decisiones y
planificación de la oferta del producto turístico en la región Puno a largo plazo.
Artículo Mexicano
Dinámica de la inversión extranjera directa en los estados de México: un
análisis de cadenas de Markov espaciales 4-82.
El objetivo de esta investigación consiste en analizar la evolución de la distribución
espacial y temporal de la inversión extranjera directa (IED) en las entidades
federativas de México. La literatura que aborda el análisis de la IED en México es
abundante y diversa; sin embargo, se argumenta que el análisis de la distribución
espacio temporal de la IED condicionada a la interacción espacial en México, Aún
está ausente. En este sentido, mediante la aplicación del enfoque de cadenas de
Markov espaciales propuesto por Rey (2001), Se encuentra que la divergencia
regional en la captación de IED es un proceso que parece afianzarse cuando se
analizan diferentes cortes en el tiempo. En particular, durante el periodo entre 2006
y 2013 el proceso de divergencia hacia estratos de mayor captación estaría
impulsado por las entidades federativas que interactúan con entidades contiguas
ubicadas en estratos de captación de IED menores.
Barron Moreno Irene Magdalena
Trejo Martínez Efraín

También podría gustarte