Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los artículos encontrados en los años antes mencionados fueron muy poco,
solo llegamos a encontrar 2 que a continuación se los mostraremos.
Cristal Apolinar Alonso
Mario Alberto Martínez Benítez
Erick Said Hernandez Monterrubio
Exactitud de los métodos de Monte Carlo en la computación de cadenas de
Markov finitas
N. W. Bazley y P. J. Davis
Los métodos sinusoidales de Monte Carlo se aplican generalmente a
problemas que son demasiado difíciles para "otros tipos de análisis rara vez
hay oportunidad de comparar sus resultados con" soluciones exactas”. En
este artículo se describen experimentos con la cadena de Markov presentada
b: 'Es el juego de Chutes and Ladders de ehildren'. En particular, se considera
el cálculo o la longitud promedio L de una jugada o este juego. Se encuentra
un valor exacto para E de acuerdo con la teoría de la cadena de Markov. El
cálculo de Y [Monte Carlo para L implica 2 1'1 jugadas simuladas o el Además,
las probabilidades de estar en un tiempo determinado por un número fijo o
lanzamientos se calculan teórica y experimentalmente.
2. Descripción del juego Primero se describe detalladamente el juego de
Chutes and Ladders. El juego se considera que se juega en su forma de
solitario. El juego involucra una pieza de juego, un dado y un tablero de juego
que tiene cuadrados numerados del 1 al 100. Ciertos pares de estos 100
cuadrados están conectados por "canales" y otros están conectados por
"escaleras". El propósito de las rampas es retrasar el juego obligando al
jugador a regresar a la casilla en la parte inferior de la rampa si debe aterrizar
en la casilla en su parte superior. Por otro lado, las escaleras aceleran el juego
al permitir que un jugador avance directamente desde el cuadro en la parte
inferior de una escalera hasta el cuadro en su parte superior, y así evitar los
cuadros en el medio. Hay 10 canales que conectan los pares de squarcs
numerados (16,6), (47,26), (49,11), (56,53), (62,19), (64,60), (87,24). ), (93,73),
(95,75), y (98,78). Sin embargo, nueve escaleras conectan los cuadrados (1,38),
(4,14), (9,31), (21,42), (28,84), (36,44), (51, 67), ( 71,91), y (80,100).
Como la pieza de juego nunca puede permanecer en la parte superior de una
rampa o en la parte inferior de una escalera, solo hay 81 cuadrados en los que
se puede detener. La pieza de juego está fuera del tablero en la estrella t del
juego y el jugador debe tirar el dado para determinar un número hom. 1 a 6.
Luego, mueve su pieza de juego a través del mismo número de cuadrados que
el número en el dado. Si su pieza de juego se detiene en la parte inferior o en
una escalera, debe moverse inmediatamente hacia la parte superior de la
escalera. Luego repite el lanzamiento del dado y se mueve en consecuencia. II
En cualquier momento que aterrice en la parte superior de una rampa, debe
proceder directamente a su botLom antes del siguiente lanzamiento de dados.
El juego concluye cuando la pieza de juego alcanza el cuadrado 100. El tablero
en realidad tiene dos posiciones ganadoras, sinee hay una escalera desde el
cuadrado 80 al cuadrado 100. Un requisito es que el cuadrado 100 sea
alcanzado por un tiro exacto del dado.
Los artículos encontrados del Proceso de Markov en estos años fueron 10,
desgraciadamente los informes que se localizaron fueron principalmente internacionales. A
continuación se describen 2 artículos.
Cadenas de Markov en tiempo discreto aplicadas en el área de salud
Uno de los artículos de cadena de Márkov como bien sabemos esta se aplica en la salud
uno de los artículos que nos parecieron interesantes a parte de los otros dos fue la
investigación del sida en los años 80 se ha convertido en una de las mayores pandemias de
nuestra época. En la actualidad, España es uno de los países del este de Europa más
afectados por el virus (Euro HIV, 2005), por lo que el conocimiento de la evolución futura de
la epidemia es un objetivo prioritario para establecer políticas de salud necesarias.
Para esto en ese año se establecieron cadenas de Márkov las cuales son las siguientes:
Definición de los estados de proceso entre ellos:
Establece que cada sujeto de la población está expuesto en uno de los siguientes estados
(sida) este se convertirá en una enfermedad que te causará la muerte en pocos días.
Esta investigación viene a dar una solución práctica al problema de derivar valores
esperados en los modelos markovianos que consideran un número de estados
relativamente grande, como es el caso de los que se utilizan con frecuencia en teorías
sobre condicionamiento, aprendizaje verbal o memoria. Se ha creado un programa que
permite simular en ordenador el comportamiento de un sistema cualquiera que a) ser
susceptible de hallarse en un número de estados finito, siendo la secuencia de éstos una
cadena de Markov discreta; y b) en cada paso de la cadena el sistema emite una respuesta,
siendo finito el número de respuestas posibles, y siendo sus probabilidades dependientes
únicamente del estado que el sistema ocupa. Como resultado de la simulación, se obtienen
las medias y varianzas de una serie de variables aleatorias definidas sobre el modelo
descrito, así como las frecuencias relativas para cada ensayo de una cualquiera de las
respuestas. Con tal programa es posible hacer estimaciones todo lo precisas que desee de
los correspondientes valores esperados, cualquiera que sea en número de respuestas y de
estados considerados en el modelo.
Cadenas de Markov (años 1985-1990)
Se investigó la aplicación de las Cadenas de Markov en los años 1985-1990 y se
encontraron alrededor de 50 artículos, sin embargo seleccionamos 2 que se
mostraran a continuación.
Año Articulo
2015 Stationary probability vectors of higher-order Markov chains
Linear Algebra and its Applications, Volume 473, 15 May 2015,
Pages 114-125
Some improvements of wind speed Markov chain modeling
Renewable Energy, Volume 81, September 2015, Pages 52-56
Aplicación de Cadenas de Markov en un proceso de
producción de plantas in vitro.
Tecnología en Marcha. Vol. 29, Nº 1, Enero-Marzo. Pág.7
Dinámica de la inversión extranjera directa en los estados de
México: un análisis de cadenas de Markov espaciales4-82.
Artículo Internacional
Cadenas de Markov en la determinación de circuitos turísticos para la región
Puno, 2018
El desarrollo integral del turismo en la región Puno es un tema de gran interés para
el gobierno regional, empresas y organismos a quienes incumbe esta importante
actividad económica. El presente trabajo de investigación tiene como objetivos
mostrar provincias de la región con mayor probabilidad de ser visitadas por turistas
nacionales o extranjeros y la ruta más corta entre ellas, en base a la aplicación de
cadenas de Markov, el algoritmo de la ruta más corta, el análisis documental de
información proporcionada por organismos vinculados a la actividad turística y la
aplicación de encuestas. El modelo evidencia el flujo turístico a las diferentes
provincias en cada etapa y las provincias turísticas potenciales que posee la región
mediante el estado estable de la cadena. Finalmente, como resultado de
investigación tenemos el circuito optimo: Chucuito-Puno-Lampa-San Antonio de
Putina-Sandia con recorrido mínimo de 443.6 Km y otros circuitos potenciales
formados por las provincias mencionadas cada uno con un diagrama de la mejor
ruta del circuito, estos resultados se validan mediante intervalos de confianza y
tablas que muestran la eficiencia del modelo en la toma de decisiones y
planificación de la oferta del producto turístico en la región Puno a largo plazo.
Artículo Mexicano
Dinámica de la inversión extranjera directa en los estados de México: un
análisis de cadenas de Markov espaciales 4-82.
El objetivo de esta investigación consiste en analizar la evolución de la distribución
espacial y temporal de la inversión extranjera directa (IED) en las entidades
federativas de México. La literatura que aborda el análisis de la IED en México es
abundante y diversa; sin embargo, se argumenta que el análisis de la distribución
espacio temporal de la IED condicionada a la interacción espacial en México, Aún
está ausente. En este sentido, mediante la aplicación del enfoque de cadenas de
Markov espaciales propuesto por Rey (2001), Se encuentra que la divergencia
regional en la captación de IED es un proceso que parece afianzarse cuando se
analizan diferentes cortes en el tiempo. En particular, durante el periodo entre 2006
y 2013 el proceso de divergencia hacia estratos de mayor captación estaría
impulsado por las entidades federativas que interactúan con entidades contiguas
ubicadas en estratos de captación de IED menores.
Barron Moreno Irene Magdalena
Trejo Martínez Efraín