Está en la página 1de 6

Matriz de probabilidades de transición

El concepto que nos permite ir de un estado actual, como


las participaciones en el mercado a un estado futuro es la
matriz de probabilidades de transición se trata de una
matriz de probabilidades condicionales de estar en un
estado futuro dado que estamos en el estado actual.
Sea p= probabilidad condicional de estar en el estado j en
el futuro, dado que el estado actual es i
Los valores p individuales casi siempre se determiann en
forma empírica.
Predicción de la participación futura en el mercado. Uno
de los propósitos del análisis de MArkov es predecir el
futuro. Dado el vector de probabilidades de estado y la
matriz de probabilidades de transición, no es muy difícil
determinar las probabilidades de estado en una fecha
futura. Con ese tipo de análisis podemos comparar la
probabilidad de que un individuo compre en una de las
tiendas en el futuro. Como tal probabilidad es equivalente
a la participación en el mercado, es posible determinar
participación futura en el mercado para american food,
cuando el periodo actual es 0 calcular las probabilidades
de estado para el siguiente periodo se hace como pag 6
Estados absorbentes:
Aspectos clave:
Análisis de Markov: Tipo de análisis que permite predecir
el futuro mediante las probabilidades de estado y la matriz
de probabilidades de transición
Condición de equilibrio: Situacion que existe cuando las
probabilidades de estado para un periodo futuro son las
mismas que las probabilidades de estado de un periodo
anterior.
Estado absorbente: Estado al que si se llega no se puede
dejar. La probailidad de ir de un estado absorbente a
cualquier otro estado es de 0
Matriz de probabilidades de transición: Matriz de contiene
todas las probailidades de transición oara cierto proceso o
sistema.
Matriz fundamental: Matriz que es la inversa de la matriz I
la matriz B se necesita para calcular las condiciones de
equilibrio, cuando están presentes estados absorbentes.
Participación en el mercado: Fracción de la población que
compra en una tienda o mercado en particular cuando se
expresan como fracción las participaciones de mercado
se utilizan en vez de probabilidades de estado.
Probabilidades de estado estable: Probabilidad de estado
cuando se alcanzan las condiciones de equilibrio.
Tambien se llama probabilidad de equilibrio.
Probabilidad de transición: Probabilidad condicional de
estar en un estado futuri dado un estado actual o
existente.
Probabilidades de estado: Probabilidad de que ocurra un
evento en un punto en el tiempo. Los ejemplos incluyen
las probabilidad de que una persona compre en cierta
tienda durante un mes dado.
Vector de probabilidades de estado: Colección o vector de
todas las probabilidades de estado para un sistema o
proceso dado. El vector de probabilidades de estado
puede ser el estado inicial o un estado futuro.
Un juego de habilidad manual consta de 3 fases que
deben realizarse sucesivamente. Se considera que un
jugador ha completado el juego, cuando realiza las 3
fases en forma satisfactoria. Cuando dada la dificuktad de
las fases el jugador abandona el juego sin haberlo
completado se considera que ha perdido, en particular el
5% abandona en la fase 1 el 15% en la fase 2 pagina 18

La matriz identidad nos da el numero promedio de


periodos que se espera pasar en cada estado antes de
caer en un estado absorbente.
Identidad Q4 nos da la probabilidad de que partiendo de
un estado transitorio se llegue a un estado absorbente.
Pagina 19
Lo que nos piden es el porcentaje de jugadores que
completan el juego.
Métodos cuantitativos en acción: pagina 34
Proceso estocástico es un proceso que se desarrolla de
manera aleatoria en el tiempo.
Ejemplos:
Por qué son procesos estocásticos:
Los ingresos por ventas de una compañía
El desarrollo del tráfico en una ciudad
Cantidad de productos en inventario
Índice de homicidios de una región
La demanda de a energía eléctrica
Estabilidad política de una región
Asistentes a la universidad el día de parcial
Elementos de un procesos estocástico
Hay que definir:
¿Cuál es la variable que se observa periódicamente?
Cada cuanto se hace la observación
Que valores puede tomar la variable bajo observación
Definir la matriz de probabilidades de transición
Las cadenas de markov son modelos probabilísticos que
se usan para predecir la evolución y el comportamiento a
corto y a largo plazo de determinados sistemas ejemplo
reparto del mercado entre marcas dinámica de las averias
de maquinas para decidir politica de mantenimiento
evolución de una enfermedad
El análisis de Markov e suna tpecnica que maneja las
probabilidades de ocurrencias futuras mediante el análisis
de las probabilidad conocidas en el presente. La técnica
tiene diversas aplicaciones en los negocios incluyendo
análisis de la participación en e mercado, predicción de
deudas incobrables predicción de la matricula universitaria
y determunacion de si una maquina se descompondrá en
el futuro.
El análisis de Markiv hace la suposición de que el sistema
comienza en un estado o una condición inicial. Pagina 41
predecir los estados futuris implica conocer las
probabilidades de cambio del sistema de uno a otro. Para
un problema en particular tales probabilidades se pueden
recolectar y colocar en una matriz o tabla. Esta matriz de
probabilidades de transición muestra la probabilidad de
que el sistema cambiem de un periodo al siguiente, este
es el proceso de MArkov que nos permite predecir los
estados o las condiciones futuras.
Al igual que muchas otras técnicas cuantitativas el analiss
de markov se puede estudiar con cualquier nivel de
profundidad y complejidad, por fortuna los requisitos
matemáticos mas importantes son tan solo saber como
realizar operaciones y manipulaciones básicas con
matrices y resolver conjuntos de ecuaciones con varias
incognitas
Estados y probabilidades de los estados
Los estado sirven para identificar todas las condiciones
posibles de un proceso o sistema por ejemplo una
maquina puede estar en uno de dos estados en cualquier
momento funcionar correctamente o no funcionar
podemos llamar a la operación adecuada de la maquina el
primer estado y llamar al funcionamiento incorrecto el
segundo estado sin duda es posible identificar los estados
específicos para muchos procesos o sistemas si hay
solamente tres tiendas de abarrrotes en un pueblo pqueño
un residente pude ser cliente de cualqueira de las 3
tiendas en cierto momento. Por lo tanto tres estados
corresponde a 3 tiendas.
En un análisis de markov también suponemos que los
estados son tanto colectivamente exhaustivos como
mutuamente excluyentes colectivamente exhaustivos
significa que podemos numerar todos los estados posibles
de un sistema o proceso. Nuestro estudio del análisis de
Markov supone que hay un numero finito de estados para
cualquier sistema mutuamente excluyentes significa que
un sistema puede estar tan solo en un estado en cualquier
momento. Un estudiante puede estar únicamente en una
de las tres áreas de especialidad de administración y no
en dos o mas áreas al mismo tiempo también siginifica
que una persona únicamente puede ser cliente de una de
las tres tiendas de abarrotes en un punto en el tiempo.

También podría gustarte