Está en la página 1de 2

UNIVERSIDAD ANTONIO NARIÑO.

INGENIERIA INDUSTRIAL.
SEMESTRE VIII.
DOCENTE: FREDY JOSE RONDANO LOBO
MODELOS MATEMÁTICOS DE PRODUCCIÓN.
SANTA MARTA
2023
EXAMEN TERCER COHORTE.
Nombre y apellidos: Juan Sebastián Riveros Ibáñez código 20412015106

Fecha 26 de octubre 2023 calificación


Preguntas de selección múltiple con única respuesta. Justifique su respuesta (3 puntos).
1. Si los estados de un sistema o proceso son tales que el sistema tan solo puede estar en un
estado a la vez, entonces los estados
a) son colectivamente exhaustivos. b) son mutuamente excluyentes.
c) son absorbentes. d) desaparecen.
R1// Se dice que son mutuamente excluyentes dado que, para este caso. Por ejemplo A y B. Son
eventos mutuamente excluyentes si no pueden ocurrir al mismo tiempo.es decir, si A ocurrió entonces
B no puede ocurrir y viceversa.
2. El producto de un vector de probabilidades de estado y la matriz de probabilidades de
transición dan
a) otro vector de probabilidades de estado. b) un desorden sin significado.
c) la inversa de la matriz de estado en equilibrio. d) todas las anteriores.
R2// Cuando se multiplica el vector de probabilidades de estado por la matriz de transición, se está
calculando las probabilidades de estar en cada estado en el siguiente paso de tiempo. En otras
palabras, se está proyectando cómo evolucionará el sistema en el siguiente paso de tiempo. La
propiedad de que la suma de las probabilidades debe ser igual a 1 se conserva en esta
multiplicación, ya que la matriz de transición está diseñada de tal manera que la suma de las
probabilidades en cada fila (que representa un estado en el siguiente paso) sea 1. Por lo tanto, el
resultado de la multiplicación sigue siendo un vector de probabilidades de estado válido, ya que
cumple con la restricción de que la suma de las probabilidades es igual a 1.
3. A largo plazo, las probabilidades de estado serán 0 y 1’
a) en ningún caso. b) en todos los casos. c) en algunos casos.
R3// Las probabilidades de estado pueden converger a 0 o 1 en situaciones específicas. Esto se
relaciona con la noción de estados absorbentes y estados transitorios en cadenas de Markov. No todos
los sistemas estocásticos convergen a estados de 0 o 1 a largo plazo, y esto depende de la estructura
de la cadena de Markov o el proceso estocástico en cuestión. La convergencia de probabilidades de
estado a 0 o 1 se relaciona con las propiedades específicas del sistema y cómo está modelado.
4. Para encontrar las condiciones de equilibrio,
a) debe conocerse el primer vector de probabilidades de estado.
b) la matriz de probabilidades de transición no es necesaria
c) los términos generales en el vector de probabilidades de estado se usan en dos ocasiones.
d) la matriz de probabilidades de transición debe ser cuadrada antes de invertirla.
R4// Esto porque el uso de los términos generales en el vector de probabilidades de estado en dos
ocasiones, en el proceso de encontrar las condiciones de equilibrio en una cadena de Markov, se debe
a la necesidad de establecer un equilibrio en las probabilidades de estado a largo plazo. Al usar los
términos generales en el vector de probabilidades de estado dos veces en las ecuaciones de equilibrio,
se establece una relación de equilibrio entre la probabilidad de estar en un estado en un momento dado
y la probabilidad de transicionar desde otros estados hacia ese estado. Esta relación refleja el hecho de
que, en equilibrio, las probabilidades de estado no cambian con el tiempo. Esta relación es fundamental
para el análisis de equilibrio en las cadenas de Markov y es lo que permite calcular las probabilidades
de estado en equilibrio.
5. ¿Cuál de las siguientes no es una de las suposiciones del análisis de Markov?
a) Hay un número limitado de estados posibles.
b) Hay un número limitado de periodos futuros posibles.
c) Un estado futuro se puede predecir a partir del estado anterior y de la matriz de probabilidades de transición.
d) El tamaño y la composición del sistema no cambia durante el análisis.

R5// No es una de las suposiciones del análisis de Markov Las cadenas de Markov se utilizan para
describir sistemas donde la transición de un estado a otro depende únicamente del estado presente y
no de la historia pasada del sistema. Por lo tanto, en cada paso de tiempo, el sistema "salta" de un
estado a otro según las probabilidades de transición definidas. Este proceso puede repetirse a lo largo
de múltiples periodos futuros sin un límite predefinido.
6. En el análisis de Markov, las probabilidades de estado deben
a) sumar 1. b) ser menores que 0. c) ser menores que 0.01. d) ser mayores que 1.
R6// Esto se basa en la propiedad fundamental de que la suma de las probabilidades de un sistema
debe ser igual a 1.

7. Si las probabilidades de estado no cambian de un periodo al siguiente, entonces,


a) el sistema está en equilibrio. b) cada probabilidad de estado debe ser igual a 0.
c) el sistema está en su estado fundamental. d). cada probabilidad de estado debe ser igual a 1.
R7// Esto puesto que. En un sistema en estado de equilibrio, las probabilidades de estado no
evolucionan con el tiempo, lo que implica que la cadena de Markov se ha "estabilizado" y no hay
cambios significativos en la distribución de probabilidades de estado a lo largo de los periodos futuros.
8. En la matriz de probabilidades de transición,
a) la suma de las probabilidades en cada renglón debe ser igual a 1.
b) la suma de las probabilidades en cada columna debe ser igual a 1.
c) debe haber al menos un 0 en cada renglón.
d) debe haber al menos un 0 en cada columna.
R8// Esto es porque en una matriz de probabilidades de transición en una cadena de Markov, cada fila de la matriz
debe sumar 1. Esto significa que la suma de las probabilidades de transición desde un estado particular a todos los
otros estados posibles debe ser igual a 1.
9. Es necesario usar la matriz fundamental
a) para encontrar las condiciones de equilibrio, cuando no haya estados absorbentes.
b) para encontrar las condiciones de equilibrio, cuando haya uno o más estados absorbentes.
c) para encontrar la matriz de probabilidades de transición.
d) para encontrar la inversa de la matriz.
R9// La matriz fundamental es una herramienta importante para encontrar las condiciones de equilibrio
en una cadena de Markov, incluso cuando hay uno o más estados absorbentes. La razón es que las
cadenas de Markov con estados absorbentes presentan un comportamiento especial, y la matriz
fundamental permite modelar y analizar este comportamiento de manera efectiva.
10. En el análisis de Markov, la matriz de probabilidades de transición nos permite ir de un
estado actual a un estado futuro

También podría gustarte