Está en la página 1de 3

Aplicacin a la administracin: planeacin de personal El anlisis de transicin puede ser til al planear satisfacer las necesidades de personal .

Muchas firmas emplean trabajadores de diferentes niveles de clasificacin dentro de la misma categora de trabajo. Esto es comn para personal de confianza, oficinistas y obreros calificados, no calificados y personal profesional. La firma debe tener el nmero de empleados en cada nivel de clasificacin para proporcionarla oportunidad de promocin adecuada, cumplir con las habilidades necesarias para el trabajo y controlar la nomina. Una planeacin de personal a largo plazo apropiada requiere que se considere el movimiento de personas tanto hacia arriba en escalafn desclasificacin como hacia afuera de la organizacin. El anlisis de Markov puede ayudar en este esfuerzo de planeacin. El movimiento de personal a otras clasificaciones puede considerarse como una cadena de Markov. Esto se ilustra en la figura 11-11. Se supone que hay tres clasificaciones; el lado 1 es la ms baja. Adems los descensos se consideran raros y se omiten. El estado salen es absorbente el cual incluye renuncias, ceses despidos muertes. Por supuesto todos los empleados final mente alcanzan este estado. Las transiciones del grado 1 al grado 2 y del grado 2 al grado 3representan promociones. Como transiciones de pro habilidad, estn controladas por la firma , puede establecerse el nivel que la firma determine que es necesario para cumplir sus objetivos .Como por ejemplo, supngase que la firma tiene en este momento 30 empleados del grado 3, 90 empleados del grado 2 y 300 empleados del grado 1 y se desea mantener este nivel de empleados durante el prximo ao .Por experiencia se espera que salga el 30% de los empleados del grado 1 al ao, el 20% de los empleados de grado2 y el 10 % de aquellos que estn en el grado 3. Si la poltica es contratar solo en los niveles de clasificacin ms bajos, Cuantos se deben contratar y cuantos se deben promover el siguiente ao para mantener estables los niveles? Este problema puede resolverse si el anlisis de Markov, pero el modelo es til para ayudar a conceptualizar el problema. Como se trata solo de un ciclo, se usa el anlisis de transicin, En la figura 11-12 se encuentra el diagrama parcial de estados que se necesita. El anlisis comienza con el grado ms alto. No se hacen promociones pero el 10 %, sea, 3, sale. Todos ellos deben desplazarse por promociones del grado 2. En el nivel de clasificacin, el 20% sale y se deben promover 3, con una prdida de 21. Esto se debe compensar por promocin del grado1.Al pasar al grado 1 el 30% sale y 21 deben promoverse lo cual una prdida total de 111. Por tanto, el siguiente ao deben contratarse111empleados del nivel 1. En este ejemplo se derivan algunas tazas de transicin a partir de consideraciones externas .En algunas firmas, primero se establecen las tablas de promocin y anlisis de Markov se usa para explorar sus efectos en los niveles de clasificacin. En cualquier caso el uso de cadenas de Markov es una ayuda significativa en la planeacin del personal.

EXPERIENCIAS DEL MUNDO REAL La aplicacin ms notable de cadenas de Markov a la administracin ha sido la de cambio de marca. Es evidente que es apropiado para el anlisis de los porcentuales de mercado. Sin embargo, existen otras aplicaciones que han sido benficas y la lista continua creciendo. Aunque la tcnica es antigua, no se conoci en realidad sino desde hace 20 aos . Ahora bien, estas aplicaciones no quedan exentas de crtica, considrese el caso del cambio de marca. El anlisis de Markov supone que: 1. Las probabilidades de transmisin permanecen constantes 2. Las transiciones tiene lugar en intervalos discretos de tiempo 3. La memoria se remonta solo al estado inmediatamente anterior La primera suposicin ser vlida solo para periodos cortos. Loa publicidad, la estacin del ao, las condiciones de la economa y las ventas especiales son, todos, factores que pueden incluir en las preferencias del comprador. La segunda suposicin tambin puede atacarse ya que las compras tienen lugar en casi cada instante del da .Adems con frecuencia las compras se hacen en cantidades ms que en unidades como lo implica la segunda suposicin. La tercera suposiciones por cierto, literalmente incorrecta para la gente. Aun en compras ms o menos pequeas como pan o leche la mayora de consumidores recordaran varias compras anteriores, no solo la ltima. De hecho el anlisis de Markov puede ampliarse para permitir una memoria ms larga .Este captulo se ha limitado a las cadenas de Markov de una memoria o de un primer orden. Puede analizarse las cadenas de Markov de segundo orden o ms en forma matemtica pero la complejidad crece rpidamente. La crtica bsica de todas formas es vlida, ya que se tendra que especificar con exactitud cuntas de las compras anteriores influyen en la prxima compra. A esta lista se le podra agregar el hecho de que a veces es difcil obtener las probabilidades de transicin. Tiene muy poco sentido gastar una libra para obtener datos cuando la aplicacin del modelo significa un ahorro de solo un Centavo Todas estas crticas son validas hasta cierto punto. Pero esta es una situacin inherente al aplicar modelos a la vida real; los modelos son solo aproximaciones. El valor de la informacin que se gana con el anlisis de Markov debe compararse de su costo. Los autores piensan que los conceptos de memoria, probabilidades de transicin, estados y eventos constituyen una aportacin para comprender mejor el mundo. Resumen Las cadenas de Markov son una serie de eventos en que cada uno condiciona las posibilidades del evento siguiente .El sistema avanza de de un estado a otro de

acuerdo con sus probabilidades de transicin o probabilidades condicionales. La memoria respecto al ltimo evento identifica en forma nica una cadena de Markov. Para definir por completo una cadena de Markov, se debe especificar el nmero de estados, las probabilidades de transicin entre todos los estados y el estado actual del sistema. Las matrices de transicin y los diagramas de estado se emplean para representar estos datos. El comportamiento transitorio a corto plazo de una cadena de Markov puede analizarse con un diagrama de estados .Este puede emplearse para predecir el esta do del sistema despus de un cierto nmero de ciclos .Al pasar os ciclos, las cadenas de Markov tienen hacia un estado estable. El estado estable representa las proporciones promedio que alarga pasa el sistema en cada esta do . Estas proporciones promedio pueden calcular se con el mtodo de suma de lujos o el mtodo de ecuaciones metricinales. Dos casos especiales las cadenas cclicas y las cadenas absorbentes an importantes para su efecto sobre el comportamiento del sistema .Loas cadenas cclicas se comportan en forma determinista. Las cadenas absorbentes ocurren con frecuencia en la s administracin. Como estas cadenas quedan finalmente bloqueadas en uno de estos estados, casi siempre es interesante conocer las probabilidades de que esto pase partiendo de diferentes estados. Se examinan las aplicaciones a comercializacin, contabilidad y planeacin de personal para ilustrar el nivel de aplicaciones anlisis de Markov. Igual que con todos los anlisis de este texto deben compararse los costos que implican la recoleccin de datos necesarios con los beneficios, anticipados antes e emprender una aplicacin de cadenas de Markov. Si los estados no absorbentes son iguales probables Qu proporcin del tiempo terminara el sistema en cada uno de los estados absorbentes?

También podría gustarte