Está en la página 1de 83

MODELOS MATEMÁTICOS DISCRETOS

EN LAS
CIENCIAS
CIENCIAS DE LA NA
NATURA
TURALEZA
LEZA
Teoría y Problemas
Problemas
Mª Teresa González Manteiga
Profesora Titular de Matemática Aplicada
en la Facultad de CC. Biológicas de la
Universidad Complutense de Madrid

MODELOS MATEMÁTICOS DISCRETOS


EN LAS
CIENCIAS DE LA NATURALEZA
Teoría y Problemas

D IAZ DE S ANTOS 
© María Teresa González Manteiga, 2003

Reservados todos los derechos.

«No está permitida la reproducción total o parcial de este libro,


ni su tratamiento informático, ni la transmisión de ninguna
forma o por cualquier medio, ya sea electrónico, mecánico
por fotocopia, por registro u otros métodos, sin el permiso
previo y por escrito de los titulares del Copyright.»

Ediciones Díaz de Santos, S. A.


D.a Juana I de Castilla, 22
28027 MADRID

Internet: http://www.diazdesantos.es/ediciones
E-Mail: ediciones@diazdesantos.es

ISBN: 84-7978-550-0
Depósito legal: M. 47.641-2002

Diseño de cubierta: Ángel Calvete


Fotografía cubierta: Eduardo de Juana Aranzana
Fotocomposición: FER, S. A.
Impresión: Edigrafos, S. A.
Encuadernación: Rústica-Hilo, S. L.
 A mis padres y hermana
LAS MATEMÁTICAS DE LA NATURALEZA 3

Si se observa con atención la Naturaleza, se pueden reconocer las mismas for-


mas con diferentes presentaciones. Por ejemplo, tienen forma espiral la Vía Láctea,
un fósil de Nautilus de concha arrollada del Paleozoico, como el que se ve en la
figura, una molécula de proteínas que contiene un huevo, un ciclón, la concha de un

caracol, una huella dactilar de un recién nacido o de un anciano, la cadena de ADN,


la flor del girasol, la colocación de las semillas en las flores, entre otras. Las plan-
tas presentan muchas formas espirales en su estructura y forma de crecimiento.

Examinando la disposición de las hojas, las flores o las ramas en el tallo de una
planta se observa una cierta regularidad. En una planta en la que las hojas salen del
tallo de una en una, si se asigna el número cero a la hoja que se encuentre más cerca
del nacimiento del tallo y se cuentan las hojas en la dirección del crecimiento, el
número que le corresponde a las que queden colocadas en la vertical de aquélla es
uno de los términos de la sucesión de Fibonacci. Esta sucesión, que recibe el nom-
bre del matemático italiano del siglo XIII Leonardo de Pisa (1170-1240), que firma-
ba con el seudónimo de Fibonacci, tiene por primer término 0, por segundo 1 y cada
uno de los restantes se obtienen sumando los dos anteriores:
4 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

Si se cuenta el número de veces que se da la vuelta al tallo, en el sentido de las


agujas del reloj, o en el sentido contrario, hasta encontrar la primera hoja situada
encima de una dada, se obtienen dos términos sucesivos de la sucesión de
Fibonacci. Si se divide el mayor entre el menor se obtiene una aproximación de la
razón áurea, número que también aparece en algunos organismos marinos como
la estrella de mar que tiene simetría pentagonal.

1 +   5
El número áureo es el número irracional algebraico ø =  aproximada-
2
mente igual a 1.618033989..., es el límite de la sucesión de Fibonacci, su cuadrado
es aproximadamente 2.618033989... y su inverso 0.618033989..., como se puede
observar las cifras decimales de ø, de su cuadrado y de su inverso coinciden.

C D
 A B 1 +   5
 
  = 
E  A D 2

El número áureo fue introducido por los pitagóricos como la razón entre la lon-
gitud de la diagonal y el lado del pentágono regular.
Resulta curioso observar que en el polígono estrellado de cinco puntas que se
forma al trazar las diagonales del pentágono regular se determinan unos segmentos
en los que está presente el número áureo, pues:
 A B  BC  BC  AC C D 1 +   5
= =
     = = = 
LAS MATEMÁTICAS DE LA NATURALEZA 5

Los antiguos geómetras griegos definieron la razón áurea del siguiente modo:
El punto C divide el segmento AB en una «división áurea» A C B

si la razón del segmento más largo al más corto es igual a la del segmento comple-
CB  AB 1 +   5
to al más largo:  = . Esta razón, o cociente, el número áureo Ø =  ,
 AC CB 2
es la partición de un segmento AB en dos, uno de los cuales, CB, es media propor-
cional entre el otro, AC, y el segmento total.
Este número también se encuentra en la arquitectura y en ornamentación, se dice
que es la proporción estética más bella. Alrededor de 1850, Zeysing comprobó en
Alemania que, como promedio para un cierto número de cuerpos humanos, el
ombligo divide la altura del cuerpo humano en la proporción de la razón áurea.
Arquitectos, escultores y pintores de todos los tiempos han utilizado esta razón
como método de composición en sus obras. En arquitectura se ha comprobado su
utilización en las tumbas egipcias, en los templos griegos y en las catedrales góti-
cas. Por ejemplo, en el Partenón, construido en doce años del 448 al 437 a.C, de
mármol rosado y veteado de hierro que produce reflejos áureos, la razón entre la
anchura de la fachada y la altura, o entre la altura total y la de las columnas es
la razón áurea. Quizás haya influido en su utilización en el arte el que esa razón sea
una constante tan universal en la naturaleza.
En 1638 René Descartes (1596-1650) descubrió que las formas de las conchas
de los moluscos eran espirales logarítmicas: r = a · e . 

En 1874 F. Galton (1822-1911) en colaboración con H.W. Watson, presentó un


trabajo conjunto titulado Sobre la probabilidad de extinción de familias, que se
publicó en 1889 como apéndice en un libro de Galton.
Entre los años 1926 y 1938, V. Volterra (1860-1940) desarrolla un modelo mate-
mático que describe la lucha constante por la supervivencia entre dos especies que
conviven en el mismo hábitat siendo una de ellas el alimento de la otra. Como es
bien conocido, este modelo es un sistema de ecuaciones diferenciales no lineales,
cuyas soluciones son funciones implícitas que relacionan el número de individuos
de la especie depredadora con los de la especie presa.
Estos ejemplos no son más que algunas muestras de una gran cantidad de mode-
los matemáticos generados por problemas de la biología, que es, de todas las
Ciencias de la Naturaleza, la que más tarde ha comenzado su abstracción.
El matemático Gauss (1777-1855) afirmaba: «Tú, naturaleza, eres mi diosa. A
tus leyes están sujetos mis servicios».
El estudio de los fenómenos de la Naturaleza es sin duda una gran fuente de
avances matemáticos, pero también es muy frecuente encontrar aplicaciones, en las
distintas ramas de la Ciencia, de modelos matemáticos que no han tenido estas
motivaciones.
A la hora de decidir qué conceptos matemáticos son de más utilidad para las
Ciencias de la Naturaleza puede pensarse que los de estadística tienen más interés
6 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

discreta, todas estas ramas, y por supuesto la geometría, son fundamentales para su
comprensión y estudio.
Un claro ejemplo de la importancia del conocimiento matemático en la investi-
gación científica lo encontramos en la invención del oftalmoscopio en 1850. Su
inventor, el médico Hermann von Helmholtz (1821-1894), preparando una de sus
clases de fisiología, se dio cuenta de que las leyes de la óptica geométrica y el estu-
dio de las trayectorias de los rayos de luz reflejados le permitían inventar un instru-
mento de gran importancia para la medicina, en concreto para la oftalmología. Él
mismo lo explica así: «Conocía bien, de mis estudios médicos, las dificultades que
tenían los oftalmólogos con los problemas entonces agrupados bajo el nombre de
amaurosis, e inmediatamente me puse a construir el instrumento utilizando lentes de
gafas y láminas de vidrio de las empleadas como portamuestras en los trabajos con
microscopio. Al principio era difícil de usar, y si no hubiese tenido la firme convic-
ción teórica de que tenía que funcionar, no habría perseverado. Al cabo de una
semana, sin embargo, tuve el gran placer de ser el primer hombre en contemplar cla-
ramente una retina humana en un ser vivo.
La construcción del oftalmoscopio tuvo un efecto decisivo en mi posición a los
ojos del mundo. Desde aquel momento conté con el reconocimiento inmediato de
las autoridades y de mis colegas, así como con la disposición por satisfacer mis
deseos. Fui de esta manera capaz de seguir mucho más libremente los impulsos de
mis ansias de conocimiento. Debo decir, no obstante, que yo atribuyo mi éxito en
gran medida al hecho de que, poseyendo algún entendimiento geométrico y equi-
pado con un conocimiento de física, tuve la buena fortuna de ser lanzado a la medi-
cina, en donde encontré en la fisiología un territorio virgen de gran fertilidad.
Además, mi conocimiento de los procesos vitales me llevó a preguntas y puntos de
vista que habitualmente son extraños a los matemáticos puros y a los físicos ...» (50)
Esta reflexión nos confirma que en la ciencia no hay parcelas aisladas del saber 
y que precisamente los avances más interesantes surgen de la interrelación de las
diferentes disciplinas.
La biología molecular trata de entender el proceso histórico de la vida, desde los
genes a las células, a los distintos organismos y a las especies. El estudio de la vida
tiene dos aspectos científicos: la vida en acción, aspecto bioquímico, y la vida en el
tiempo, es decir, la evolución.
La biología molecular necesita el apoyo de la química, de la bioquímica, pero
también de las técnicas físicas procedentes de la física atómica, como la difracción
de rayos X, sin las que hubiera sido imposible la primera fotografía de rayos X de
una proteína y la primera teoría de la estructura de una proteína que facilitaron el
descubrimiento de la doble hélice del ADN.
La forma de una célula refleja la estructura molecular de sustancias que están
presentes en ella. Los bioquímicos James Watson, nacido en 1928, y Francis Crick,
nacido en 1916, descubrieron que el ADN presente en las células tiene una estruc-
tura de doble hélice, cada una formada por cuatro bases nitrogenadas: adenina (A),
guanina (G), citosina (C) y timina (T). Las bases son las portadoras de la informa-
2
Combinatoria
y Probabilidad
en espacios discretos

2.1. Introducción.
La teoría de la probabilidad tiene sus comienzos en el deseo de lograr superio-
ridad y capacidad de decisión en los juegos de azar, pero hoy la probabilidad y la
estadística intervienen en todas las actividades humanas y sus aplicaciones son muy
diversas en genética, ecología, química, medicina, astronomía, la teoría cuántica, la
mecánica estadística, economía, meteorología, psicología, pedagogía, y en la téc-
nica.
Cardano, matemático, médico y jugador de renombre del siglo XVI, se cree que
fue el primero que calculó correctamente una probabilidad teórica.
En el siglo XVII preguntaron a Galileo unos jugadores habituales cómo podría
explicar que en una tirada de tres dados resultase más veces suma diez que suma
nueve. Galileo dio la solución aplicando la combinatoria.
Entre 1650 y 1660 Pascal publicó Traité du Triangle Arithmétique, en el que
explica las relaciones entre los coeficientes binomiales. En 1666 Leibniz dio la pri-
mera construcción sistemática de combinatoria en el libro  Razonamiento sobre el
arte combinatorio con la intención de proporcionar un lenguaje simbólico al que se
pudiesen trasladar todos los procesos del razonamiento para garantizar la corrección
en la argumentación.
El comienzo de la teoría de la probabilidad tuvo lugar en el intercambio de
correspondencia entre los matemáticos Pascal y Fermat, a mediados del siglo XVII,
y empezó con un problema propuesto a Pascal en 1654 por el Caballero de Méré,
 jugador profesional.
En el año 1713 Jakob Bernoulli publica  Ars Conjectandi (Arte de la Suposi-
ción), el primer libro de texto en el que se estudia la probabilidad. En este libro
construye la combinatoria como el principal instrumento, o ingenio, para resolver 
14 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

El primer intento de dar rigor matemático a la teoría de la probabilidad se debe


a Laplace, que en 1812 publicó un tratado Teoría analítica de las probabilidades en
el que se recoge su definición clásica de probabilidad de un suceso como el cocien-
te entre el número de casos favorables y el número de casos posibles, supuesto que
todos los resultados posibles son igualmente probables. En estos casos para el cál-
culo de la probabilidad es una buena ayuda la combinatoria, pues no se necesita
escribir todos los casos favorables y los posibles sino únicamente contarlos. Decía
Laplace: «Es notable que una ciencia que comenzó con la consideración de juegos
de azar habría de llegar a ser el objeto más importante del conocimiento humano...
Las cuestiones más importantes de la vida constituyen en su mayor parte, en reali-
dad, solamente problemas de probabilidad».
En efecto, mientras tengamos que vivir con incertidumbres y queramos tomar 
decisiones racionales tendremos que aprender a valorar el riesgo de tomar una deci-
sión frente a la incertidumbre, y para ello el instrumento necesario es la probabili-
dad.
Dice Borel: «Al igual que el precio no es el único elemento de nuestra decisión
cuando se trata de comprar algo, así la probabilidad no debe ser absolutamente el
único elemento de nuestra decisión cuando se trata de correr un peligro. Uno de los
motivos por los cuales algunos espíritus desprecian la precisión de las matemáticas
es porque imaginan que esta precisión pone en peligro su libre albedrío. Una per-
sona suficientemente rica puede, evidentemente, elegir los objetos que compra sin
preocuparse por el precio, basándose sólo en sus gustos. Pero, cuando se trata de
correr un peligro, sobre todo estando en juego la salud o la vida misma, nadie es
bastante rico para poder despreciar ciertas probabilidades... En la vida ordinaria, el
conocimiento de la probabilidad es un elemento útil en nuestra decisión, del mismo
modo que lo es el conocimiento del precio cuando se trata de una compra, sin que
este conocimiento nos impida tener en cuenta otras consideraciones antes de deci-
dirnos».
En los comienzos del siglo XX destacan los avances en la teoría de la probabili-
dad de Chebichev y de su discípulo A. A. Markov. También surgieron espectacula-
res aplicaciones de la teoría de la probabilidad a la física realizadas, entre otros, por 
Einstein y por Maxwell. La teoría matemática de la probabilidad como hoy la cono-
cemos se basa en la definición axiomática de Kolmogoroff, que se recoge en su libro
 Fundamentos de la Teoría de la Probabilidad, publicado en 1933; en este libro los
sucesos se representan por conjuntos y la probabilidad es una aplicación del álge-
bra de los sucesos en [0,1] que da una medida de la verosimilitud de cada suceso.
La combinatoria desempeña un papel importante no sólo en las matemáticas, en
la teoría de la probabilidad y en la estadística, sino también, entre otras, en la infor-
mática, en las ciencias de la computación, en el análisis de algoritmos, en la biolo-
gía, en la química, en la física, en el estudio de los grafos y en la teoría algebraica
de la codificación, que surgió a mediados del siglo XX, inspirada en un artículo de
Claude Shannon y en los resultados de Marcel Golay y Richard Hamming.
En los últimos años la genética molecular ha dado un gran avance utilizando la
COMBINATORIA Y PROBABILIDAD EN ESPACIOS DISCRETOS 15

posibilita la resolución de hechos delictivos. En los laboratorios forenses se estu-


dian muestras biológicas relacionadas con todo tipo de delitos: homicidios y ase-
sinatos, reyertas, robos y delitos contra la libertad sexual, principalmente. También
los análisis de identificación genética se emplean en otros campos no necesaria-
mente ligados al ámbito criminal, como la identificación de cadáveres, por ejem-
plo, en grandes catástrofes, o para resolver conflictos en el esclarecimiento de la
paternidad.
Como es bien sabido, los fenómenos de la herencia están relacionados con la
existencia, en cada individuo, de cierto número de parejas de cromosomas, en la es-
pecie humana 23 pares. En cada niño, cada par de cromosomas está formado por un
cromosoma de ese par de su padre y otro de su madre elegidos al azar y, por tanto,
46
el número de elecciones posibles para cada individuo de la especie humana es de 2
13
aproximadamente 7.036874417 10 , es decir, más de 70 billones. La probabilidad
de que dos hermanos, que no sean gemelos nacidos del mismo óvulo, tengan exac-
1  –13
tamente los mismos cromosomas es  46
, es decir, 0.1421 10 , prácticamente nula.
2
Parece claro, pues, que la presencia en dos individuos de ciertos grupos de cromo-
somas idénticos es suficiente para determinar ciertas analogías entre ellos. En oca-
siones, la colocación de un solo cromosoma, locus, determina un carácter tan
importante como pueden ser algunas anomalías hereditarias; aquí es interesante la
aplicación de las probabilidades para el estudio de la presencia simultánea de un
cromosoma en individuos que tienen uno o varios antepasados comunes, hermanos,
tíos y sobrinos, primos hermanos, etc.

2.2 Combinatoria.
Uno de los objetivos fundamentales de la combinatoria es contar y desarrollar 
técnicas para contar elementos de un conjunto finito.

 Ejemplos:
1° ¿De cuántas formas se puede elegir una comisión de tres personas, para rea-
lizar un trabajo en equipo, de un grupo de 46?
2° ¿Cuántos símbolos distintos se pueden formar en el código Braille tenien-
do en cuenta que el signo generador tiene seis posiciones y se pueden mar-
car o no cada una de las posiciones?
3° ¿De cuántas fichas consta el juego del dominó?
4° ¿De cuántas formas distintas se pueden colocar diez libros diferentes en una
estantería?
5° a) ¿Cuántas secuencias nucleótidas distintas de veinte bases se pueden for-
mar con las bases constituyentes del ácido nucleico ARN: adenina (A),
guanina(G), citosina (C) y uracilo (U)? b) ¿Cuántas secuencias tienen cinco
COMBINATORIA Y PROBABILIDAD EN ESPACIOS DISCRETOS 17

 2.2.1.2. Principio de multiplicación

Si A1, A 2, …, Ak son conjuntos finitos no vacíos, el cardinal del producto carte-
siano A1 A2  …  Ak es el producto de los cardinales, es decir:

 A1  A2  …  Ak =  A .
i=1
i

Esta regla en los sucesos se puede interpretar así:


Si un suceso se puede descomponer en k etapas sucesivas y cada una de ellas se
puede verificar de  Ai= ni maneras distintas, independientemente de cuál sea el
resultado de las otras etapas, entonces el suceso S = A1   A2  …   Ak  se podrá

realizar de  n formas distintas.
i=1
i

 Ejemplo: Se dispone de 10 clases de moluscos, 17 de artrópodos y 13 clases de


vertebrados ¿de cuántas formas se puede elegir un animal de cada especie?
 M  A  V  = 10 · 17·13 = 2210 formas distintas.

 2.2.1.3. Principio de distribución

Si se reparten m objetos en n casilleros, siendo m>n, entonces un casillero tiene


dos o más objetos.
Es una consecuencia del principio de adición, pues si ningún casillero tiene
más de un objeto, el número total de los objetos repartidos será como máximo
n)
1 + 1 + . .. + 1 = n.
Análogamente, si se distribuyen m objetos en n casilleros, siendo m>nr, enton-
ces al menos uno de los casilleros tiene como mínimo r+1 objetos.
Este principio se conoce como principio de distribución de Dirichlet o principio
del palomar, nombre que le dio Dirichlet, que fue el primero que lo formuló.

 Ejemplo: ¿Cuántos alumnos debe tener una clase para que al menos dos de ellos ten-
gan las mismas iniciales del nombre y de su primer apellido con un alfabeto de 28 letras?
2
El número de iniciales distintas del nombre y primer apellido es 28 , por tanto,
2
si hay 28 + 1 = 785 alumnos, al menos dos de ellos tienen que tener las mismas ini-
ciales del nombre y del primer apellido.

2.2.2. Organigrama de combinatoria 1.

Antes de dar las fórmulas básicas de las combinaciones, variaciones y permuta-


ciones con y sin repetición, analizaremos los ejemplos presentados en el párrafo 2.2.
Para intentar resolverlos es necesario tener bien claro:
18 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

1° ¿Cuál es el alfabeto, conjunto A, con el que se van a escribir los resultados?


2° ¿Cuántos elementos del alfabeto necesitamos para formar uno de los resul-
tados de nuestro ejercicio?
3° En los resultados que buscamos ¿es importante el orden?
4° En cada uno de los resultados ¿han de estar necesariamente todos los ele-
mentos de A?
5° En los resultados que buscamos ¿puede haber algún elemento de A repeti-
do?

De este modo se pueden resolver fácilmente utilizando el siguiente organigrama


y se puede calcular el resultado, si se conocen las fórmulas básicas que se darán a
continuación.

A = {a 1, a 2, …, a n} 

Buscamos k elementos pertenecientes al conjunto A.

¿Importa el orden de
estos k elementos?
No SÍ 

¿Tienen que estar


todos los elementos
No de A?
SÍ 
¿Puede haber
algún elemento
de A repetido?
¿Puede haber
No ¿Puede haber algún elemento
SÍ  de A repetido?
algún elemento No
de A repetido?
El nº de resultados SÍ 
es C n,k  No SÍ  El nº de resultados
es P n  = V n,n 

El nº de resultados El nº de resultados
es CR n,k  es V n,k  Si hi es el nº de veces que

se repite a i  y  h i  = N 
i = 1
El nº de resultados el nº de resultados es
es VR n,k  PR Nh  1, h 2, …, h n 
COMBINATORIA Y PROBABILIDAD EN ESPACIOS DISCRETOS 19

• Así, en el ejemplo 1º
- ¿Cuál es el alfabeto? El conjunto A está formado por la lista de las 46 per-
sonas, n =  A= 46.
- ¿Cuántos elementos buscamos de A? Buscamos tres, k = 3.
- ¿Importa el orden de estos tres elementos? No, porque no se les da cargos
diferentes.
- ¿Puede haber algún elemento de  A repetido entre los tres buscados? No,
pues el equipo no sería de tres personas.
Según esto, el número de resultados es C46,3.

• En el ejemplo 2º
- ¿Cuál es el alfabeto? Como en cada una de las posiciones tenemos dos posi-
bilidades: marcar o no marcar, el conjunto A = {SI, NO}, y n =  A= 2.
- ¿Cuántos elementos buscamos de A? Buscamos k = 6.
- ¿Importa el orden de estos seis elementos? Sí, pues los resultados SI SI NO
 NO SI NO y NO SI NO SI NO SI dan símbolos distintos.
- ¿Tienen que estar necesariamente todos los elementos de A en cada resulta-
do? No, por ejemplo, un resultado puede tener todas las posiciones marca-
das y para formarlo no se utiliza el elemento NO.
- ¿Puede haber algún elemento de A repetido entre los seis buscados? Sí. En
este caso siempre aparecerá al menos un elemento de A repetido, pues k>n.
El número de símbolos distintos que se pueden formar es VR2,6.

• En el ejemplo 3º
- ¿Cuál es el alfabeto? A = {0,1,2,3,4,5,6} y n =  A= 7, pues para formar las
fichas del dominó se necesitan los símbolos:
0 (blanca), 1, 2, 3, 4, 5 y 6.
- ¿Cuántos elementos buscamos de A? Buscamos k = 2.
- ¿Importa el orden de estos dos elementos? No, pues [3,5] y [5,3] son la
misma ficha.
- ¿Puede haber algún elemento de A repetido entre los dos buscados? Sí, por-
que, por ejemplo, existe la ficha [5,5].
El número de fichas del dominó es CR7,2.

• En el ejemplo 4º
- ¿Cuál es el alfabeto? El conjunto de los diez libros.
A = {l1,l2,l3,l4,l5,l6,l7,l8,l9,l10} y n =  A= 10.
- ¿Cuántos elementos buscamos de A? Buscamos k = 10, pues los vamos a
colocar todos.
- ¿Importa el orden de estos diez elementos? Sí.
- ¿Tienen que estar necesariamente todos los elementos de A en cada resultado? Sí.
- ¿Puede haber algún elemento de A repetido entre los buscados? No, pues los
libros son diferentes.
20 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

• En el ejemplo 5º a)
- ¿Cuál es el alfabeto? A = {A,G,C,U} y n =  A= 4.
- ¿Cuántos elementos buscamos de A? Buscamos k = 20
- ¿Importa el orden de estos veinte elementos? Sí.
- ¿Tienen que estar necesariamente todos los elementos de A en cada resulta-
do? No, una secuencia podría ser:
AAAAAAGGGGGGCCCCCCCC.
- ¿Puede haber algún elemento de A repetido entre los buscados? Sí, en este
caso en toda secuencia hay al menos un elemento repetido porque k>n.
El número de secuencias es VR4,20.

• En el ejemplo 5º b)
- ¿Cuál es el alfabeto? A = {A,G,C,U} y n =  A= 4.
- ¿Cuántos elementos buscamos de A? Buscamos k = 20
- ¿Importa el orden de estos veinte elementos? Sí.
- ¿Tienen que estar necesariamente todos los elementos de A en cada resulta-
do? Sí, en cada secuencia tiene que aparecer cinco veces adenina, tres gua-
nina, ocho citosina y cuatro uracilo.
- ¿Puede haber algún elemento de A repetido entre los buscados? Sí.
- ¿Cuántas veces aparece A? h1 = 5, ¿y G? h2 = 3, ¿y C? h3 = 8, ¿y U? h4 = 4.
El número de secuencias que tienen cinco veces adenina, tres guanina, ocho cito-
5,3,8,4
sina y cuatro uracilo es PR20 .

2.2.3. Fórmulas básicas.

 2.2.3.1. Variaciones con repetición.

Si A = {a1, a2, …, an}, el conjunto de las variaciones con repetición de orden k 
formadas con los elementos de A es el producto cartesiano
k ) k 
 A  A  …  A = A .

El conjunto de las variaciones con repetición de orden 1 son cada uno de los ele-
mentos de A; el de las variaciones con repetición de orden 2 se forma añadiendo a
la derecha de cada variación de orden 1 cada uno de los elementos de A; las de
orden 3 se forman a partir de las de orden 2 añadiendo a su derecha cada uno de los
elementos de A, y así sucesivamente.

Cada uno de los elementos de A se llama una variación con repetición de orden
k formada con los elementos de A.

 Ejemplo: Si A = {a,b,c}, los conjuntos de las variaciones con repetición de orden
COMBINATORIA Y PROBABILIDAD EN ESPACIOS DISCRETOS 39

 Regla de Laplace.

De todas las aplicaciones de probabilidad que se pueden construir sobre espa-


cios muestrales finitos, una de las más sencillas y prácticas es la que toma un valor 
constante en todos los sucesos elementales. Esta aplicación probabilidad se llama
 Regla de Laplace y sólo se puede utilizar en aquellos casos en los que admite la
experiencia que los números hacia los cuales tienden a estabilizarse las frecuencias
relativas de los sucesos elementales, al aumentar el número de pruebas, son iguales.
Se dice entonces que los sucesos elementales son equiprobables.
Supongamos que el espacio muestral E de un cierto experimento aleatorio sea la
unión de n sucesos incompatibles dos a dos y equiprobables, y el suceso S se pueda
obtener como unión de m de los sucesos elementales,
n m
 E = U Si y S = U Si
i=1 i=1
m
entonces P (S) =  como consecuencia del tercer axioma de la probabilidad.
n
Se suele decir que la probabilidad del suceso S es el cociente entre el número de
casos favorables a S y el número de casos posibles.

 Ejemplos:

1° ¿Cuál es la probabilidad de que al lanzar tres monedas se obtenga al menos


una cara?  3
Si consideramos el espacio muestral  E = U Si siendo Si el suceso «obtener 
i=0  3
exactamente i caras» el suceso S = «obtener al menos una cara» = U Si , pero
i=1
3
no es cierto que P (S) =  porque los sucesos Si no son equiprobables pues-
4
to que S0 = { XXX }, S1 = {CXX,XCX,XXC}, S2 = {CCX,CXC,XCC}, S3 = {CCC}

La probabilidad de que se verifique S1 es mayor que la de que se verifique S3.

Sin embargo, considerando el espacio muestral:


 E = {CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX }

sus sucesos elementales sí son equiprobables, y aplicando aquí la Regla de


Laplace:

  3 3 1 7
 3
 P (S) = P U Si =  +  +  =  .
i=1 8 8 8 8

2° ¿Cuál es la probabilidad de que al lanzar un dado dos veces la suma de las


40 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

El espacio muestral E es el conjunto de las variaciones con repetición de orden


2 formadas con los elementos de C = {1,2,3,4,5,6}

(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)


(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)

Los 36 sucesos elementales son equiprobables. De ellos, sólo son favorables los
del subconjunto S = {(1,4),(2,3),(3,2),(4,1)}
4 1
Por tanto, P (S) =  = .
36 9

3° De un club cultural formado por 50 matrimonios se eligen dos representan-


tes para un jurado. Calcular la probabilidad de que los elegidos sean:
a) Dos hombres
b) Un hombre y una mujer.
c) Un matrimonio.

Solución:
a) Designando por S1 el suceso «elegir dos hombres»
C50,2 49
 P (S1) =   . =
C 198 100,2

b) Siendo S2 el suceso «elegir un hombre y una mujer»


C ·C 50
50,1 50,1
 P (S2) =  = .
C 99 100,2

c) Si S3 representa el suceso «elegir un matrimonio»


50 1
 P (S3) =  = .
C 99
100,2

2.3.5. La probabilidad condicionada. Sucesos dependientes e independientes.

Recordando la fórmula de la frecuencia relativa de la intersección de dos suce-


sos compatibles:
COMBINATORIA Y PROBABILIDAD EN ESPACIOS DISCRETOS 41

se obtienen las fórmulas de las frecuencias relativas de los sucesos A condicionado


a B y de B condicionado a A:
 f  ( A  B)
r  f  ( A  B)
r
 f r  ( B / 
 A) =  y  f r  ( A / 
 B) = 
 f  ( A)
r   f  ( B)

Estas fórmulas sugieren la siguiente definición:

•  Probabilidad del suceso B condicionado a A.


Si A y B pertenecen a la σ-álgebra de sucesos  de un experimento aleato-
rio y además P ( A) > 0 se define la probabilidad de B condicionado a A así:
 P ( A  B)
 P ( B / 
 A) =  .
 P ( A)
La probabilidad condicionada al suceso  A es una aplicación del álgebra de
sucesos  en el conjunto  que a cada suceso S    le hace corresponder
 P ( A  S)
 P (S / 
 A) =  .
 P ( A)
y se comprueba con facilidad que esta aplicación verifica los tres axiomas de
toda probabilidad.

• Análogamente, si B es un suceso con probabilidad P ( B) > 0, se define la pro-


babilidad de A condicionado a B:
 P ( A  B)
 P ( A / 
 B) =  .
 P ( B)

• Sucesos estocásticamente dependientes e independientes.


 P ( A  B)
• Si P ( A / 
 B) =  ≠  P ( A), entonces P ( A   B) ≠  P ( A). P ( B), y en
 P ( B)

 P ( A  B)
consecuencia, P ( B / 
 A) =  ≠  P ( B). En este caso se dice que los
 P ( A)
sucesos A y B son dependientes.

 Ejemplo: Al extraer una carta de una baraja española (40 cartas), ¿cuál es
la probabilidad de obtener un rey sabiendo que es una figura?
Llamando  F al suceso «obtener figura» y  R al suceso «obtener un rey»
 P ( R  F) 4/40 1 4 1
 P ( R / 
 F) =  =  =  ≠ P ( R) =  =  , por tanto, los
 P ( F) 12/40 3 40 10
42 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

 P ( A  B)
• Si P ( A / 
 B) =  = P ( A) entonces P ( A   B) = P ( A). P ( B) y, por 
 P ( B)

 P ( A  B)
tanto, P ( B / 
 A) =  = P ( B) y se dice que los sucesos A y B son
 P ( A)
independientes.

• Se puede decir que dos sucesos A y B son independientes si


 P ( A  B) = P ( A). P ( B)

• Tres sucesos S1, S2 y S3 son independientes si se verifican las cuatro igualda-


des siguientes:
 P (S1  S2) = P (S1). P (S2), P (S1  S3) = P (S1). P (S3)
 P (S2  S3) = P (S2). P (S3) y también
 P (S1  S2  S3) = P (S1). P (S2). P (S3)
Por tanto, si S1, S2 y S3 son independientes se verifica:
 P (S1  S2  S3) = P (S1). P (S2)  .P (S3)
pero el recíproco no es cierto.

 Ejemplo: En el experimento de lanzar un dado y observar el número que apare-


ce en la cara superior al reposar sobre la mesa ¿son independientes los sucesos:
S1 = «obtener cifra menor que 5»,
S2 = «obtener cifra menor que 4» y
S3 = «obtener cifra mayor que 2 y menor que 6»?

Se verifica que P (S1  S2  S3) = P (S1). P (S2). P (S3) porque


1 2 1
 P (S1  S2  S3) = P ({3}) =  y P (S1) =  , P (S2) = P (S3) =  .
6 3 2

1
Pero P (S1  S2) = P ({1,2,3}) =  ≠ P (S1). P (S2) y, en consecuencia, no son
2
independientes.

• En general, una colección finita de sucesos S1, S2,…,Sn son independientes si


se verifica:
    
 P Sk 1 … Sk  j  = P Sk 1 . … . P Sk  j 

para 2 ≤ j  ≤ n y 1 ≤ k 1 < … < k  j  ≤ n. En total hay que verificar que son cier-

 n
n
tas   = 2  – n – 1 igualdades.
n

 j = 2  j 

Si S1, S2,…, Sn es una colección de sucesos independientes, toda subcolección


LA TEORÍA DE GRAFOS 55

te en encontrar un camino que las recorra todas pasando por cada una de ellas una
sola vez.

El problema que recuerda al de los puentes de Königsberg fue resuelto por 


Hamilton en 1856.
En su honor se llaman grafos hamiltonianos a los que verifican la propiedad de
que se puede encontrar
encontrar en él un camino que parte
parte de un vértice, los recorre todos,
pasa sólo una vez por cada una de ellos y vuelve al punto de partida. La caracteri-
zación de los grafos hamiltoniano
hamiltonianoss es todavía un problema abierto en la investiga-
investiga-
ción matemática.
En 1857 Arthur Cayley (1821-1895) usa los árboles para contar los distintos isó-
+
meros de hidrocarburos saturados C n H2n+2, n   .
Y ya en el siglo XX: Kasimir Kuratowski
Kuratowski (1896-1980)
(1896-1980) caracteriza los los grafos pla-
nos en 1930, Dénes König (1884-1944)
(1884-1944) escribe el primer libro
libro sobre teoría de gra-
fos en 1936. Kenneth
Kenneth Appel
Appel y Wolfgang
Wolfgang Haken
Haken y J. Kock, en 1976, crearon un algo-
ritmo para estudiar la conjetura de los cuatro colores (todo mapa conexo (plano,
simple y sin bucles)
bucles) se puede colorear con, a lo sumo,
sumo, cuatro colores). Mediante un
complejo análisis computacional
computacional redujeron el número de colores utilizados a cuatro
comprobando 1936 configuraciones distintas; el ordenador tardó más de 1200 horas
en hacerlo. Aunque se ha dado crédito a estos autores aún se espera encontrar una
prueba más directa de este teorema.
Otros matemáticos que han destacado por su contribución
contr ibución al desarrollo de la teo-
ría de grafos en el siglo XX sonson:: Cla
Claude
ude Ber
Berge
ge (3), G. Be
Berm
rman
an,, B.
B.Bo
Boll
llob
obás
ás,, Pau
aull
Erdös,
Erd ös, N. Big
Biggs
gs (5), N. Chris
Christof
tofide
ides,
s, Kar
Karll Webe
Weberr, R. J. Wils
ilson
on (54) y L.R. Foulds (18)
entre otros.

El objetivo
objetivo de este capítulo es dar una pequeña introducción a la teoría de gra-
fos, algunos conceptos
conceptos necesarios para la clasificación
clasificación de los estados
estados de una cade-
na de Markov,
Markov, y a la vez presentar esta rama de las matemáticas
matemáticas que tiene utilidad
utilidad
para resolver problemas prácticos en una gran variedad de campos. Por ejemplo:
circuitos y redes eléctricas (saber si un circuito se puede construir sobre un plano),
teoría algebraica de la codificació
codificación,
n, inv
investigación
estigación operativ
operativaa (asignación,
(asignación, localiza-
ción de centros,
centros, enco
encontrar
ntrar el camino
camino más corto),
corto), progr
programac
amación
ión de ordenador
ordenadores,
es, pla-
nificación
nificación y control,
control, asignació
asignaciónn de recursos, árboles de decisión,
decisión, informáti
informática
ca (repre-
(repre-
56 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DIS
DISCR
CRET
ETOS
OS EN LA
LAS
S CIE
CIENC
NCIA
IAS
S DE
DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

epidemiología), química (representación de moléculas, enumeración de isómeros),


epidemiología),
física (estudio
(estudio de propiedades
propiedades de la superficie
superficie de un cristal dado, por ejemplo:
ejemplo:
absorción de moléculas diatómicas), ciencias sociales, psicosociología (relaciones
entre varios
varios pares
pares de indiv
individuos)
iduos),, econo
economía
mía (optimiz
(optimización
ación de
de recursos,
recursos, relació
relación
n
entre potencia consumida y potencia
potencia generada), geografía (redes de comunicación
comunicación
y de transporte), arquitectura, ingeniería civil (diseños de redes de comunicación),
comunicación),
públicos  facilities:: com
instalación de servicios públicos facilities comisa
isaría
ríass de policí
policía,
a, aer
aeropu
opuert
ertos,
os, hos
hos--
pitales,
pitales, super
supermerca
mercados,
dos, amb
ambulat
ulatorios
orios,, etc. Así como
como en puzzles
puzzles y juegos.
juegos.
En la actualidad sigue siendo una rama de investigación muy activa.

3.2.. Def
3.2 Defini
inicio
ciones
nes y nomenc
nomenclat
latura
ura..
Un grafo simple G = (V, A) es un par ordena ordenado (V, A) en el qu
do (V quee V es un conjun-
to no vacío y finito, V 
V = {v1,v2,…,
= {v ,…,vvn}, y A es un conjunto formado por subconjuntos
de dos elementos del conjunto V. Los elementos de V se llaman vértices del grafo
(también nodos o puntos del grafo). Cada elemento {v { vi,v j }  A se llama una arista
del grafo (también línea o enlace) y une dos vértices distintos de V. Si {v {vi,v j }   A
se dice que vi y v j  son adyacentes
adyacentes,, que vi y v j  son inciden
incidentes la arista {vi,v j }, o
tes con la
que vi y v j  son los extremos de la arista {v
{ vi,v j }. Dos aristas son adyacentes si tienen
al menos un vértice en común.

El número de vértices del grafo,  V = n, se ll amaa orden del grafo.


llam
Se puede representar el grafo G = (V, A) por un dibujo
dibujo en el plano por ser
ser tanto
V como
V  como A A conjunt
conjuntos
os finitos,
finitos, del siguiente
siguiente modo: Se colocan tantos
tantos puntos como
como vér-
tices tiene V y se trazan las aristas correspondientes al conjunto A
conjunto  A,, es de
deci
cirr, se un
unee
cada vértice con aquellos a los que es adyacente.

Ejemplo: G = (V
(V, A), siendo
V = {1,2,3,4,5} y A = {{1,2},{2,3},{2,5},{3,4},{4,5}} es un grafo simple

5 2

4 3

Un grafo G = (V, A) en el qu en  A existen al menos dos aristas que unen el


quee en
mismo par de vértices se dice que es un mul
multig
tigraf
rafo.
o. A ya no es un conjunto sino una
LA TEORÍA DE GRAFOS 57

La siguiente figura representa un multigrafo:

5 2

4 3

Un pseudografo es un grafo G = (V, A) en el que en su conju


Un pseudografo conjunto
nto de aristas
aristas hay
bucles
bucles o lazos,
lazos, es decir
decir,, arist
aristas {vi,v j } cuyos extremos coinciden, v j  = vi.
as {v
Un ejemplo de pseudografo es:

5 2

4 3

grafo dirigido o digrafo es un grafo G = (V, A) en el qu


Un grafo quee V es un conjunto no
y A es un conjunto de pares ordenados (v
vacío y finito y A (vi,v j ) de elementos distintos de
V. En este caso los elementos de A
de  A se llaman arcos. Si (v
(vi,v j ) es un arco del digrafo
se dice que vi es el origen del arco o el predecesor de v j  o bien que v j  es el extremo
del arco o el sucesor de vi.
El siguiente grafo:
1

5 2

4 3
58 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DIS
DISCR
CRET
ETOS
OS EN LA
LAS
S CIE
CIENC
NCIA
IAS
S DE
DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

Si no se exige la restricción en un digrafo G = (V, A), que no haya


haya más de un arco
arco
conecte un par de vértices, se obtiene un multidigrafo. En este caso, A
que conecte caso,  A es una
familia de pares ordenados de elementos de V .
Por ejemplo:
1

5 2

4 3

Un digrafo G = (V, A) en el que una arista al menos tiene el mismo origen


origen que
un  pseudodigrafo. Por tanto, un pseudodigrafo
extremo se dice que es un pseudodigrafo. pseudodigrafo es un digra-
fo con al menos un bucle.
Un ejemplo de pseudografo es el siguiente:
1

5
2

4 3
Un vértice de un grafo dirigido que no tiene arcos con extremo en él sino sólo
con origen en él se dice que es una  fuente.
Se llama sumidero a todo vértice de un grafo dirigido del que no sale ningún
arco sino que los arcos que lo tienen por extremo todos acaban en él.
En un grafo dirigido puede haber vértices que no son ni fuentes ni sumideros.
Una red 
red es
es un grafo dirigido que tiene exactamente una sola fuente y un solo
sumidero. Los vértices de una red se llaman nodos.
Ejemplo:
1

6 2

5 3

4
LA TEORÍA DE GRAFOS 59

Un grafo orientado es un grafo dirigido G = (V, A) tal que para todo par de vér-
tices vi y v j  en el conjunto A está al menos uno de los pares (vi,v j ) o (v j ,vi).
Ejemplo, un grafo orientado es el siguiente:

5
2

4 3

Aunque en el lenguaje coloquial se hable de la red del Metro de Madrid, como


se observa en el plano, no es una red en el sentido matemático sino que es un grafo
simple.

Un grafo cuyos vértices son distinguibles unos de otros se dice que es un grafo
etiquetado.
Un grafo se dice que es ponderado si las aristas llevan asociado un número que
puede representar un coste, peso o capacidad de la arista.
En un grafo G = (V, A) no dirigido se llama grado del vértice v i, gr (vi), al núme-
60 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

n
En todo grafo G = (V, A), si V = n, se verifica que  gr (V ) = 2  A.
i
i=1

En un grafo dirigido, o digrafo, se pueden distinguir los grados de entrada y de


salida de un vértice:
El grado de entrada del vértice vi, ge (vi), es el número de aristas incidentes
hacia vi.
El grado de salida del vértice vi, gs (vi), es el número de aristas incidentes
desde vi.

En todo grafo dirigido de orden n


n n
g e (V i) = g s (V i) = A.
i=1 i=1

Un grafo G = (V, A) no dirigido es k-regular si son de grado k todos sus vértices.


El grafo de la siguiente figura es de orden 8 y 3-regular.

Se llama grado mínimo del grafo G = (V, A) a


gm = mín {gr  (vi), vi  V }
y grado máximo de G = (V, A) a
g M  = máx {gr  (vi), vi  V }
y se verifica que:
gm ≤ gr  (vi) ≤ g M , ∀vi  V 
Si G = (V, A) es un grafo k-regular se verifica que:
gm = g M  = k 
Se puede considerar que todo grafo es orientado si suponemos que cada arista
{vi,v j } es un arco orientado en los dos sentidos, es decir, es equivalente a la unión
de los arcos (vi,v j ) y (v j ,vi). Cuando se aplica un concepto orientado a un grafo sim-
ple se entenderá que se refiere al grafo orientado que se obtiene sustituyendo cada
arista por los dos arcos correspondientes. Análogamente, si se aplica un concepto
no orientado a un digrafo, o grafo dirigido, se entiende que se aplica al grafo no diri-
gido resultante de sustituir los arcos por aristas, que se denomina su grafo subya-
LA TEORÍA DE GRAFOS 61

Dos grafos G1 (V 1,  A1) y G2 (V 2,  A2) se dice que son isomorfos, y se escribe
G1 ≈ G2, si existe una aplicación biyectiva f : V 1→ V 2 que conserva la adyacencia, es
decir, tal que si {u,v}  A1 ⇒ { f (u), f (v)}  A2.
En dos grafos isomorfos dos vértices son adyacentes en G1 si y sólo si sus imá-
genes son adyacentes en G2.

Ejemplo: los grafos siguientes,

1 2 3 a b

4 5 6 e d c

¿son isomorfos?
No son isomorfos porque el vértice d es adyacente a los vértices b, c, e y r 
y en el primer grafo no hay ningún vértice de grado 4, por tanto, es imposible esta-
blecer una aplicación biyectiva entre los dos conjuntos de vértices que conserve la
adyacencia.
Si G1 y G2 son isomorfos, tienen el mismo número de vértices, el mismo núme-
ro de aristas e igual número de vértices para cualquier grado.
Un grafo G =(V, A), de orden n, se dice que es un grafo completo K n si todo par 
n
 
de vértices son extremos de una arista. El grafo K n tiene  aristas y es k-regular 
de grado k = n –1.
2

Por ejemplo, el grafo completo K 5 es:

5
2

4 3
LA TEORÍA DE GRAFOS 69

3.7. Grafos eulerianos.


En la introducción de este capítulo se dijo que Euler a la vez que daba respues-
ta a la pregunta del recorrido sobre los puentes de Königsberg, e introducía las
bases de la teoría de grafos, caracterizaba los grafos en los que es posible encontrar 
un camino cerrado que recorra todas las aristas del grafo pasando una sola vez por 
cada una de ellas.
Euler comenzó por hacer un esquema del plano en el que cada zona de tierra la
representó por un vértice del grafo y los puentes por las aristas que conectan esos
puntos.
A
1
2 3

B 4
D

5 6
7
C

Este grafo es un multigrafo.


Un multigrafo se dice que es un s-grafo si hay al menos dos de sus vértices uni-
dos por s aristas y el número de aristas que unen dos de sus vértices cualesquiera no
es mayor que s.
El grafo anterior es, por tanto, un 2-grafo.
Dado un grafo G = (V, A) no dirigido, un camino euleriano en G es un camino
que contiene todas las aristas de G y que atraviesa cada una de ellas una y sólo una
vez.
Un circuito euleriano es un camino euleriano cuyos extremos coinciden.
Ejemplo: Dibujar un circuito euleriano en el siguiente grafo:

Partiendo de un vértice, por ejemplo, el situado más a la izquierda de la figura y


siguiendo las aristas dibujadas en el orden alfabético podemos pasar por todas una
70 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

El camino dibujado a continuación es un circuito euleriano.

l c g
 j
b h
i
a d f 

No todos los grafos tienen circuitos eulerianos, por ejemplo, en el siguiente


grafo no se puede dibujar uno de esos circuitos.

Si en un grafo existe un circuito euleriano el grafo se puede dibujar siguiendo el


circuito sin levantar el lápiz del papel.
Un s-grafo se dice que es euleriano si contiene un circuito euleriano.

Teorema de caracterización de los caminos eulerianos.


Un s-grafo G =(V, A) conexo no dirigido contiene un camino euleriano si y sólo
si el número de vértices de G que son de grado impar es 0 ó 2.
Si hay dos vértices de grado impar el camino tiene que comenzar en uno de ellos
y acabar en el otro.
Ejemplo: Para el grafo de la siguiente figura, dibujar, si es posible, un camino
euleriano y un circuito euleriano.
LA TEORÍA DE GRAFOS 71

Comenzando en uno de los vértices de grado impar se puede dibujar un camino


euleriano como se observa en la siguiente figura, siguiendo el orden alfabético.
h

d e i
q r 
g
f  m n
c b p
a  j l o

k
Es imposible dibujar un circuito euleriano porque sin repetir aristas es imposi-
ble pasar un número par de veces por un vértice de grado impar.
Teorema de caracterización de los multigrafos eulerianos.
Un s-grafo conexo no dirigido es euleriano si y sólo si todos sus vértices son de
grado par.
Como consecuencia de este teorema el problema de los siete puentes de
Königsberg no tiene solución porque el 2-grafo que lo esquematiza tiene todos los
vértices de grado impar.
Todos los resultados enunciados para los s-grafos son también válidos para los
grafos que no sean multigrafos pues todo grafo es un 1-grafo.

3.8. Grafos hamiltonianos.


Al comenzar el capítulo se presentó el dodecaedro del viajero que Hamilton
diseñó para introducir la idea de ciclo hamiltoniano.

En los 20 vértices del sólido regular se representaban 20 ciudades del mundo


importantes en aquella época como: Bruselas, Cantón, Londres, París, Roma,
Atenas, Moscú, Pekín, Zanzíbar, etc. El juego consistía en encontrar un recorrido a
través de las aristas del dodecaedro, que conecta esas ciudades, pasando sólo una
vez por cada ciudad.
Dado un grafo G = (V, A) no dirigido, de orden n > 2, un camino hamiltoniano
en G es un camino elemental que contiene todos los vértices de G es decir un cami-
84 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

10. ¿Cómo son las matrices de adyacencia de los grafos r -regulares?

11. a) En el grafo que tiene por vértices los vértices de un tetraedro y por aristas las
aristas de esa figura en el espacio ¿se puede dibujar un camino hamiltoniano?,
¿y un camino euleriano? Explicar si es un grafo hamiltoniano.
b) Idem si el grafo tiene por vértices y por aristas las de un hexaedro o cubo.

12. ¿Cuántas componentes conexas tiene el siguiente grafo?

a)

b) ¿Y el siguiente?

13. ¿Son hamiltonianos los siguientes grafos?

a) b)
LA TEORÍA DE GRAFOS 85

14. Hallar los puntos de corte y los istmos del grafo siguiente:

15. Partiendo del vértice 2 y llegando al 6, ¿cuántos caminos de longitud dos se


pueden encontrar en el grafo de la figura siguiente? ¿Cuántos caminos de lon-
gitud dos se pueden trazar en ese grafo? ¿Y de longitud 3? ¿Y de longitud 5?

1
6

5
3
4

16. Razonar si el grafo de la siguiente figura es o no un árbol.

17. La matriz de adyacencia de un grafo G es:

 
0 1 1 0
1 0 1 1
1 1 0 0
0 1 0 0
86 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

18. La siguiente matriz representa la matriz de adyacencia de un digrafo

 
0 1 1 0 0 1
1 1 1 1 0 1
0 0 0 1 0 1
0 0 0 0 1 0
0 0 0 1 1 1
0 0 0 0 0 0

Indicar el número de caminos de longitud 1, 2, 3 y 4 existentes en el grafo.


¿Es este grafo fuertemente conexo?

19. ¿Son isomorfos los siguientes grafos? En caso afirmativo hallar un isomorfis-
mo entre ellos.
 j e 1
7
d 5 6 2
a b
i f  8
10 9
c
h g 4 3

20. La estructura de la molécula de pentano normal es:


H H H H H

H C C C C C H

H H H H H

y la del neopentano es:


H

H C H
H H

H C C C H

H H
H C H

H
92 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DIS
DISCR
CRET
ETOS
OS EN LA
LAS
S CIE
CIENC
NCIA
IAS
S DE
DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

Que en forma matricial se resume en:

   
 p1 (1)  p11  p21 …  pi 1 …  pr 1  p1 (0)
 p2 (1)  p12  p22 …  pi 2 …  pr 2  p2 (0)
… = … … … … … · …
 p j  (1)  p1 j   p2 j  …  pij  …  prj   pi (0)
… … … … … … … …
 pr  (1)  p1r   p2r  …  pir  …  prr   pr  (0)

Llamando P (n) al vector de probabilidad en la etapa n-ésima,


 p1 (n)  P ( X 
 X n = 1)

 P (n) =
  
 p2 (n)

 pr  (n)
=
 P ( X 
 X n = 2)

 P ( X 
 X n = r)

Si n = 1:  P (1) = M · P (0)


2
Si n = 2:  P (2) = M · P (1) = M  · P (0)

 P (n) = M  · P (0), ∀ n  
n

La ley de probabilidad en la etapa n-ésima es el producto de la potencia n-ésima


de M por la ley de probabilidad en el instante inicial.
Esto significa que conocida la ley de probabilidad inicial,  P (0), la evoluc
evolución
ión de
la cadena sólo depende de la matriz de transición  M.

 Ejemplo: La siguiente figura representa un laberinto en el que se coloca un


ratón.

1
3
2 4
5 7
6
8

Se observa que en cada movimiento se desplaza a una celda contigua con igual
probabilidad, salvo si está en la 8 que se va
va a la 6, o si está en la
la 1 que se queda
queda allí 
CADENAS DE MARKOV FINITAS 93

El espacio de estados correspondiente es  E = {1,2,3,4,


{1,2,3,4,5,6,7
5,6,7,8},
,8}, y la matriz
matriz de
probabilidades de transición en una etapa es:

 
1 0 1/3 0 0 0 0 0
0 0 1/3 0 1/2 0 0 0
0 1/2 0 1/2 0 0 0 0
 M  =
0 0 1/3 0 0 0 1/2 0
0 1/2 0 0 0 1/3 0 0
0 0 0 0 1/2 0 1/2 1
0 0 0 1/2 0 1/3 0 0
0 0 0 0 0 1/3 0 0

Estas probabilidades se pueden representar en el siguiente diagrama de transi-


ción de la cadena:
1 / 
2
2 5
1 / 
2

1 /  1 /  1 /  1 / 


2 3 3 2
1 / 
1 3

1 1 /  3 6 1
8
3

1 /  1 /  1 /  1 / 


3 2 2 3

1 / 
2
4 7
1 / 
2

Si se coloca el ratón
ratón inicialmente en la
la celda 8, ¿cuál es la probabilidad
probabilidad de que
esté en la 3 después de cuatro desplazamientos?

Como se le coloca
coloca en la celda 8, el vector de
de probabilidad inicial
inicial es


0
0
0
 P (0
(0)) = 0 y des
esppué
uéss de cu
cuat
atro
ro des
espl
plaz
azaami
mien
enos
os la ley de pr
prob
obab
abil
iliida
dadd es:
0
0
0
1
94 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DIS
DISCR
CRET
ETOS
OS EN LA
LAS
S CIE
CIENC
NCIA
IAS
S DE
DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

    
4
1 0 1/3 0 0 0 0 0 0 0
0 0 1/3 0 1/2 0 0 0 0 0
0 1/2 0 1/2 0 0 0 0 0 1/6
4
 P (4) = M  · P (0) =
0 0 1/3 0 0 0 1/2 0 · 0 = 0
0 1/2 0 0 0 1/3 0 0 0 11/36
0 0 0 0 1/2 0 1/2 1 0 0
0 0 0 1/2 0 1/3 0 0 0 11/36
0 0 0 0 0 1/3 0 0 1 2/9
Por tanto, la probabilidad de que haya llegado
llegado a la celda
celda 3 es 1/6.
En el ejemplo se ha visto cómo se puede asociar fácilmente a la matriz de tran-
sición en una etapa de una cadenacadena de Markov un grafo dirigido
dirigido o digrafo, o un pseu-
dodigrafo
dodi grafo,, que recibe
recibe el nombre de diagrama de transición de la cadena.
En gen
generaeral,l, el diagrama de transición de la cadena de Markov con espacio de
estados E = {1, 2, …, r } es un digrafo que tiene por conjunto de vértices  E y por 
arcos ( j,k 
 j,k ) si la probabilidad de transición p jk  del estado j al estado k es positi
positiva
va,, es
decir, si es posible
posible pasar del estado j al k en una etapa. Si p jj  ≠ 0 se dibuja en el vér-
tice j un bucle,
bucle, obteniendo entonces un pseudodigrafo.
En el diagrama de transición de una cadena de Markov existe la arista ( j, k ) si la
probabilidad de transición del estado  j al k es distinta de cero y esta probabilidad es
el peso asociado a dicha arista.

Ejemplo
Ejemplo 4.3.1.
4.3.1. Una aplicac
aplicación
ión a la
la genética
genética..

Se considera un carácter en individuos diploides que está gobernado por los ale-
los  A (dominante) y a (recesiv
(recesivo).
o). Un individuo,
individuo, desde el punto
punto de vista de este
carácter,, puede presentar
carácter presentar los genotipos
genotipos AA (raza pura dominante), Aa (híbrido) o aa
(raza pura recesiva). Se dispone de una población con la misma proporción de indi-
viduos de cada genotipo que es suficientemente extensa y se producen cruces al
azar entre individ
individuos
uos de esta población.
Si se llama estado del sistema en la etapa n-ésima al genotipo de un individuo resul-
tante del n-ésimo cruce, se obtiene una cadena de MarkovMarkov con espacio de estados:
estados:
 E = { AA, Aa, aa}.
Se pueden calcular
calcular fácilmente las probabilidades
probabilidades de transición. Por ejemplo,
ejemplo, si
la madre es raza pura dominante,
dominante, la probabilidad de de que el hijo sea también  AA es:
1 1 1 1 1
 P ( X 
 X 1 = AA / X 0 = AA) =  · 1 +  ·  +  · 0 = 
3 3 2 3 2
pues hay que tener en cuenta el genotipo
genotipo del otro progenitor,
progenitor, que puede ser  AA, Aa
o aa con igual probabilidad.
Si la madre es híbrido,
híbrido, la probabilidad de que el hijo sea dominante es:
1 1 1 1 1 1
 P ( X 
 X 1 = AA / X 0 = Aa) =  ·  +  ·  +  · 0 = 
CADENAS DE MARKOV FINITAS 95

Del mismo modo, se calculan las restantes probabilidades


probabilidades que forman la
la matriz
de transición de esta cadena:

 
1/2 1/4 0
 M = 1/2 1/2 1/2 .
0 1/4 1/2

Probabilidades que también se presentan en el diagrama de transición corres-


pondiente:
1 / 
2

AA 1 / 
4

1 / 
1 /  2
2
Aa
1 / 
2

1 / 
aa 4
1 / 
2

¿Cuál será la proporción de cada uno de esos genotipos en la quinta generación,


si se parte de la misma proporción de los tres genotipos?

5
 P (5) = M  · P (0) =
 17/64
1/2
15/64
1/4
1/2
1/4
15/64
  
1/3 1/4
1/2 · 1/3 = 1/2 .
17/64 1/3 1/4

¿Habría diferencia si en el instante inicial sólo hay individuos homocigóticos


dominantes que se cruzan al azar con individuos de esa población en las sucesiv
sucesivas
as
generaciones?

5
 P (5) = M  · P (0) =
 17/64
1/2
15/64
1/4
1/2
1/4
15/64 1
 
17/64
1/2 · 0 = 1/2 .
17/64 0 15/64
96 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

Ejemplo 4.3.2. El vigía de la Ciudadela de Jaca y el de la Torre del Homenaje


del castillo de Ciudad Rodrigo.

La Ciudadela de Jaca, que se terminó de construir a mediados del siglo XVII, es


una fortaleza que se conserva en perfecto estado y que ha sido declarada
Monumento Histórico Artístico el 28 de junio de 1951. Su forma es pentagonal de
260 m de lado.
Supongamos que un vigía que tiene que hacer la guardia en puestos situados en
cada una de las cinco esquinas de la Ciudadela de Jaca recibiera la siguiente orden:
Se le asignará uno de los puestos al azar y se trasladará cada cinco minutos a uno
de los dos puestos contiguos también de forma aleatoria del siguiente modo: En el
puesto hay un cajetín, que abrirá con su tarjeta magnética, y en él encontrará dos
sobres iguales y cerrados que contienen una tarjeta dentro, uno de ellos con un 1 y
el otro con un 2. Elige uno de los sobres al azar, si contiene un 1 se trasladará al
puesto más próximo situado a su derecha cuando está mirando hacia el exterior y si
es un 2 irá al más próximo a su izquierda. Allí montará la guardia otros cinco minu-
tos y transcurrido ese tiempo actuará del mismo modo, y así sucesivamente.
El estado de este sistema en la etapa n-ésima será el puesto en el que se encuen-
tre el vigía después de n cambios.
Si designamos los puestos de guardia como se indica en el siguiente dibujo:
1

2 3

4 5

El espacio de estados del sistema será:


 E = {1,2,3,4,5}
Y la matriz de transición de la cadena de Markov así definida es:

 
0 1/2 1/2 0 0
1/2 0 0 1/2 0
 M = 1/2 0 0 0 1/2 .
0 1/2 0 0 1/2
0 0 1/2 1/2 0

Sabiendo que el vigía empezó la guardia en el puesto 1, ¿es posible que esté en
el puesto 4 al cabo de cuatro cambios? ¿En qué puesto es más probable que esté al
CADENAS DE MARKOV FINITAS 97


1
0
Por partir del puesto 1 el vector de probabilidad inicial es:  P (0) = 0 .
0
0
El vector de probabilidad en la cuarta etapa es:

 
3/8
1/16
4
 P (4) = M  · P (0) = 1/16 .
1/4
1/4

Por tanto, 1/4 es la probabilidad de que esté en el puesto 4 al cabo de cuatro


cambios y, como la mayor de las probabilidades del vector P (4) es P ( X 4 = 1) = 3/8,
en el cuarto cambio el puesto más probable es el 1.

Para responder a la última pregunta se calcula:

 
1/16
5/16
5
 P (5) = M  · P (0) = 5/16 .
5/32
5/32

1
Como  P ( X 5 = 1) =  ≠ 0, sí es posible que llegue al puesto 1 en el quinto
16
cambio, aunque es el puesto menos probable en la quinta etapa.

Para el vigía que tiene que hacer la guardia en cada una de las cuatro esquinas
de la Torre del Homenaje del castillo construido en Ciudad Rodrigo en 1372, el
espacio de estados será:
E = {1,2,3,4}

1 4
98 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

 
0 1/2 0 1/2
La matriz de transición: M = 1/2 0 1/2 0 .
0 1/2 0 1/2
1/2 0 1/2 0

   
1/2 0 1/2 0 1 1/2
4
 P (4) = M  · P (0) =
0 1/2 0 1/2 · 0 = 0 .
1/2 0 1/2 0 0 1/2
0 1/2 0 1/2 0 0

De lo que se deduce que no es posible que esté en el puesto 4 al cabo de cuatro


cambios, también es imposible que esté en el 2 y en ese momento es tan probable
que esté en el puesto 1 como en el 3.

   
0 1/2 0 1/2 1 0
Como P (5) = M 5 · P (0) = 1/2 0 1/2 0 · 0 = 1/2 ,
0 1/2 0 1/2 0 0
1/2 0 1/2 0 0 1/2
es imposible que llegue en el quinto cambio al puesto 1.

Ejemplo 4.3.3. El aprendizaje reforzado.


Para aprender determinada tarea se dispone de un método feedback según el cual
la probabilidad de realizar bien la tarea es 2/3, si se ha hecho bien la vez anterior, y
la probabilidad de hacerla mal es 1/4, si se ha realizado mal la vez anterior.
Los estados del sistema son B (bien hecha) o M (mal hecha). El espacio de esta-
dos del sistema es:
 E = {B, M}

La matriz de transición de esta cadena es:  M = 2/3 3/4


1/3 1/4  
a) Si al principio hace bien la tarea, ¿cuál es la probabilidad de que la vuelva a
hacer bien a la siguiente?
 P (1) = M · P (0) = 
2/3 3/4
1/3 1/4 ·
1
0 =    
2/3
1/3
La P ( X 1 = B) = P ( X 1 = B / X 0 = B) = 2/3, por ser P ( X 0 = B) = 1.
b) Si al principio falla, ¿cuál es la probabilidad de que acierte a la siguiente?

 P (1) = M · P (0) =  2/3 3/4


1/3 1/4 ·
0
1 =   
3/4
1/4
6
Comportamiento
asintótico de
las Cadenas de Markov

En el capítulo anterior se han clasificado los estados de una cadena de


Markov utilizando el diagrama de transición, y ahora se centra el interés en tener 
información sobre el comportamiento a la larga de la cadena, es decir, sobre la
probabilidad de que el sistema esté en cada uno de los estados al aumentar el
número n de transiciones. Esta información es interesante, por ejemplo, para
conocer la evolución de poblaciones desde el punto de vista de la genética y de
la ecología.
De momento, con el estudio realizado hasta aquí, sólo se puede contestar a algu-
nos casos particulares. Por ejemplo, si una cadena de Markov consta de dos clases
y la clase final es absorbente, a la larga el sistema quedará atrapado allí. Pero ¿qué
podemos afirmar en el siguiente ejemplo?:
Se considera una población diploide en la que los individuos se clasifican en tres
tipos, según su genotipo con respecto a un cierto carácter independiente del sexo,
 AA,  Aa y aa. En cada generación se cruzan sistemáticamente las hembras, cual-
quiera que sea su genotipo, con machos del tipo Aa. Sin existencia de factores de
mutación, selección o esterilidad, emigración o inmigración, ¿cómo será la evolu-
ción a la larga de los posibles cruces? Se responderá en este capítulo, después de
explicar el comportamiento asintótico.
Cuando Markov (1856-1922) estudió este tipo de procesos estocásticos no uti-
lizó las matrices, pero gracias a la aportación de W. R. Hamilton (1805-1865),
A. Cayley (1821-1895) y J. J. Sylvester (1814-1897), quienes desarrollaron simul-
táneamente el cálculo matricial, el estudio de las cadenas de Markov se ha simpli-
ficado enormemente.
En el Capítulo 4, al investigar la evolución de una cadena, se dijo que una cade-
na de Markov está totalmente determinada si se conoce el conjunto de estados, la
matriz de transición y el vector de probabilidad inicial, pues la ley de probabilidad
120 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

En este capítulo se trata de responder a la siguiente pregunta: ¿Qué se puede


n
decir del lim P (n) = lim M  · P (0)? Es decir, ¿cuál será el comportamiento asintó-
n→∞ n→∞
tico de la cadena?
El primer problema que surge es el del cálculo de la potencia n-ésima de la
matriz de transición. Este cálculo, que es inmediato si la matriz  M  es diagonal,
requiere la noción de semejanza de matrices.

6.1. Semejanza de matrices.

Dos matrices M rxr  y Arxr  son semejantes, M ~ A, si existe una matriz Prxr  regular,


es decir, con  P ≠ 0, tal que:
 –1
 A = P · M · P
El conjunto de todas las matrices semejantes a la matriz  M rxr  es:
{ Arxr  = P –1 · M · P, ∀ Prxr  con  P≠ 0}
La semejanza de matrices define una relación de equivalencia en el conjunto
 rxr  de las matrices de orden r , pues verifica las propiedades reflexiva, simétrica y
 rxr 
transitiva, y como tal produce una partición del conjunto  ⁄  ~ en clases de equi-
valencia. Cada clase está formada por todas las matrices semejantes entre sí.
La respuesta a la pregunta sobre la existencia, en la clase de equivalencia de la
matriz M rxr , de una matriz semejante diagonal se debe a Camille Jordan (1838-1922)

Camille Jordan

quien nos legó el siguiente teorema:


 4
Teorema de Jordan . Toda matriz cuadrada M rxr  sobre un cuerpo  algebraica-
mente cerrado —como lo es el cuerpo  de los números complejos— es semejan-
te a una matriz J diagonal o diagonal por cajas, que es la forma canónica de Jordan
asociada a la matriz M rxr . Es decir,
∃ Prxr  regular tal que J = P –1 · M · P
El cálculo de la forma canónica de Jordan asociada a una matriz M rxr  requiere el
conocimiento de los autovalores y autovectores de esa matriz.
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 121

6.2. Autovalores y autovectores de una matriz.


Si M rxr  es una matriz numérica con elementos en , el número λ   ( o )
es un autovalor de M rxr  ⇔ ∃x ≠ 0 / M x = λ x.
El vector x ≠ 0 es un autovector de M por la derecha asociado al autovalor 
λ   ⇔ M x = λ x.
Los autovalores también se llaman valores propios y los autovectores vectores
propios.
Para hallar los autovalores de  M rxr  hay que determinar los vectores x ≠ 0 tales
que:
 M x = λ x ⇔ M x – λ x = 0 ⇔ ( M  – λ   I ) x = 0
Para que ∃ x ≠ 0 que sea solución de este sistema homogéneo ha de ser
 I ) < nº incógnitas ⇒ M  – λ 
r ( M  – λ   I = 0
Se llama ecuación característica de la matriz M rxr , a la ecuación M  – λ   I = 0, y
 polinomio característico de M rxr  al polinomio  M  – λ   I , que es de grado r .
Las raíces del polinomio característico, o lo que es lo mismo, las soluciones de
la ecuación característica, son los autovalores de M rxr .
Si M rxr  es una matriz estocástica, es una matriz de números reales. El polinomio
característico de M es un polinomio de grado r con coeficientes reales, que tendrá a
lo sumo r raíces distintas, los autovalores λ 1,  λ 2, …,  λ r,  reales o complejos. Si el
polinomio característico de M tiene una raíz compleja también tiene su conjugada.


El autoespacio asociado al autovalor λ  j  es el subespacio vectorial de  defini-
do del siguiente modo:
r  r 
 N (λ = λ  j ) = {x    / M x = λ  j x} = {x    / ( M  – λ  j  I ) x = 0}
El autoespacio también se llama subespacio propio o subespacio invariante.
El autoespacio N (λ = λ  j ) siempre contiene al menos un vector x ≠ 0 si λ  j  es un
autovalor de M rxr . Cualquier vector no nulo del autoespacio asociado al autovalor λ  j 
es un autovector asociado a λ  j  .

 Propiedades de los autovalores.

- Si λ 1 y λ 2 son dos autovalores diferentes de M rxr  entonces


 N (λ = λ 1)  N (λ = λ 2) = {0}
- Si λ 1, λ 2, …, λ q son autovalores de M rxr  todos distintos entre sí, x j  ≠ 0 siendo
x j   N (λ = λ  j ), ∀ j = 1, 2, …, q, entonces {x1, x2, …,xq} es un conjunto de vec-
tores linealmente independientes.
- Si λ  j  es un autovalor múltiple de orden de multiplicidad s se verifica que:
1 ≤ dim ( N (λ = λ  j )) ≤ s
- En consecuencia, si λ  j  es un autovalor simple será dim ( N (λ = λ  j )) = 1.
- Si todos los autovalores de la matriz M rxr  son distintos, o en el caso en que los
tenga múltiples, los autoespacios asociados tienen dimensión igual al orden de
multiplicidad de cada una de las raíces, se pueden encontrar r autovectores
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 131

6.5.1.
6.5.1. Cade
Cadenas
nas completamen
completamente
te ergódicas
ergódicas o cade
cadenas
nas regular
regulares.
es.

Si M, matriz de transición de una cadena de Markov,


Si M, Markov, es irreducible y primitiva,
primitiva,
entonces λ = 1 es el único autovalor de módulo máximo.
El autovalor dominante ρ = máx λ i = 1, es un autoval
autovalor
or simple de M , exi
simple de M  xist
stee
1 ≤ i ≤ r 
1
un autovector P , asoci
asociado
ado al autov
autovalor
alor 1, con todas todas las compone
componentes
ntes positi
positivas
vas y
además 1 es el único autovalor
autovalor que tiene asociado autovectores con todas las com-
ponentes positivas.
Si los autovalores de  M  son λ 1,  λ 2, …,  λ r r,  sólo hay
hay uno
uno de módulo
módulo máxi
máximo:
mo:
λ 1 = 1 >λ 2≥λ 3≥ … ≥λ r r  . Como consecuencia:

  
n
1 0 … 0 1 0 … 0
n
n 0 λ  2 … 0
=
0 0 … 0
lim J  = lim … … … … … … … …
n→∞ n→∞
0 0 … λ nr r  0 0 … 0
y

 
1 0 … 0
n 0 0 … 0  –1
lim M  = P · · P =
n→∞ … … … …
0 0 … 0

  
1 0 … 0 1 1 … 1
1 0 0 … 0 F2
= [P P2 … Pr ] · · =
… … … … …
0 0 … 0 Fr 

 
1 1 … 1
1 0 0 … 0
= [P P2 … Pr ] · = [P
1
P1 … P1]
… … … …
0 0 … 0
1
es una matriz con todas las columnas iguales al vector P .

Conclusiones:
1
Al tener el vector P todas las componentes positiv
positivas,
as, siempre se podrá volver
volver a
pasar por uno cualquiera de los estados.
Existe un vector de estado permanente o estable que coincide con la única dis-
1
tribución estacionaria P de la cadena. El vector de estado de la cadena cuando el
número de etapas tiende
tiende a infinito
infinito es un vector de probabilidad,
probabilidad, que es autovector 
autovector 
asociado al autovalor λ = 1 y no depende del del vector de estado
estado inicial P (0), ya que:

 
 p1 (0)
1  p2 (0) 1
n
lim P (n) = lim M  · P (0) = [P P1 … P1
]· …
=P
n→∞ n→∞
(0)
1322
13 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DISC
DISCRE
RETO
TOS
S EN LAS
LAS CIE
CIENC
NCIA
IAS
S DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

esto significa que la cadena consta de una sola clase final ergódica y no posee esta-
dos transitorios. Se dice que es completamente ergódica o que es una cade
cadena
na regu-
lar. El comportamiento asintótico de la cadena es independiente del vector de esta-
do inicial.

 Ejemplo: Aplicación en la genética.

Los caracteres hereditarios están en los genes. Todas


Todas las células, salvo los game-
tos, son réplicas exactas
exactas de lala misma estructura
estructura genética.
Los genes de cada célula se agrupan por pares a lo largo de los cromosomas. Se
considera el caso sencillo en el que cada gen de un par puede tomar uno de los dos
 A o a, por tanto
estados: A
estados: tanto,, para el
el carácter
carácter consi
considerad
derado,
o, un indiv
individuo
iduo está caract
caracteri-
eri-
zado por uno de los tres genotipos posibles:  AA (dominante),
(dominante), Aa  Aa (híbrido) y aa
(recesivo).
El genotipo de un hijo resulta de la reunión de un gen del padre y de un gen de
la madre según la siguiente
siguiente ley: Cada padre transmite un gen y sólo uno de los dos
que constituyen su genotipo; cada gen del padre (o de la madre) tiene probabilidad
1/2 de ser transmitido y las dos elecciones son independientes. es  Aa
independientes. Así, si el padre es Aa
es  Aa su hijo tiene probabilidad 1/4 de ser  AA
y la madre es Aa  AA,, proba
probabilid
bilidad
ad 1/2
1/2 de ser 
padres Aa y probabilidad 1/4 de ser recesivo aa
como sus padres Aa aa..

Al comenzar este capítulo se planteaba el siguiente ejemplo:

Se considera una población diploide en la que los individuos se clasifican en


tres tipos, según su genotipo con respecto
respecto a un cierto carácter independiente del
sexo,
sexo, AA, Aa y aa. En cada
cada generación
generación se cruzan
cruzan sistemáti
sistemáticamente
camente las hembras,
hembras,
cualquiera que sea su genotipo, con machos del tipo Aa. Sin existencia de factores
de mutación,
mutación, sele
selección
cción o esterili
esterilidad,
dad, emigr
emigración
ación o inmigraci
inmigración,
ón, ¿cómo será la
la evo-
lución a la larga de los posibles cruces?

Para estudiar la evolución de los posibles cruces se considera una cadena de


Markov con conjunto de estados  E = { AA AA,, Aa
 Aa,, aa
aa}.
}. Las probabilidades de obtener 
cadaa uno
cad uno de los
los geno
genotip
tipos
os en
en cada
cada cruc
cruce,
e, son
son:: 1/2
1/2,, 1/2 y 0, res
respec
pecti
tiva
vamen
mente,
te, si la
la
es  AA;; 1/4, 1/2 y 1/4
madre es AA 1/4 si la
la madre es  Aa;; y 0, 1/
madre es Aa 1/2,
2, 1/
1/2
2 si la madree es aa
la madr aa.. Se
determina así la matriz de transición:

 
1/2 1/4 0
 M =
 M  = 1/2 1/2 1/2
0 1/4 1/2

3 2 λ 
Esta matriz tiene por polinomio característico:   M  –  I = – λ  +  λ   – 
3
 – λ 
2 2
de M son: 1, 1/2 y 0. Sólo
Los autovalores de M Sólo hay
hay uno de módulo
módulo 1, y el resto
resto tiene
tiene
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 133

Los autoespacios asociados son:


), ∀ α  }
 N ((λ = 1) = {x    / x = (α , 2α , α ),
3
 N 

  1
), ∀ β  }
 N  λ =  = {x    / x = (β , 0, – β ),
2
3

), ∀ γ  }
 N ((λ = 0) = {x    / x = (γ , – 2γ , γ ),
3
 N 

Autovectores
Autovectores asociados a 1, 1/2 y 0 respectivamente
respectivamente son:

     
1 1 1
C1 = 2 , C = 0 y C =  – 2
2 3 y se observa que los autovectores asociados
1  – 1 1
al autovalor λ =1
=1 son los únicos que pueden tener todas las componentes positivas.
positivas.

     
1 1 1 1 0 0 1 0 0
Si P =
Si P 2 0  – 2 ⇒ P –1 · M 
 M ·· P = 0 1/2 0 = J  ⇒
 ⇒ J  =
n n
0 (1/2) 0
1  – 1 1 0 0 0 0 0 0

     
 – 1
1 1 1 1 0 0 1 1 1 1/4 1/4 1/4
n n  –1
lim M  = P · lim J  · P = 2 0  – 2 · 0 0 0 · 2 0  – 2 = 1/2 1/2 1/2
n→∞ n→∞
1  – 1 1 0 0 0 1  – 1 1 1/4 1/4 1/4

    
1/4 1/4 1/4  p1 (0) 1/4
n
Y el lim P (n) = lim M  · P (0) = 1/2 1/2 1/2 ·  p2 (0) = 1/2 cualquiera que
n→∞ n→∞
1/4 1/4 1/4  p3 (0) 1/4
sea el vector de distribución de probabilidad inicial P (0).

1
El lim P (n) es un vector de probabilidad P con todas las componentes estricta-
n→∞
mente positi
positivas,
vas, que además es autove
autovector
ctor asociad
asociado
o al autov
autovalor
alor 1, es decir
decir,, el
1
lim P (n) es un vector P de probabilidades estacionario
estacionario,, inde
independ
pendient
ientemen
emente
te del
del
n→∞
vector de distribución de probabilidad inicial.
En este caso el vector de probabilidades estacionario es además un vector de
estado permanente o estable y es el único vector de probabilidad que tiene esta pro-
1
piedad para la cadena de Markov dada. El vector P representa las probabilidades de
que el sistema esté en cada uno de los estados a la larga. La probabilidad de encon-
trarse en un estado después de un número n suficientemente grande de etapas es
independientee de su estado inicial.
independient
Cualquiera que sea la proporción de los genotipos de las hembras en el instante
1
inicial, el vector
vector de probabilidad estacionario P da las proporciones de los genoti-
probabilidad estacionario
 AA,, Aa y aa a la larga,
pos AA
pos aproximadamente en el instante n después de pasadas
larga, y aproximadamente
un número suficientemente grande de generaciones.
n 1 1 1
Y además lim M  = [P P … P ], esto significasignifica que a medida que
que aumenta el
n→∞
número de transiciones la cadena se estabiliza. Por ser todos los elementos de esa
1344
13 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DISC
DISCRE
RETO
TOS
S EN LAS
LAS CIE
CIENC
NCIA
IAS
S DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

dos de la cadena. Siempre se pueden encontrar individuos


individuos de cualquiera de los tres
genotipos,
genotipo s, y desde uno de
de los estados siempre se puede
puede alcanzar
alcanzar cualquier otro,
otro, esto
significa que con hembras de cualquiera de los genotipos en sucesivos cruces se
pueden obtener individuos
individuos dominantes,
dominantes, híbridos y recesivos.
recesivos.

6.5.2.
6.5.2. Cade
Cadenas
nas simpl
simplemen
emente
te ergódi
ergódicas.
cas.

matriz  M de
Si la matriz M  de transición de la cadena es reducible pero tiene un solo auto-
1
valor de módulo máximo,  λ  = 1, el auto
autove ctorr P , asociado a este autov
vecto autovalor,
alor, tiene
alguna componente nula.
1
Si las componentes nulas de P son m, la cadenacadena consta
consta de una clase
clase final
final de
transitorios, siendo 1 ≤ t  ≤
estados ergódicos y de t clases de estados transitorios,  ≤ m.
Se dice que es una cadena simplemente ergódica. En este este caso,
caso, colo
colocand
cando o los
estados transitorios al final:

 
1 1 1 1
 p1  p1 …  p1  p1

 
1 0 … 0  p2
1 1
 p2 …  p2
1
 p2
1

n 0 0 … 0  –1 1 1 1
lim M  = P · … · P = [P P … P ] = … … … … …
n→∞ … … …
0 0 … 0 1 1 1 1
 pr  – t t   pr  – t t  …  pr  – t t   pr  – t t 
0tx1 0tx1 … 0tx1 0tx1

y el

  
1
 p1 (0)  p1
1
 p2 (0)  p2

n 1 1 1 1
… 1

lim P (n) = lim M  · P (0) = [P P … P … P ] · = P =
n→∞ n→∞
 pr  – t t  (0) …
1
…  pr  – t t 
 pr  (0) 0tx1

Conclusiones:

Existe un vector de estado permanente o estable que coincide con la única dis-
1
tribución estacionaria P de la cadena,
cadena, autovec tor asociado a λ = 1, auto
autovector autova
valor
lor domi-
domi-
nante.
El vector de estado de la cadena cuando el número de etapas tiende a infinito no
depende del vector de estado inicial P(0).
Pero el vector de
de estado permanente, a diferencia del caso anterior
anterior,, tiene com-
com-
ponentes iguales
iguales a cero, las correspondientes a los
los estados transitorios porque
porque en el
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 135

 Ejemplo:

¿Cuál es el comportamiento a la larga de la cadena de Markov con matriz de


transición:

 
1/5 0 1 0 1/5
4/5 0 0 0 4/5
 M = 0 1 0 1 0 ?
0 0 0 0 0
0 0 0 0 0

El polinomio característico es:


1 4
5  4
5
4
 M  – λ  I  = – λ 5 +  λ 4 –  λ 2 = λ 2 · (1 – λ ) · λ 2 +  λ + 
5 5 
 – 2 – 4i  – 2 + 4i
Los autovalores de M son: 1, 0 (doble), .   y
5 5
Como en el ejemplo anterior, sólo hay uno de módulo 1 y el resto tiene módu-
lo menor que la unidad.
Los autoespacios asociados son:

 5 4 α  4 α 
 N (λ = 1) = x    / x = α , ,
5 5 
, 0, 0 , ∀α     
en este caso hay dos componentes de los autovectores asociados al autovalor 1 que
son nulas.


 N (λ = 0) = x    / x = β , γ , 0, – γ , – β  , ∀β , γ  
5
  

  
 N  λ =
 – 2 + 4i
5
5
= x    / x = η,   η  η   ∀η   – 2 – 4i
5
,
 – 3 + 4i
5
,0,0 , 

 – 2 – 4i
y el autoespacio asociado a λ =  es el conjugado del anterior, es decir:
5

  
 N  λ =
 – 2 – 4i
5
= x    / x =
5
δ   δ   δ    ∀δ  
,
 – 2 + 4i
5
,
 – 3 – 4i
5
,0,0 , 

Si la matriz P tiene por primera columna un autovector asociado al autovalor 1,


las columnas segunda y tercera son autovectores asociados al autovalor 0, la cuarta
 – 2 + 4i
es un autovector asociado al autovalor y la última el conjugado de este

5
 – 2 – 4i
que es un autovector complejo asociado al autovalor  , es decir,
136 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

 
5 1 0 5 5
4 0 1  – 2 – 4i  – 2 + 4i
 M = 4 0 0  – 3 + 4i  – 3 – 4i , entonces
0 0  – 1 0 0
0  – 1 0 0 0

1 0 0 0 0 1 0 0 0 0

0 0 0 0 0 0 0 0 0 0

= J  ⇒ J  = 0 0 0
 –1 n
 P · M · P = 0 0 0 0 0 0 0
n

0 0 0
 – 2+ 4i

5
0 0 0 0 
 –2 + 4i
5
0
n

0 0 0 0
 – 2 – 4i

5
0 0 0  0
 – 2 – 4i
5

5 5 5 5 5

 
    
1 0 0 0 0 13 13 13 13 13

4 4 4 4 4
0 0 0 0 0     
13 13 13 13 13
n n  –1  –1
lim M  = P · lim J  · P = P · 0 0 0 0 0 · P = 4 4 4 4 4
n→∞ n→∞
    
13 13 13 13 13
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0

5 5 5 5 5 5
     
13 13 13 13 13  p1 (0) 13

4 4 4 4 4 4
      p2 (0) 
13 13 13 13 13 13
n
Y el lim P (n) = lim M  · P (0) = ·  p3 (0) = 4
n→∞ n→∞ 4 4 4 4 4
     
13 13 13 13 13 13
 p4 (0)
0 0 0 0 0 0
 p5 (0)
0 0 0 0 0 0
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 139

   
1 0 0 0 1 0 0 0
n
 –1
 P · M 
 M ·· P = 0  –1 0 0 = J  ⇒
 ⇒ J n = 0 (–1) 0 0 .
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0

De ahí que:

 
1 0 0 0
n
n n  –1
lim M  = P · lim J  · P = P · lim 0 (–1) 0 0 · P –1.
n→∞ n→∞ n→∞ 0 0 0 0
0 0 0 0
n
Por tanto,
tanto, no existe lim M  ya que si n = 2k:
existe el lim
n→∞

   
1 0 0 0 1/2 0 0 1/2
2k  2k  –1 0 1 0 0 · P –1 = 0 1/2 1/2 0
lim M  = P · lim J  · P = P ·
k →∞ k →∞ 0 0 0 0 0 1/2 1/2 0
0 0 0 0 1/2 0 0 1/2

y si n = 2k +1:

   
1 0 0 0 0 1/2 1/2 0
2k + 1 2k + 1  –1 0  –1 0 0 · P –1 = 1/2 0 0 1/2
lim M  = P · lim J  · P = P ·
k →∞
→∞ k →∞
→∞ 0 0 0 0 1/2 0 0 1/2
0 0 0 0 0 1/2 1/2 0

Y en consecuenc
consecuencia,
ia, no existe lim P (n). Esta cadena no admite un vector de
existe el lim
n→∞
1
probabilidades permanente
probabilidades estable.. Pero posee un único vector P de probabili-
 permanente o estable


1/4
1 1/4
dades estacionario
estacionario:: P = , vecto
vectorr de probabil
probabilidad
idad y autov
autovector
ector asociad
asociado
o al auto-
1/4
1/4
1
valor simple λ = 1. Sólo si la distribución de probabilidad en el instante inicial es P
1
será lim P (n) = P , en los demás existee el lim P (n).
demás casos no exist
n→∞ n→∞

En este caso,
caso, si se parte de uno
uno de los estados
estados de la cadena,
cadena, es posible
posible volver
volver a
él pasadas un número par de etapas. Los estados de esta cadena son recurrentes
recurr entes pero
 periódicos de periodo 2.
La probabilidad de encontrarse en un estado después de un número n sufi-
cientemente grande de etapas en este caso sí depende del estado inicial.

• Conver
Convergencia
gencia en el sentido de Cesaro a la distribución estacionaria.
1
En el ejemplo anterior no existe lim  M  pero sí el lim  ( M  ) que es
n 2k  2k +1
k +
 M  + M
n→∞ k →∞
→∞ 2
1400
14 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DISC
DISCRE
RETO
TOS
S EN LAS
LAS CIE
CIENC
NCIA
IAS
S DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

n
na. Por verificarse esto se dice que la matriz M  conver
l a matriz M  convergege en el sentido de Cesaro a una
matriz con todas las columnas iguales a la distribución estacionaria
estacionaria de la cadena.
Para una cadena periódica de periodo m, exi xisten m potencias distintas de la
sten
matriz M, la media aritmética de esas potencias converge
matriz M, converge a una matriz con todas las
columnas iguales
iguales a la distribución
distribución estacionaria
estacionaria de la cadena, es decir:
1
lim  (  M  ) = [P P … P ]
mk  +1
mk +
mk  +2
mk +
mk  + m – 1
mk +
mk  1 1 1
M  + M +M +…+M
k →∞
m
n
que  M  converge en el sentido de Cesaro a la matriz que tiene todas las
y se dice que M 
columnas iguales a la distribución estacionaria de la cadena.

6.5.4.
6.5.4. Cad
Cadena
enass múltip
múltiples
les..

Se considera ahora el caso


cas o en que la matriz de transición
transic ión de la cadena de Markov
 M es
 M  es una matriz reducible con k > 1 autovalores de módulo máximo.
En una cadena de Markov cuya matriz de transición tenga el autovalor domi-
nante λ = 1 múltiple de orden de multiplicidad k existen k  k clases
clases finales.
La evolución en el interior de una de estas clases finales se puede hacer utili-
zando la submatriz de la matriz de transición correspondiente a los estados de esa
clase final. A esta submatriz le corresponde un autovalor λ = 1 simple.
Una clase final será ergódica si λ  = 1 es el único autovalor de módulo 1 de la
será  periódica de periodo m si existen m > 1 autova-
submatriz correspondiente y será periódica
lores de módulo 1.
Si una de las clases finales elemento, esa clase es absorbente.
finales consta de un solo elemento,
La evolución a la larga de la cadena depende de la distribución de probabilidad
inicial. Una vez que la cadena entra en una de las clases finales ya es imposible que
salga de ella.

 Ejemplo:

 Estudiar el comportamiento a la larga de la cadena de Markov con matriz


m atriz de
transición:

 
0 1/2 1/2 0 0 0 2/10 1/10
1/2 1/2 0 0 0 0 2/10 1/10
1/2 0 1/2 0 0 0 0 0
0 0 0 1 0 0 3/10 0
 M  =
0 0 0 0 3/5 1/2 0 0
0 0 0 0 2/5 1/2 0 1/10
0 0 0 0 0 0 3/10 1/10
0 0 0 0 0 0 0 6/10
de  M es:
El polinomio característico de M

 M  λ  I = (λ  – 


3
 – 1) λ 
1
 λ +
1
 λ 
3
 λ 
3
 λ 
1

COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 141

Loss auto
Lo autoval
alor
ores
es son,
son, po
porr tanto
tanto,, 1 (trip
(triple
le),
), 1/
1/10
10,, 3/
3/10
10,, 1/
1/2,
2, 3/
3/5,
5, –1
–1/2
/2..

Los autoespacios correspondientes son:

 8

 N ((λ = 1) = x    / x = α , α , α , β , γ ,
 N 
4 γ 

, 0, 0 , ∀α , β , γ  
5 
 
 N ((λ = 1/10) = x    / x = 0, 0, 0, 0, δ , – δ , 0 , 0 , ∀δ  
 N 
8
 

 N ((λ = 3/10) = x    / x = η,
 N 
8
 41 η  – 5 η
6
,  , 4η, 0, 0, –
2
28 η
3
, 0 , ∀η  
  
 
 N ((λ = 1/2) = x    / x = 0, κ , – κ , 0, 0, 0, 0, 0 , ∀κ  
 N 
8
 

 N (λ =3/5)= x    / x =
 N (
8
µ 7
3
11
10
11
10
22
15
22
, –  µ, 5µ,  µ,  µ,0,–  µ, – 
5
µ ∀µ
,  

 N   2 2  ν  ν 
 N ((λ = – 1/2) = x    / x = ν , –  , –  , 0, 0, 0, 0, 0 , ∀ν  
8
 
Como todos los autoespacios tienen dimensión igual al orden de multiplicidad
del autovalor matriz M es
autovalor correspondiente, la matriz M  es diagonalizable
diagonalizable..
 P es la matriz que tiene por columnas ocho autovectores linealmente indepen-
Si P
Si
dientes,
dien tes, por ejemp
ejemplo:
lo:

   
1 0 0 0 6 0 30 2 1 0 0 0 0 0 0 0
1 0 0 0 41 1  – 70  – 1 0 1 0 0 0 0 0 0
1 0 0 0  – 15  – 1 150  – 1 0 0 1 0 0 0 0 0
0 1 0 0 24 0 33 0 0 0 0 1/10 0 0 0 0
 P =
0 0 5 1 0 0 33 0 ⇒ P –1 · M 
 M ·· P = 0 0 0 0 3/10 0 0 0
0 0 4  – 1 0 0 0 0 0 0 0 0 0 1/2 0 0
0 0 0 0  – 56 0  – 44 0 0 0 0 0 0 0 3/5 0
0 0 0 0 0 0  – 132 0 0 0 0 0 0 0 0  –1
 –1//2

  
1 0 0 0 0 0 0 0 1/3 1/3 1/3 0 0 0 4/21 3/14
0 1 0 0 0 0 0 0 1/3 1/3 1/3 0 0 0 4/21 3/14
0 0 1 0 0 0 0 0 1/3 1/3 1/3 0 0 0 4/21 3/14
n n  –1 0 0 0 0 0 0 0 0  –1 0 0 0 1 0 0 3/7 3/28
m M  = P
lim
li  P·· lim J  · P
 P = P·
 P · 0 0 0 0 0 0 0 0 · P
 P = 0 0 0 0 5/9 5/9 0 5/36
n→∞ n→∞
0 0 0 0 0 0 0 0 0 0 0 0 4/9 4/9 0 1/9
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1422
14 MODE
MODELO
LOS
S MATE
MATEMÁ
MÁTI
TICO
COS
S DISC
DISCRE
RETO
TOS
S EN LAS
LAS CIE
CIENC
NCIA
IAS
S DE LA
LA NA
NATU
TURA
RALE
LEZA
ZA

  
1/3 1/3 1/3 0 0 0 4/21 3/14  p1 (0)
1/3 1/3 1/3 0 0 0 4/21 3/14  p2 (0)
1/3 1/3 1/3 0 0 0 4/21 3/14  p3 (0)
n 0 0 0 1 0 0 3/7 3/28  p4 (0)
lim P (n) = lim M  · P
lim  P (0) = 0 0 0 0 5/9 5/9
5/9 0 5/36 ·  p5 (0)
n→∞ n→∞
0 0 0 0 4/9 4/
4/9
9 0 1/9  p6 (0)
0 0 0 0 0 0 0 0  p7 (0)
0 0 0 0 0 0 0 0  p8 (0)

Este límite depende de la distribución de probabilidad inicial.


que  P(0)
Teniendo en cuenta que P (0) es un vecto
vectorr de probabil
probabilidad
idad y que,
que, por tanto,
tanto, sus
componentes suman 1, se puede escribir:

1
 (5 p1 + 5 p2 + 5 p3 – 9 p4 – 9 p5 – 9 p6 – p7 + 9)
 – p
42
1
 (5 p1 + 5 p2 + 5 p3 – 9 p4 – 9 p5 – 9 p6 – p7 + 9)
 – p
42
1
 (5 p1 + 5 p2 + 5 p3 – 9 p4 – 9 p5 – 9 p6 – p7 + 9)
 – p
42
1
n
lim P (n) = lim M  · P
 P (0) =  (– 3 p1 – 3 p2 – 3 p3 + 25 p4 – 3 p5 – 3 p6 + 9 p7 + 3)
n→∞ n→∞ 28
1
 (– 5 p1 – 5 p2 – 5 p3 – 5 p4 + 15
15 p5 + 15
15 p6 – 5 p7 + 5)
5)
36
1
 (–  p1 –
(– p  p2 –
 – p  p3 –
 – p  p4 + 3 p5 + 3 p6 –
 – p  p7 + 1)
 – p
9

0
0

En este resultado se advierte que el lim P (n) depende de la distribució


distribución
n de pro-
n→∞
babilidad inicial,
babilidad inicial, y además,
además, que los
los estados
estados 7 y 8 son transitori
transitorios,
os, pues a la larga
larga
el sistema
s istema no puede estar en ninguno de los dos.

n
Analizando el lim M  se ve claramente que:
n→∞

- Los estado
estadoss 1, 2 y 3 forma
forman
n un
unaa clase
clase comple
completame
tamente
nte ergó
ergódica
dica,, con distr
distribu
ibu--

 
1/3
ción permanente, o estable, 1/3 .
1/3
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 143

- Los estados 5 y 6 forman otra clase completamente ergódica, con distribución


permanente
 
5/9
4/9
.

- Los estados 7 y 8 son transitorios.

Hay tantas clases ergódicas como el orden de multiplicidad del autovalor 1.


Hay tres distribuciones de probabilidad estacionarias, las correspondientes a
tres autovectores asociados al autovalor λ = 1. Estas son:

    
1/3 0 0
1/3 0 0
1/3 0 0
0 1 0
, y
0 0 5/9
0 0 4/9
0 0 0
0 0 0

si la distribución de probabilidad en el instante inicial es una cualquiera de las tres,


el sistema en cualquier instante tiene la misma distribución de probabilidad que en
el instante de partida.

Ejemplo: Dominancia a la larga del carácter homocigótico.

En el artículo titulado: Diagrama de red. Dominancia equilibrada a la larga del


carácter homocigótico (39) se presenta un diagrama de red, como variante del dia-
grama de árbol, para modelizar el planteamiento y descripción de los seis tipos bási-
cos de apareamiento teniendo en cuenta un solo locus con dos alelos A y B, los tres
genotipos posibles son AA, AB y BB. Los tipos básicos de apareamiento son seis:
AA  AA, AA  AB, AA  BB, AB  AB, AB  BB y BB  BB.
en el caso de cruzamientos libres, sometidos exclusivamente a las leyes de azar, sin
existencia de factores de mutación, selección o esterilidad, emigración o inmigra-
ción, y construye la matriz de transición del proceso de Markov correspondiente:

 
1 0 0 0 0 0
1/4 2/4 0 1/4 0 0
 A = 0 0 0 1 0 0
1/16 4/16 2/16 4/16 4/16 1/16
0 0 0 1/4 2/4 1/4
0 0 0 0 0 1
144 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

En este artículo se afirma que en las condiciones señaladas los híbridos pueden
considerarse a la larga relativamente inexistentes; y se comprueba para la distribu-
ción de probabilidades iniciales: P (0) = [1/9 2/9 2/9 1/9 2/9 1/9] que después
de 60 generaciones la distribución de probabilidades es:
P (60) = [0.499999 0.000001 0.000000 0.000001 0.000001 0.499999].
Aunque también se puede trabajar por filas, como el polinomio característico de
 A y el de su transpuesta coinciden y también los autovalores, se puede considerar la
matriz M, transpuesta de la matriz A, que es estocástica por columnas

 
1 1/4 0 1/16 0 0
0 2/4 0 4/16 0 0
 M = 0 0 0 2/16 0 0
0 1/4 1 4/16 1/4 0
0 0 0 4/16 2/4 0
0 0 0 1/16 1/4 1

y demostrar que el


1/9 1/2
2/9 0
n n
2/9 0
lim P (n) = lim M  · P (0) = lim M  · 1/9 = 0 .
n→∞ n→∞ n→∞
2/9 0
1/9 1/2

En efecto, se puede comprobar con DERIVE que el polinomio característico de


 M es:
13 15 13 1 3 1
λ 6 –  λ 5 +  λ 4 –  λ 3 –  λ 2 +  λ  –  .
4 4 8 32 16 32
Los autovalores de M son:
λ 1 = λ 2 = 1, λ 3 = 1/2, λ 4 = 1/4, λ 5 =
 5
1 –  
, λ  =  .
 5
1 +  
 6
4 4
Los autoespacios asociados a los autovalores son:

 
 N (λ = 1) = x    / x = α , 0, 0, 0, 0, β  , ∀α , β  
6
 
 
 N (λ = 1/2) = x    / x = γ , – 2γ , 0 , 0 , 2γ , – γ  , ∀γ  
6
 
 
 N (λ = 1/4) = x    / x = δ , – 4δ , 2δ , 4δ , – 4δ , δ  , ∀δ  
6
 
COMPORTAMIENTO ASINTÓTICO DE LAS CADENAS DE MARKOV 145

 5
1 –  

 N  λ =
4  
 = x   / x = (θ , – θ  6 
6

 5 + 14 , 
 – θ  8 
  5 + 18 , θ  20  5 + 44 , – θ  6   5 + 14 , θ ), ∀θ  
     
 5
1 +  

 N  λ =
4  
 = x 
6
 / x = (κ , κ  6 
 5 –14 , κ  8  5 – 18 ,
   
κ  –20 
  5 + 44 , κ  6   5 – 14 , κ ), ∀κ  
   
El autoespacio asociado a λ  = 1, autovalor doble, tiene dimensión dos y, por 
tanto, la matriz M es semejante a una matriz diagonal.

Tomando como autovectores asociados al autovalor λ = 1 los vectores:

 
1 0
0 0
0 2 0
P1 = 0 yP = 0 .
0 0
0 1

como autovectores asociados a los autovalores λ =1/2 y λ = 1/4 respectivamente los
vectores:

 
1 1
 – 2  – 4
0 4 2
P3 = 0 yP = 4 .
2  – 4
 – 1 1

1 –  
 5
1 +  
 5
y autovectores asociados respectivamente a los autovalores λ =  λ 
y = 
4 4

1 1
 – 14 – 6  
 5  – 14 + 6  
 5
P5 =
 5
 – 18 – 8   6
yP =  5
 – 18 + 8  
.
20  
 5 + 44  – 20  
 5 + 44
 – 6  
 5 – 14 6  
 5 – 14
146 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

Si P es la matriz cuyas columnas son los autovectores anteriores colocados en


el orden en que aparecen, se comprueba fácilmente con DERIVE que:
1 0 0 0 0 0

0 1 0 0 0 0

0 0 1/2 0 0 0
 –1
 P · M · P = = J 
0 0 0 1/4 0 0
1 –  
 5
0 0 0 0  0
4
0 0 0 0 0   5
1 +  
4

y que

 
1 0 0 0 0 0
0 1 0 0 0 0
n
0 0 0 0 0 0
lim J  = 0 0 0 0 0 0
n→∞
0 0 0 0 0 0
0 0 0 0 0 0

Por tanto:

 
1 3/4 1/2 1/2 1/4 0
0 0 0 0 0 0
n n  –1 n  –1 0 0 0 0 0 0
lim M  = lim ( P · J  · P ) = P · lim J  · P = .
n→∞ n→∞ n→∞ 0 0 0 0 0 0
0 0 0 0 0 0
0 1/4 1/2 1/2 3/4 1

3 1 1 1
 p1  p1 +   p2 +   p3 +   p4 +   p5
4 2 2 4
 p2 0

 p3 0
n n
lim P (n) = lim M  · P (0) = lim M  · =
n→∞ n→∞ n→∞
 p4 0

 p5 0
5
3 1 1 1
1–   pi 1– p1 –   p2 –   p3 –   p4 –   p5
162 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

La matriz de Leslie puede ser reducible, en el caso en que se consideren todas


las clases de edad y estas incluyan edades post-reproductoras, pero la submatriz A
de M siempre es una matriz irreducible , pues f k  ≠ 0.
7

Recordando que una matriz no negativa es irreducible si y sólo si su digrafo aso-


ciado es fuertemente conexo, las matrices de los ejemplos 7.2.1. y 7.2.2. son irre-
ducibles, en cambio las de ejemplo 7.2.3. es reducible.
Para estudiar la evolución a la larga de un modelo de Leslie sólo se considera-
rán las (k + 1) primeras clases de edad, eliminando las correspondientes a las cla-
ses de edad post-reproductora. Así :
 f 0  f 1  f 2 …  f k –1   f k 
 p0 0 0 … 0 0
0  p1 0 … 0 0
 M =
0 0  p2 … 0 0
… … … … … …
0 0 0 …  pk  –1 0
Esta matriz de orden ( k + 1) irreducible es además siempre no singular , por ser 
 f k  ≠ 0 y todas las probabilidades positivas. Y la matriz  M será reducible si se consi-
deran todas las clases de edad y estas incluyen etapas post-reproductoras.
Para poder determinar la distribución de edad estable, hay que calcular los vec-
tores Nx, tales que N  x +1 = λ  N  x , siendo λ  constante, es decir,
 M · N  x  = λ  N  x  ⇔ ( M  – λ  I ) N  x  = 0
Hay que hallar, por tanto, los autovalores y autovectores de la matriz de pro-
yección M.

7.4. Autovalores de la matriz de Leslie.

Aunque para hallar los autovalores de  M se puede resolver la ecuación caracte-


rística  M  – λ  I = 0, este cálculo se facilita haciendo el siguiente cambio de coor-
denadas:
v x  = H · N  x 
siendo H la matriz regular diagonal

 –1
  pi 0 … 0 0
i=0

 –1
0   pi … 0 0
i=1
 H =
… … … … …

0 0 …  pk  –1 0
0 0 … 0 1

Si f  ≠ 0, y se reemplazan por 1 todos los elementos positivos se obtendría una matriz de adyacencia de un grafo
7
UN MODELO DE ECOLOGÍA DE POBLACIONES. MODELO DE LESLIE 163

cuyos elementos se obtienen inmediatamente a partir de las tablas de vida, o a par-


tir de la matriz de proyección  M y representa la matriz de un cambio de base por-
que su determinante es distinto de cero, ya que 0 < p x  < 1, ∀ x = 0, 1, 2, …, k  – 1.
En este nuevo sistema de coordenadas el vector correspondiente a la distribución
de edad N n del instante t = n es:
vn = H · N n
y para el instante t = n + 1 es:
 –1
vn+1 = H · N n+1 = H · M · N n = H · M · H  · vn = B · vn
 –1
siendo B = H · M · H  , una matriz semejante a M.
Efectuando el producto:

     
k– 2 k 
 –1
 f 0  p0 f 1  p0 p1 f 2 …  pi  f k –1
   pi  f k 
i=0 i=0

1 0 0 … 0 0
 –1
 B = H · M · H  = 0 1 0 … 0 0

0 0 1 … 0 0

… … … … … …

0 0 0 … 1 0

Comparando la matriz B con la original M se puede ver que los elementos p x  de


la subdiagonal principal de la matriz M se han transformado en 1 en la matriz B. La
matriz B se denomina la forma racional canónica de M.
Como las matrices  M y B son semejantes tienen los mismos autovalores y, por 
tanto, para hallar los autovalores de M con más facilidad, se calculan las soluciones
de la ecuación característica de  B, que es:  B – λ  I = 0. Desarrollando el determi-
nante se obtiene:
k +1
(– 1) λ k +1 + (– 1)k  f 0 λ k  + (– 1)k  p0 f 1 λ k  –1 + (– 1)k  p0 p1 f 2 λ k  –2 +
2 k 
 –2 k 
 –1
+ (– 1)  f 3   pi λ       pi  λ  + (– 1)  f k    pi = 0
k  k 
 –3 k  k 
+ … + (– 1)  f k –1
i=0 i=0 i=0

k +1
Dividiendo esta ecuación entre (– 1) queda la ecuación polinómica:
2 k 
 –2 k 
 –1
λ   – f 0 λ   – p0 f 1 λ   – p0 p1 f 2 λ   – f 3   pi λ   – … – f k –1
k +1 k  k 
 –1 k 
 –2
     pi  λ  – f k    pi = 0

 –3

i=0 i=0 i=0

k  k 
 –1 0
cuyo coeficiente principal es 1 y los coeficientes de λ  ,  λ  , … λ ,  λ  son, respecti-
vamente, los opuestos de los elementos de la primera fila de la matriz B en el mismo
orden. Por tanto, esta ecuación se puede escribir directamente a partir de la matriz
164 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

7.5. Particularidades de los autovalores de la matriz de Leslie.

• Como se ha explicado anteriormente, los autovalores de M son las soluciones


de la ecuación característica:
2 k 
 –2 k 
 –1
λ   – f 0 λ   – p0 f 1 λ   – p0 p1 f 2 λ   – f 3   pi λ   – … – f k –1
k +1 k  k 
 –1 k 
 –2 k 
 –3
     pi λ  – f k    pi = 0
i=0 i=0 i=0

8
y, por el teorema de  Harriot-Descartes , al tener la ecuación característica
coeficientes reales y sólo haber un cambio de signo en los coeficientes de esa
ecuación, sólo tiene una raíz real y positiva, que se representará a partir de
ahora por λ 1.

 –1
Como el término independiente de esa ecuación es: –  f k    pi ≠ 0, entre los
i=0
autovalores de M no está el cero. Por tanto, los autovalores de  M distintos de
λ 1 son o bien reales negativos o complejos 9.

Como la matriz de Leslie

 f 0  f 1  f 2 …  f k –1


   f k 
 p0 0 0 … 0 0
0  p1 0 … 0 0
 M = siendo f k  ≠ 0
0 0  p2 … 0 0
… … … … … …
0 0 0 …  pk  –1 0

es una matriz irreducible y no negativa, si sus autovalores son λ 1, λ 2, …, λ k+1,


por el teorema de Perron-Frobenius , si ρ = máx λ i, entonces ρ es un auto-
10
1≤i≤k+1
valor simple de la matriz  M .
En consecuencia, se puede asegurar que ρ = máx λ i, que es la raíz de Perron
1≤i≤k+1

de la matriz M, es el autovalor λ 1 real y positivo. Este autovalor es simple y el


módulo de cualquier otro autovalor de  M  es menor o igual a λ 1 y además
1
siempre es posible encontrar un autovector  N  asociado al autovalor λ 1,
1 1
 M · N  = λ 1 N  , que tenga todos sus elementos estrictamente positivos.
Por ello, a partir de ahora, se llamará a λ 1 el autovalor dominante de la matriz
de Leslie.

8
Teorema de Harriot-Descartes:
El número de raíces positivas de una ecuación con coeficientes reales, contada cada una tantas veces como indi-
que su orden de multiplicidad, no supera el número de variaciones que presenta la sucesión de los coeficientes,
y ambos números son de la misma paridad.
9
Obsérvese que λ 1 no puede ser raíz múltiple por el teorema de Harriot-Descartes.
UN MODELO DE ECOLOGÍA DE POBLACIONES. MODELO DE LESLIE 165

Puede ocurrir que otro u otros autovalores de  M , necesariamente negativos o


complejos, tengan módulo igual a ρ  = λ 1 = λ 1 pero según el teorema de
Perron-Frobenius todos ellos tendrán que ser autovalores simples y no existe
ningún autovector con todas las componentes positivas asociado a ninguno de
ellos.
11
Teniendo en cuenta el teorema 3 de Perron , si existe una potencia de la
matriz M con todos los elementos positivos, entonces el autovalor dominante
ρ  = λ 1 es el único autovalor de módulo máximo. En este caso  M es una matriz
 primitiva.

• Caracterización de las matrices de Leslie primitivas (Rosenblatt, 1957):


Una matriz de Leslie  M = [mij ] irreducible es primitiva si y sólo si el máximo
común divisor de los índices j de columna de los elementos positivos de la pri-
mera fila de la matriz M es 1.
El digrafo correspondiente a una matriz no primitiva es cíclico y el índice de
imprimitividad coincide con el máximo común divisor de las longitudes de
sus ciclos.
0 2 0 8
Por ejemplo, la matriz M = 1/2 0 0 0 es imprimitiva. En efecto,
0 3/4 0 0
0 0 1/4 0

 x  0  x  0 0  x  0  x 


0  x  0  x   x  0  x  0
 M  k  = y  M 2k +1 =
2

 x  0  x  0 0  x  0  x 


0  x  0  x   x  0  x  0

donde  x  indica un elemento distinto de cero, que además es positivo y, por 
tanto, ninguna potencia de M tiene todos sus elementos distintos de cero.
En este caso M no es primitiva , pero sí irreducible por ser  f 3 = 8 ≠ 0.
El digrafo correspondiente se representa a continuación:

2 8

C0 C1 C2 C3
1 /  3 /  1 / 
2 4 4

Este grafo tiene ciclos de longitudes 2 y 4 y su índice de imprimitividad es


2 = m. c. d. {2, 4}. Por tanto, tendrá dos autovalores de módulo máximo.
170 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

c) En el caso en que la matriz M es reducible , existe un autovalor λ 1 real y posi-


tivo, tal que
λ i≤ λ 1, ∀i = 2, 3, …, k + 1
1
Y existe un autovector N  asociado al autovalor dominante λ 1 que tiene todas
sus componentes positivas. Puede haber autovectores asociados a otro auto-
valor con componentes positivas o cero.

1 2 0
Ejemplo 7.7.3. Si M = 1/2 0 0 el polinomio característico es:
0 1/3 0
1 +   
5 1 –   
5
 M  – λ  I = λ 3 – λ 2 – λ  que tiene por raíces:  λ 1 =  , λ  = , λ  = 0,
2 3
2 2
1 +   
5
el autovalor dominante es:  λ 1 =  .
2
Los autoespacios correspondientes son:

2     
1 +    3 + 3   

 N  λ  =  5
= x  
3

 / x = 3   
5 + 9  α ,   2
5

  α , α  , ∀α   


 N  λ  =
1 –   
 2
5
 
= x  
3

 / x = 9 – 3   
5  β ,   3– 3   
5
 
  β , β  , ∀β   
2 
 N (λ  = 0) = {x    / x = (0, 0,  γ ), ∀ γ   }
3

Un autovector asociado al autovalor dominante es por ejemplo


9 + 3   
5
1 3 + 3   
5
 N  =  .
2
1

7.8. Tasa neta de reproducción por unidad de tiempo.


1
Si la distribución de edad en el instante inicial es  N 0 = N  se verifica que:
1 1
 N 1 = M · N 0 = M · N  = λ 1 N 
1 2 1
 N 2 = M · N 1 = M · (λ 1 N  ) = λ 1  N 

 N n = λ 1  N  , ∀n  
n 1

esto significa que la distribución de edad de la población en el instante t = n es pro-


porcional a N 0 = N  , ∀n  .
1

1
El autovector  N  da las proporciones de las diferentes clases de edad en una
UN MODELO DE ECOLOGÍA DE POBLACIONES. MODELO DE LESLIE 171

característica representa la tasa neta de reproducción por unidad de tiempo cuan-


1
do se parte de la distribución de edad estable N 0 = N  .
1
Si se parte de la distribución de edad estable,  N 0 =  N  , el crecimiento de la
población es proporcional al tamaño de esta. Llamando r  a la tasa de crecimiento
 per capita de la población o tasa de crecimiento instantáneo será:
dy
 = r · y
dt 
siendo r una constante, es decir, se trata de un crecimiento malthusiano. Si en el ins-
tante inicial hay  y (0) = y0 individuos, la integral de esa ecuación diferencial es:
r ·t 
 y (t ) = y0 · e
r · n
Para t = n se tendrá: N n = N 0 · e para cada una de las clases de edad. Para una
1 n 1
determinada clase de edad, por ejemplo la edad x , por ser  N 0 = N  y N n = λ 1  N  se
n 1
tiene: N  xn = λ 1  N  x 0, siendo N  x 0 la componente ( x + 1)-ésima de  N 0 = N  , y también
r · n
 N  xn = N  x 0 · e , de donde se deduce que:
er · n = λ 1n ⇒ r = Ln λ 1.
La tasa de crecimiento per capita de una población estable es el logaritmo nepe-
riano de λ 1 raíz de Perron de la matriz de proyección poblacional, o matriz de
Leslie.

Ejemplo 7.8.1.  La siguiente matriz representa la matriz de proyección de una


 población dividida en cuatro grupos de edad:
0 0 3 6
1/2 0 0 0
 M =
0 1/3 0 0
0 0 1/2 0

a)  Dar la ecuación característica y el autovalor dominante.


b)  Hallar los autovectores asociados al autovalor dominante.
c) ¿Cuál es la distribución de edad estable?
d) ¿Cuál es la tasa neta de reproducción por unidad de tiempo cuando se parte
de la distribución de edad estable?
e) Si el crecimiento de la población es proporcional a su tamaño, hallar la tasa
de crecimiento per capita.
1 1
a) El polinomio característico es  M  – λ  I = λ   –  λ  –  y, por tanto, la ecua-
4

2 2
4 1 1
ción característica es λ   –  λ  –  = 0, cuyas soluciones son: λ 1 =1, otra
2 2
real negativa que es aproximadamente – 0.647798 y un par de complejas
conjugadas de módulo 0.878546 que son aproximadamente – 0.176100 ±
172 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

b) Los autovectores asociados al autovalor dominante son las soluciones de la


ecuación: ( M  –  I )  X  = 0 que son  X = α ,  α  α  α 

 ,  ,   ∀ α    o bien
2 6 12
 X = (12α , 6α , 2α , α ) ∀ α   
c) Por tanto la distribución de edad estable es:
12n
6n
1
 N  = ∀ n  .
2n
n

12
1
6
En particular N  = da la proporción de los individuos de las distintas
2
1
clases tomando como unidad el número de los de la última clase.
d) La tasa neta de reproducción por unidad de tiempo es λ 1 = 1, lo que signifi-
1
ca que si se parte de la distribución de edad estable  N 0 = N  la población se
mantiene constante en el tiempo, es decir, es estable y estacionaria.
e) Si el crecimiento de la población es proporcional a su tamaño, la tasa de cre-
cimiento per capita es k = Lnλ 1 = Ln1 = 0.

7.9. Una aplicación en la zoología.

Bernardelli (4) describe la matriz de proyección poblacional para una especie de


escarabajo que vive sólo tres meses y que se reproduce únicamente en el tercer mes
de vida. Por cada hembra de dos meses de edad observó que nacían, por término
medio, seis nuevas hembras vivas, y estimó las probabilidades de supervivencia de
las clases: p0 = 1/2 y p1 = 1/3.
La matriz de Leslie correspondiente es:
0 0 6
 M = 1/2 0 0
0 1/3 0
Efectuando el cambio de base dado por la matriz:

1
  pi 0 0 1/6 0 0
i=0
 H = = 0 1/3 0
0  p1 0 0 0 1
UN MODELO DE ECOLOGÍA DE POBLACIONES. MODELO DE LESLIE 173

se obtiene la matriz  B semejante a M :


0 0 1
 –1
 B = H · M · H  = 1 0 0
0 1 0
cuya ecuación característica es:
 B – λ I 
  = 0 ⇔ – λ 3 + 1 = 0
que tiene por soluciones las raíces cúbicas de la unidad:
 – 1 +   
3i  – 1 –   
3i
λ 1 = 1, λ 2 =  y λ  =  3
2 2
Los tres autovalores tienen módulo máximo λ 1 = 1, entonces M no puede ser pri-
mitiva. En efecto, el m. c. d. de los índices de los elementos positivos de la primera
fila de la matriz  M es 3 ≠ 1. También se puede comprobar que todas las potencias
de la matriz  M tienen algún elemento cero, pues
0 2 0
2 3
 M  = 0 0 3 , M  = I 3 x 3
1/6 0 0
= M  , M  = I , ∀ k  .
3k + 1 3k + 2 2 3k 
por tanto, M  = M , M 
En consecuencia, cualquier distribución de edad inicial se repetirá idénticamen-
te cada tres meses.
Por ejemplo, si la población inicial es de 3000 hembras distribuidas en cantida-
des iguales en los tres grupos de edad, se tiene:
6000 2000 1000
 N 1 = M · N 0 = 500 , N 2 = M 2 · N 0 = 3000 y N 3 = M 3 · N 0 = 1000
333 166 1000
1
Si N 0 = N  , autovector asociado al autovalor dominante λ 1 = 1, esta se manten-
drá estable y estacionaria a la larga.
Una población estable y estacionaria a la vez es la que se mantiene con la misma
distribución de sus individuos en las clases de edad en cualquier etapa y conser-
vando también en cada una de las clases el número de individuos de la distribución
inicial.
Si se parte de la distribución:
2
1
 6
(1/2) · (1/3)
1
 N 0 = N  = = 3
1
 1
1/3

1
o cualquiera proporcional a ella,  N n = M  · N 0 = M  · N 1 = N  , ∀n ≥ 1, n  . En este
n n 1
APÉNDICE I 195

1
V1 = 1  N (A, – 1, 3) – N (A, – 1, 2)
0
9
Tomando V2 = (A + I) · V1 = 3  N (A, – 1, 2) – N (A, – 1, 1)
 – 15
15
2
V3 = (A + I) · V1 = 6  N (A, – 1, 1)
 – 27

3
se tiene una base de  respecto de la cual la matriz semejante a A es:

 – 1 0 0
J= 1  – 1 0
0 1  – 1

1 9 15  – 1 0 0
 –1
pues P = 1 3 y P · A · P = 1  – 1 0 .
6
0  – 15  – 27 0 1  – 1

Obsérvese que, si se colocan los vectores de la base en orden inverso, la parale-


la a la diagonal principal que contiene los unos aparece por encima de esta, pues

15 9 1  – 1 1 0
 –1
P= 6 3 1 yP ·A·P= 0  – 1 1 .
 – 27  – 15 0 0 0  – 1

A.4. Hallar una matriz de Jordan semejante a A4x4.

Los archivos DIAGM4X4.MTH y CMJM4X4.MTH resuelven el mismo pro-


blema para matrices de orden 4.

El archivo DIAGM4X4.MTH consta de las seis expresiones que aparecen en la


siguiente figura:
196 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

y resuelve el problema para las matrices de orden 4 que sean diagonalizables.

Si para algún autovalor µ es DIMAUTOEV (A, µ ) menor que el orden de multi-
plicidad de µ , se puede encontrar J usando el archivo que hemos denominado
CMJM4X4.MTH, que contiene las cinco primeras expresiones del anterior y ade-
más:
k
6: M_N(A, µ , k): = (A – µ IDENTITY_MATRIX (4))
7: DIMSVNK (A, µ , k): = DIMENSION (A) – RANGO (M_N (A, µ , k))
x1
k x2
8: N (A, µ , k , x1, x2, x3, x4): = (A – µ IDENTITY_MATRIX (4)) ·
x3
x4
9: P: = APPEND (V1`, V2`, V3`, V4`)`

 – 24  – 12 11 21
12 6  – 6  – 10
Ejemplo A.4.1. Si A = el polinomio característico es:
 – 22  – 12 9 21
 – 10  – 4 5 9
4 2 2 2
µ   – 8µ  + 16 = (µ  – 2) (µ + 2)
Los autoespacios correspondientes a los dos autovalores son:


AUTOEV (A, µ = 2) = x1 = @1, x2 = –
2@1
 ,x 3 = @1, x4 =
@1
 
APÉNDICE I 197


AUTOEV (A, µ = – 2) = x1 = @2, x2 = @3, x3 = 2@2 + 3@3, x4 = – @3 
como el autoespacio vectorial correspondiente al autovalor 2, que es doble, tiene
dimensión uno, hay que calcular el subespacio:


N (A, µ = 2, 2) = x1 = @4, x2 = @5, x3 = @4, x4 = @4 + @5 
0
V1 = 1  N (A, µ = 2, 2) – N (A, µ = 2, 1)
0
1
9
 – 6
V2 = (A – 2I) V1 =  N (A, µ = 2, 1)
9
3
Tomando
1
0
V3 =  N (A, µ = – 2, 1)
2
0
0
1
V4 =  N (A, µ = – 2, 1)
3
 – 1

se tiene una base respecto de la cual la matriz semejante a A es:


2 0 0 0
1 2 0 0
J=
0 0  – 2 0
0 0 0  – 2
4
La matriz del cambio de base en  es:

0 9 1 0 2 0 0 0
1  – 6 0 1  –1 1 2 0 0
J= yP ·A·P=
0 9 2 3 0 0  – 2 0
1 3 0  – 1 0 0 0  – 2

En los dos ejemplos siguientes las matrices tienen el mismo polinomio


4
característico (µ  + 1) y la dimensión del autoespacio vectorial correspondiente al
autovalor – 1 es en ambos casos 2, pero no son semejantes a la misma matriz de
198 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

0 2  – 1 0
0  – 1 0 0
Ejemplo A.4.2. Si A = el autoespacio vectorial corres-
1 2  – 2 0
1 1  – 1  – 1
pondiente al autovalor es:


AUTOEV (A, µ = – 1) = x1 = @1, x2 = 0, x3 = @1, x4 = @2 = N (A, µ = – 1, 1) 
que tiene dimensión 2, por tanto, se calcula el subespacio:


N (A, µ = – 1, 2) = x1 = @3, x2 = @4, x3 = @5, x4 = @6 
que tiene dimensión 4 y es, por tanto, todo el espacio.

La cadena de subespacios para el autovalor – 1 se estabiliza en N (A, µ = –1, 2)


0  N (A, µ = – 1, 1)  N (A, µ = –1, 2) = 4

1
V1 = 0  N (A, µ = – 1, 2) – N (A, µ = – 1, 1)
0
0
1
0
V2 = (A + I) V1 =  N (A, µ = – 1, 1)
1
1
Tomando
0
1
V3 =  N (A, µ = – 1, 2) – N (A, µ = – 1, 1) y linealmen-
0 te independiente con V 1
0
2
0
V4 = (A + I) V3 =  N (A, µ = – 1, 1)
2
1

se obtiene la base respecto de la cual la matriz semejante a A es:

 – 1 0 0 0
1  – 1 0 0
J=
0 0  – 1 0
0 0 1  – 1
214 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

1
3. a) Los autovalores de M son: λ  = 1, λ  = –  (doble), λ  = 0
2

2
2
b) Los autovectores por la derecha asociados a λ  = 1 son y todos los
1
proporcionales a él. 1
1
Los asociados al autovalor λ  = –  forman un subespacio vectorial de
2
4
 de dimensión dos, es decir, un plano. Son vectores directores de ese

0 2
2 0
subespacio vectorial y y, por tanto, dos autovectores por la dere-
 – 1  – 1
 – 1  – 1

cha, que son además linealmente independientes.


Los autovectores por la derecha asociados al autovalor λ  = 0 forman, como
0
0
para el caso λ  = 1, una recta; un vector director de esa recta es: , que es
1
 – 1
por tanto uno de los autovectores asociados a λ  = 0 y todos los demás son
proporcionales a él.
1/3
n 1/3
c) lim M  · P = que es la distribución de probabilidad estable, es decir,
n→∞
1/6
1/6
autovector asociado a λ  =1 y vector de probabilidad.

4. Los autovalores de: M 1 son 1, 1/2 y 0; los de M 2 son 1, 0 (doble) y – 1; los
4 9 +   
7 9 –   
7
de M 3 son 1,  ,   y ; los de M 4 son 1, 0 y – 1/2 (doble).
5 25 25
Las matrices semejantes a M i (i = 1, 2, 3, 4) y diagonales son, respectiva-
mente:
1 0 0 0
1 0 0 0 0 0 0
 D1 = 0 1/2 0 ; D2 = ;
0 0 0 0
0 0 0 0 0 0  – 1
APÉNDICE II 215

1 0 0 0
4 1 0 0 0
0  0 0
5 0 0 0 0
 D3 = 9 +   
7 ;  D4 =
0 0  0 0 0  – 1/2 0
25 0 0 0  – 1/2
9 –   
7
0 0 0 
25
5. a) Los diagramas de transición correspondientes se dibujan a continuación:
D1 D2
1 /  1 / 
1 /  2 1 2 2
2 1 / 
2 1 / 
2 2
1 /  1 /  1 /  1 /  1 / 
4 2 2 2 2
1 / 
1 /  4
2
1 1 / 
2

1 /  3 3 1 / 
2 4
2

D3 D4
0.64 0.48
0.08 1 / 
4
a 0.16 b 2 1 /  3
2
1 /  1
1 /  2  / 4
0.08 0.2 0.20 2 1 / 
0.16 0.2 1 /  1 /  2
4 2
0.2 1 /  1
c d 2
0.4 1 4 1 / 
0.2 4

b) Todos los estados de la primera son ergódicos (permanentes). La cadena


es completamente ergódica.
Los estados de la segunda son periódicos de periodo dos.
Los de la tercera son: a, b y c transitorios y d absorbente.
Los de la cuarta son ergódicos (permanentes) pues la cadena es regular.

1/4
c) La distribución de probabilidad a la larga es para la primera 1/2 , inde-
1/4
pendientemente de la distribución de probabilidad inicial.
1/4
1/4
En la segunda, el vector fijo de probabilidad es v1 = , si este vector es
1/4
216 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

n
la distribución de probabilidad inicial será lim  M  · v1 = v1. Para cualquier 
n→∞
n
otro vector de probabilidad,  P, no existe lim  M  · P porque el límite para
n→∞
las potencias pares de M no coincide con el de las potencias impares y exis-
ten oscilaciones de periodo dos. La distribución de probabilidad a la larga
depende de la distribución de probabilidad inicial.
0
0
En la tercera, el vector de probabilidad estable es y a la larga la cade-
0
1
na queda atrapada en el estado d, cualquiera que sea la distribución de pro-
babilidad inicial.
1/3
1/3
En la cuarta, la distribución de probabilidad a la larga es indepen-
1/6
1/6
dientemente de la distribución de probabilidad inicial.

1/2 1/4 1/4 1/3


6. a) E = { A, B, C} y M = 1/4 1/2 1/4 ; b) P (3) = 17/48 ;
1/2 1/4 1/2 15/48
0.3333 1/3
c) P (30) = 0.3333 ; d) lim P (n) = 1/3 independientemente del vec-
n→∞
0.3333 1/3
tor de probabilidad inicial, por ser la cadena completamente ergódica.

7. a) E = {1, 0} designando por 1 «sí va a trabajar» y por 0 «no va a trabajar»,

la matriz de transición es:



0.6
0.4
0.3
0.7  , b) 0.39, c) 0.444, d) 0.429352,
3
e) a la larga irá a trabajar con probabilidad  = 0.428571
7
1/4 1/4
8. a) P (2) = 1/2 ; b) lim P (n) = 1/2 , distribución de probabilidad perma-
n→∞
1/4 1/4
1/2
nente o vector de probabilidad estable; c) si  P (0) = 1/2 entonces
0
5/16 1/4
 P (2) = 1/2 y lim P (n) = 1/2 , ya que es independiente de la distribu-
n→∞
3/16 1/4
APÉNDICE II 217

3/4 1
9.  P (2) = 1/4 ; b) lim P (n) = 0 , a la larga la cadena queda atrapa-
n→∞
0 0
da en el estado absorbente, que es la única clase final de la cadena;
1/2 7/8 1
c) si P (0) = 1/2 entonces P (2) = 1/8 y lim P (n) = 0 , también
n→∞
0 0 0
es independiente de la distribución de probabilidad inicial.

10. a) Designando por P «profesional», C «cualificado», N «no cualificado» y


S «sin descendencia» el espacio de estados es: E = { P, C, N , S}.
0.56 0.14 0.175 0
0.07 0.42 0.175 0
b) M = . c) 0.18375
0.07 0.14 0.35 0
0.3 0.3 0.3 1

11. a) E = {C1, C2, C3, C4}


b)
1 1 1

C1 C2 C3

1 /  1 /  1 / 


4 4 4

C4
1 / 
4

c) Los estados C1, C2 y C3 son absorbentes y C4 es transitorio.


0.3320 1/3
0.3320 1/3
d) P (3) = . e) lim P (n) = a la larga desaparecerá la col-
n→∞
0.3320 1/3
0.0039 0
mena C4 y las otras tendrán el mismo número de abejas.

12. a) La distribución de probabilidad estacionaria es aproximadamente


0.1574
0.1539 .
0.6887
b) La distribución de probabilidad a la larga sería la distribución de proba-
Bibliografía utilizada

1. Abellanas, M., Lodares, D. Análisis de algoritmos y teoría de grafos. Ed. Ra-


Ma. Madrid. 1990.
2. Beddington, J. R., Taylor, D. B. Optimum age specific harvesting of a popula-
tion Biometrics. 1973; Vol. 29, Págs. 801-809.
3. Berge, C. Graphes . 3ª edición. Ed. Gauthier - Villars. Paris. 1983.
4. Bernardelli, H. Population waves  Journal Burma of Research Society. 1941;
Vol. 31, nº 1. Págs. 1-18.
5. Biggs, N. L. Matemática discreta. Ed. Vicens Vives. Barcelona. 1994.
6. Billingsley, P. Probability and measure. 3ª edición. John Wiley and Sons. New
York. 1995.
7. Bombal Gordón, F. Matemáticas y desarrollo científico. Lección inaugural del
curso académico 2000-2001. U.C.M. 2000.
8. Borel, E. Les probabilités et la vie. Ed. P.U.F. Paris. 1971.
9. Braun, M.  Ecuaciones diferenciales y sus aplicaciones. Ed. Grupo Editorial
Iberoamérica. México. 1990.
10. Bujalance, E. et al. Elementos de matemática discreta. Ed. Sanz y Torres. 2ª
edición. Madrid. 1997.
11. Carré, B. Graphs and networks. Ed. Oxford University Press. 1979.
12. Caswell, H. Matrix population models. Construction, analysis and interpretation.
Sinauer Associates, Inc. Publishers. Sunderland, Massachusetts. 2001.
13. Chatelin, F.  Eigenvalues of matrices. Editorial John Wiley and Sons.
Chichester. England. 1993.
14. Cullen, M. R.  Linear models in biology. Ed. Ellis Horwood Limited.
Chichester. England. 1985.
15. Cullmann, G. Initiation aux chaînes de Markov. Ed. Masson. Paris. 1975.
16. Cullmann, G.  Les chaînes de Markov multiples. Programmation dynamique.
222 MODELOS MATEMÁTICOS DISCRETOS EN LAS CIENCIAS DE LA NATURALEZA

17. Ferrando, J. C., Gregori, V. Matemática discreta. Ed. Reverté. Barcelona. 1994.
18. Foulds, L. R. Graph theory applications. Ed. Springer-Verlag. 1992.
19. García, A. (Ed.)  Prácticas de matemáticas con Derive. Ed. Clagsa. Madrid.
1994.
20. García Merayo, F. Matemática discreta. Ed. Paraninfo. Madrid. 2001.
21. González Manteiga, Mª T. Un modo asequible de iniciarse en la combinatoria.
 Didáctica de las Matemáticas. Nº 7. Nueva Revista de Enseñanzas Medias.
Págs. 95 a 106. Ed. Ministerio de Educación y Ciencia. Madrid. 1985.
22. González Manteiga, Mª T. Sobre las propiedades de ciertos tipos de grafos ale-
atorios y relaciones entre ellos. Cuadernos de Bioestadística y sus aplicaciones
 Informáticas. 1992; Vol. 10. Nº 1. Págs. 5 a 14.
23. González Manteiga, Mª T., Martínez Calvo, Mª C. Resolución de sistemas de
ecuaciones diferenciales lineales con coeficientes constantes con el Programa
Derive. 1996. Epsilon nº 36 , págs. 387-406.
24. Gordon, P. Théorie des Chaînes de Markov finies et ses applications. Ed.
Dunod. Paris. 1965.
25. Grimaldi, R. P.  Matemáticas discreta y combinatoria. Una introducción con
aplicaciones. 3ª edición. Ed. Addison-Wesley Iberoamericana. 1997.
26. Guzmán, M. Aventuras matemáticas. Ed. Pirámide. Madrid. 1996.
27. Horn, R. A., Johnson, C. R. Matrix analysis. Ed. Cambridge University Press
1985.
28. Kaufmann, A.  Introducción a la combinatoria y sus aplicaciones. Compañía
Editorial Continental. México 1971.
29. Kemeny, J. G. et al.  Estructuras matemáticas finitas. Ed. Eudeba. Buenos
Aires. 1967.
30. Kot, M. Elements of mathematical ecology. Cambridge University Press. 2001.
31. Kutzler, B., Kokol-Voljc, V.  Introducción a Derive 5. Edición española:
Derisoft, Valencia. 2000.
32. Le Lionnais, F. y colaboradores Las grandes corrientes del pensamiento mate-
mático. Ed. Eudeba. 1962.
33. Legendre, L., Legendre, P. Ecologie numérique. Ed. Masson. Paris. 1979.
34. Leslie, P. H. On the use of matrices in certain population mathematics.
 Biometrika. 1945; Vol. 33, Págs. 183-212.
35. Leslie, P. H. Some further notes on the use of matrices in population
mathematics. Biometrika. 1948 Vol. 35, Págs. 213-245.
36. Leslie, P. H., Ranson, R. M. The mortality, fertility and rate of natural increase
of the vole (Microtus agrestis) as observed in the laboratory. Journal of Animal
 Ecology. 1940; Vol. 9, Págs. 27-52.
37. Lewis, E.G. On the generation and growth of a population. Sankhya. 1942; Vol.
6. Págs. 93-96.
38. Margalef, R. Ecología. Ed. Omega S.A. Barcelona. 1989.
39. Martínez Calvo, Mª C., Diagrama de red. Dominancia equilibrada a la larga del
carácter homocigótico. Gaceta Matemática. 1ª Serie. Tomo XXXI. Números 3
BIBLIOGRAFÍA 223

40. Martínez Calvo, Mª C., Pérez de Vargas, A. Métodos matemáticos en biología.


Ed. Centro de Estudios Ramón Areces. Madrid. 1993.
41. Martínez Calvo, Mª C., Pérez de Vargas, A.  Problemas de Biomatemática. Ed.
Centro de Estudios Ramón Areces. Madrid. 1995.
42. Mindán Manero, M. La persona humana. Ed. Anaya. Salamanca. 1962.
43. Parlett, B. Ergodic properties of population I: The one sex model. Theoretical
 Population Biology. 1970; Vol. 1, Págs. 191-207.
44. Pérez de Vargas, A., Martínez Calvo, Mª C., López Sánchez, J.  Elementos de
biomatemática. Una introducción al método de la Biología matemática. Ed.
Fragua. Madrid. 1982.
45. Pérez de Vargas, A., Abraira Santos, V.  Bioestadística. Ed. Centro de Estudios
Ramón Areces. Madrid. 1996.
46. Pielou, E. C. An introduction to mathematical ecology. Ed. Wiley-Interscience.
New York. 1969.
47. Ríbnikov, K.  Análisis combinatorio. Problemas y ejercicios. Ed. Mir. Moscú.
1989.
48. Ross, S. M.  Introduction to probability models. Ed. Academic Press, Inc. San
Diego. California. 1993.
49. Salazar González, J. J. Programación matemática. Ed. Díaz de Santos. Madrid.
2001.
50. Sánchez Ron, J. M. El Jardín de Newton. La ciencia a través de su historia. Ed.
Crítica. Barcelona. 2001.
51. Soft Warehouse User Manual Derive. Austria. 1992.
52. Turner, J. C.  Matemática moderna aplicada. Probabilidades, estadística e
investigación operativa . Ed. Alianza Universidad. Madrid. 1981.
53. Villa, A. de la  Problemas de Álgebra con esquemas teóricos. 3ª edición. Ed.
Clagsa. Madrid. 1994.
54. Wilson, R. J. Introducción a la teoría de grafos . Alianza Universidad. Madrid.
1983.

DIRECCIONES DE INTERNET

A continuación se indican algunas direcciones de Internet consultadas y otras que


pueden resultar de interés:

http://www.derive.com
http://www.derive-europe.com
http://www.upv.es/derive/
http://www-groups.dcs.st-and.ac.uk/~ history/BiogIndex.html
El propósito principal de este libro, que consta de siete capítulos, es motivar a
los estudiantes suministrándoles información sobre aplicaciones de algunos modelos
matemáticos discretos en las ciencias de la naturaleza, mediante un estudio teórico-
práctico.
El primer capítulo es una breve presentación general de aportaciones de las
matemáticas a las ciencias naturales. En los Capítulos 2 y 3 se dan unas nociones
de combinatoria y probabilidad en espacios discretos y una pequeña introducción
de la teoría de grafos. Ambos capítulos que tienen interés por sí mismos, presentan
conceptos necesarios para estudiar las cadenas de Markov, Capítulos 4, 5 y 6, y el
modelo de Leslie, Capítulo 7, dos modelos estocásticos discretos de gran utilidad
para el estudio de la evolución temporal de poblaciones en las ciencias de la
naturaleza, en particular en genética, zoología y ecología.
Las cadenas de Markov son fruto de la investigación en matemática pura que
han encontrado, entre otras muchas aplicaciones, utilidad en genética para el estudio
de la recombinación de los genes en la teoría de la evolución de poblaciones y
también en economía, sociología, etc. El modelo de Leslie es un ejemplo claro de
matemática aplicada en el campo de la zoología. En el estudio de estos dos modelos
se utilizan matrices de números reales, autovalores y autovectores.
A partir del segundo, cada capítulo consta de una exposición teórica ilustrada con
ejemplos, gráficas y ejercicios resueltos que ayudan a la comprensión de los conceptos
teóricos e incluyen una serie de problemas propuestos cuyas soluciones se recogen
en el Apéndice II.
Se espera que este libro pueda resultar de interés tanto para alumnos de ciencias
experimentales, como para matemáticos, estudiantes de humanidades, de ciencias
de la salud, de economía, etc. y también para profesores de primeros cursos de
licenciatura, de cursos de preparación para la Universidad y en general para todos
los que sientan curiosidad por aplicaciones de las matemáticas.

M.a  Teresa González Manteiga nació en 1951 y es doctora en 


Ciencias Matemáticas por la Universidad Complutense de Madrid 
(UCM) donde cursó la carrera de Ciencias, Sección Matemáticas,
comenzando en dicha Universidad a impartir clases como alumna 
monitor en prácticas en el curso 1972-1973. En la actualidad es 
Profesora Titular de Matemática Aplicada en la Facultad de 
Ciencias Biológicas de la UCM desde 1990. Con anterioridad fue 
Profesora del Colegio Universitario San Pablo-CEU, adscrito a 
la UCM, Profesora Titular de Escuela Universitaria de Álgebra,
Cálculo y Estadística en la Escuela Universitaria de Ingeniería Técnica Forestal de 
la Universidad Politécnica de Madrid (UPM) y Profesora Titular de Álgebra en la 
Escuela Universitaria de Ingeniería Técnica Industrial de la UPM.

ISBN 84-7978-550-0

También podría gustarte