Está en la página 1de 16

3.

4 SOLUCIÓN ARTIFICIAL DE INICIO


Como se demostró en el ejemplo 3.3-1, los programas lineales en los que
todas las restricciones son (≤) con lados derechos no negativos ofrecen una
cómoda solución factible básica de inicio con todas las holguras. Los modelos
donde intervienen restricciones del tipo (=) o (≥) no poseen esta propiedad.

El procedimiento para iniciar programas lineales “de mal comportamiento”


con restricciones (=) y (≥) es permitir que variables artificiales desempeñen
el trabajo de holguras en la primera iteración, para después, en alguna it-
eración posterior, desecharlas en forma legı́tima. Aquı́ presentaremos dos
métodos muy relacionados: el método M y el método de dos fases.

3.4.1 Método M

El método M comienza con la programación lineal en forma de ecuación


(Sección 3.1). Una ecuación i que no tenga una holgura (o una variable que
pueda hacer el papel de una holgura) se aumenta con una variable artificial,
Ri , para formar una solución de inicio parecida a la solución básica con todas
las holguras. Sin embargo, como las variables artificiales son ajenas al mod-
elo de programación lineal, se usa un mecanismo de retroalimentación en el
que el proceso de optimización trata en forma automática de hacer que esas
variables tengan valor cero. En otras palabras, la solución final será como si
las variables artificiales nunca hubieran existido en primer lugar. El resultado
deseado se obtiene penalizando las variables artificiales en la función objetivo.

Dado M, un valor positivo suficientemente grande (matemáticamente,


M → ∞), el coeficiente objetivo de una variable artificial representa una
penalización adecuada si:

½
−M , para maximización
Coeficiente objetivo de la variable artificial =
+M , para minimización

Al usar esta penalización, el proceso de optimización forzará en forma


automática a las variables artificiales para que sean cero (siempre que el
problema tenga una solución factible).

1
Ejemplo 3.4-1

Minimizar z = 4x1 + x2
s.a. 3x1 + x2 = 3
4x1 + 3x2 ≥ 6
x1 + 2x2 ≤ 4
x1 , x 2 ≥ 0

Si se usan x3 como excedente en la segunda restricción y x4 como una


holgura en la tercera restricción, la forma del problema en ecuación es

Minimizar z = 4x1 + x2
s.a. 3x1 + x2 = 3
4x1 + 3x2 − x3 = 6
x1 + 2x2 + x4 = 4
x1 , x 2 , x 3 , x 4 ≥ 0

La primera y segunda ecuaciones no tienen variables que puedan de-


sempeñar el papel de holguras, pero la tercera sı́, porque tiene la holgura
x4 . Ası́, se agregan las variables artificiales R1 y R2 en las dos primeras
ecuaciones y se penalizan en la función objetivo con M R1 + M R2 . La pro-
gramación lineal que resulta es

Minimizar z = 4x1 + x2 + M R1 + M R2
s.a. 3x1 + x2 + R1 = 3
4x1 + 3x2 − x3 + R2 = 6
x1 + 2x2 + x4 = 4
x1 , x 2 , x 3 , x 4 , R 1 , R 2 ≥ 0

En el nuevo modelo se pueden usar ahora R1 , R2 y x4 como solución


básica de inicio, como se ve en la siguiente tabla (por comodidad se eliminó
la columna z, porque no cambia en todas las iteraciones).

2
Básica x 1 x2 x3 R1 R2 x4 Solución
z −4 −1 0 −M −M 0 0
R1 3 1 0 1 0 0 3
R2 4 3 −1 0 1 0 6
x4 1 2 0 0 0 1 4

Antes de proseguir con los cálculos del método sı́mplex se necesita hacer
que el fila z sea consistente con el resto de la tabla. En forma especı́fica,
en la tabla x1 = x2 = x3 = 0, lo cual produce la solución básica de inicio
R1 = 3, R2 = 6 y x4 = 4. Esta solución indica que el valor de z debe ser
M × 3 + M × 6 = 9M, en lugar de 0 como se ve en el lado derecho del fila
de z. Esta inconsistencia se debe a que R1 y R2 tienen coeficientes distintos
de cero (−M, −M ) en el fila de z (compárelo con la solución de inicio con
todas las variables de holgura del ejemplo 3.3-1, donde los coeficientes de las
holguras en el fila de z son cero).

Esta inconsistencia se puede eliminar sustituyendo a R1 y R2 en el fila


de z usando las ecuaciones adecuadas de restricción para eliminarlas. En
particular, observe los elementos marcados (= 1) en el fila R1 y en el de R2 .
Si se multiplica cada fila R1 y R2 por M y se agrega la suma al fila z, R1 y
R2 saldrán del fila objetivo, esto es

Nueva fila z = fila anterior z + (M × fila R1 + M × fila R2 )

Entonces, la tabla modificada es la siguiente (¡verifı́quelo!):

Básica x1 x2 x3 R1 R2 x4 Solución
z −4 + 7M −1 + 4M −M 0 0 0 9M
R1 3 1 0 1 0 0 3
R2 4 3 −1 0 1 0 6
x4 1 2 0 0 0 1 4

Observe que la nueva z = 9M, lo que ahora es consistente con los valores
de la solución básica factible de inicio R1 = 3, R2 = 6 y x4 = 4.

La última tabla queda lista para aplicarle el método sı́mplex, con las
condiciones de optimalidad y factibilidad presentadas en la sección 3.3.2.
Como se está minimizando la función objetivo, la variable x1 que es la que
tiene el coeficiente más positivo en el fila de z(= −4+1 M ) entra a la solución.

3
La razón mı́nima de la condición de factibilidad especifica que R1 es la vari-
able que sale.

Una vez determinadas las variables de entrada y de salida, la nueva tabla


se puede calcular con las operaciones familiares de Gauss-Jordan. Observe
que el nuevo fila de z se determina multiplicando el nuevo fila pivote por
−(−4 + 1 M ) y sumando el resultado al fila actual de z.

Básica x1 x2 x3 R1 R2 x4 Solución
z 0 (1 + 5M )/3 −M (4 − 7M )/3 0 0 4 + 2M
x1 1 1/3 0 1/3 0 0 1
R2 0 5/3 −1 −4/3 1 0 2
x4 0 3/5 0 −1/3 0 1 3

Esta última tabla muestra que x2 y R2 son las variables de entrada y de


salida, respectivamente. Al continuar con los cálculos sı́mplex se necesitarán
dos iteraciones más para llegar al óptimo: x1 = 2/5, x2 = 9/5, z = 17/5.

Observe que las variables artificiales R1 y R2 salen de la solución básica


en las iteraciones primera y segunda, resultado consistente con el concepto
de penalizar las variables artificiales en la función objetivo.

Acerca del método M se pueden hacer dos observaciones:

1. El uso de la penalización M podrá no forzar la variable artificial


hasta el valor cero en la iteración sı́mplex final, si el problema de progra-
mación lineal no tiene una solución factible (es decir, si las restricciones no
son consistentes). En este caso, la iteración sı́mplex final incluirá cuando
menos una variable artificial de valor positivo.

2. La aplicación de la técnica M implica, teóricamente, que M → ∞.


Sin embargo, al usar la computadora M debe ser finito, pero suficientemente
grande. ¿Qué tan grande es “suficientemente grande”? es una pregunta
abierta. En forma especı́fica, M debe ser lo bastante grande como para
funcionar como penalización. Al mismo tiempo no debe ser tan grande como
para perjudicar la exactitud de los cálculos sı́mplex, al manipular una mezcla
de números muy grandes y muy pequeños.

4
3.4.2 Método de dos fases
Debido al impacto potencial adverso del error de redondeo sobre la ex-
actitud del método M, donde se manipulan en forma simultánea coeficientes
grandes y pequeños, el método de dos fases reduce el problema eliminando
por completo la constante M. Como su nombre indica, el método resuelve la
programación lineal en dos fases: la fase I trata de determinar una solución
básica factible de inicio y, si se encuentra, se invoca la fase II para resolver
el problema original.

Fase I. El problema se pone en forma de ecuación y se agregan a las


restricciones las variables artificiales necesarias (exactamente como en el
método M) para asegurar una solución básica de inicio. A continuación se
determina una solución básica de las ecuaciones resultantes, que minimice la
suma de las variables artificiales. Si el valor mı́nimo de la suma es positivo,
el problema de programación lineal no tiene solución factible, y termina el
proceso (recuerde que una variable artificial positiva significa que no se sat-
isface una restricción original). En caso contrario, se prosigue a la fase II.

Fase II. Se usa la solución factible de la fase I como solución básica


factible de inicio para el problema original.

Ejemplo 3.4-2
Usaremos el mismo problema que en el ejemplo 3.4-1.

Fase I.

Minimizar r = R 1 + R2
s.a. 3x1 + x2 + R1 = 3
4x1 + 3x2 − x3 + R2 = 6
x1 + 2x2 + x4 = 4
x1 , x 2 , x 3 , x 4 , R 1 , R 2 ≥ 0

La tabla asociada es la siguiente:

5
Básica x1 x2 x3 R1 R2 x4 Solución
r 0 0 0 −1 −1 0 0
R1 3 1 0 1 0 0 3
R2 4 3 −1 0 1 0 6
x4 1 2 0 0 0 1 4
Como en el método M, se eliminan R1 y R2 por sustitución en el fila de
r, usando los siguientes cálculos:
Nuevo fila r = fila r anterior + [1 × fila R1 + 1× fila R2 ]
El nuevo fila r se usa para resolver la fase I del problema, con lo que se
obtiene la siguiente tabla optima
Básica x1 x2 x3 R1 R2 x4 Solución
r 0 0 0 −1 −1 0 0
x1 1 0 1/5 3/5 −1/5 0 3/5
x2 0 1 −3/5 −4/5 3/5 0 6/5
x4 0 0 1 1 −1 1 1
Como mı́nimo de r = 0, la fase I produce la solución básica factible
x1 = 3/5, x2 = 6/5 y x4 = 1. Llegados a este punto, las variables artificiales
ya cumplieron su misión y se pueden eliminar de la tabla las columnas, por
completo, y pasar a la fase II.

Fase II. Después de eliminar las columnas artificiales, el problema orig-


inal se escribe ası́:

Minimizar z = 4x1 + x2
1 3
s.a. x1 + x3 =
5 5
3 6
x2 − x3 =
4 5
x3 + x 4 = 1
x1 , x 2 , x 3 , x 4 ≥ 0
En esencia, la fase I es un procedimiento que transforma las ecuaciones
originales de restricción en tal forma que se obtiene una solución factible
básica de inicio para el problema. La tabla asociada con la fase II del prob-
lema es, por consiguiente:

6
Básica x1 x2 x3 x4 Solución
z −4 −1 0 0 0
x1 1 0 1/5 0 3/5
x2 0 1 −3/5 0 6/5
x4 0 0 1 1 1
De nuevo, como las variables básicas x1 y x2 tienen coeficientes no cero
en el fila de z, deben sustituirse y eliminarse con los siguientes cálculos:
Nuevo fila z = fila z anterior + (4 × fila x1 + 1 × fila x2 )
La tabla inicial de la fase II resulta entonces
Básica x1 x2 x3 x4 Solución
z 0 0 1/5 0 18/5
x1 1 0 1/5 0 3/5
x2 0 1 −3/5 0 6/5
x4 0 0 1 1 1
Como se está minimizando, x3 debe entrar a la solución. Con la aplicación
del método sı́mplex se obtendrá el óptimo en una iteración más.
La salida de las columnas de las variables artificiales al terminar la fase I
sólo se hace cuando todas ellas sean no básicas (como ilustra el ejemplo 3.4-
2). Sin embargo, es posible que las variables artificiales sigan siendo básicas
pero de valor cero al final de la fase I. En ese caso, esas variables forman,
por necesidad, parte de la solución básica de inicio para la fase II. En conse-
cuencia, se deben modificar los cálculos en la fase II para asegurar que una
variable artificial nunca se haga positiva durante las iteraciones en esa fase II.

Las reglas para garantizar que una variable artificial que es cero al final
de la fase I nunca se vuelva positiva durante la fase II, son las siguientes:

1. Si en la columna pivote el coeficiente de restricción correspondiente


a la variable básica artificial es positivo, definirá al elemento pivote en forma
automática (porque corresponde a la razón mı́nima de cero) y, como se busca,
la variable artificial se vuelve no básica en la siguiente iteración.

2. Si el elemento de la columna pivote es cero, la siguiente iteración


dejará la variable artificial inalterada, de valor cero.

7
3. Si el elemento de la columna pivote es negativo, la razón mı́nima
no se asociará con la variable artificial básica (cero). En este caso, si la razón
mı́nima resultante resulta ser positiva, la variable artificial asumirá un valor
positivo en la siguiente iteración (¿se da usted cuenta por qué?) y se nece-
sitará evitar que eso suceda. Para hacerlo, se obliga a la variable artificial a
salir de la solución de cualquier modo. Si se observa que la variable artificial
tiene valor cero, su eliminación de la solución básica no afectará la factibili-
dad de las variables básicas restantes.

Resumiendo, la regla de la fase II indica obligar a la variable artificial


a salir de la solución básica en cualquier momento en que su coeficiente de
restricción en la columna de pivote sea positivo o negativo. De hecho, esta
regla se puede aplicar al final de la fase I, para eliminar las variables arti-
ficiales cero de la solución básica, antes de siquiera comenzar con la fase II
(véase el problema 5, conjunto de problemas 3.4b).

3.5 CASOS ESPECIALES PARA EL MÉTODO SÍMPLEX


En esta sección se examinarán cuatro casos especiales que se presentan
al aplicar el método sı́mplex.
1. Degeneración.
2. Óptimos alternativos.
3. Soluciones no acotadas.
4. Soluciones inexistentes (o no factibles).
El interés de estudiar esos casos especiales es doble: 1) presentar una
explicación teórica de esos casos, y 2) presentar una interpretación práctica
de lo que pudieran significar esos resultados especiales en un problema en la
vida real.

3.5.1 Degeneración

Al aplicar la condición de factibilidad del método sı́mplex, se puede


romper un empate en la razón mı́nima en forma arbitraria. Cuando se pre-
senta un empate, al menos una variable básica será cero en la siguiente it-
eración, y se dice que la nueva solución es degenerada.

No hay que alarmarse al manejar una solución degenerada, a excepción


de una pequeña incomodidad teórica de ciclado, que describiremos en breve.
Desde el punto de vista práctico, la condición indica que el modelo tiene al

8
menos una restricción redundante. Para poder presentar mejor perspectiva
de los impactos prácticos y teóricos de la degeneración presentaremos un
ejemplo numérico, que resolveremos en forma algebraica y gráfica.

Ejemplo 3.5-1 (Solución óptima degenerada)

Maximizar z = 3x1 + 9x2


s.a. x1 + 4x2 ≤ 8
x1 + 2x2 ≤ 4
x1 , x 2 ≥ 0

Sean x3 y x4 las variables de holgura. La siguiente tabla muestra las


iteraciones sı́mplex.

Iteración Básica x1 x2 x3 x4 Solución


0 z -3 -9 0 0 0
entra x2 x3 1 4 1 0 8
sale x3 x4 1 2 0 1 4
1 z −3/4 0 9/4 0 18
entra x1 x2 1/4 1 1/4 0 2
sale x4 x4 1/2 −1/2 0 1 0
2 z 0 0 3/2 3/2 18
(óptima) x2 0 1 1/2 −1/2 2
x1 1 0 −1 2 0

En la iteración de inicio empatan x3 y x4 como variable de salida. Es la


razón por la que la variable básica x4 es cero en la iteración 1, y se obtiene
ası́ una solución básica degenerada. Se alcanza el óptimo después de una
iteración más.
¿Qué implica la degeneración en la práctica? Véase la figura 3.9, que
muestra la solución gráfica del modelo. Pasen tres lı́neas por el punto óptimo
(x1 = 0, x2 = 2). Como éste es un problema bidimensional, el punto está
sobredeterminado y una de las restricciones es redundante.

En la práctica, el sólo conocer que algunos recursos son superfluos puede


ser valioso durante la implementación de la solución. Esta información

9
también puede conducir a descubrir irregularidades en la construcción del
modelo. Desafortunadamente no hay técnicas fiables para identificar las re-
stricciones redundantes en forma directa a partir de la tabla.

Desde el punto de vista teórico, la degeneración tiene dos implicaciones.


La primera es el fenómeno de ciclos o cı́rculos. Al ver las iteraciones sı́mplex
1 y 2, el lector notará que el valor objetivo no mejora (z = 18). Por consigu-
iente, es posible que el procedimiento sı́mplex repita una serie de iteraciones
sin mejorar el valor objetivo, y nunca terminar los cálculos (véase un ejemplo
en el problema 4, conjunto de problemas 3.5a). Aunque hay métodos para
eliminar los ciclos, éstos conducen a retardos drásticos en los cálculos. Por
esta razón, la mayor parte de los programas informáticos para programación
lineal no prevén los ciclos, basados en el hecho que rara vez suceden en la
práctica.

Figure 1: FIGURA 3.9

Degeneración de programación lineal en el ejemplo 3.5-1


El segundo aspecto teórico surge al examinar las iteraciones 1 y 2. Las
dos, aunque difieren en la clasificación de las variables en básica y no básica,
producen valores idénticos para todas las variables y el objetivo, que son

x1 = 0, x2 = 2, x3 = 0, x4 = 0, z = 18

10
Entonces, ¿es posible detener los cálculos en la iteración 1 (cuando aparece
la degeneración por primera vez) aun cuando no sea óptima? La respuesta
es no, porque la solución puede ser temporalmente degenerada, como se ve
en el problema 2, conjunto de problemas 3.5a.

3.5.2 Óptimos alternativos

Cuando la función objetivo es paralela a una restricción obligatoria (es


decir, una restricción que se satisface como ecuación en la solución óptima),
la función objetivo asumirá el mismo valor óptimo, que se llama óptimos
alternativos, en más de un punto de solución. El siguiente ejemplo muestra
que hay una cantidad infinita de esas soluciones. También demuestra un
significado práctico de encontrar óptimos alternativos.

Ejemplo 3.5-2 (Infinidad de soluciones)

Maximizar z = 2x1 + 4x2


s.a. x1 + 2x2 ≤ 5
x1 + x 2 ≤ 4
x1 , x 2 ≥ 0

La figura 3.11 muestra cómo pueden presentarse óptimos alternativos en


el modelo de programación lineal cuando la función objetivo es paralela a
una restricción obligatoria. Todo punto del segmento de recta BC representa
un óptimo alternativo con el mismo valor objetivo z = 10.
La siguiente tabla muestra las iteraciones del modelo.

Iteración Básica x 1 x2 x3 x4 Solución


0 z −2 −4 0 0 0
entra x2 x3 1 2 1 0 5
sale x3 x4 1 1 0 1 4
1 (óptima) z 0 0 2 0 10
entra x1 x2 1/2 1 1/2 0 5/2
sale x4 x4 1/2 0 −1/2 1 3/2
2 z 0 0 2 0 10
(óptima alternativa) x2 0 1 1 −1 1
x1 1 0 −1 2 3

11
Figure 2: FIGURA 3.11

La iteración 1 llega al óptimo x1 = 0, x2 = 5/2 y z = 10, que coincide


con el punto B de la figura 3.11. ¿Cómo saber en esta iteración que existen
óptimos alternativos? Examine los coeficientes de las variables no básicas,
en la ecuación z de la iteración 1. El coeficiente de x1 no básica es cero, lo
que indica que x1 puede entrar a la solución básica sin cambiar el valor de
z, pero causando un cambio en los valores de las variables. Eso es justo lo
que hace la iteración 2: dejar que x1 entre a la solución básica, con lo que se
obliga a que salga x4 . Esto da como resultado un nuevo punto de solución
en C (x1 = 3, x2 = 1, z = 10).
El método sı́mplex sólo determina los dos puntos esquina, B y C. Se
pueden determinar matemáticamente todos los puntos (x1 , x2 ) en el seg-
mento de recta BC ¯ como promedio ponderado no negativo de los puntos B
y C. Ası́, dado 0 ≤ α ≤ 1 y que

5
B: x1 = 0, x2 =
2
C: x1 = 3, x2 = 1
¯ se expresan con
todos los puntos del segmento de recta BC

12
x̂1 = α(0) + (1 − α)(3) = 3 − 3α
5
x̂2 = α(5/2) + (1 − α)(1) = 1 + α
2
Cuando α = 0, (x̂1 , x̂2 ) = (3, 1), que es el punto C. Cuando α = 1, (x̂1 , x̂2 ) =
(0, 5/2), que es el punto B. Con valores de a entre 0 y 1, (x̂1 , x̂2 ) está entre
B y C.
En la práctica, los óptimos alternativos son útiles porque permiten es-
coger entre muchas soluciones sin que se deteriore el valor objetivo. Por
ejemplo, en este caso, la solución en B indica que sólo la actividad 2 está
en un nivel positivo, mientras que en C ambas actividades son positivas. Si
el ejemplo representa un caso de mezcla de productos, podrı́a ser benéfico,
desde el punto de vista de competencia en ventas, fabricar dos productos en
lugar de uno. En este caso, la solución C puede ser más atractiva.

3.5.3 Solución no acotada

En algunos modelos de programación lineal, los valores de las variables


pueden aumentar en forma indefinida sin violar alguna de las restricciones,
y eso significa que el espacio de soluciones es no acotado al menos en una
dirección. El resultado es que el valor objetivo puede aumentar (en caso de
maximización) o disminuir (si se trata de minimización) en forma indefinida.
En ese caso, tanto el espacio de soluciones como el valor óptimo objetivo no
están acotados.

La no acotación apunta hacia la posibilidad de que el modelo esté mal


construido. Las irregulares más probables en esos modelos son que no se
hayan tomado en cuenta una o más restricciones no redundantes, y que los
parámetros (constantes) de algunas restricciones puedan no haberse estimado
en forma correcta.

Los siguientes ejemplos muestran cómo se puede reconocer la no acotación,


tanto del espacio de soluciones como del valor objetivo, en la tabla sı́mplex.

Ejemplo 3.5-3 (Valor objetivo no acotado)

13
Maximizar z = 2x1 + x2
s.a. x1 − x2 ≤ 10
2x1 ≤ 40
x1 , x 2 ≥ 0
Iteración de inicio.
Básica x1 x2 x3 x4 Solución
z −2 −1 0 0 0
x3 1 −1 1 0 10
x4 2 0 0 1 40
En la tabla de inicio tanto x1 como x2 son candidatos para entrar en la
solución. Como x1 tiene el coeficiente más negativo, se selecciona, normal-
mente, como la variable de entrada. Sin embargo, todos los coeficientes de
restricción bajo x2 son negativos o cero, y eso indica que x2 puede aumentar
en forma indefinida sin violar cualquiera de las restricciones (compárese con
la interpretación gráfica de la razón mı́nima, en la figura 3.6). Como cada
aumento de una unidad en x2 aumentará 1 a z, un aumento infinito de x2
también dará como resultado un aumento infinito en z. Ası́, el problema
no tiene solución acotada. Este resultado se puede ver en la figura 3.12. El
espacio de soluciones no está acotado en la dirección de x2 , y el valor de z
puede aumentar en forma indefinida.

La regla para reconocer la no acotación es que si en cualquier iteración


todos los coeficientes de restricción de toda variable no básica son cero o neg-
ativos, entonces el espacio de soluciones no está acotado en esa dirección. Si
además el coeficiente objetivo de esa variable es negativo en caso de max-
imización, o positivo en caso de minimización, entonces también el valor
objetivo es no acotado.

3.5.4 Solución no factible

Los modelos de programación lineal con restricciones inconsistentes no


tienen solución factible. Estos casos nunca suceden si todas las restricciones
son del tipo ≤ (suponiendo lados derechos no negativos), porque las hol-
guras permiten tener una solución factible. Para otros tipos de restricciones

14
Figure 3: FIGURA 3.12

se usan variables artificiales. Aunque esas variables artificiales se penalizan


en la función objetivo, para obligarlas a ser cero en el óptimo, eso sólo puede
suceder si el modelo tiene un espacio factible. En caso contrario, al menos
una variable artificial será positiva en la iteración óptima.

Desde el punto de vista práctico, un espacio no factible indica la posibil-


idad de que el modelo no esté bien formulado.

Ejemplo 3.5-4 (Espacio de soluciones no factibles)

Maximizar z = 3x1 + 2x2


s.a. 2x! + x2 ≤ 2
3x1 + 4x2 ≥ 12
x1 , x 2 ≥ 0

La tabla siguiente muestra las iteraciones sı́mplex del modelo.

15
Iteración Básica x1 x2 x3 x4 R Solución
0 z −3 − 3M −2 − 4M M 0 0 −12M
entra x2 x3 2 1 0 1 0 2
sale x3 R 3 4 −1 0 1 12
1 z 1 + 5M 0 M 2 + 4M 0 4 − 4M
(pseudo-óptima) x2 2 1 0 1 0 2
R −5 0 −1 −4 1 4

La iteración óptima 1 indica que la variable artificial R es positiva (= 4),


que además indica que el problema es no factible. La figura 3.13 muestra
el espacio de soluciones no factibles. Al permitir que la variable artificial
sea positiva, el método sı́mplex ha invertido, en esencia, la dirección de la
desigualdad de 3x1 +4x2 ≥ 12 a 3x1 +4x2 ≤ 12 (¿puede usted explicar cómo?).
El resultado es lo que se puede llamar una solución pseudo-óptima.

Figure 4: FIGURA 3.13

16

También podría gustarte