Está en la página 1de 15

Dilema del prisionero,

por Paula Casal, Keele University, UK

El "Dilema del Prisionero" es una historia que suele atribuirse a A. W.


Tucker

(1),

que da nombre al ms conocido de los problemas que estudia la

Teora de Juegos. Esta teora es una rama floreciente de la Teora de la


Eleccin Racional que ha resultado ser de gran utilidad no slo en
Economa y en Biologa Evolutiva, sino tambin en Filosofa y Teora
Poltica y Social.
La mencionada historia es la siguiente. Dos prisioneros incomunicados en
celdas individuales han cometido dos crmenes, uno leve y otro grave.
Existen pruebas suficientes para que les condenen por el primero, pero no
por el segundo, a menos que alguno confiese haberlo cometido. El fiscal
visita a uno de los prisioneros y le dice:
"Tengo una buena noticia y una mala noticia para usted. La buena noticia
es que si ninguno de ustedes confiesa su grave crimen, slo podremos
condenarles a dos aos por su primer crimen y si usted confiesa, yo
convencer al jurado de que es usted un hombre arrepentido y de que el
perverso es su compaero, de modo que usted quedara libre en un ao y
l permanecera en prisin 10 aos. La mala noticia es que voy a hacerle la
misma oferta a su compaero". "Y qu ocurrira si ambos confessemos?",
pregunta el prisionero. "Entonces no tendr razn para beneficiar a
ninguno de ustedes, dejar que la justicia tome su curso y, como el crimen
es grave, estimo que les condenarn al menos a 8 aos". As, los
prisioneros se encuentran ante el siguiente dilema:

Cada uno piensa que slo pueden pasar dos cosas: que el otro confiese o
que no confiese. "Si confiesa, es mejor que yo tambin lo haga, porque de
lo contrario me quedar 10 aos en la crcel. Si no confiesa y yo s,
entonces podr beneficiarme de la oferta del fiscal y quedar libre en un
ao". La conclusin es que haga lo que haga el otro, lo mejor es confesar.
Ambos razonan de igual modo, con lo cual ambos confiesan y se quedan
en la crcel mucho ms tiempo del que les habra tocado, si hubiesen
cooperado entre s y ninguno de los dos hubiese confesado.
Este es un juego de dos personas, pero podra darse entre n personas, por
ejemplo, en el caso de una huelga, que puede entenderse como un bien
pblico (* tragedia de los comunes). Cada trabajador puede pensar: "o bien
hay bastantes trabajadores que vayan a la huelga y consiguen el objetivo
de esta accin colectiva (por ejemplo, un ascenso salarial, una reduccin
de la jornada laboral o una mejora en las condiciones de trabajo), o bien
esto no ocurre. En el primer caso, de todas formas voy a beneficiarme del
xito de la huelga, y si me quedo, puedo, adems, seguir cobrando y quiz
mejore mis relaciones con mis superiores. Y si los dems no van a la

huelga, lo mejor es que yo tampoco vaya, porque estar pagando en vano


los costes de mi contribucin a esta accin colectiva que va a fracasar".
El problema es que lo individualmente racional conduce al fracaso
colectivo. Lo mismo puede ocurrir en el caso de muchas otras acciones
colectivas (manifestaciones, revoluciones, guerras, votaciones, etc.) y en
muchos otros contextos, por lo que este juego ha resultado til en una
gama muy amplia y variada de investigaciones en Ciencias Sociales.
Este y otro juegos pueden caracterizarse por el orden de las alternativas
siguientes.
C = la Cooperacin universal: todos

Dilema del Prisionero (DP): GCEP

cooperan
E = el Egosmo universal: nadie

Juego de la Seguridad (JS): CGEP

coopera
G = el Gorrn: menos yo, todos

Imperativo Categrico (IC): CPEG


Juego del Gallina (JG): GCPG

cooperan
P = el Primo: slo coopero yo

En el DP, el orden es G-C-E-P. Ello es especialmente claro en la historia


original, en la que los dos prisioneros estn incomunicados. No obstante,
si les hubiesen permitido hablar, la historia podra ser la misma: "Si me
dice que no confesar, lo mejor es que yo confiese; y si me dice que
confesar, lo mejor es que yo tambin lo haga". Adems, puede que el otro
mienta o cambie de idea.
Ahora bien, la cuestin sera distinta si entre los prisioneros hubiese
amistad y mutua confianza o, en el caso general, si lo que cada miembro
del grupo desea en primer lugar es que se obtenga el bien pblico y no
obtener la mayor ganancia para s. En ese caso, la situacin ya no sera la
3

del DP, sino la de un Juego de la Seguridad (CGEP). Muchas veces, como


ha sealado Amartya Sen, lo que ocurre no es que uno quiera explotar a
los dems, sino no perder doblemente haciendo el primo; y por ello, uno
est dispuesto a cooperar, siempre que los dems tambin lo hagan. Por
ejemplo, es posible que a ningn productor le guste utilizar los crueles e
insanos mtodos que se emplean hoy en las granjas-factora; pero que,
sometidos a la presin del mercado, se vean obligados a reducir sus costes
confinando a los animales en espacios cada vez menores y tratndoles de
formas cada vez ms repugnantes. En un mercado cerrado o con barreras
proteccionistas, el gobierno podra prohibir ciertas prcticas o emplear
impuestos o subvenciones selectivas que pongan fin a esa dinmica; pero
si tal pas tiene que competir con otros, el gobierno tender a apoyar a los
ms despiadados, que son los que prometen un mayor xito competitivo en
el mercado internacional. As, los mtodos pueden llegar a ser tan
escalofriantes que horrorizaran a la mayora de los consumidores que
estn informados, pero tambin estos tendrn que comprar lo que hay, si
no pueden prescindir de todo producto animal.
En el JS, los individuos estn dispuestos a cooperar (por ejemplo, a pagar
cierto impuesto) con la condicin de que los dems tambin lo hagan. Por
ello, cuando falta informacin y los participantes no saben qu decidirn
los dems, pueden terminar comportndose como en un DP. Al no tener
garantas, prefieren jugar sobre seguro, de ah el nombre del juego

(2).

Si

los individuos estuviesen dispuestos a cooperar, independientemente de lo


que hiciesen los dems, ya no se tratara de un JS, sino de lo que Elster
llama un Juego del Imperativo Categrico (CPEG).

Al margen de si sta es una caracterizacin adecuada de la tica kantiana,


cosa que habra que discutir, desde el punto de vista social, Elster piensa
que sta ni es frecuente ni conveniente. Por un lado, arguye que la historia
de la clase obrera muestra que la conducta cooperativa suele ser
condicional;

por

otro,

que

los

actos

heroicos

individuales,

no

secundados, pueden ser contraproducentes, al dar pie a represalias


colectivas. "Esto prueba", concluye, "que la tica individualista kantiana no
es adecuada para la accin colectiva"

(3).

Aqu caben al menos cuatro

breves observaciones. Por un lado, la cooperacin incondicional slo es


contraproducente en ciertas circunstancias; y lo que es ms infrecuente no
es tanto la cooperacin incondicional (de las madres o los ecologistas, por
poner dos ejemplos cotidianos), como el preferir E a G (por ejemplo,
preferir que todos usen CFCs (clorofluorocarburos) a ser el nico que los
usa). Por otro lado, la tica consecuencialista tampoco es inmune a los
problemas de accin colectiva y el mismo Elster mantiene otras veces
posiciones anti-consecuencialistas basadas en la imposibilidad de predecir
en Ciencias Sociales

(4).

Por ltimo, el Juego del Gallina (GCPG) debe su nombre (the chicken game)
a una especie de juego ritual que a veces se ve en las pelculas sobre
bandas juveniles norteamericanas. Los aspirantes a lderes compiten en
sus coches en una peligrosa carrera hacia un precipicio. Ambos quieren
que sea el otro el que decelere, porque ninguno quiere quedar como una
gallina; de modo que ambos continan acelerando, y el riesgo aumenta.
Pero segn aumenta el riesgo, quedar como una gallina empieza a no
parecer tan malo como correr un riesgo altsimo y creciente de estrellarse.
Algo parecido puede ocurrir entre dos compaas de autobuses que
5

recorren el mismo trayecto y se adelantan mutuamente tratando de llegar


antes a cada parada para llevarse a los pasajeros que estn esperando y
ofrecerles mayor rapidez, aumentando as el riesgo de accidentes. Otro
ejemplo es el de la inversin en innovaciones tecnolgicas que ahorran
mano de obra. Si nadie invierte en ello, los salarios suben, por lo que
resulta racional adelantarse a esta subida introduciendo tecnologas que
ahorren mano de obra; pero si los dems capitalistas ya lo estn haciendo,
sobrarn desempleados dispuestos a aceptar bajos salarios, por lo que el
capitalista individual ya no tendr incentivos para invertir en estas
tecnologas
casos

la

(5).

No siempre es fcil distinguir un JS y un DP, pues en ambos

conducta

no

cooperativa

individualmente

racional

es

colectivamente contraproducente, como ocurre cuando la competencia


entre fabricantes les lleva a gastar cada vez ms en publicidad, a bajar
cada vez ms los precios o a arriesgar la propia ruina por arrastrar a ella a
los dems. Cuando todos gritan para que se les oiga ms que a otros, slo
se consigue una afona colectiva. Si se trata de un DP, conviene no
cooperar hagan lo que hagan los dems, mientras que en un JG, la
decisin depende de la estrategia que elijan los dems y se tender a hacer
lo contrario de lo que hagan stos.
Tras los ejemplos, puede hacerse ahora una caracterizacin algo ms
tcnica que permita situar mejor al DP.
(a)

El

DP

se

emplea

en

Ciencias

Sociales

para

analizar

conductas intencionales (orientadas a una meta) y se adopta el supuesto


metodolgico de que la conducta es racional y optimizadora (entre los
medios disponibles se eligen los ms adecuados para obtener tales metas)
(6).

Cuando se supone adems, que cada individuo considera que los


6

dems son tan racionales como l, son capaces de razonamientos


parecidos y estarn calculando si emprender tal accin o tal otra, se habla
de racionalidad estratgica, que es de la que propiamente se ocupa la
Teora de Juegos o de Decisiones Interdependientes. Cuando cada uno slo
se considera a s mismo como variable y a los dems como constantes, se
habla de racionalidad paramtrica.
(b) En un DP cada uno calcula qu es lo que pueden hacer los dems, pero
termina llegando a la misma conclusin tanto si piensa que los dems
harn una cosa, como si cree que harn otra. Es decir, es un juego
con estrategia dominante (hay una opcin que es la mejor, hagan lo que
hagan los dems). Aqu la estrategia dominante es el egosmo universal,
mientras que en el IC domina la cooperacin. Otros juegos no tienen
estrategia dominante, como el JS, en el que lo mejor es hacer lo que haga
el resto.
(c) El DP tiene un solo punto de equilibrio, es decir, de un conjunto de
estrategias slo hay una que sea ptima frente a las de los otros. Como
slo tiene uno, este es la solucin (conjunto de estrategias a las que
convergen tcitamente los actores racionales con informacin perfecta). El
JS, en cambio, tiene dos puntos de equilibrio. En este caso, la solucin
ser la colectivamente ptima, el punto que todos prefieren a todos los
dems, que en el JS es la cooperacin.
(d) El DP tiene una solucin subptima (E). El resultado es el desastre
colectivo.

La

cooperacin

universal

no

es individualmente

estable ni individualmente accesible: todos tendern a alejarse de ella y


nadie querr dar el primer paso para acercarse a ella. En el JS, en cambio,
7

s es individualmente estable aunque no individualmente accesible;


mientras que en el JG, que no tiene solucin, el ptimo es individualmente
accesible, pero no individualmente estable.
(e) El DP es un juego de suma variable, porque no slo la distribucin de
las ganancias, sino tambin el total a distribuir, depende de las estrategias
elegidas. En los juegos de suma cero, que son los nicos que siempre
tienen solucin, uno gana lo mismo que pierde el otro. Son juegos de puro
conflicto, mientras que los de suma variable pueden ser de pura
cooperacin o mixtos de cooperacin y conflicto. Al DP y al JG los estudia la
teora de los juegos no cooperativos, que es la que ms se utiliza en
Ciencias Sociales, porque la teora de los juegos cooperativos -til en otros
contextos, como el del anlisis normativo- ya cuenta con la cooperacin y
no investiga cmo se origina y en qu condiciones puede surgir. No
obstante, los juegos cooperativos pueden cumplir funciones explicativas,
cuando la cooperacin es, a su vez, explicada a partir de la nocooperacin.
Estas ltimas distinciones no se incluyen en el siguiente esquema

(7),

al

que podran aadirse bastantes distinciones ms. Por ejemplo, puede


tratarse de un juego de 2-personas y de una sola vez o de n-personas que
interactun reiteradamente. El tamao del grupo y el nmero de jugadas
son factores a tener en cuenta cuando se aborda la cuestin de cmo
evitar que un DP lleve al desastre. Por ejemplo, cuando un grupo crece,
pueden aumentar los problemas de coordinacin que dificulten la accin
colectiva, pero tambin puede que el grupo, al tener ms miembros, cuente
con una masa crtica de individuos suficiente para que se consiga el
objetivo

(8).

Pues bien, cmo puede evitarse que un DP lleve al desastre? La respuesta


ms frecuente es esta: hay que modificar las circunstancias, aadiendo un
tercero (el Estado o la Ley) que imponga sanciones a los gorrones, cobre
multas

por

destruir

bienes

pblicos

recaude

impuestos

para

construirlos. Esta es la forma en que suele entenderse a Hobbes. No


obstante, en una seccin del Leviatn (cap. 15) conocida como su
"respuesta al insensato" (Reply to the Foole), Hobbes mismo sugiere otra
opcin que fue precisamente la que abraz un autor de inspiracin
anarquista, Michael Taylor y que Robert Axelrod populariz y desarroll
empleando un computador.
La idea bsica es muy sencilla: cuando un grupo de personas interactan
en repetidas ocasiones, por ejemplo, cooperando para recoger la cosecha
en una aldea, un gorrn puede engaar a algunos durante cierto tiempo,
pero no engaar a todos todo el tiempo. Si el insensato se niega a cooperar
con los que le han ayudado, la prxima vez lo dejarn solo y, al final, le ir
peor que si hubiese cooperado. Axelrod obtuvo la versin informtica de
esta idea calculando el balance de costes y beneficios que obtenan,
siguiendo ciertas pautas de conducta, unos individuos ficticios que
interactuaban reiteradamente. A los cooperadores incondicionales, que
cooperaban indiscriminadamente con cualquiera, no les iba demasiado
bien, porque -aunque saliesen ganando cuando interactuaban con otros
cooperadores- los gorrones les explotaban ilimitadamente. A los gorrones
no les iba del todo mal, porque no tenan costes y a veces conseguan
aprovecharse de alguien. Pero a los que mejor les iba era a los
cooperadores condicionales que seguan la estrategia llamada C-toma y
daca (C-tit for tat) consistente en cooperar la primera vez y luego hacer lo
9

mismo que el otro ha hecho la ltima vez. De esta forma, si el otro no


coopera, no se le permitir que se siga saliendo con la suya, sino que la
prxima vez se le castigar no cooperando; y si el otro coopera (condicional
o incondicionalmente) se generar una dinmica mutuamente beneficiosa.
Al investigar las condiciones en las que la cooperacin puede surgir
espontneamente entre egostas, Axelrod lleg a la conclusin de que no
era necesario que los individuos fuesen racionales y entendiesen lo que se
ha explicado aqu, ni que hubiese un intercambio de mensajes o confianza
mutua. De hecho, C-tit for tat, la estrategia ganadora del torneo
informtico de DPs puede triunfar y difundirse mediante la seleccin
natural en un proceso evolutivo, incluso en el mundo de las bacterias; y
hoy los bilogos, que ven a la naturaleza ms como a una economista que
como a una ingeniera, estn empleando estos mismos modelos.
Por

otro

lado,

si

la autoridad

central,

el altruismo,

el lenguaje,

la racionalidad, y la confianza, resultaron no ser requisitos indispensables,


hay otras condiciones que s son necesarias para que la cooperacin surja,
se difunda y se mantenga. Para que tit for tat funcione, los individuos
tienen que poder reconocer a los otros jugadores y recordar qu han hecho
en ocasiones anteriores. Tambin tienen que interactuar repetidas veces y
tener una probabilidad suficientemente alta de seguir hacindolo en el
futuro, para que la cooperacin sea estable. Adems, para que sta surja,
tiene que haber variacin en las estrategias, de modo que pueda darse, o
bien un proceso de tipo darwiniano, o bien alguna forma de imitacin
deliberada de las pautas exitosas. Por ltimo, tiene que haber un grupo de
individuos que interacten entre s, que empiecen cooperando y que
discriminen entre los que han respondido a su cooperacin y los que no.
10

Un solo cooperador rodeado de gorrones no ira a ninguna parte. Por todo


ello, generalmente se piensa que aunque la cooperacin pueda imponerse
en ausencia de una autoridad central en ciertos contextos, como el de una
pequea comunidad donde se dan las condiciones adecuadas de
interaccin reiterada e interdependencia, no es de esperar que se
resuelvan as todos los DPs que surjan, por ejemplo, a nivel internacional
(9).

Las opciones descritas -penalizar la no-cooperacin mediante sanciones


impuestas por una autoridad central o, en ausencia de sta, "pagando con
la misma moneda"- se sealan en la parte superior del esquema siguiente,
que se seguir muy rpidamente a continuacin.
Si las circunstancias no se alteran, todava puede evitarse el desastre si los
participantes modifican sus objetivos o actitudes ticas. Derek Parfit
distingue

cuatro

soluciones

posibles:

(i)

que

los

participantes

se

hagan kantianos y hagan slo lo que puedan querer racionalmente que


hagan los dems (nadie puede querer que nadie coopere); (ii) que se
conviertan en personas de fiar, de forma que si se llega a un acuerdo de
cooperacin no lo rompan; (iii) que se vuelvan ms altruistas; y (iv) que
adquieran reticencia a gorronear, de modo que prefieran hacer su parte si
piensan que muchos otros tambin la har

(10).

Esta es la opcin que

corresponde al "principio de la equidad" (principle of fairness) formulado H.


L. A. Hart y adoptado por John Rawls: si uno acepta gustoso los beneficios
logrados con el esfuerzo colectivo de otros, adquiere la obligacin de
cooperar, incluso cuando no se ha firmado un acuerdo explcito al respecto
(11).

11

La ltima opcin es la de modificar la relacin entre los objetivos y el


principio de eleccin racional. Simplificando mucho, esta idea podra
explicarse como sigue. Supongamos que un individuo perdido en un
desierto le dice a otro que conoce el lugar que, si le conduce hasta la
poblacin ms cercana, ir al banco y le pagar este servicio. Si son
racionales, sabrn que, una vez que lleguen a la ciudad, el que estaba
perdido ya no tendr ninguna razn para pagar al gua, por lo que no
harn el trato y ambos perdern. Es decir, un mundo de maximizadores
directos, que calculen los beneficios de cada accin concreta, considerada
aisladamente y elijan la opcin que maximice su utilidad, podra ser una
autntica

pesadilla.

Es

ms,

ser

racional

en

este

sentido

es

individualmente -y no slo colectivamente- contraproducente (en trminos


parfitianos, directly individually self-defeating). Por ello, David Gauthier
propone otra opcin, que es la del maximizador indirecto o restringido (a
constrained maximizer), que es el que tiene la disposicin que maximiza su
utilidad (ser el tipo de individuo que cumple lo acordado, que sigue una
lnea, etc.)

(12).

Este ser racional, en este segundo sentido, saldra del

desierto y pagara su deuda, pero se portara siempre bien?. Una vez que
hemos dejado atrs las apelaciones al altruismo o a la preocupacin por
los dems, los maximizadores restringidos podran convertirse, por
ejemplo, en los co-operadores recprocos de Peter Danielson que "cooperan
cuando y slo cuando la cooperacin es necesaria y suficiente para que los
otros

cooperen"(13)

por

lo

que

podran

cooperar

siempre

con

los

cooperadores condicionales y explotar a fondo a los incondicionales.


Todo esto plantea el tema de hasta dnde puede fundamentarse
racionalmente la tica y en qu sentido puede ser sta, como sugiere
12

Harsanyi,

"una

rama

de

la

Teora

de

la

Conducta

Racional" (14).

Considerando que la Economa surgi a su vez, ya con Smith, como rama


de la tica

(15),

con la propuesta de este Nobel, el crculo se cerrara. No

cabe duda de que estos modelos tienen sus limitaciones, pero no es


necesario negarlas para reconocer su utilidad explicativa y normativa y su
xito multidisciplinar que est devolviendo a lo que Mill llamaba las
"ciencias morales", parte de la unidad perdida.

NOTAS
1.-Vase R. D. Luce y H. Raiffa, Games and Decisions, Wiley, N. York,
1957, p. 94.
2.-Vase A. Sen, "Isolation, Assurance and the Social Rate of
Discount", Quarterly Journal of Economics 80, 1976.
3.- J. Elster, "Marxismo, Funcionalismo y Teora de Juegos", Zona
Abierta 33, 1984, p. 48. Vase T. Domenech, De la tica a la poltica,
Crtica, Barcelona, 1989, caps. 6 y 7 y el juego de la virtud kantiana en la
p. 287.
4.- Vase, por ejemplo, "Comment on van der Veen and Van
Parijs", Theory and Society 15, 1986.
5 .- Vase J. Elster, "Marxismo, funcionalismo...", p. 51 y El cambio
tecnolgico, Gedisa, Barcelona, 1990.
6.- Hay muchas definiciones de racionalidad y de racionalidad
instrumental. Puede decirse que "actuar racionalmente" en un sentido
amplio es "hacer aquello que uno tiene ms razn para hacer"; o puede
hablarse, como hacen los economistas, de "elegir lo que maximice la
13

utilidad", lo que mejor satisfaga las propias preferencias. R. Hardin, p. e.,


se refiere a "la eficiencia con la que uno asegura sus propias metas"
(Collective Action, John Hopkins UP, 1982, p. 9) y J. Elster a "la eleccin de
la accin factible, compatible con las restricciones estructurales, que
produzca los mejores resultados" (vase, p. e., "Marxismo,
funcionalismo...", p. 39 y Rational Choice, Blackwell, Oxford, 1986, p. 4).
En castellano, vase J. Mostern, Racionalidad y accin humana, Alianza,
Madrid, 1978.
7.- J. Elster, El cambio tecnolgico, p. 65.
8.- Vanse dos obras clsicas, M. Olson, La lgica de la accin colectiva,
Limusa, Mxico, 1993 y R. Hardin ibid.; y P. Oliver y G. Marwell, "The
Paradox of Group Size in Collective Action" American Sociological
Review 53, 1988 y The Critical Mass in Collective Action, Cambridge UP,
1993.
9.- Vase M. Taylor, Anarchy and Cooperation, Wiley, Londres, 1976 y R.
Axelrod, "The Emergence of Cooperation among Egoists", The American
Political Science Review, 75, 1981, reimpreso en P. K. Moser
(ed.) Rationality in Action, Cambridge UP, 1990, y en R. Campbell y L.
Sowden (eds.), Paradoxes of Rationality and Cooperation, U. of British
Columbia Press, Vancouver, 1985, que son dos excelentes volmenes sobre
los temas aqu tratados, yLa evolucin de la cooperacin, Alianza, Madrid,
1982. Un buen resumen no tcnico puede encontrarse en "Tit for Tat", P.
Singer (ed.) Ethics, Oxford UP, 1994.
10.- D. Parfit, "Prudence, Morality and the Prisoner's Dilemma", en J.
Elster (ed.) Rational Choice, p. 38.
11.- Vase H. L. A. Hart, "Are There any Natural Rights?", Philosophical
Review 64, 1955; J. Rawls, Teora de la justicia, FCE, Mxico DF, 1971,
14

seccs. 18 y 52; y G. Klosko, The Principle of Fairness and Political


Obligation, Rowman and Littlefield Publishers, Lanham, USA, 1992.
12.- Vase D. Gauthier, La moral por acuerdo, Gedisa, Barcelona, 1994, y
P. Vallentyne (ed.) Contractarianism and Rational Choice, Cambridge UP,
1991.
13.- P. Danielson, Artificial Morality: Virtuous Robots for Virtual Games,
Routledge, Londres, 1992, p. 82.
14. J. Harsanyi, "Morality and the Theory of Rational Behaviour", en A.
Sen y B. Williams, Utilitarianism and Beyond, Cambridge UP, 1982, pp. 40
y ss.
15.- Vase en Sobre tica y economa, Alianza, Madrid, 1989, p. 11 y ss.
los comentarios de A. Sen sobre esta antigua unin y posterior divorcio.

15

También podría gustarte