Está en la página 1de 36

1 ¿Por qué estudiar otros enfoques?

Si eres un alumno con una posición crítica sobre la falta de realismo con el que tus profesores abordan el

estudio de los fenómenos sociales; si eres un académico con interés de conocer una metodología

rigurosa con la que se pueden explicar fenómenos colectivos a partir de las decisiones de agentes (e.g.,

individuos, empresas, organizaciones) que se encuentran insertados en un contexto social; si eres un

analista, empresario o hacedor de política que desea utilizar las bases de datos disponibles para ofrecer

soluciones concretas a distintas problemáticas socioeconómicas; entonces, este libro te puede resultar

sumamente atractivo ya que expone una forma innovadora de concebir al mundo social que nos rodea.

Hace tres décadas empezó a configurarse un paradigma científico dedicado al estudio de

fenómenos sociales que combina conceptos, herramientas de análisis y teorías aportadas desde diversas

disciplinas: física, química, biología, computación y de las propias ciencias sociales. La posibilidad de

transferir conocimiento de otras disciplinas y de integrarlo sin incurrir en inconsistencias lógicas se

debe, en este caso, a la existencia de una serie de premisas universales que hacen que los sistemas

sociales y naturales sean complejos, por lo que sus comportamientos macroscópicos son resultado de la

interacción de los agentes y, por ende, el todo es más que la suma de las partes. El que académicos y

científicos de distintas disciplinas hagan uso de un lenguaje común y recurran a metodologías similares

ha propiciado que la difusión del paradigma de la complejidad y la construcción de teorías innovadoras

crezcan exponencialmente.

Si bien es cierto que las teorías de la complejidad tiene muchos años de existencia, como lo

demuestran los escritos de los economistas clásicos, las versiones modernas se encuentran mucho más

estructurada e incorporan herramientas analíticas que permiten formular hipótesis refutables a partir de

evidencia empírica. En particular, el desarrollo de las computadoras y la disponibilidad de bases de

1
datos masivos han potencializado nuestra capacidad para construir modelos realistas y susceptibles de

validación externa. En consecuencia, con una visión más esclarecedora de cómo opera el mundo se

incrementa de forma sustantivas las posibilidad de generación de conocimiento.

Lo novedoso de este paradigma trans-disciplinario se refleja en el hecho de que no existe en la

actualidad un término comúnmente aceptado para denominarlo cuando se aplica al ámbito social (e.g.

complejidad social, economía computacional basada en agentes, modelos en-silicio de la vida social,

simulación social, sociología computacional basada en agentes, sociología analítica, ciencias sociales

computacionales, sociomática). Sin embargo, dos de estos términos parecen tener un mayor consenso:

complejidad social [e.g., Edmonds y Meyer, 2013] y ciencia social computacional [e.g. Cioffi-Revilla,

2014]. Mientras que el primer término hace referencia explícita a la premisa universal de agentes que

interactúan en un sistema, el segundo término enfatiza el uso de la computadora para estudiar fenómenos

sociales. A mi entender la primera denominación es más ilustrativa del conjunto de enfoques analíticos

que se expone en este libro de texto, para los cuales los fenómenos que se producen en un sistema social

son resultado del comportamiento descentralizado de los agentes que lo componen.

Para algunos autores [e.g., Alvarez, 2015, Lazear et al, 2009] la ciencia social computacional se

dedica al estudio de fenómenos de índole social mediante el uso de herramientas algorítmicas capaces de

manejar bases de datos masivos. En esta conceptualización, el objetivo es desarrollar metodologías para

la visualización de datos y detección de patrones que se presentan, esencialmente, en las bases de datos

no estructurados que se recopilan a partir de las redes sociales (e.g., Facebook, Twitter, LinkedIn) y

otras tecnologías de información. Entre las herramientas computacionales se encuentran los modelos de

redes, la minería de datos y los procesos de aprendizaje de máquina (e.g. redes neuronales, algoritmos

evolutivos). Para otros autores, como Cioffi-Revilla (2016), la ciencia social computacional no debe

limitarse al desarrollo de metodologías computacionales para la detección de patrones sino que también

2
debe considerar la elaboración de teorías con las cuales darle sentido a esos datos, y el desarrollo de

metodologías para construir modelos y procedimientos de simulación. Sin teoría, modelos y

simulaciones no es posible elaborar explicaciones causales, y sin relaciones de causalidad no es posible

hablar de una ciencia.

* Objetivos del capítulo

El propósito de este capítulo es generar inquietud entre los lectores sobre la fortaleza de sus

conocimientos y entusiasmarlos en adentrarse al paradigma de la complejidad social, cuya visión puede

ser mucho más esclarecedora para formular modelos, plantear hipótesis refutables y diseñar políticas.

Por ello, antes de elaborar con cierto detalle el marco teórico de la complejidad y exponer las

herramientas computaciones con las que se realizan las simulaciones, es conveniente identificar las

premisas del paradigma neoclásico (o de selección racional) de los economistas (politólogos) que le

impiden ser un cuerpo teórico idóneo para la generación de conocimiento.

* Estructura del capítulo

Con este objetivo en mente, la primera sección describe el desencanto que suelen experimentar alumnos

universitarios cuando toman sus primeros cursos de economía dada la falta de realismo de los modelos

neoclásicos. En la segunda sección se presenta un ejemplo de inercia académica que muestra la

reticencia de los economistas a abandonar marcos teóricos elaborados a partir de premisas axiomáticas,

a pesar de que la evidencia empírica disponible no los respalde. En la tercera sección se exponen

brevemente las bases ontológicas (i.e., concepciones de cómo opera el mundo) y epistemológicas (i.e.,

metodologías para la formulación y validación de teorías) del paradigma de la complejidad.

En la cuarta sección se explica lo que se entiende por un enfoque esclarecedor, y se sugiere que

un paradigma sustentado en el realismo de los supuestos resulta ser más atractivo para mejorar la

comprensión de los fenómenos sociales. En la quinta sección se argumenta que en la actualidad tiene

3
más sentido hablar de academia social que de ciencia social, dado que el acervo de conocimiento se ve

restringido por la dificultad de aplicar filtros de validación externa con los cuales explicar relaciones

causales. Finalmente, en la sexta sección se sostiene que los modelos computacionales, aunque podrían

ser considerados por algunos como herramientas retóricas sofisticadas, tienen mucho mayores

capacidades analíticas que los ensayos y argumentos narrativos.

1.1 Del escepticismo a la aceptación incondicional

Generación tras generación, estudiantes universitarios que toman sus primeros cursos en economía se

muestran desconcertados por los cánones de la modelación neoclásica y los métodos de enseñanza. Los

supuestos con los que sus profesores y libros de texto construyen las teorías económicas se encuentran, a

su entender, muy alejados de la realidad. La difusión de este descontento se hizo viral por primera vez

en junio del año 2000, cuando un grupo de estudiantes franceses realizaron varias peticiones

relacionadas a la enseñanza de la economía y los planteamientos ortodoxos. Estas peticiones tuvieron

eco entre estudiantes de Inglaterra, Bélgica y Estados Unidos, lo que dio lugar al movimiento de la

economía post-autista [ver apéndices en Fullbrook, 2006].

A decir de estos alumnos, “de todos los enfoques que existen a las preguntas económicas,

generalmente sólo se nos presenta uno de ellos. Supuestamente este enfoque explica todo a partir de un

simple proceso axiomático, como si se tratara de la verdad económica. No aceptamos este dogmatismo.

Abogamos por un pluralismo de enfoques que se adapten a la complejidad de los objetos y a la

incertidumbre que rodea a las grandes preguntas en economía” [Fullbrook, 2006, p. 5]. Once años

después, un grupo de estudiantes de la Universidad de Harvard presentó una carta abierta dirigida al

profesor Greg Mankiw, autor del libro de introducción a la economía más popular de la actualidad. De

acuerdo con estos alumnos (http://hpronline.org/harvard/an-open-letter-to-greg-mankiw/), “un legítimo

4
estudio académico de la economía debe incluir una discusión crítica de los pros y contras de los

distintos modelos simplificadores de la economía”.

A partir de 2012 diferentes grupos de estudiantes alrededor del mundo empezaron a crear

asociaciones con el propósito de impulsar reformas en los planes curriculares de economía y en los

métodos de enseñanza. Entre las asociaciones e iniciativas más notorias se encuentra las siguientes:

‘Post-Crash Economic Society’ (http://www.post-crasheconomics.com/) con base en la Universidad de

Manchester en Inglaterra; ‘Retinking Economics’ (http://www.rethinkeconomics.org/) fundada por

estudiantes de la Universidad de Tübingen en Alemania, y que hoy en día se constituye como una red

con una gran cobertura internacional; la ‘Iniciativa de Estudiantes Internacionales por el Pluralismo en

Economía’ -ISIPE, por sus siglas en inglés- (http://www.isipe.net/) la cual es respaldada por

asociaciones de más de tres decenas de países.

En general, estas organizaciones abogan por una enseñanza plural que confronte diferentes

escuelas de pensamiento y desarrolle la creatividad de los estudiantes, que se preocupe por tratar de

entender la problemática económica en su contexto histórico, social y política, y que sea consciente de

que las teorías y modelos son relevantes sólo si son capaces de describir fenómenos socioeconómicos

reales. Un ejemplo detallado de estas propuestas se presenta en Earle at al (2017), quienes también

realizan un análisis sobre los planes curriculares de siete universidades del Reino Unido. Por su parte,

Castañeda (2015) hace una comparación sobre el tipo de cursos obligatorios que se imparten en México

en los programas de licenciatura y maestría en economía, y sobre las metodologías de investigación que

utilizan los investigadores de distintos departamentos y facultades de economía.

* La falta de realismos de los modelos y sus supuestos

Los libros de texto están plagados de modelos que describen comportamientos individuales y colectivos

que, en el sentir de los alumnos, están muy alejados de la realidad. Entre estos comportamientos se

5
encuentran los siguientes: consumidores que maximizan funciones de utilidad abstractas y

exógenamente definidas; individuos que actúan de manera egoístas y sin ser influenciados por la

interacción social; empresas que eligen sus niveles de producción, inversión y mano de obra sin tomar

en cuenta que se trata de organizaciones conformadas por actores con intereses muy variados; agentes

representativos que determinan el comportamiento agregado de la sociedad; actores que eligen

estrategias a partir de expectativas racionales, en las que el resultado anticipado es el que se observa en

el equilibrio; precios que se establecen en mercados que operan con infinidad de participantes y que se

encuentran continuamente en equilibrio; agentes que maximizan beneficios inter-temporales con

horizontes infinitos; individuos que conocen las relaciones causales entre variables y las distribuciones

de probabilidad asociadas a distintos fenómenos; conductas e incentivos que son igualmente válidos en

todas las culturas.

Se podría pensar que el rechazo inicial de los estudiantes a aceptar los modelos neoclásicos que

les enseñan sus profesores se debe a deficiencias en la formación pre-universitaria. Dichas deficiencias

tienen que ver con diversos factores: presencia de prejuicios enraizados, uso indiscriminado del sentido

común para formular puntos de vista, poca información sobre la problemática bajo estudio, o incipientes

habilidades de abstracción y análisis. Sin embargo, el que un sinnúmero de investigadores de otras

disciplinas sociales [Rappaport, 1996], como sociología, ciencia política, psicología social y

antropología, también se muestren reacios a aceptar los supuestos neoclásicos, y las implicaciones de sus

modelos, indica que el desencanto de los alumnos no es simplemente producto de su inmadurez

intelectual.

Este desencanto también existe entre algunos economistas de reconocido prestigio. En relación al

pensamiento abstracto y la concepción matemática con la que se formulan las teorías económicas,

Ronald Coase ex-profesor de la Universidad de Chicago y Premio Nobel de Economía en 1991 señala

6
que “Si los economistas desearan estudiar un caballo, no irían a ver cómo es un caballo. Se sentarían

en sus cuartos de estudio y se preguntarían a sí mismos ¿qué es lo que haría si yo fuera un caballo?”

[citado en Earle et al, 2017, p 41.] Similarmente, connotados investigadores en física, química y biología

suelen mostrar gran estupor al percatarse de la manera en que los economistas ortodoxos construyen sus

teorías [Waldrop, 1992]. Para estos investigadores, un planteamiento científicamente riguroso requiere

que las premisas del modelo, y no sólo las inferencias que se desprenden del mismo, sean sujetas a una

validación empírica [Helbing y Balietti, 2010].

Los mismos economistas neoclásicos reconocen, en ocasiones, la irrealidad de sus supuestos,

pero sostienen que el planteamiento es válido en la medida en que sus modelos tienen capacidad de

predicción [Friedman, 1953], o bien que estas ‘simplificaciones’ de la realidad son neutrales a las

inferencias que se derivan del modelo [Lucas y Sargent, 1979]. Por ejemplo, se afirma que el supuesto

de individuos con una racionalidad puramente deductiva no tiene consecuencias en los resultados del

modelo, ya que si se hiciera explícito un proceso de aprendizaje se convergería a reglas de

comportamiento en las que los individuos maximizan su bienestar sobre un conjunto de preferencias

ordenadas [Lucas, 1988]. En este mismo sentido, Levine (2012) señala que los modelos de equilibrio

son más convincentes, en comparación a los modelos que incorporan procesos imperfectos de

aprendizaje, simplemente porque los primeros se ‘ajustan mejor’ a los hechos; independientemente de

que, al suponer un sistema en equilibrio, se considera un proceso de aprendizaje poco realista en el que

los individuos ven limitadas sus posibilidades de modificar la manera en que conciben el problema en

consideración.

Para la tranquilidad de los profesores de economía, los estudiantes aprenden las técnicas de

modelación que les enseñan y después de varios cursos la mayoría acaba por convencerse de la validez

de las premisas neoclásicas y de la relevancia de sus postulados matemáticos. En economía, como en

7
otras disciplinas, existe una inercia que hace muy difícil romper con la ortodoxia. Inercia que se explica

por factores muy diversos: sistemas de educación inflexibles, justificaciones ideológicas, falta de rigor

analítico en las teorías alternativas, dificultad para la corroboración empírica de hipótesis en contextos

no-experimentales, incentivos para publicar en determinadas revistas científicas, requisitos de

contratación para profesores jóvenes, y el tradicional resquemor del ser humano al cambio.

1.2 La teoría de la utilidad esperada como ejemplo de la inercia académica

El uso de la utilidad esperada, como modelo de decisión en condiciones de riesgo, es un claro ejemplo

de la excesiva cautela de los economistas a replantear sus teorías a pesar de que exista evidencia

empírica sustantiva de sus fallas. Los pilares de esta teoría de decisión se establecieron

aproximadamente hace 230 años, cuando el científico suizo Daniel Bernoulli identificó una conexión

entre el valor psicológico del dinero (i.e., su utilidad) y la cantidad de dinero que una persona podría

obtener al apostar en juegos de azar [Kahneman, 2011]. Al establecer una relación matemática entre

estas dos variables por medio de una función cóncava (e.g., logarítmica), Bernoulli logró explicar una

conducta de aversión al riesgo en las personas. Este planteamiento contradecía el enfoque convencional

de la época que suponía neutralidad al riesgo; es decir, apuestas que se eligen al comparar el valor

esperado del dinero que se obtiene con las distintas opciones disponibles de una lotería.

La teoría de Bernoulli indicaba que una regla de decisión más adecuada debía tomar en cuenta al

promedio ponderado de la utilidad obtenida con los diferentes eventos de la lotería. Las ponderaciones

se definían con las probabilidades de los eventos los que, por su parte, se especificaban en términos del

dinero ganado. Posteriormente, en los años 40 del siglo pasado, el matemático John Von Neumann y el

economista Oskar Morgenstern formalizaron la teoría de la utilidad esperada, para lo cual establecieron

un proceso lógico de decisión que partía de ciertos axiomas de racionalidad. Desde entonces, la

8
economía neoclásica se apropió de este planteamiento para describir el comportamiento del Homo

Economicus cuando actúa en situaciones de riesgo.

No obstante, prescripciones importantes de esta teoría son desmentidas por una cuantiosa

evidencia experimental [e.g., Allais, 1953, Tversky y Kahneman, 1981, entre muchos otros]. En

particular, los psicólogos Daniel Kahneman y Amos Tversky (1979) presentan evidencia de que las

personas evaluamos de forma diferente las ganancias y las pérdidas, dado que solemos mostrar aversión

al riesgo cuando hay ganancias involucradas, pero también somos buscadores de riesgos cuando se trata

de pérdidas. Estos autores desarrollaron la teoría de los prospectos, en la que plantean un modelo

descriptivo de decisión sustentado en tres premisas empíricas: (i) el uso de un punto de referencia para

evaluar alternativas, por lo que el cambio en la riqueza y no su nivel es la variable importante a

analizar; (ii) una sensibilidad decreciente (i.e., utilidad marginal decreciente) en la valuación psicológica

del cambio en la riqueza; (iii) la presencia de aversión a las pérdidas, ya que al comparar ganancias con

pérdidas se le da más peso a estas últimas. A raíz de estos trabajos seminales, se han elaborado varios

enfoques alternativos a la teoría de utilidad esperada [ver revisiones de la literatura en Sugden, 2004 y

Schmidt, 2004].

En un intento reciente por fortalecer la teoría de utilidad esperada, algunos economistas sugieren

que la esencia del modelo sigue siendo válida. Con este propósito suponen que los individuos

maximizan su utilidad esperada para elegir entre apuestas alternativas pero que, por alguna razón,

pueden aleatoriamente cometer un error al momento de decidir. En particular, Schmidt y Neugebauer

(2007) encuentran evidencia experimental que es estadísticamente consistente con las implicaciones del

modelo de utilidad esperada con error.

Esta reformulación de la teoría muestra la indiscutible capacidad de adaptación que tienen los

economistas neoclásicos para lidiar con las inconsistencias observadas entre sus postulados y la

9
evidencia empírica. Sin embargo, también es claro que sus adherentes están dispuestos a realizar

‘parches analíticos’ en sus teorías siempre que dicho proceder no los lleve a derrumbar los pilares

axiomáticos que sustentan al paradigma. A mi entender, éste no es el camino metodológico más

adecuado puesto que favorece excesivamente el proceso de explotación sobre el de exploración en la

búsqueda del conocimiento y, por ello, es altamente probable que las mejoras en la concepción teórica

queden atrapadas en una trayectoria equivocada. ¿Qué sentido tiene mantenerse fieles a la premisa de

agentes racionales, si a la vez se considera que éstos cometen errores de forma cotidiana? ¿Qué caso

tiene ‘mejorar’ el modelo para reducir la tasa de rechazo a la teoría de decisiones en contextos de riesgo,

si en la realidad los agentes sociales usualmente toman decisiones en situaciones de incertidumbre (i.e.,

cuando se desconocen las probabilidades teóricas de los eventos)?

El mismo Kahneman sugiere que la longevidad de la teoría de la utilidad esperada, y el rechazo a

adoptar enfoques empíricamente más sólidos, se debe a un efecto de ceguera inducido por la propia

teoría; es decir, a la incapacidad de los académicos para reconocer fallas en esta y otras teorías una vez

que pasan a formar parte del bagaje de concepciones con las que estructuran su pensamiento. En esta

misma tesitura, Rabin y Thaler (2001) señalan que todas las justificaciones que se han dado para

desacreditar las anomalías detectadas en la teoría de la utilidad esperada, y así mantenerla con vida,

carecen de fundamento alguno, por lo que simple y llanamente debe ser considerada como una hipótesis

fallida.

Este y otros casos de inercia teórica dan pie a pensar que los economistas, en general, se

comportan más como matemáticos que como físicos. Mientras que los primeros le dan más importancia

a la consistencia lógica de teoremas y modelos, los segundos se preocupan más por la validación externa

de sus teorías [Gintis, 2006]. De acuerdo con el físico Jean Philippe Bouchaud, entrevistado para el

boletín ‘Coping with financial crises. A multi-disciplinary agent based research project’

10
(http://www.crisis-economics.eu/wp-content/uploads/2013/11/CRISIS-Interviews.pdf p.24), ‘En la

economía tradicional los axiomas y conceptos son más importantes que la realidad, es decir, que los

datos empíricos. En cambio, los físicos desde tiempo atrás se dieron cuenta que deben dudar de los

axiomas y conceptos y lidiar con ellos con precaución: si el estudio empírico no es compatible con el

modelo, este último tiene que ser eliminado o modificado’.

1.3 Las bases de un paradigma alternativo

Un buen modelo no es el que intenta hacer un mapeo uno-a-uno de la realidad, sino aquel que con el

menor número de supuestos es capaz de describir una realidad y, a partir de ahí, generar el mayor

número de hipótesis susceptible de ser validadas con evidencia empírica. Dado que los sistemas sociales

y naturales son muy complejos, el conjunto de supuestos realistas que las teorías utilizan tiene que ser

forzosamente incompleto y, por ello, cualquier proceso de modelación da necesariamente lugar a

planteamientos con una cierta dosis de irrealismo [Kanazawa, 2008]. El problema reside, entonces, en

precisar si los supuestos contemplados en la economía neoclásica son simplificaciones de la realidad, y

por ende válidos, o bien se trata de ficciones que utilizan los investigadores para facilitar la construcción

matemática de la teoría sin contemplar que sus postulados no son robustos a modificaciones en los

supuestos ‘simplificadores’ [Lehtinen y Kuorikoski, 2007, y Akerlof y Yellen, 1985].

Una posición metodológica, que se identifica con la filosofía realista de las ciencias, señala que

las teorías son falsas o verdaderas en un sentido ontológico a pesar de que los propios investigadores lo

desconozcan. En consecuencia, si se considera que una buena teoría es aquella que proporciona

explicaciones genuinas de relaciones causales, entonces, es importante que ésta no se construya a partir

de supuestos empíricamente erróneos. De lo contrario, la teoría será falsa independientemente de que

algunas de sus predicciones sean consistentes con la realidad. Por lo tanto, el interés por explorar

11
nuevos derroteros teóricos en economía, y en otras ciencias sociales, se desprende de la incapacidad de

los modelos de elección racional para explicar un sinnúmero de fenómenos observados y,

principalmente, del hecho de que las premisas neoclásicas no son consistentes con la evidencia empírica

[Gintis, 2006, Gallegati y Kirman, 2012].

Como bien decía Mahatma Gandhi, “un error no se convierte en verdad por la simple razón de

que éste se propaga en forma multiplicativa, ni tampoco la verdad se convierte en un error porque

nadie la ve”. Por este motivo, y con la intención de divulgar entre los científicos sociales, actuales y

futuros, una posición crítica de la epistemología económica ortodoxa, en este texto se presenta un

enfoque del paradigma de la complejidad que permite estudiar fenómenos socioeconómicos. Con este

fin, se parte de la premisa de que los comportamientos macroscópicos se generan usualmente en

entornos descentralizados e inciertos, en los que agentes heterogéneos con capacidades cognitivas

limitadas aprenden e interactúan en contextos locales. En otras palabras, se concibe a la sociedad, la

economía y los mercados como sistemas adaptables complejos.

El paradigma de la complejidad social tiene la capacidad de responder a la tradicional crítica

neoclásica sobre el pensamiento heterodoxo en relación a que “no se puede vencer a un marco teórico

formal sin ofrecer una alternativa igualmente rigurosa”. En particular, el enfoque que se expone en el

texto permite modelar la interdependencia entre la agencia (comportamiento individual) y la estructura

(contexto de interacción), además de ofrecer la posibilidad de inferir, a través de simulaciones, qué tan

robustos son las implicaciones del modelo a variaciones en sus supuestos.

Cabe aclarar que no todas las ideas sobre la complejidad social son nuevas, como lo atestiguan

los trabajos de economistas vinculados a la escuela clásica (e.g., Smith, Malthus y Stuart Mill), a la

economía evolutiva (e.g., Veblen, Alchian y Boulding) y a la escuela austriaca (e.g., Menger,

Schumpeter y Hayek). En este destacado grupo también se encuentra Alfred Marshall al que,

12
independientemente de sus contribuciones al marginalismo, se le ubica mejor entre los economistas

clásicos que entre los neoclásicos, ya que en sus escritos presenta una visión del mercado como un

proceso y no como una estructura mecánica en la que los recursos se asignan a través del sistema de

precios [Simpson, 2013]. Asimismo, Friedrich Hayek (1964) fue el primer autor en resaltar la

conveniencia de elaborar teorías de la complejidad para tratar de explicar fenómenos socioeconómicos.

Aunque podría argumentarse que la complejidad social es solamente un redescubrimiento de la

visión de economistas clásicos y austriacos, sí tiene sentido hablar de un paradigma novedoso para las

ciencias sociales. Ello se debe a que las teorías de la complejidad se insertan hoy en día en una visión

universal de los fenómenos sociales y naturales [Prigogine, 1996], además de que sus planteamientos

pueden formalizarse a través de modelos realistas que se elaboran con herramientas computacionales. A

decir del profesor Axel Leijonhufvud, un modelo realista de la economía es aquel que describe a

individuos no muy sofisticados que tratan de lidiar con situaciones extremadamente complejas, a

diferencia de la concepción neoclásica en donde los modelos plantean personas muy inteligentes que

enfrentan situaciones increíblemente simples [citado en Beinhocker, 2006, p 52].

* ¿Seguir a la física o a la biología?

Este paradigma se construye a partir de evidencia empírica y no de principios axiomáticos, además de

que apela al uso de metáforas provenientes de la física estadística y de la biología evolutiva para

construir su marco teórico. Por un lado, algunos autores hablan de la importancia de visualizar a los

fenómenos socioeconómicos a partir de una física social [Ball, 2010]. En entornos en los que cohabitan

multiplicidad de objetos, lo importante no es explicar el movimiento detallado de cada uno de ellos sino

tratar de entender el comportamiento estadístico del agregado. Las teorías decimonónicas de Maxwell y

Boltzmann, sobre la dinámica de los gases, fueron concebidas bajo esta premisa fundamental, por lo que

13
se rompió con la lógica mecanicista de Newton y se dio origen a la física estadística sintetizada por

Gibbs en el año de 1902.

La física estadística de Boltzmann fue revolucionaria en su época, ya que sostenía que las leyes

de la física eran válidas ‘prácticamente todo el tiempo’ más que ser aplicables en todo momento. En este

enfoque metodológico las leyes se establecen a partir del comportamiento probable del sistema. Por

ejemplo, si se analiza una habitación llena de moléculas de aire que se mueven aleatoriamente, lo más

probable es que éstas se diseminen en todo el espacio. No obstante, la física estadística sugiere que

existe una probabilidad muy pequeña de que todas las moléculas se posicionen en algún momento en

una de las esquinas, lo que de darse produciría una excesiva presión en dicha esquina y la imposibilidad

de respirar en el resto de la habitación. Dado que en la realidad esta situación tiene una probabilidad de

ocurrencia extremadamente baja, se puede afirmar que, para fines prácticos, el enfoque estadístico

ofrece respuestas acertadas [Mitchell, 2009].

Por otro lado, varios economistas abogan por seguir los consejos de Alfred Marshall quien, en la

4ª edición de sus Principios, indicaba que ‘la biología es la meca de la economía’. Para estos autores,

los agentes socioeconómicos no son átomos, ya que estos últimos no son capaces de adoptar

planteamientos estratégicos, ni adaptarse al entorno mediante procesos de aprendizaje individual o social

[Gallegati y Kirman, 2012]. En este frente, se encuentran economistas institucionalistas que sugieren la

importancia de adoptar los principios evolutivos de variación, selección y replicación, propios del

darwinismo generalizado, en el estudio de los fenómenos sociales [Hodgson, 2007]. En un contexto

complejo y con incertidumbre, es conveniente especificar teorías que apelan a algoritmos evolutivos en

los que preferencias, creencias y reglas de comportamientos (individuales y colectivas) se modifican en

el transcurso del tiempo.

14
Al considerar a la economía como una ciencia evolutiva, es posible hablar de los fundamentos

micro de la macro, pero también de los fundamentos macro de la micro. Por esta razón es que Veblen, el

padre del institucionalismo americano, afirmaba que “el tejido institucional es resultado de la conducta

de los miembros individuales de un grupo, a la vez que las instituciones actúan para dirigir y definir los

objetivos y propósitos de la conducta” [citado en Hodgson, 2009, p 5]. De acuerdo con Beinhocker

(2006), la dinámica económica no puede caracterizarse a través de un conjunto de condiciones de

equilibrio por tratarse de un sistema evolutivo; por esta misma razón es que los biólogos no han

intentado describir a una colonia de hormigas como el resultado de un equilibrio.

La integración de elementos de la física estadística con elementos biológicos evolutivos en un

mismo paradigma, implica que no es posible trasladar literalmente los marcos teóricos de estas

disciplinas. No obstante, de la física es importante tomar en cuenta que la interacción de los agentes

produce comportamientos colectivos en los que el todo es más que la suma de las partes, mientras que

de la biología es conveniente resaltar que la imitación y el aprendizaje son partes esenciales de las

habilidades cognitivas del ser humano [Gintis, 2006]. En este sentido, los modelos computacionales

basados en agentes poseen los atributos necesarios para combinar procesos de interacción local, a través

de redes, con mecanismos adaptativos que determinan el cambio en las reglas que guían a los agentes.

La importancia de construir un aparato analítico para estudiar sistemas adaptables complejos en

el entorno social, se hace evidente al considerar que la manera en que interactúan los humanos es mucho

más intrincada que la interacción que se da entre otros seres vivos y entre partículas. El mismo Hayek

(1964) hacía referencia a una jerarquía en la complejidad de los fenómenos que estudian las diferentes

ciencias. En un nivel superior de dicha jerarquía se incorporan reglas de comportamiento adicionales a

las que operan en los niveles inferiores. Por esta razón, los humanos adoptan reglas de comportamiento

15
cultural que son consistentes con las reglas propias de la biología, la química y la física, siendo este

último sustrato el de menor nivel de complejidad.

* La diseminación de la complejidad social y la necesidad de una meta-teoría diferente

Si bien es cierto que la visión de complejidad no se ha generalizado entre los científicos sociales, es

innegable la gran aceptación que hoy en día tiene este paradigma en las ciencias naturales. Sin embargo,

su instrumentación en modelos aplicados a problemas de las ciencias sociales ha crecido

geométricamente en los últimos años, como lo demuestran los trabajos realizados sobre mercados

financieros, ciclos económicos y crisis, preferencias partidistas y procesos electorales, epidemias,

problemas de salud pública como adicciones y obesidad, entre muchos otros [ver, por ejemplo,

Tesfatsion y Judd, 2006, Squazzoni, 2010, y la página de internet de Leigh Tesfatsion disponible en:

http://www2.econ.iastate.edu/tesfatsi/ace.htm].

Para acelerar este proceso de diseminación es imprescindible elaborar una meta-teoría con la que

sea posible construir modelos que analicen problemas socioeconómicos muy diversos: comportamiento

de los mercados, competitividad de las organizaciones, formación de instituciones, desarrollo

tecnológico y crecimiento, entre muchos otros. Una meta-teoría que parta de la visión de la complejidad

debe suscribir la idea de que el comportamiento colectivo emerge de la interdependencia entre agentes

heterogéneos adaptativos insertados en un espacio de interacción. De aquí la necesidad de rechazar los

cánones de la epistemología neoclásica referentes al agente representativo, las preferencias exógenas, la

racionalidad y el equilibrio.

Lo inadecuado de estas premisas se aprecia al tratar de explicar la crisis internacional del 2008,

en la que los problemas financieros de un banco con activos tóxicos (i.e., aquellos cuyo valor era difícil

de determinar) se trasladaron a otros bancos dentro y fuera de los Estados Unidos. La costumbre de los

economistas de interpretar un fenómeno macro a partir de la agregación del comportamiento de un

16
agente representativo, los lleva a sugerir que el mercado se comporta como si se tratara de un solo ente

que entiende el mundo de cierta manera [Kirman, 2011]. Por ejemplo, se suele afirmar que “los precios

de activos se desploman porque el mercado anticipa una recesión”, cuando en la realidad los vaivenes

de los mercados financieros se deben a un conjunto de decisiones tomadas por diversos agentes

interrelacionados a través de transacciones, expectativas y la transmisión local de información.

Al apelar a un concepto estático de equilibrio, en el que los agentes económicos no tienen interés

alguno por modificar unilateralmente sus decisiones, la crisis se interpreta en la óptica neoclásica como

un fenómeno macro en el que bancos aislados adoptan una conducta optimizadora e inadvertidamente se

coordinan en un comportamiento que da lugar a un evento catastrófico [ver por ejemplo Levine, 2012].

Explicación que, a decir de Kirman, es muy difícil de aceptar por el simple hecho de que el proceso de

diversificación que tenía el propósito de reducir el riesgo individual de las inversiones realizadas por las

entidades bancarias produjo, a la postre, una elevada interdependencia entre dichas entidades,

incrementándose de esta manera el riesgo sistémico.

1.4 La importancia de utilizar enfoques esclarecedores en la generación de conocimiento

Las teorías sustentadas en concepciones de equilibrio tienen dificultades para generar conocimiento ya

que, por construcción, descartan la existencia de incertidumbre en el entorno socioeconómico. El

‘cristal’ con que se observa el mundo a través de una teoría de equilibrio distorsiona severamente la

manera en que los comportamientos macroscópicos se producen en la realidad. Si bien un marco teórico

de esta naturaleza puede ayudar a poner en orden ciertas ideas y plantear hipótesis a partir de sus

implicaciones, difícilmente puede lograr avances sustantivos en el conocimiento por su incapacidad para

entender los procesos causales que le dan forma a los fenómenos.

17
A diferencia del paradigma neoclásico, los distintos enfoques de la complejidad toman en cuenta

la incertidumbre inherente a los sistemas socioeconómicos [Arthur, 2013]. Se habla de incertidumbre

fundamental (o knightiana) cuando los agentes desconocen la distribución de probabilidad de los

eventos que inciden en la toma-de-decisiones, lo que lleva a la formación de expectativas subjetivas

sobre dichos eventos. Esta incertidumbre se complica aún más cuando los resultados de determinadas

decisiones están condicionados al accionar de otros agentes, lo que hace imprescindible construir

expectativas subjetivas sobre las expectativas subjetivas de otros. Se habla también de una

incertidumbre tecnológica/institucional cuando la creación de nuevos mecanismos productivos y

organizacionales produce un proceso disruptivo en las sociedades que afecta el entorno y, con ello,

desencadena más cambios.

De acuerdo con Arthur, estas dos formas de incertidumbre hacen que el desequilibrio de las

economías se genere de forma endógena. Por un lado, la incertidumbre fundamental produce

movimientos brownianos en el sistema, ya que los agentes están constantemente aprendiendo a través de

la exploración y adaptación de creencias y estrategias. Por otro lado, el cambio tecnológico/institucional,

al perturbar el entorno, da origen a incentivos que llevan a producir innovaciones adicionales, las cuales

pueden propiciar cambios abruptos en la estructura que condiciona los procesos de decisión de los

agentes. Por lo tanto, estas dos variantes de incertidumbres hacen que las estrategias y acciones de los

individuos estén en constante evolución, lo que hace que los comportamientos agregados también se

encuentren en continuo movimiento; es decir, estos comportamientos se podría describir, cuando mucho,

como un equilibrio estadístico.

A manera de ejemplo, no es fácil explicar la existencia de booms y cracs en los precios de los

activos si se apela a la hipótesis neoclásica de mercados eficientes, en la que los precios se mantienen en

promedio en una vecindad del valor fundamental de los activos. En estos modelos de equilibrio, se

18
supone que los pronósticos y estrategias de los inversionistas se mantienen inalterados, por lo que sus

expectativas logran ser validadas en promedio. En consecuencia, las desviaciones de los precios con

respecto a los fundamentos, en un esquema de expectativas racionales, se producen de manera fortuita

con una probabilidad de ocurrencia extremadamente baja. Resultado que contradice la evidencia, en la

que la distribución de los rendimientos presenta colas anchas; es decir, eventos extremos cuya

probabilidad de ocurrencia, aunque baja, no es nada despreciable.

En contraste, este tipo de desviaciones en los precios de activos se puede explicar con suma

facilidad cuando se adopta una visión que incorpora la incertidumbre y el desequilibrio. En este

contexto, los inversionistas modifican constantemente sus expectativas y tienen que descubrir qué tipo

de estrategias les producen buenos resultados, ante la imposibilidad de deducirlas lógicamente. En el

modelo computacional de Arthur et al (1997), los inversionistas eligen entre una ecología de estrategias

de inversión, de tal forma que las más prometedoras son replicadas y las más desafortunadas son

reemplazadas por otras nuevas. Debido a que esta ecología de reglas de pronóstico se modifica con el

tiempo, los inversionistas pueden descubrir en un momento dado reglas que dan lugar a la aparición de

booms y cracs. Este sería el caso, por ejemplo, cuando prolifera una regla en la que se estipula que “si

los precios han aumentado por k periodos, se espera un incremento del x% en el siguiente periodo”, y

otra más que sostiene que “si los precios actuales se ubican ‘y’ veces por encima de las ganancias

fundamentales, se espera que los precios se reduzcan en z%”.

El primer tipo de reglas produce una retroalimentación positiva en el comportamiento de los

inversionistas, en donde el alza en los precios valida las expectativas y propicia un mayor ímpetu en la

compra de los activos, lo que da lugar a un boom. Pero una vez que el activo se encuentra

excesivamente sobre-valuado, entra en operación la segunda regla, por lo que la compra de activos se

detiene y con ello se produce un desplome en el mercado. Tanto en la hipótesis de los mercados

19
eficientes como en un modelo de desequilibrio con “exuberancia irracional”, no es posible predecir el

timing y duración de estos auges espontáneos; sin embargo en el segundo planteamiento sí es posible

caracterizar el rendimiento de los activos a través de una distribución de probabilidad con validez

empírica.

Por todo lo anterior, se puede afirmar que un enfoque basado en el desequilibrio y la

incertidumbre abre nuevas ventanas para avanzar en la comprensión de los fenómenos económicos, las

cuales se mantienen cerradas cuando el investigador supone que los sistemas económicos operan en

equilibrio y se componen de individuos con expectativas racionales. Este ejemplo sirve para mostrar que

un enfoque analítico puede ser esclarecedor, y propiciar una senda de mayor conocimiento, cuando las

premisas de sus modelos tienen una fuerte dosis de realismo de acuerdo con la evidencia empírica

disponible.

*La conveniencia de incorporar técnicas, metáforas y bases de datos novedosas

Los cambios tecnológicos en los métodos de análisis, la incorporación de metáforas provenientes de

otras disciplinas y la obtención de nuevos tipos de datos son tres factores que propician el abandono de

paradigmas anquilosados. Un claro ejemplo de cambio tecnológico es el uso de la computadora como

herramienta del análisis social. Por su parte, algunas teorías físicas (e.g. auto-organización de un estado

crítico) se han utilizado como metáforas en la reformulación teórica de diversos fenómenos sociales

(e.g., ciclos económicos). Adicionalmente, la obtención de datos a partir de nuevos métodos de

recopilación de información (e.g., diseños experimentales, tecnologías de información) no sólo favorece

la posibilidad de llevar a cabo un proceso de validación externa de las hipótesis, sino también contribuye

a replantear las bases ontológicas de un nuevo paradigma.

Por esta razón, el utilizar un enfoque analítico que parte de una mejor descripción de la realidad y

que, a la vez, hace uso de herramientas computacionales que facilitan la modelación de sistemas

20
complejos incrementa la probabilidad de entender los procesos causales que están detrás de un

fenómeno, a diferencia de lo que sucede con una metodología que apela a premisas axiomáticas. A

manera de ilustración, en la Figura 1.1 se presenta un diagrama que muestra el impacto que una

determinada argumentación, X, tiene sobre la probabilidad, f(X), de explicar un fenómeno específico

con un marco teórico opaco –i.e., poco realista.

Debido a que el analista desconoce la forma funcional de f(X), resulta extremadamente difícil,

sino es que imposible, descubrir cuál es la mejor línea de argumentación para entender el fenómeno en

consideración. Por un lado, la rugosidad de esta función puede hacer que el analista incurra en un

óptimo parcial, al no poder explorar la explicación más acertada. Por otro lado, lo inadecuado del marco

teórico hace que la altura del óptimo global sea extremadamente baja, por lo que aún si el investigador

es capaz de encontrar el argumento ‘óptimo’, la probabilidad de que dicho marco teórico ofrezca

explicaciones consistentes con la evidencia empírica es relativamente reducida.

Figura 1.1
Proceso de exploración con un enfoque opaco

21
En contraste, en la Figura 1.2 se presenta un marco teórico esclarecedor que resulta ser mucho

más innovador en la comprensión del fenómeno en consideración. Este enfoque ofrece argumentos más

sólidos sobre la manera en que operan las relaciones causales asociadas a dicho fenómeno, lo que en el

diagrama se ilustra con la forma cónica de la función. Por lo tanto, el analista tiene mayores

posibilidades de realizar avances sustantivos en la identificación del óptimo global por tratarse de un

proceso de búsqueda mucho menos rugoso, lo cual ocurre independientemente de que se desconozca la

forma funcional f(X). Adicionalmente, la línea de argumentación óptima bajo este enfoque ofrece una

probabilidad relativamente alta de que el fenómeno pueda ser entendido a cabalidad.

Figura 1.2
Proceso de exploración con un enfoque esclarecedor

En este texto se sugiere que la complejidad social tiene un gran potencial para mejorar nuestra

comprensión sobre diversos fenómenos socioeconómicos debido a que hace uso de una metodología

esclarecedora. Su potencial tiene que ver con que sus premisas describen mucho mejor la realidad, en

22
comparación con las metodologías convencionales, y con el hecho de que los modelos computacionales

basados en agentes permiten explorar las implicaciones de estas premisas. En particular, este paradigma

le proporciona al investigador una metodología sumamente flexible para analizar sistemas en continuo

desequilibrio. Bajo esta óptica es posible explorar la secuencia de mecanismos causales que van de lo

macro a lo micro, de lo micro a lo meso y de lo meso a lo macro. A partir de esta concepción del mundo,

el investigador puede estudiar la manera en que los vínculos económicos y sociales de los individuos

dan lugar a comportamientos colectivos que pueden variar de una sociedad a otra.

1.5 Metodologías científicas o herramientas retóricas

Si bien a lo largo de este texto se habla de una ciencia social es conveniente aclarar que el status

científico que los investigadores le damos a nuestra disciplina no se encuentra del todo consolidado.

Aunque la formalidad de los modelos matemáticos pudiera hacer pensar, al lector superficial, que se

trata de planteamientos científicos, por lo general esta forma de analizar los fenómenos socioeconómicos

es realmente una herramienta retórica. A través del análisis matemático, el investigador busca robustecer

la fuerza de persuasión de sus ideas y, a veces, trata de incrementar su injerencia en el diseño de la

política pública.

Inclusive, autores como McCloskey (1983 y 1998) sugieren que todas las ciencias son retóricas,

en la medida que los científicos con sus argumentos teóricos y pruebas estadísticas tienen la intención de

persuadir a otros miembros de la comunidad científica de que sus hallazgos son válidos y que, por

consecuencia, deben pasar a formar parte del conocimiento establecido. Dado que la aceptación o

rechazo de los argumentos esgrimidos depende del lenguaje de comunicación que se utiliza, las

metodologías retóricas son desde este punto de vista una fuente de generación de conocimiento;

23
entendido este último como el depósito de teorías aceptadas por la comunidad científica sobre la manera

en que opera el mundo.

Bajo esta concepción, la significancia estadística de una prueba no debe ser la condición sine que

non para que una teoría quede validada, ya que dicha prueba depende de una serie de hipótesis auxiliares

que no están siendo consideradas explícitamente en el análisis estadístico [Klamer, 2001]. Por ello, la

profesora Deirdre McCloskey, coautores y seguidores afirman que los economistas ortodoxos abusan de

sus planteamientos matemáticos y formulaciones econométricas, en tanto que estas metodologías son

consideradas como los únicos cánones con los que se puede encontrar evidencias científicamente

válidas, sin percatarse de que se trata tan solo de un subconjunto de los instrumentos retóricos

disponibles [para una crítica al planteamiento de McCloskey sobre el análisis estadístico ver Hoover y

Siegler, 2008].

En este texto se descarta esta posición cuando es llevada al extremo; más bien se sugiere que el

conocimiento para clasificarse como científico, y no simplemente como un bagaje de ideas académicas

comúnmente aceptadas, requiere pasar ciertos filtros de validación externa. A pesar de que dichos filtros

puedan ser declarados como equivocados en un futuro y, por ende, no existen garantías de que el

conocimiento acumulado sea necesariamente verdadero. Estos filtros hacen imprescindible que las

teorías suscritas por el investigador establezcan relaciones causales que puedan sustentarse con

evidencia empírica. Adicionalmente, para que un planteamiento teórico tenga una significancia

científica no basta con que se encuentre una significancia estadística, también se requiere que su

relevancia sea corroborada con distintos análisis y metodologías.

Por lo antes expuesto, resulta más apropiado hablar de académicos sociales que de científicos

sociales. Un académico social es capaz de desarrollar una semántica con la que identificar conceptos

para, posteriormente, elaborar argumentos estructurados a partir de metodologías retóricas que le

24
permiten guiar su proceso de pensamiento. Esto no quiere decir que las explicaciones retóricas de todos

los investigadores sean igualmente convincentes. La calidad de las explicaciones ofrecidas depende de la

consistencia interna con la que se entrelazan sus argumentos e inclusive de la consistencia cualitativa de

sus hipótesis con ciertos hechos estilizados.

En cambio, un científico además de formular teorías que tienen una lógica interna hace uso de

herramientas experimentales con las que realiza variaciones controladas sobre el entorno a analizar. De

esta forma, es posible identificar cómo ciertos estímulos y procesos de interacción modifican el

comportamiento de los agentes de un sistema y su desempeño colectivo. En la medida en que los

comportamientos resultantes dan lugar a regularidades estadísticas se podrá hablar de relaciones

causales que tienen un sustento estadístico. Sin embargo, para que esta evidencia alcance el status de

conocimiento científico también es necesario que los resultados sean replicados con diferentes

metodologías y bases de datos.

Cabe enfatizar que no cualquier hipótesis que se respalde con un análisis estadístico o

econométrico es científicamente válida, ya que dos filtros adicionales tienen que ser superados:

identificación de relaciones causales y replicación de la evidencia estadística. En las ciencias sociales es

común encontrar ‘evidencia estadística’ que se construye con modelos de regresión que no son

apropiados para probar determinadas hipótesis. En particular, estos modelos no siempre tienen la

capacidad para separar los efectos de distintos incentivos (o factores) que se presentan de forma

simultánea en la realidad, ni tampoco para determinar si los comportamientos observados son una

consecuencia de factores estratégicos, como la reciprocidad o la reputación, o bien si son producto de las

motivaciones intrínsecas de los agentes.

Afortunadamente en décadas recientes, los investigadores sociales han desarrollado metodologías

que les permiten llevar a cabo variaciones controladas. Este es el caso de los análisis experimentales

25
realizados en el laboratorio, en el campo y a través de simulaciones en sociedades artificiales. A partir

de estas herramientas, es técnicamente posible establecer una relación entre la estructura (macro) y la

agencia (micro) y de esta forma identificar los mecanismos causales inherentes a una problemática

social. Asimismo, en las dos últimas décadas se han producido mejoras sustantivas en la calidad de los

estimaciones econométricas con el uso de mejores bases de datos, métodos de estimación más robustos y

diseños más cuidados en los protocolos de investigación a través de experimentos con tratamientos

aleatorizados o cuasi-experimentos [Angrist y Pischke, 2010]. Entre los métodos econométricos resaltan

las estimaciones con variables instrumentales, regresiones discontinuas, diferencias-en-diferencias,

simulación de momentos, modelos de redes dinámicas y modelos de interacción social.

Aunque todavía existe un largo camino por recorrer en el terreno metodológico, desde mi punto

de vista es importante que las herramientas retóricas se complementen con las metodologías científicas,

en el sentido aquí descrito, pues de lo contrario no será posible lograr avances sustantivos en la

generación de conocimiento. La ventaja de estos métodos científicos, se hace evidente al recordar que

los físicos y químicos han podido con sus investigaciones empíricas destronar teorías establecidas y

generar otras nuevas; en contraste, los economistas redescubrimos cada cierto periodo de tiempo el

pensamiento de Smith, Marshall, Keynes o Hayek. Hecha esta aclaración, en el texto se hace referencia

a científicos sociales y a ciencias sociales, en vez de emplear los términos más apropiados de

académicos sociales y disciplinas sociales, simplemente porque así lo dictan las convenciones

establecidas.

1.6 Las ventajas de ir más allá de los ensayos y las retóricas narrativas

Si bien los modelos computacionales también pueden ser vistos como herramientas de persuasión, esta

clase de análisis nos acerca mucho más a las explicaciones causales que los análisis narrativos. En

26
Castañeda (2012) se sostiene que los académicos que escriben ensayos tienden a incurrir en

aseveraciones erróneas por el uso desmedido del sentido común en la exposición de sus argumentos;

especialmente cuando se trata de explicar comportamientos macroscópicos que se producen en sistemas

adaptables complejos. Este tipo de sesgos se debe a que el sentido común lleva a adoptar una

interpretación de la realidad de corte lineal, que suele carecer de un planteamiento estructurado y que

responde más a la intuición personal que a un marco teórico integral.

En contraste, las simulaciones por computadoras, y la complejidad social, permiten descubrir

explicaciones no intuitivas de la realidad que pasan desapercibidas cuando se utiliza el sentido común.

En particular, la creación de mundos virtuales es una herramienta muy poderosa para explicar hechos

contra-factuales interesantes; es decir, para explorar las condiciones que requiere el surgimiento de

comportamientos colectivos que no han sido observados, pero que pudieran ser atractivos para una

sociedad. Para el connotado científico John Von Neumann, precursor de la computación y la

inteligencia artificial, la visión de la complejidad nos ayuda a explicar la existencia de elefantes y otras

especies en el mundo actual, pero también la ausencia de los no-elefantes o cualquier otro animal que

pudo haber existido.

Esta lógica es de vital importancia para el estudio de los fenómenos socioeconómicos y el diseño

de políticas públicas. El concepto de los no-elefantes resulta muy conveniente para explicar los contra-

factuales de una sociedad, en tanto que se trata de hechos que no sucedieron pero que tienen una

probabilidad positiva de materializarse. Bajo este marco analítico es posible realizar indagaciones sobre

las condiciones que se necesitan para que una sociedad como la mexicana se vuelva competitiva, a pesar

de que hoy en día no lo sea. En general, con los modelos de mundos artificiales es posible construir

explicaciones sobre regularidades estadísticas en las que unos eventos tienen mayor probabilidad de

27
ocurrir (i.e, pueden describir la realidad) y otros representan situaciones que no se observan pero que

pudieron haber ocurrido (i.e., son contra-factuales viables).

* Los sesgos del sentido común

A decir de Watts (2011, p 8), el sentido común es “un conjunto vagamente ordenado de hechos,

observaciones, experiencias, impresiones y juicios personales que cada uno de nosotros acumulamos a

través de nuestras vidas en el proceso de lidiar y aprender con las situaciones de cada día”. En

consecuencia, el sentido común es ideal para entender el accionar de las personas en situaciones de la

vida cotidiana, en donde la cultura y las experiencias compartidas permiten predecir comportamientos

con cierta precisión. Por ello, un empleado es consciente de las expectativas que tienen sus jefes y

colegas sobre su desempeño laboral, y una persona sabe qué tipo de comportamientos son aceptados

cuando es invitado por primera vez a la casa de un amigo.

Ahora bien, el uso del sentido común también está presente en los ensayos de académicos;

quienes previamente internalizaron cánones metodológicos de uso generalizado en su proceso de

pensamiento (e.g., análisis costo-beneficio para explicar comportamientos de toda índole). Por esta

razón, los ensayistas articulan líneas de argumentación que, con apariencia de sofisticación, son una

manifestación de su sentido común. Desafortunadamente, este mecanismo de racionalización de los

fenómenos socioeconómicos no permite incorporar, con la profundidad necesaria, a los mecanismos

causales que son indispensables en el análisis de las interrelaciones que se producen entre los distintos

agentes y entre estos y el entorno de un sistema complejo.

Para Watts los sesgos que se encuentran más comúnmente en los ensayos de analistas e

intelectuales son los siguientes: (i) los argumentos tienden a ser fragmentados e inconsistentes, por lo

que resulta muy difícil establecer conexiones lógicas cuando hay una multiplicidad de mecanismos

causales (e.g., al no incorporar la interdependencia entre lo micro y lo macro se plantea que ‘lo que es

28
bueno para General Motors es también bueno para Estados Unidos’); (ii) los argumentos son

frecuentemente circulares ya que identifican los atributos que debe tener un objeto para lograr cierto tipo

de desempeño con los atributos que efectivamente tienen algunos de los objetos que presentan dicho

desempeño (e.g., después de analizar el éxito del Código da Vinci se sostiene que una novela exitosa

debe tener una prosa muy sencilla, explotar el gusto de las personas por las intrigas y apelar a un tema

de interés generalizado como la religión y el poder); (iii) los antecedentes históricos de un evento se

utilizan para determinar las condiciones suficientes para su materialización (e.g., existe un sesgo de

muestro cuando los riesgos de accidentes en la aviación se definen exclusivamente a partir de las fallas

encontradas en accidentes que efectivamente ocurrieron); (iv) ante la dificultad de entender los procesos

descentralizados y la retroalimentación positiva de los sistemas complejos, se sobrestima el peso que

tienen los ‘grandes hombres’ en la explicación de eventos históricos significativos (e.g., cuando se

afirma que el desarrollo de las tecnologías de información y de comunicación no hubiera sido posible sin

los liderazgos de Steve Jobs o Mark Zuckerberg).

* ¿De qué manera los ensayos contribuyen a la generación de conocimiento?

A pesar de las críticas que se mencionan líneas arriba, los ensayos bien escritos y con sustento empírico

son de gran utilidad para catalizar la reflexión sobre temas importantes, para plantear hipótesis

sugerentes o para diseminar determinados hechos estilizados y los resultados de otros trabajos

académicos. En este sentido, los ensayos, como narrativas analíticas de fenómenos sociales, tienen

mucho que contribuir al proceso de generación de conocimiento. Desafortunadamente, los ensayos no

tienen la capacidad de ofrecer evidencia contundente sobre lo que sucede y mucho menos sobre lo que

puede suceder. De aquí que las generaciones futuras de académicos sociales tendrían que darle menos

peso a sus capacidades narrativas y mayor importancia a la construcción de sociedades artificiales si su

interés es elaborar estudios con atributos científicos.

29
Investigaciones de esta naturaleza se vuelven indispensables para explicar hechos contra-

factuales de una sociedad y descubrir la probabilidad de que ocurran. Aunque la historia de una

comunidad no se repite, científicos sociales conscientes de estas limitaciones han recurrido al estudio de

sistemas comparados para detectar asociaciones recurrentes entre variable, o a experimentos naturales

en los que circunstancias especiales permites aislar el efecto de ciertas variables. Una alternativa más

promisoria es implementar simulaciones por computadora para generar regularidades estadísticas con

los datos artificiales y, de esta forma, explorar las condiciones en las que un determinado evento pudiera

producirse. Con esta metodología, y la calibración empírica del modelo, es posible estudiar si existen los

requisitos indispensables para que una sociedad poco competitiva como la mexicana (e.g. un mundo sin

elefantes) lleve a cabo las reformas que la conduzcan hacia una senda de desarrollo más pronunciada

con una probabilidad no despreciable.

A manera de síntesis

En este primer capítulo se busca cuestionar al lector sobre el uso de los paradigmas convencionales para

la generación de conocimiento. Al apelar al escepticismo de los estudiantes sobre la visión neoclásica y

al mostrar las inconsistencias empíricas de la teoría de la utilidad esperada, se explica por qué un

enfoque con premisas realistas y una herramienta analítica con la capacidad para incorporarlas tiene

mayores posibilidades de convertirse en un paradigma esclarecedor; siendo este el caso de la

complejidad social y los modelos de simulación de sociedades artificiales.

Por otra parte, se hace eco de los argumentos que sostienen que los modelos matemáticos,

estadísticos, computacionales son herramientas retóricas y, por ende, no siempre pueden ser

considerados como instrumentos de análisis científico con los que validar mecanismos causales. Ante

esta crítica se sugiere que los académicos sociales tienen mayores posibilidades de convertirse en

30
científicos sociales si incursionan en la elaboración de mundos artificiales y simulaciones por

computadora; a diferencia de lo sucede con académicos que exponen sus teorías y líneas de

argumentación a través de ensayos y retóricas narrativas, las cuales exhiben severas dificultades para

interpretar ideas que van más allá del sentido común.

Cuestionamientos para reflexionar

1. Explicar por qué la ideología es un importante impedimento para que las ciencias sociales puedan

abandonar teorías y paradigmas que no tienen un sustento empírico.

2. ¿Qué implicaciones tiene para las premisas neoclásicas el hecho de que la estimación de las mujeres

sobre la tasa de embarazos malogrados esté sobrevaluada, y el hecho de que la estimación de los viajeros

sobre la tasa de muertes por accidentes automotrices esté subvaluada?

3. ¿Por qué los conceptos de riesgo y utilidad esperada no son convenientes para describir la manera en

que los empresarios adoptan tecnologías?

4. ¿Cómo se podría explicar la existencia de transacciones de compra y venta de acciones en una bolsa

de valores si se plantea que los inversionistas tienen expectativas racionales?

5. Formula algún argumento que justifique la incidencia de la cultura y el contexto social en la toma de

decisiones.

6. ¿Por qué la metodología de numeración arábiga resultó ser superior a la numeración romana y cuál es

la relación de esto con las virtudes de utilizar un paradigma esclarecedor?

7. Un modelo que logra ser validado con la evidencia empírica tiene forzosamente una buena capacidad

predictiva. ¿Qué opinas?

8. Explicar por qué no tiene sentido entender el proceso revolucionario en México apelando

simplemente a los eventos que lo antecedieron.

31
9. ¿Cuál es tu opinión sobre la siguiente aseveración ‘en México hay corrupción simplemente porque el

marco legal y la impunidad hacen que el beneficio del comportamiento ilegal sea mayor al costo

esperado de ser atrapado’?

10. ¿Por qué en un modelo construido a partir de agentes representativos no es posible describir la

paradoja de la frugalidad keynesiana?

Lecturas recomendadas

* Arthur, W. Brian (2013), “Complexity Economics: A Different Framework for Economic Thought”.

* Ball, Philip (2010), “Masa Crítica. Cambio, Caos y Complejidad”.

* Beinhocker, Eric D. (2006), “The Origin of Wealth. Evolution, Complexity, and the Radical Remaking

of Economics”.

* Castañeda, Gonzalo (2012), “¿Un Mundo sin Elefantes y un México Competitivo?”.

* McCloskey, D.N., (1983), “The Rhetoric of Economics”.

Referencias citadas

* Alvarez, R. Michael (2015); Computational Social Science: Discovery and Prediction; Cambridge UK:

Cambridge University Press.

* Angrist, Joshua D., y Jörn-Steffen Pischke (2010); “The Credibility Revolution in Empirical

Economics: How Better Research Design is Taking the Con out of Econometrics”; Journal of Economic

Perspective; Vol. 24, No 2, pp 3–30.

* Akerlof, George A. y Janet L. Yellen (1985); “Can Small Deviations from Rationality Make

Significant Differences to Economic Equilibria”; The American Economic Review 75 (4), pp 708-720.

32
* Allais, Maurice (1953); "Le Comportement de I'Homme Rationnel devant le Risque, Critique des

Postulats et Axiomes de l'Ecole Arnericaine." Econometrica, 21, pp. 503-546.

* Arthur, W. Brian (2013); “Complexity Economics: A Different Framework for Economic Thought”,

Santa Fe Institute, Working Paper 2013-04-012.

* Arthur, W.B, J.H. Holland, B. Le Baron, R, Palmer, P. Tayler (1997); “Asset Pricing under

Endogenous Expectations in an Artificial Stock Market”, en The Economy as an Evolving Complex

System II, W.Brian. Arthur, S. Durlauf y D. Lane editores, Reading MA: Addison-Wesley.

* Ball, Philip (2010); “Masa Crítica. Cambio, Caos y Complejidad”, México, D.F., Fondo de Cultura

Económica y Turner.

* Beinhocker, Eric D. (2006); “The Origin of Wealth. Evolution, Complexity, and the Radical

Remaking of Economics”; Boston: Harvard Business School Press.

* Castañeda, Gonzalo (2015); ¿Se Encuentra la Ciencia Económica en México en la Vanguardia de la

Corriente Dominante?, El Trimestre Económico, LXXXII (2), pp 433-483.

* Castañeda, Gonzalo (2012); “Un Mundo sin Elefantes y un México Competitivo”, Política y

Gobierno, Vol. XIX, No. 2, pp 283-312.

* Cioffi-Revilla, Claudio (2014); “Introduction to Computational Social Sciences: Principles and

Applications”; Heidelberg: Springer.

* Earle, Joe, Cahal Moran y Zach Ward-Perkins (2017), “The Econocracy. The Perils of Leaving

Economics to Experts”, Manchester UK: Manchester University Press.

* Edmonds, Bruce, Ruth Mayer eds. (2013); “Simulating Social Complexity. A Handbook”; Heidelberg:

Springer.

* Friedman, Milton (1953); “Essays in Positive Economics”, Chicago: University of Chicago Press.

33
* Fullbrook, Edward (2006); “Real World Economics. A Post-Autistic Economics Reader”; Londres:

Anthem Press.

* Gallegati, Mauro y Alan Kirman (2012); “Reconstructing Economics: Agent Based Models and

Complexity”; Complexity Economics, 1, pp 5-31.

* Gintis, Herbert (2006); “The Economy as a Complex Adaptive System. A Review of Eric D.

Beinhocker, The Origins of Wealth: Evolution, Complexity and the Radical Remaking of Economics”;

Working Paper, Central European University.

* Hayek, F.A. (1964); “The Theory of Complex Phenomena” en The Critical Approach to Science and

Philosophy. Essays in Honor of K. R. Popper, editado por M. Bunge, pp 332-349, Londres: Collier

MacMillan Publishing.

* Helbing, Dirk y S. Balietti (2010); “Fundamental and Real World Challenges in Economics”; Science

and Culture, 76 (9/10), pp 399-417.

* Hodgson, Geoffrey (2009); “Institutional Economics into the Twenty-First Century”; Studi e Note di

Economia, XIV, 1, pp 3-26.

* Hodgson, Geoffrey (2007); “Evolutionary and Institutional Economics as the New Mainstream?”,

Evolutionary and Institutional Economics Review, 4 (1), pp 7-25.

* Hoover, Kevin y Mark Siegler (2008); “Sound and Fury: McCloskey and Significance Testing in

Economics”; Journal of Economic Methodology; Vol. 15, No.1, pp 1-37.

* Kahneman, Daniel (2011); “Thinking, Fast and Slow”; New York: Farrar, Straus and Giroux.

* Kahneman, Daniel y Amos Tversky (1979); “Prospect Theory: An Analysis of Decision under Risk”,

Econometrica, 47(2), pp. 263-291.

* Kanazawa, Satoshi (1998); “In Defense of Unrealistic Assumptions”; Sociological Theory, Vol. 16,

No. 2, pp 193-204.

34
* Kirman, Alan (2011); “Complex Economics, Individual and Collective Rationality”, New York:

Routledge.

* Klamer, Arjo (2001); “Making Sense of Economists from Falsification to Rhetoric and Beyond”;

Journal of Economic Methodology, 8:1, pp 69-75.

* Lazer, David, Alex Pentland, Lada Adamic, Sinan Aral, Albert-László Barabási, Devon Brewer,

Nicholas Christakis, Noshir Contractor, James Fowler, Myron Gutmann, Tony Jebara, Gary King,

Michael Macy, Deb Roy, & Marshall Van Alstyne (2009); “Computational Social Sciences”, 323, pp

721-723.

* Lehtinen Aki y Jaakko Kuorikoski (2007); “Unrealistic Assumptions in Rational Choice Theory”;

Philosophy of the Social Sciences, Vol. 37, No. 2, pp 115-138.

* Levine, David K. (2012); “Is Behavioral Economics Doomed? The Ordinary versus the Extraordinary,

Cambridge UK: Open Book Publishers.

* Lucas, Robert (1988); “Adaptive Behaviour and Economic Theory”; Journal of Business, 59, pp 401-

26.

* Lucas, Robert E. y Thomas Sargent (1979); “After Keynesian Macroeconomics”, Federal Reserve

Bank of Minneapolis Quarterly Review, Vol. 3, No. 2, pp 270-294.

* McCloskey, D.N., (1983); “The Rhetoric of Economics”; Journal of Economic Literature, vol. 21,

No.2. pp. 481-517.

* McCloskey, D.N., (1998); “The Rhetoric of Economics” (segunda edición); Madison: The University

of Wisconsin Press.

* Mitchell, Melanie (2009); “Complexity. A Guided Tour”, New York: Oxford University Press.

* Prigogine, Ilya (1996); “The End of Certainty”, New York: The Free Press.

35
* Rabin, Matthew y Richard H. Thaler (2001); “Anomalies. Risk Aversion”; Journal of Economic

Perspectives, Vol 15, No. 1, pp 219-232.

* Rappaport, S. (1996); “Abstraction and Unrealistic Assumptions in Economics”, Journal of Economic

Methodology, Vol. 3, No. 2, pp 215-36.

* Schmidt, Ulrich (2004); “Alternatives to Expected Utility: Some Formal Theories”; Handbook of

Utility Theory, Vol II; editores P.J. Hammond et al; Capítulo 15; Boston: Kluwer.

* Schmidt, Ulrich y Tibor Neugebauer (2007); “Testing Expected Utility in the Presence of Errors”;

Economic Journal, 117, pp 470-485.

* Simpson, David (2013); “The Rediscovery of Classical Economics. Adaptation, Complexity and

Growth”, Cheltenham UK: Edward Elgar.

* Squazzoni, Flaminio (2010); “The Impact of Agent-based Models in the Social Sciences after 15

Years of Incursion”; History of Economic Ideas, XVIII, No. 2, pp 197-233.

* Sugden R. (2004); “Alternatives to Expected Utility: Foundations”; en Handbook of Utility Theory,

Vol. II, editores P.J. Hammond et al, Boston: Kluwer.

* Tesfatsion, Leigh y Kenneth L. Judd (2006); “Handbook of Computational Economics. Agent-based

Computational Economics”, Amsterdam: North-Holland.

* Tversky, Amos y Daniel Kahneman (1981); "The Framing of Decisions and the Psychology of

Choice", Science, 211, pp. 453-458.

* Waldrop, Mitchell (1992), “Complexity. The Emerging Science at the Edge of Order and Chaos”,

New York: Simon & Schuster.

* Watts, Duncan J. (2011), “Everything is Obvious, Once you know the Answer: How Common Sense

Fail Us, New York: Crown Business.

36