Está en la página 1de 5

Epistemología y Computación

La epistemología computacional trata de la pregunta, ¿Cómo podemos aprender


cosas sobre el mundo realizando cálculos? En un contexto científico, podemos
hacernos la pregunta más específica: "¿Cuáles son los estándares de rigor que se
deben aplicar a la investigación basada en el modelado por ordenador y que se
deben cumplir si creemos en las conclusiones que sugiere la investigación?

En un contexto político, la pregunta equivalente es: "¿Qué argumentos para tomar


decisiones específicas basadas en los resultados de la modelización informática
deben ser aceptados, o al menos considerados, como creíbles? La versión más
centrada en el modelo de estas preguntas es: "¿Qué propiedades debe tener un
modelo que le permita ser útil para responder a una pregunta científica o de política?
Centrándonos en la última versión de la pregunta epistemológica, podemos
distinguir dos imágenes de modelado muy diferentes que se pueden observar en el
pensamiento de los científicos computacionales. Porque ¿Quién mas que estos
para alcanzar el objetivo del epistemólogo? (Canguilhem, 1988, pág. 21)

En la primera imagen, un buen modelo de computadora es un modelo verídico del


sistema, un espejo del mundo lo suficientemente correcto como para que podamos
aprender sobre el mundo observándolo. Los modelos computarizados del mundo
han sido herramientas muy poderosas para muchos problemas en la ciencia, la
ingeniería, y dichos modelos pueden validarse comparando los resultados de los
modelos con los datos del sistema real o con los experimentos físicos realizados
para comprobar el rendimiento del modelo.

Los modelos que predicen con fiabilidad el comportamiento detallado de los


sistemas de interés dentro de un proceso de error bien caracterizado son artefactos
poderosos, y cuando se pueden lograr, se resuelve el problema de la epistemología.
Sin embargo, muchos problemas siguen siendo difíciles o difíciles de resolver a
través del modelado predictivo. El modelado predictivo sólo se puede aplicar a
sistemas cerrados que son lo suficientemente entendidos como para que las
incertidumbres sean manejables y lo suficientemente lineales como para que
cualquier incertidumbre que exista no sobrecargue el conocimiento que tenemos
sobre el sistema. Los dominios más exitosos para aplicar este enfoque han sido las
aplicaciones de ingeniería, aunque claramente existen sistemas sociales cuyo
comportamiento puede predecirse, tal vez de manera probabilística.

Desafortunadamente, muchos problemas científicos y políticos muy interesantes


tienen propiedades que realmente no permiten estudiarlos desde el enfoque de los
modelos que simulan la realidad. Los problemas que combinan una complejidad
significativa con la incertidumbre pueden hacer que la estrategia clásica de
construcción de modelos, de representar con precisión los detalles importantes y
descuidar o simplificar otros sea difícil de emplear. Para problemas profundamente
inciertos, no importa cuán detallado se construya un modelo, no podemos estar
seguros de que se pueda confiar en las predicciones del modelo sobre el
comportamiento del sistema real.

Muchos problemas políticos se caracterizan por tener fronteras abiertas, por lo que
ningún pronóstico va a ser fiable, y finalmente sorprenderse es lo único que se
asegura. Para estos duros problemas, cualquier modelo que construimos es un
espejo defectuoso, que tiene el potencial de engañar y deslumbrar. Un marco de
trabajo muy diferente para pensar en el modelado por computadora está enraizado
en la frase experimento computacional. Cualquier cálculo que realicemos puede ser
considerado como un experimento computacional si tiene la posibilidad de
sorprendernos y el potencial de informarnos a través de sus resultados,
sorprendentes o no.

Una simulación por computadora puede ser una plataforma para realizar
experimentos computacionales, mapeando las entradas que especifican un caso en
las salidas que miden el comportamiento del sistema resultante. Desde este punto
de vista, un modelo computarizado puede ser útil si se puede utilizar para realizar
experimentos computacionales cuyos resultados son útiles para construir un
argumento creíble. En este marco, un modelo no se utiliza como un espejo, sino
más bien como un equipo de laboratorio. Y un buen modelo no es necesariamente
uno que sea una imagen tan perfecta del sistema actual. En cambio, un buen
modelo es aquel que puede ser utilizado para realizar experimentos cruciales que
son útiles en el contexto de un argumento o problema.

De hecho, el modelo puede ser irrealista a propósito. Para apoyar mejor un


argumento, por ejemplo, algunos atributos del modelo deben ser mayores o
menores que los del sistema real para que funcione la lógica con más razon. Por lo
tanto, un modelo económico que demuestre resultados de mercado altamente
eficientes utilizando agentes con capacidades de razonamiento muy limitadas
puede ser utilizado para apoyar el argumento de que los resultados eficientes
pueden ser un efecto emergente que no requiere ninguna inteligencia o sabiduría
particular por parte de los participantes en el mercado.

Un modelo con agentes más realistas e inteligentes sería menos útil para este
argumento que el claramente irrealista con agentes irrazonablemente estúpidos.
Este segundo enfoque de modelación que utiliza modelos como plataformas para
experimentos computacionales se ha denominado "modelación exploratoria"
(Bankes, 1993) (Dewar, 1966).

Las diferencias entre el modelado exploratorio y el predictivo son grandes y no son


ampliamente apreciadas. Al construir un modelo destinado a predecir resultados,
existe una fuerte motivación para limitar las incertidumbres explícitas, a veces en
detrimento del valor científico del resultado. Por otro lado, cuando se construyen
equipos de laboratorio, la adición de perillas e interruptores adicionales sirve para
aumentar la utilidad del instrumento. Y puede observarse que, dentro de un contexto
de modelado exploratorio, los constructores de modelos tienden a declarar un mayor
número de dimensiones de incertidumbre, ya que esto da a sus productos más valor
en lugar de menos valor potencial.
El modelado predictivo proviene del contexto de la ciencia teórica, con un sesgo
hacia el razonamiento deductivo y una preferencia por la validez como estándar de
calidad de la investigación. El modelado exploratorio trata el uso de modelos
computarizados como ciencia experimental. Los estándares de rigor para la ciencia
experimental se basan en la lógica inductiva y abductiva y, por lo tanto, se definen
más en términos de falsificabilidad y reproducibilidad (Popper, 1979) (Radnitzky,
1987).

En la medida en que es sensato hablar de validez cuando se realizan experimentos


computacionales, hay que validar los argumentos, no los equipos de laboratorio. El
equipo de laboratorio puede ser calibrado o comprobado en busca de errores, por
supuesto, pero un equipo de laboratorio correctamente calibrado difícilmente
garantiza resultados científicos creíbles.

La epistemología de la ciencia experimental ha recibido mucha atención, y la


comprensión de que gran parte de la ciencia social computacional es ciencia
experimental presenta una respuesta a la pregunta epistemológica (Canguilhem,
1988). Excepto en los raros casos en los que los modelos basados en agentes
pueden ser validados experimentalmente para predecir resultados, los estándares
de rigor para las ciencias sociales computacionales deben enmarcarse en términos
de epistemología evolutiva (Popper, 1979) y no en la corrección lógica, validez u
otros conceptos positivistas.

Un modelo único que predice con precisión los resultados de eventos o


experimentos futuros es claramente una herramienta poderosa (espejo de la
realidad) que puede proporcionar un apoyo sustancial para el razonamiento y la
toma de decisiones. Pero la creencia generalizada de que sólo a través de la
precisión predictiva se puede hacer útil un modelo ha sido una barrera sustancial
para la eficacia de las ciencias sociales computacionales.
En defensa de su trabajo, los científicos computacionales son frecuentemente
atraídos a reclamar una exactitud predictiva que no ha sido realmente demostrada
o a etiquetar su trabajo como preliminar, sugiriendo a sus colegas y patrocinadores
que la predictividad puede eventualmente ser alcanzada. Pero para muchos
problemas, la exactitud de la predicción puede no ser posible, y los modelos que no
la predicen pueden servir como base para hacer una buena ciencia e informar una
buena política.

Bibliografía

Bankes, S. (1993). Exploratory modeling for policy analysis. . Operations Research,


435-449.
Canguilhem, G. (1988). Ideología y racionalidad en la historia de las ciencias de la
vida. París: Amorrortu.
Dewar, J. (1966). Credible uses of the distributed interactive simulation (DIS)
system. . RAND technical report MR-607-A.
Popper, K. (1979). Objective knowledge: An evolutionary approach. Oxford, UK:
Oxford University Press.
Radnitzky, G. (1987). Evolutionary epistemology, rationality, and the sociology of
knowledge. . La Salle: Open Court Press.

También podría gustarte