Está en la página 1de 10

Gestalt :: textos

inicio índice temático + textos

Reflexiones sobre “Pensamiento Productivo”


de Max Wertheimer y los Desarrollos de la
Inteligencia Artificial
Shelia Guberman y Wita Wojtkowski

1999. Jornadas del 4º Congreso Europeo de Ciencias de los Sistemas, Valencia, España.

El Método Lógico Tradicional


Método Asociativo
Sobre el Problema del Reconocimiento de Patrones
Enfoque Holístico
Lecciones Aprendidas

Resumen
En este artículo reflexionamos sobre la influencia de los trabajos seminales de la psicología en los
desarrollos de la inteligencia artificial. Comentamos las lecciones aprendidas del trabajo sobre la
gestalt y su relevancia para la comprensión de la relación entre los procesos de pensamiento y los
modelos computacionales.

Introducción
El objetivo de este artículo es reflexionar sobre la influencia del texto seminal de M. Wertheimer en el
área de investigación del campo de la psicología, en términos generales, pero relacionado con la
tecnología informática, es decir, la inteligencia artificial ﴾IA﴿. El período de tiempo en el que
Wertheimer escribió Pensamiento Productivo coincidió con la aparición de otras obras importantes.
Una en el ámbito de la computación, otra en el biológico: ambos tratan de construcciones mentales
abstractas. Ambas encarnan también los primeros pasos en el desarrollo de dos corrientes de ideas
relacionadas con la IA. Estas son: los trabajos de Turing sobre la naturaleza de la calculadora universal
﴾la máquina de Turing﴿ y los modelos de redes neuronales ﴾McCulloch y Pitts, 1943﴿. Una corriente
influyó en los métodos discretos, basados en el razonamiento, secuenciales de la IA, la otra, en los
métodos paralelos, que abarcan el conjunto ﴾es decir, la gestalt﴿.

La base física de la IA —la computadora— encarnaba un modelo aproximado del cerebro que
utilizaba varios conceptos psicológicos empleados por matemáticos e ingenieros. Por ejemplo:
receptor de la información, unidad central de procesamiento, memoria a corto y largo plazo,
mecanismos para la extracción de información, etc. Incluso esta burda imitación de las nociones
psicológicas resultó ser adecuada, más que los modelos anteriores ﴾por ejemplo, la metáfora
mecánica de los tubos y los jugos vitales, la metáfora telefónica de los cables y las centralitas﴿. Y en
psicología también se utilizó la metáfora de la computadora: se construyeron modelos psicológicos
utilizando el símil de la computadora. El problema era, sin embargo, que quienes construían estos
modelos no tenían, hasta el momento, conciencia de que han ido encontrando en ellos su propia
imagen distorsionada.

La generación de científicos que trabajó en los problemas de la IA hace casi 30 años, en su mayoría ya
no está activos en la IA y han abandonado "el escenario", por así decirlo. Quizás sea el momento de
reflexionar sobre esto. La edad de oro que la cibernética ﴾como componente de la IA﴿ prometía en el
ámbito de la gestión de la producción y la conducción de la vida cotidiana, resultó ser un espejismo.
La propia cibernética desapareció, y lo que es más, cambió de nombre para escapar de la
responsabilidad. Ahora se llama informática, que no promete nada. Sostenemos que un análisis del
texto Pensamiento Productivo puede ayudarnos mucho en el análisis de este problema. El libro
presenta este argumento: defiende el punto de vista gestáltico frente a otras dos perspectivas
dominantes en la época, a saber, la lógica tradicional y la teoría de las asociaciones.

El Método Lógico Tradicional


Repasemos, en resumen, la posición de Wertheimer sobre la esencia de la lógica al investigar la
naturaleza del pensamiento. En la medida en que el pensamiento se ocupa de la verdad, y la verdad y
la mentira son cualidades de las expresiones y los juicios, constituyen el fundamento del pensamiento.

Recordemos que el método lógico se remonta al "Organon" de Aristóteles. Los procesos de este
método fueron estables durante siglos. El nuevo proceso, el método de inducción, con su énfasis en
la experiencia y la experimentación, se introdujo durante el Renacimiento.

El método lógico constituyó la base del trabajo de la IA desde el principio. El supuesto era el
siguiente: demostrar teoremas, jugar al ajedrez, a las cartas o realizar actividades similares exige
métodos lógicos de pensamiento. Los modelos de computadora que eran capaces de llevar a cabo
estas funciones eran los mismos que se utilizaban en la época para explicar el funcionamiento de la
mente.

Es importante señalar que uno acepta un resultado dado como verdad no cuando satisface todos los
criterios formales de verdad ﴾según las reglas de la lógica﴿, sino cuando es plausible ﴾cuando satisface
las representaciones comunes y se adhiere a las normas de actuación aceptadas en un contexto
profesional determinado﴿. La modelización del sistema lógico tiene su peculiaridad significativa. Para
estos sistemas se sabe a priori que el conjunto de axiomas y las reglas de deducción contienen toda
la información necesaria para resolver el problema estudiado. El programa "Logic ‐ theoretic" de
Newel, Show y Simon ﴾1956﴿ fue pionero en este enfoque. GSP — el solucionador universal de
problemas ﴾descrito en su momento como "las nuevas y poderosas armas para crear la teoría sobre el
pensamiento del hombre"﴿ fue también el producto de dicho enfoque. Sin embargo, las dificultades
pronto se hicieron evidentes. El gran número de cadenas de conclusiones lógicamente correctas no
conducía necesariamente a la meta. Cuantos más caminos había, menos posibilidades había de
alcanzarlo. Incluso en las situaciones en las que la computadora encontraba la conclusión correcta, la
forma de llegar a la solución era muy decepcionante: es decir, los esfuerzos realizados en los pasos
intermedios eran a menudo increíblemente tontos, y esencialmente no humanos. No había intelecto
en los modelos. Así surgió el nuevo entendimiento: la intelectualidad puede definirse no sólo por la
meta, sino también por la forma de llegar a ella. Sin embargo, en aquella época, muchos psicólogos
utilizaron la metáfora de la computadora de la IA aplicando en sus modelos términos como memorias
a largo plazo, espacio multidimensional y procesamiento paralelo de los hechos.

Wertheimer era bastante sarcástico sobre el método de la lógica. En la página 6 de su libro afirmaba:
“Algunos psicólogos sostienen que una persona es capaz de pensar, es inteligente, cuando puede
realizar las operaciones de la lógica tradicional de forma correcta y fácil”.

Observa que: *“La lógica tradicional no se preocupa tanto por el proceso de encontrar la solución. Se
centra más bien en la cuestión de la corrección de cada paso de la prueba* ﴾página 70﴿. Y ésta es su
debilidad cuando se aplica al estudio del intelecto. Por desgracia, los profesionales de la IA no
prestaron atención a esta profunda afirmación y se perdió mucho tiempo en la construcción de
diversas decisiones correctas y en la selección de las sensatas entre ellas. Tal vez la alternativa debería
haber sido ésta: construir decisiones “sensatas”, comprobar su corrección y, si no son correctas,
esforzarse por hacerlas correctas.*

* Por ejemplo, al jugar al ajedrez vale la pena analizar las jugadas incorrectas, hacer dos jugadas en una serie en lugar de
una ﴾todo según las reglas del ajedrez﴿. El resultado puede ser tan seductor que uno debe pensar cómo hacer esta
combinación de la manera correcta ﴾por ejemplo, habiendo parado las acciones de defensa, que el compañero podría
usar, para usar la jugada correcta﴿. Así, uno consigue la combinación, que permite la acción deseada en dos pasos, sin
obstáculos.

La idea profunda de Wertheimer era que al considerar el pensamiento, la lógica juega un papel
normativo, no constructivo. Es importante señalar que esto se confirma en toda la historia de la IA y
que aún no ha perdido su esencia, incluso ahora, con un interés tan vigoroso por la lógica
multivaluada y no monótona. La otra consecuencia del enfoque exclusivamente lógico del
pensamiento que preocupó a Wertheimer fue la amplia aceptación de la noción de que “el
pensamiento es sucesivo por naturaleza” ﴾p. 107﴿. Esto, a su vez, creó “la suposición axiomática de que
el pensamiento es, debe ser, verbal por naturaleza, que la lógica es una cuestión de lenguaje, ambas
suposiciones son generalizaciones ciegas” ﴾ibíd.﴿. Wertheimer estaba en total desacuerdo con esta
posición.

Examinemos, brevemente, las consecuencias de la aceptación de tales nociones en la construcción de


sistemas de IA, especialmente, para los sistemas expertos. En los sistemas expertos, la base de la
construcción lógica está formada por el uso de "si ‐ entonces". En realidad, cuando este constructo se
aplica a los problemas de, por ejemplo, el diagnóstico médico o la exploración geológica, se hace
evidente muy rápidamente que no se utilizan los conocimientos y la experiencia más amplios de los
médicos y los geólogos. La naturaleza no verbal del pensamiento se hace especialmente evidente
cuando se contempla el análisis de imágenes. Para este tipo de problemas, el método de
representación del conocimiento a través de restricciones lógicas ﴾por ejemplo, las afirmaciones "si la
curvatura del borde es superior a ..., y la longitud es inferior a ... , entonces..."﴿ es muy inadecuado.
Resulta que es más eficaz retener el conocimiento sobre las imágenes en forma de imágenes.*

* Por ejemplo, en sus conversaciones con Wertheimer, Einstein mencionó "la dirección" del pensamiento: "Por supuesto,
detrás de tal dirección siempre hay algo lógico; pero yo lo tengo en una especie de sondeo, de manera visual" (p. 228).
detrás de tal dirección siempre hay algo lógico; pero yo lo tengo en una especie de sondeo, de manera visual" (p. 228).

Concluimos esta sección del trabajo con las reflexiones de Wertheimer sobre las conversaciones que
mantuvo con Albert Einstein acerca del proceso de creación intelectual de la teoría de la relatividad.
Estas reflexiones demuestran claramente que Wertheimer reconoció los puntos fuertes y las
limitaciones del uso de los métodos de la lógica para comprender, en su totalidad, el proceso del
pensamiento y del intelecto.

"Si tuviéramos que describir el proceso a la manera de la lógica tradicional, enunciaríamos numerosas
operaciones, como hacer abstracciones, enunciar silogismos, formular axiomas y fórmulas generales,
enunciar contradicciones, derivar consecuencias combinando axiomas, confrontar hechos con estas
consecuencias, etc.
Este procedimiento es ciertamente bueno si se desea probar cada uno de los pasos en cuanto a su
corrección lógica. Pero, ¿qué obtenemos si seguimos tal procedimiento? Obtenemos un agregado, una
concatenación de un gran número de operaciones, silogismos, etc. ¿Es este agregado una imagen
adecuada de lo que ha ocurrido? Lo que hacen muchos lógicos, su forma de pensar, es en cierto modo
así: Un hombre que se enfrenta a una obra de arquitectura, a un buen edificio, se centra, para
entenderlo, en los ladrillos individuales y también en la forma en que están cementados por el mortero.
Lo que tiene al final no es el edificio en absoluto, sino un estudio de los ladrillos y de sus conexiones"
﴾página 227﴿.

Método Asociativo
Otra teoría del pensamiento se centra en la teoría clásica de las asociaciones. El pensamiento se
considera una cadena de ideas ﴾o, en términos más modernos, una cadena de estímulos y respuestas,
o una cadena de elementos de comportamiento﴿. Una "idea" es, por tanto, un resto de percepción,
una copia, en términos más modernos, un rastro de estimulación.

¿Cuál es la ley fundamental de las conexiones entre estos elementos? La respuesta se da de forma
muy elegante en su simplicidad teórica. Si dos elementos, "a" y "b", han ocurrido juntos con
frecuencia, una ocurrencia posterior de "a" llamará a "b". Básicamente, los elementos están
conectados de la manera en que el número de teléfono de mi amigo está conectado con su nombre;
en que las sílabas sin sentido se vuelven reproducibles cuando se aprenden en una serie; en que un
perro está condicionado a responder a un determinado sonido musical. El hábito, la experiencia
pasada, en el sentido de elementos repetidos en contigüidad, la inercia más que la razón, se
consideran los factores esenciales. Aplicando la teoría de las asociaciones, los psicólogos pueden
afirmar que la capacidad de pensar es la gestión de los vínculos asociativos. Aunque Wertheimer
admitió que este enfoque tiene sus méritos, sin embargo lo criticó duramente.

Consideremos ahora este enfoque tal y como influyó en la IA. Resulta que la búsqueda de elementos
adyacentes que se han producido repetidamente en el pasado informó a una de las corrientes más
fructíferas de la IA, a saber, el aprendizaje del reconocimiento de patrones mediante ejemplos. La idea
la aportó Rosenblatt y la plasmó en su artículo pionero sobre el perceptrón ﴾Rosenblatt, 1958﴿. Ese
enfoque se utilizó en los múltiples intentos de imitar, en la computadora, la capacidad humana de
reconocer el habla y la escritura a mano, los rostros, los barcos, las huellas dactilares, etc. Algunos
programas ideados para el reconocimiento de caracteres utilizaban 200 ejemplos de cada carácter
manuscrito. Sin embargo, este enfoque no funcionó: el nivel de reconocimiento seguía siendo bajo.
Se invirtió mucho esfuerzo en el desarrollo de sofisticados algoritmos para el reconocimiento de
patrones. Este enfoque tampoco funcionó.

Los verdaderos avances se produjeron cuando se utilizó un lenguaje adecuado para la descripción de
objetos. Encontrar este lenguaje adecuado no fue nada trivial. Aunque el enfoque del reconocimiento
de patrones no tuvo éxito en el modelado de la percepción, resultó útil en otras aplicaciones ﴾el
diagnóstico médico y la exploración geológica pueden servir de ejemplo﴿. Wertheimer previó este
resultado. Escribió ﴾p 27﴿:

"La ciencia moderna, aunque a menudo se basa en la inducción, no quiere detenerse en ella. Continúa
buscando una mejor comprensión que la que proporciona la inducción por sí sola. Instrumento
importante en su justa medida, la inducción es un comienzo más que un fin en sí misma. Pero en este
caso ni siquiera se justifica como inicio, siendo innecesaria y arbitrariamente ciega a la cuestión".

Sobre el Problema del Reconocimiento de Patrones


También queremos señalar que en el reconocimiento de patrones surge un problema importante. Se
trata de la aparición de un sesgo en la regla de decisión: la aparición de falsas asociaciones al
generalizar a partir de un pequeño número de datos empíricos. En el contexto del enfoque asociativo,
parece que la única manera de hacer frente a este sesgo es aumentar el número de ejemplos
utilizados en el aprendizaje.*

* Por eso, en la tarea de reconocimiento de la escritura a mano, el número de ejemplos de aprendizaje para cada carácter
alcanzó los 200.

Consideremos un ejemplo en el ámbito geológico. El reconocimiento de patrones es una poderosa


herramienta utilizada en la interpretación de datos de registros de pozos ﴾necesarios para distinguir
entre las capas que contienen petróleo o agua﴿. La mayoría de las veces, el número de objetos
identificados ﴾capas﴿ es pequeño y el número de capas objeto de interpretación es grande. Cuando el
volumen de datos utilizado en el aprendizaje es pequeño, es fácil obtener generalizaciones sesgadas
y, por tanto, una regla de decisión errónea. Las reglas de decisión se vuelven inestables; resulta
imposible elegir una buena regla entre varias diferentes. Situar el problema en un contexto geológico
más amplio puede corregir esta situación. Es bien sabido que en los yacimientos de petróleo las capas
que contienen agua están situadas en estratos inferiores a los que contienen petróleo ﴾el agua es más
pesada que el petróleo﴿. Esta restricción reduce drásticamente el número de reglas de decisión
posibles. De hecho, sólo nos queda una regla de decisión. Este contexto geológico más amplio es tan
válido que en muchos casos el número de ejemplos para el aprendizaje podría reducirse a cero.

Además, la expresión “el cerebro es una máquina para procesar información simbólica” condujo a un
uso falaz e infructuoso de la IA. El trabajo útil de la IA surgió cuando se sustituyeron las entidades
abstractas por entidades físicas. El problema del reconocimiento de la escritura a mano puede servir
de ejemplo. Se publicaron muchos trabajos y se emplearon fondos en un intento de crear programas
mínimamente aceptables para ser utilizados en un reconocimiento de escritura a mano libre. Ninguno
tuvo éxito. Lo máximo que se consiguió fue el reconocimiento de caracteres individuales. Resulta que
el problema residía en el enfoque adoptado. Los datos iniciales se consideraban el mapa de bits y las
operaciones básicas, afinar, normalizar y comparar con la muestra escrita proporcionada. La solución
aceptable sólo surgió cuando se conectó el proceso de escritura con la realidad de cómo se realiza. El
movimiento del bolígrafo se convirtió en el centro de atención. Así, el " afinamiento " se sustituyó por
la " extracción de la trayectoria ", por ejemplo. Lo que ocurrió es lo siguiente: es esencial considerar la
estrecha relación entre el intelecto y la formulación del movimiento. Merece la pena señalar que el
paradigma de la IA aceptado en aquella época excluía el reconocimiento de patrones ﴾así como el
estudio de la robótica﴿ como algo que no merecía la atención de la IA. En esta coyuntura, señalemos
que Wertheimer se opuso con perspicacia a este modo de pensar tan estrecho. En la página 197 de su
texto afirma:

"En general, es un punto de vista artificial y estrecho el que concibe el pensamiento sólo como una
operación intelectual, y lo separa por completo de las cuestiones de actitud, sentimiento y emoción
humanas sólo porque tales temas pertenecen a otros capítulos de la psicología."

Las soluciones a los problemas de reconocimiento de patrones pueden utilizar no sólo objetos y
clases de objetos, sino también nociones. Nosotros planteamos que la definición de una noción como
una generalización de los objetos de una clase determinada es demasiado estrecha. Este enfoque
supone la extracción de rasgos comunes de un conjunto dado de objetos, que pertenecen a una
clase. Wertheimer ﴾página 42﴿ ya propuso una forma novedosa de formar nociones y encontrar rasgos
esenciales basándose en la propiedad interna de un solo ejemplo.

"En el asociacionismo es fundamental la cuestión de los muchos casos, de las muchas repeticiones que
muestran alguna conexión constante. De acuerdo con esto, la fealdad de nuestros casos de inducción se
consideraba debida a su falta de validez general. Pero las cuestiones de la estructuración sensible, de la
organización, del encaje de los elementos entre sí, de la terminación, etc., no están necesariamente
conectadas con el pensamiento de otros casos; pueden ser previstas, realizadas en el caso concreto
único, viéndolo estructuralmente, sensiblemente. Por supuesto, esto no garantiza la universalidad en las
cuestiones de hecho, pero a menudo conduce a una comprensión razonable y a un auténtico
descubrimiento de los rasgos esenciales, en contraste con la realización de operaciones sobre la base de
rasgos generalizados a ciegas, comunes a muchos o a todos los casos."

Tuvieron que pasar 25 años hasta que estas nociones penetraron en la IA. Resulta, por ejemplo, que la
estructura gramatical del enunciado contiene la información sobre la jerarquía de características del
objeto descrito por ese enunciado. Cuanto más profunda es la posición de la palabra que representa
una determinada característica, menos importante es esa característica. Sostenemos que esto es
válido para el lenguaje natural, para los lenguajes de programación, para un lenguaje específico de
descripción de una imagen ﴾electrocardiograma, por ejemplo﴿, etc.

Para ilustrarlo, consideremos la situación descrita por la frase "El caballo negro saltó la valla". El
"caballo" y "saltó" ocupan el nivel superior en la estructura gramatical de esa frase; "negro" y "valla"
son subordinados. Los cambios en el nivel inferior cambian la situación en pequeña medida ﴾"El
caballo blanco saltó la valla" o "El caballo negro saltó el árbol"﴿. Los cambios en el nivel superior
cambian el significado de la situación de forma drástica ﴾"La mosca negra saltó la valla" o "El caballo
negro pateó la valla"﴿. Este enfoque permite crear la noción de "un arco" proporcionando un único
ejemplo: crear la noción de "imagen de tórax" proporcionando una única imagen, crear la noción de
"un personaje" proporcionando un único ejemplo de un carácter escrito ﴾'a' o 'b' o 'c', etc.﴿.

Reflexionemos sobre esto: este enfoque nos permite entender cómo fue posible que los notables
médicos del siglo XIX fueran capaces de describir una determinada enfermedad observando a un solo
paciente. La esencia de este fenómeno es el siguiente hecho: de la estructura gramatical de la
descripción de la enfermedad proceden los rasgos importantes de la enfermedad y el establecimiento
de la descripción de la clase ﴾enfermedad﴿; los rasgos menos importantes representan las variaciones
individuales. Quizás esto nos permita explicar por qué los médicos necesitan conocer bien la lengua
en la que ejercen su práctica. Esto también es válido para otros especialistas en ejercicio.

Enfoque Holístico
Aunque Wertheimer criticó los enfoques lógicos y asociativos, no negó el papel de la lógica y las
asociaciones en el proceso del pensamiento. Insiste en examinar sus limitaciones y sostiene que el
pensamiento productivo es imposible si se basa exclusivamente en la lógica y las asociaciones. En su
opinión, el punto crucial en la investigación del pensamiento es el uso del enfoque gestáltico
﴾holístico﴿.

La esencia del enfoque gestáltico es descrita por Wertheimer de la siguiente manera:

"...Hay sistemas cuyo funcionamiento como un todo no surge de los elementos que preexisten como si
fueran piezas separadas unidas posteriormente (¡!). Al contrario, en estos sistemas las características de
las diferentes partes del conjunto están determinadas por la estructura interna del conjunto. La teoría de
la gestalt es exactamente eso, ni más ni menos que eso."

Tiene sentido comparar esta afirmación con la expresión de Aristóteles sobre la totalidad: "El todo es
más que la suma de las partes". Nótese que Wertheimer utiliza en su afirmación dos nociones: el
elemento y la parte. Si uno corta el todo en elementos y luego los mezcla, no logrará reconstruir el
todo. Si uno divide el todo en partes ﴾de acuerdo con la estructura del todo﴿ entonces estas
constituirán partes y no elementos que permitan modelar el todo. Exactamente ese tipo de algoritmo
se desarrolló en los años 70 para identificar los objetos que componen las curvas o las imágenes. Este
algoritmo examina un número limitado de posibles particiones de la curva ﴾o imagen﴿. En cada
partición, todas las partes aparecen al mismo tiempo. De todas las particiones posibles se elige la más
estable. Como resultado, la partición final es realmente no local ﴾es decir, holística﴿. Lo que significa es
lo siguiente: la existencia y ubicación de cada objeto depende de la existencia y ubicación de todos
los demás objetos.

Lo que es importante reconocer es que este algoritmo específico intenta imitar la capacidad humana
de reconocer objetos ﴾especialmente en ciertos dominios: cartografía geológica, procesamiento de
imágenes médicas, tareas psicológicas﴿. En su libro, Wertheimer demuestra el enfoque holístico del
pensamiento aportando varios ejemplos. Consideremos uno de ellos: el problema de calcular el área
de un paralelogramo. Tras una serie de observaciones en niños y adultos, Wertheimer identificó los
siguientes pasos ﴾fig. 1﴿

a﴿ reconocer la noción de área del rectángulo

b﴿ conectar los puntos apropiados en los sitios opuestos del paralelogramo no funciona

c﴿ es posible cortar el paralelogramo en franjas rectangulares, pero sólo funciona para una parte del
paralelogramo

d﴿ reconocer que el resto de la figura se compone de dos triángulos; éstos pueden juntarse y
constituir un rectángulo.

¿Llegarían los enfoques de la IA a esta estrategia? Lo más probable es que no, con una sola
excepción: cuando la conexión de los puntos apropiados crea rayas. La idea de los puntos apropiados
procede de Bongard ﴾Bongard, 1971﴿: la mejor manera de describir un objeto es describir el proceso
de su creación.

Wertheimer utilizó el mismo problema para demostrar la limitación de la ley conmutativa: A + B = B +


A. Esa afirmación es cierta si A es el área de un triángulo AFD y B es el área del rectángulo FBCD ﴾fig.
2﴿. Pero si A y B son el triángulo AFD y el rectángulo FBCD entonces A + B es un paralelogramo y B +
A es un rectángulo.

Lo mismo ocurre con el célebre caso de reconocer un arco a través de un único ejemplo. Resulta que
la descripción adecuada de un solo arco contiene en su estructura gramatical la esencia de la
estructura del arco. La siguiente expresión representa esta estructura gramatical.

{{{negro 3} {de‐4‐lados 3} prisma 2} se apoya 1} sobre {{{negro 3} {de‐4‐lados 3} prisma 2} permanece


1} a un lado {el‐mismo 1} {0}

Los dígitos que preceden a los paréntesis de cierre indican el nivel del término que figura entre estos
paréntesis en la estructura gramatical jerárquica. Los cambios en la descripción en el nivel más bajo
﴾nivel 3﴿ no distorsionan la noción del arco. Esto significa que la descripción en la que el término
"negro" se sustituya por la palabra "blanco" y/o "4 lados" se sustituya por 3 lados seguirá siendo una
descripción de un arco. Si se sustituye el término "prisma" por "pirámide" en el nivel superior ﴾nivel 2﴿,
la idea de un arco se destruirá sustancialmente y se convertirá más bien en una caricatura de un arco.
Los cambios en los niveles superiores ﴾niveles 1 y 0﴿ destruyen por completo la noción de arco
﴾sustituir "aparte" por "al lado" o "sobre" por "cerca"﴿.
Una característica importante del arco es la estabilidad. Normalmente esta característica no se
menciona explícitamente, pero permite restringir el número de construcciones posibles. Esto
demuestra una vez más la productividad de ampliar el contexto del problema, la productividad de
involucrar al mundo real. La esencia de todos los ejemplos del libro de Wertheimer que demuestran el
pensamiento productivo es la capacidad de ver la situación desde un nuevo punto de vista. Más
concretamente, la capacidad de describir la situación en nuevos términos, en un nuevo lenguaje. Esa
idea concreta del nuevo lenguaje de descripción encarna las aplicaciones exitosas de la IA en
medicina, geología, geofísica. El primero que lo entendió como algo crucial para la IA fue Gelfand
﴾Gelfand y Tselin, 1966﴿.

Lecciones Aprendidas
Los modelos informáticos implementan con facilidad los principales procedimientos de los enfoques
asociativo y lógico ﴾función de correlación, funciones lógicas﴿. Los procedimientos holísticos son más
difíciles y fue difícil implementarlos en las computadoras ﴾para el diseño actual de von Neuman﴿. Cabe
destacar que pasaron décadas hasta que la psicología, así como la IA, tomaron conciencia de lo
indispensable del enfoque holístico. Tal vez el hecho de que la teoría general de sistemas no fuera
capaz de definir la noción de integridad sea la causa de ello ﴾Guberman y Wojtkowski, 1996, 1998﴿.
Aunque la teoría tiene sus raíces en la teoría gestáltica, sus creadores intentaron 1﴿ generalizar el
enfoque gestáltico y 2﴿ desarrollar una teoría física sólida. En el camino dejaron de considerar la
integridad como asociada a la percepción, para atribuirla al objeto.

Uno de los trucos más habituales consiste en sustituir el enfoque sistémico ﴾holístico﴿ por el
estructural. La diferencia es la siguiente. Cuando se resuelven problemas utilizando el enfoque
estructural es necesario descubrir la estructura de las relaciones en el conjunto de elementos dados.
Cuando se resuelve un problema utilizando el enfoque holístico, primero se divide el objeto en partes
adecuadas. Cada una de estas partes debe coordinarse con otras partes y con el conjunto. Sólo
entonces es posible considerar la estructura de las relaciones entre estas partes.

Consideremos ahora una noción fundamental de la psicología gestáltica, la noción de "visión". Esta
noción se utiliza en el contexto del "cambio de visión", "momento de comprensión de lo verdadero ﴾la
solución﴿". Se puede observar que el cambio de visión se hace evidente cuando se considera el
cambio de descripción. Así, la noción de "visión" puede ser sustituida por la noción más definida de
"descripción". El cambio de descripción puede producirse bajo el mismo lenguaje de descripción o
cuando el lenguaje de descripción cambia por completo. Por ejemplo, para la tarea de establecer el
área del paralelogramo, una posible "visión" es la descripción del paralelogramo como un conjunto
de rayas paralelas a la línea base. Otra "visión" puede considerar el paralelogramo como una suma de
un rectángulo y dos triángulos.

La situación es similar a la noción de "gestalt". En el libro de Wertheimer esta palabra se utiliza de dos
maneras, como etiqueta ﴾teoría de la gestalt, lógica de la gestalt﴿ o como noción. Como noción sólo
se utiliza en conjunción con las palabras "bueno" o "malo": "buena gestalt" o "mala gestalt".
Invariablemente, cuando se utiliza como noción, significa "la buena ﴾o mala﴿ descripción".

Esta interpretación de la noción de "gestalt" no contradice el significado básico de la palabra: forma.


La buena forma es la que puede describirse brevemente o reproducirse con facilidad. Por ejemplo, la
línea, el círculo o el rectángulo se describen brevemente y pueden reproducirse con facilidad.
En nuestra opinión, la IA puede añadir a la lista de operandos holísticos del pensamiento una
operación de descripción aproximada ﴾el algoritmo "Damn the Details" ﴾al demonio los detalles﴿ o DD
puede servir de ejemplo﴿. La operación DD ﴾Guberman, 1983﴿ encuentra en la descripción del objeto
la jerarquía de niveles estables y elimina los niveles bajos en la descripción. La operación DD difiere,
por ejemplo, del filtrado.

La IA todavía se enfrenta a problemas difíciles sin resolver. Los sofisticados programas de


reconocimiento del habla todavía no pueden diferenciar entre b y d. En el campo de ajedrez, la batalla
entre David y Goliat terminó con la victoria del estúpido Goliat. Parece que estamos avanzando en la
dirección equivocada. Es obvio que tenemos que recurrir a la psicología y aprender de ella.

Para terminar, citemos de nuevo a Wertheimer ﴾página 2﴿:

"Se ha conseguido mucho. En un gran número de cuestiones especiales se han hecho sólidas
contribuciones a la comprensión. Al mismo tiempo, hay algo trágico en la historia de estos esfuerzos.
Una y otra vez, cuando los grandes pensadores compararon las respuestas preparadas con el
pensamiento real y refinado, se sintieron preocupados y profundamente insatisfechos: sintieron que lo
que se había hecho tenía méritos, pero que en realidad quizás no había tocado el núcleo del problema
en absoluto"

Shelia Guberman, ﴾1930‐﴿, doctor en matemáticas, doctor en electrónica, doctor en física nuclear, doctor en inteligencia
artificial. Jefe de División en el Instituto de Matemáticas Aplicadas de la Academia Rusa de Ciencias ﴾1966‐1991﴿.
Catedrático de la Universidad Abierta de Moscú ﴾1989‐1992﴿. Autor del primer programa de reconocimiento de patrones
aplicado ﴾1962﴿, de la teoría de las ondas D de la sismicidad terrestre ﴾1975﴿, de los algoritmos de percepción gestáltica
﴾1980﴿ y de la tecnología de exploración de yacimientos gigantes de petróleo y gas ﴾1985﴿. Trabajó en Inteligencia Artificial
desde 1962 aplicando los principios de la percepción gestáltica en programas informáticos para el análisis de datos
geológicos, el reconocimiento de la escritura a mano, la compresión del habla, las imágenes médicas y la exploración de
petróleo y gas. Desde 1992 vive en Estados Unidos. Es autor de tecnologías básicas para cinco empresas estadounidenses.
En la actualidad se centra en la investigación de los principios de la psicología de la Gestalt.

Referencias: 1 Bongard. M. ﴾1971﴿, Recognition Problems, Nauka, 5. 2 Gelfand I. M and M. L Tsetlin ﴾1966﴿, Mathematical
modeling of central nervous system, in Models of Structural Functional Organization of Some Biological Systems, Nauka,
Moscow. 3 Guberman S., ﴾1983﴿, Computer vision and gestalt theory, Soviet Psychology, 22, 89‐106. 4 Guberman S. and
Wojtkowski W. ﴾1996﴿, Systems: Substance or Description, in Proceedings of the Third European Systems Science Congress,
Rome, Italy, 207‐213. 5 Guberman S. and Wojtkowski W. ﴾1998﴿, On Systems, Simplicity, and Granulation, in Systems
Development Methods for the Next Century, Plenum Publishing, 213‐217. 6 McCulloch W. S. and Pitts W. A. ﴾1943﴿,
Bulletin of Mathematical Biophysics, vol. 5, 115 ‐ 133. 7 Rosenblatt F. ﴾1958﴿, The perceptron: A probabilistic model for
information storage and organization storage and organization in brain. Psychological Review, vol. 65, p.386 ‐ 408. 8
Turing A. M., ﴾1992﴿. Collected Works. Ince D. C ﴾Editor﴿. 9 Wertheimer M., ﴾1959﴿. Productive Thinking, Enlarged edition,
Harper: New York.

Made with Bear ʕ•ᴥ•ʔ

También podría gustarte