Está en la página 1de 17

Modellierung psychischer Prozesse

Dietrich Drner Ute Schmid Inhaltsverzeichnis


1 Was ist Simulation und wozu dient sie? 2 Wie baut man Simulationsmodelle? 3 Ein Beispiel: Angst

1 Was ist Simulation und wozu dient sie?


Simulieren heit "gleich machen"! Der Begriff bedeutet im Alltag auch oft "scheinbar gleich machen", wenn man z.B. eine Krankheit "simuliert", um einer Matheklausur zu entgehen. Wir gebrauchen den Begriff im direkten Wortsinn. Ein System simuliert ein anderes, wenn es unter gleichen Umstnden das gleiche tut, wie das andere. Ein System simuliert einen menschlichen Schachspieler, wenn es unter gleichen Umstnden die gleichen Zge, die gleichen Fehler macht wie der Mensch, gegen die gleichen Gegner in der gleichen Weise verliert und gewinnt, die gleichen Lernfortschritte macht, unter den gleichen Umstnden "aus Wut" das Schachbrett umstt Ein Computer simuliert menschliches Schachspiel keineswegs, wenn er nur Schachspielen kann. Das System, das simuliert, ist das "Modell"; das simulierte System ist das "Urbild". Das Modell stellt man her; das Urbild ist gewhnlich ein natrliches System, z.B. die psychische Organisation eines Menschen beim Schachspiel. Fr Modell und Urbild gilt die gleiche Theorie; das zumindest ist das Ziel der Modellkonstruktion. Das heit, dass man beide Systeme mit der gleichen Theorie beschreiben kann; in beiden Systemen kommen die gleichen Prozesse vor, ausgelst durch die gleichen Bedingungen. Allerdings knnen die "gleichen" Prozesse in beiden Systemen sehr ungleich aussehen. Dazu ein Beispiel. Abb. 1 zeigt links ein "echtes" Neuron, eine Nervenzelle mit ihrem Zellkrper, den Dendriten, und den im Dendritengeflecht endenden Axonen anderer Neuronen mit ihren synaptischen Endknpfchen. Nun wollen wir wissen, wie ein Neuron bezglich seiner Eigenschaften der Informationsbertragung, also der Weiterleitung von Aktivierungen, aussehen kann. Dazu konstruieren wir ein Modellneuron, dass man rechts auf der Abb. 1 sieht.

0.5

INPUT
0.3

GEWICHT
0.3

0.2

0.7 -0.2

0.4

0.1 -0.3 0.4 0.3 0.3

Abb. 1: Natrliche und knstliche Neuronen Zu einem bestimmten Zeitpunkt bekommt ein Neuron Inputs ber die synaptischen Endigungen, die an seinem Dendritengeflecht und dem Zellkrper anliegen. Es gibt erregende und hemmende Inputs. Wir wollen annehmen, dass jeder Input zwischen 0 (= keine Erregung) und 1 (= maximale Erregung) variiert. Zu einem bestimmten Zeitpunkt hat also jeder Input einen Wert zwischen 0 und 1. Die Erregung wird nun einmal nach Magabe der Inputgre und zum anderen nach Magabe des synaptischen bergangsgewichts auf das Zielneuron bertragen. Wir wollen annehmen, dass die synaptischen bergangsgewichte gleichfalls zwischen 0 und 1 variieren. Und wir nehmen an, dass der bertragene Erregungsimpuls gleich dem Produkt aus Erregung und synaptischem bergangsgewicht ist. Ist also die Erregung einer synaptischen Endigung = 0.8 und ist das synaptische bergangsgewicht = 0.5, so wird ein Impuls der Gre 0.4 bertragen. Die hemmenden Inputs haben ein negatives Gewicht. Fr die gesamte Erregung des Neuron nehmen wir an, dass die einzelnen Inputprodukte aufaddiert werden. So ergibt sich die Erregung des Neuron, die dieses wiederum ber sein Axon weiterleitet. Die maximale Erregungsfrequenz pro Zeiteinheit setzen wir = 1, die minimale = 0. Das Modellneuron hat vier positive und zwei negative Inputs. Man sieht die Inputstrken in Zahlen und auch die Gre der synaptischen bergangsgewichte. Das Neuron wrde aufgrund dieser Inputs eine Erregungsfrequenz von 0.39 (39% des Maximums) erzeugen. Aus dem ursprnglichen Eiweiklmpchen ist nun eine Menge von Programmanweisungen geworden, die folgendermaen aussieht: a := Summe (inp i g i ); if a>1 then a:=1; if a<0 then a:=0; Das Neuron besteht aus einzelnen Variablen (a, inp i , g i ) und aus Funktionen, die diese Variablen

miteinander verbinden. Nun haben wir also ein echtes Neuron und ein Modellneuron. Wir haben bestimmte Merkmale des "echten" Neurons przisiert. Auch das echte Neuron bekommt Inputs, diese bestehen aus Impulsfrequenzen, die ber die Axone in die synaptischen Endigungen treffen. In den synaptischen Endigungen befinden sich Depots von Transmittersubstanzen. Sowohl die Impulsfrequenzen als auch die Gre der Depots lassen sich in Zahlenwerten angeben. Beim echten Neuron wird aufgrund des Inputs die Membran hyperpolarisiert oder depolarisiert. Das Ausma der Polarisation aufgrund der verschiedenen Inputs errechnet sich aufgrund der Inputprodukte. Die Summenformel steht also fr den Prozess der De- oder Hyper-Polarisation der Membran. Wenn wir das Neuron in einem Computer realisieren, dann gibt es im Computer natrlich keine Membranen und keine Depots von Transmittersubstanzen und auch keine Impulsfrequenzen in den Axonen. All das wird im Computer anders realisiert, nmlich dadurch, dass bestimmte Speicherzellen bestimmte Werte annehmen. Das Modellneuron ist im Computer materiell anders realisiert als das Urbild. Dabei aber wird angenommen, dass beide materielle Realisierungen analog funktionieren. Und diese Analogie ist die "Gleichheit" der Prozesse; obwohl die Prozesse einmal (im Urbild) biochemisch realisiert sind, im anderen Fall als Berechnungen in der CPU (central processing unit) eines Computers stattfinden. Es kommt also bei den verschiedenen Berechnungsprozessen das Gleiche heraus; die Berechnungsprozesse sind "Verhaltensmodelle" voneinander (oder sollen das sein): gleicher Input erzeugt gleichen Output, aber auf unterschiedliche Weise. Das knstliche Neuron ist seinerseits ein "Strukturmodell" des natrlichen; es besteht aus den gleichen Teilen und Zustnden (Synapsen, Aktivitten) wie das "echte" Neuron. Das Modellneuron ist also ein Replikat des "Urbildes" in einem anderen Medium. Gewhnlich sind Modelle keine vollstndigen Replikate. In unserem Beispiel haben wir bestimmte Teile, die bei dem "echten" Neuron vorhanden sind, weggelassen, zum Beispiel den Zellkern. Wir haben Vereinfachungen vorgenommen; das ist normal beim Modellieren (obwohl nicht unbedingt notwendig). Dadurch wird das Modell gewhnlich grber als sein Urbild. Die Vergrberung ist eine mgliche Fehlerquelle. Wozu baut man Modelle? Um klare Begriffe zu bekommen. Die Psychologie hat wenig klare Begriffe. Obwohl es eine wissenschaftliche Erforschung der Intelligenz seit mehr als 100 Jahren gibt, wei niemand heute eigentlich genau, was Intelligenz ist. Noch schlimmer steht es mit den Gefhlen. Ein Wrterbuch der Psychologie (Dorsch, Hcker & Stapf, 1998, S. 307) bezeichnet Gefhle als undefinierbar!. In der Psychologie kann man leider das meiste, was interessiert, nicht sehen, riechen, anfassen (wie das in anderen Wissenschaften der Fall ist). Man kann "Reize" sehen (vielleicht!) und "Reaktionen", aber alles was dazwischen ist, bleibt "unfassbar". Ein Modell ist eine White Box, die man an die Stelle eines "schwarzen Kastens" (Black Box) setzt. Und dadurch versucht man, den schwarzen Kasten zu durchschauen. Man versucht also zum Beispiel, solche knstlichen Neuronen, wie wir sie gerade dargestellt haben, so

zusammenzufgen, dass die Neuronennetze Erinnerungs-, Planungs-, Wahrnehmungsprozesse und auch Motivationsprozesse durchfhren. Es liegt auf der Hand, dass die Modellbildung groe Vorteile hat. Man kann auf diese Weise Tausende von Neuronen zugleich in einem Computer "simulieren" und studieren, welches Verhalten Neuronenverbnde zeigen, ob sie die entsprechenden Prozesse bei Menschen nachbilden. Die Simulation treibt die Theorienbildung voran, weil sie bestimmte Zwnge setzt: Die Simulation zwingt zu Genauigkeit; statt nur davon zu reden, dass Neuronen andere Neuronen aktivieren, muss man die genaue Funktion angeben, nach der diese Aktivierung vonstatten geht. Ein theoretisches "irgendwie" verbietet sich. Die Simulation zwingt zur Vollstndigkeit: man muss alles explizieren, was man braucht, um zum Beispiel einen Erinnerungsprozess in einem neuronalen Netz nachzuahmen.. Die Simulation zwingt zur Konsistenz, zur Widerspruchsfreiheit. Widersprchliche Formulierungen funktionieren nicht. Damit ist die Modellbildung, zusammen mit der berprfung der Gltigkeit der Modelle durch Simulation, ein unschtzbares Werkzeug zur Theoriebildung in der Psychologie. Schlielich kann die oft als "unwissenschaftlich" gescholtene Selbstbeobachtung fr die Modellbildung ntzlich sein. Wenn man bei sich selbst beobachtet, was zum Beispiel unter Stress und rger anders funktioniert als im normalen Zustand, so kann man aus solchen Beobachtungen Hypothesen entwickeln, die in die Modellentwicklung eingehen. Und diese Modelle kann man dann objektiv testen! Auf diese Weise wird die Selbstbeobachtung also objektivierbar.

2 Wie baut man Simulationsmodelle?


Everything is vague to a degree you do not realize till you have tried to make it precise . . . Bertrand Russell Fr die Simulation psychischer Prozesse mssen die angenommenen Wissensstrukturen und Verarbeitungsprozesse in einem formalen Modell abgebildet werden. Dies geschieht oft mithilfe von Methoden der Informatik, insbesondere der Knstlichen Intelligenz (Russell & Norvig, 2002). Eine klassische Herangehensweise zur kognitiven Modellierung ist die Verwendung von Produktionssystemen (Newell & Simon, 1972). Ein Produktionssystem besteht aus (1) einem Arbeitsspeicher, der das aktuelle Wissen enthlt, (2) einem Produktionsspeicher, der die Regeln zur Verarbeitung von Wissen vorhlt, und (3) einem Interpreter, der das Kontrollwissen des Systems enthlt (siehe Abbildung 2). Im Wesentlichen realisiert ein Produktionssystem die Ersetzung von Daten im Arbeitsspeicher durch Anwendung von Regeln aus dem Produktionsspeicher. Dies geschieht in Form von match-select-apply-Zyklen.

Wir veranschaulichen die Arbeitsweise eines Produktionssystems am Beispiel der algebraischen Umformung eines mathematischen Ausdrucks so dass nur noch einfache Additionen vorhanden sind (siehe Tabelle 1). Zu Beginn steht der gegebene Ausdruck im Arbeitsspeicher. Der Interpreter vergleicht die linken Seiten aller Regeln mit dem Ausdruck (match). Er verwendet eine einfache Strategie zur Regelauswahl (select), indem er immer die erste anwendbare Regel whlt. Die Regelanwendung (apply) fhrt zu einer nderung des Ausdrucks im Arbeitsspeicher. Der nchste match-select-apply-Zyklus beginnt. Nach vier Regelanwendungen ist ein Ausdruck entstanden, der nur noch Additionen enthlt. Auf diesen Ausdruck ist keine Regel mehr anwendbar und das Produktionssystem beendet seine Arbeit.

Tabelle 1: Veranschaulichung der Arbeitsweise eines Produktionssystems


Regeln: 1x R1 x (y + z) R2 R3 2x R4 xy (0) Arbeitsspeicher: 2 (1 + 1 2) Match: Anwendbare Regeln R 1 auf 1 2 R 2 auf Gesamtausdruck R 3 auf Gesamtausdruck R 4 auf 1 2 R 4 auf Gesamtausdruck x xy+xz x+x yx

Select: Auswahl von R 1


Apply: Anwendung fhrt zu (1) Arbeitsspeicher: 2 (1 + 2) Match: Anwendbare Regeln R 2 auf Gesamtausdruck R 3 auf Gesamtausdruck R 4 auf Gesamtausdruck Select: Auswahl von R2 Apply: Anwendung fhrt zu

(2) Arbeitsspeicher: 2 1 + 2 2 Match: Anwendbare Regeln R 3 auf linken Summand R 3 auf rechten Summand R 4 auf linken Summand R 4 auf rechten Summand Select: Auswahl von R3 Apply: Anwendung fhrt zu (3) Arbeitsspeicher: 1 + 1 + 2 2 Match: Anwendbare Regeln R 3 auf rechten Summand R 4 auf rechten Summand Select: Auswahl von R3 Apply: Anwendung fhrt zu (4) Arbeitsspeicher: 1 + 1 + 2 + 2

Produktionsregeln werden als WENN-DANN Regeln formuliert. Regel R 1 in Tabelle 1 liest man: WENN im Arbeitsspeicher ein Ausdruck steht, in dem die Kostante 1 mit einem beliebigen Term x multipliziert wird, DANN lsche die Multiplikation mit 1 und behalte nur x. Das heit, im WENN-Teil der Regel wird eine Bedingung fr die Daten formuliert und im DANN-Teil eine Aktion auf den Daten. Bei der kognitiven Modellierung auf der Basis von Produktionssystemen, werden statt der in unserem Beispiel verwendeten einfachen Vorwrts-Ersetzungs-Regeln meist zielgesteuerte Produktionssysteme verwendet. Im Arbeitsspeicher stehen dann sowohl ein aktueller Gedchtnisinhalt als auch ein aktuelles Ziel (und mglicherweise noch weitere offene Ziele). Die Produktionsregeln enthalten dann im WENN-Teil offene Ziele, im DANN-Teil knnen Unterziele gesetzt werden, die erfllt sein mssen, um das Ziel zu erreichen. Ein Alltagsbeispiel fr eine

solche Regel wre WENN das Ziel ist, Kaffee zu kochen, DANN setze als Unterziele, dass Kaffeepulver und Wasser in der Kaffeemaschine sind. Bei zielgesteuerten Produktionssystemen wird typischerweise jeweils diejenige Regel ausgewhlt, von der angenommen wird, dass das Ergebnis ihrer Anwendung, dem gewnschten Ziel nher ist. Das wird unter anderem mit der sogenannten Mittel-Ziel-Analyse realisiert (Newell & Simon, 1972). Neben einer auf Mittel-Ziel-Analyse basierenden Kontrollstrategie kann die Regelauswahl auch ber Strkewerte realisiert werden. In diesem Fall wird jede Produktionsregel mit einem Strkewert assoziiert. Dieser Wert sinkt, wenn die Regel nicht gebraucht wird und er steigt bei erfolgreicher Anwendung (Anderson, 1983). Bei vielen Problemen ist nicht unmittelbar ersichtlich, ob ein Zustand nher am gewnschten Ziel ist oder nicht. Entsprechend werden sogenannte Heuristiken eingesetzt, mit denen Zustnde bewertet werden. Heuristiken sind Faustregeln, die einen Problemlser in vielen Fllen in die gewnschte Richtung leiten aber eben nicht immer. Bei dem Problem in Tabelle 1 ist es ntzlich, immer eine Regel auszuwhlen, die eine Multiplikation entfernt. Bei der Konstruktion eines Modells fr psychische Prozess versucht man, solche Heuristiken einzusetzen, die denjenigen, die menschliche Problemlser zeigen, mglichst hnlich sind. Produktionssysteme geben uns die Mglichkeit, Annahmen ber Denkprozesse przise nachzuvollziehen. Denkprozesse werden hier als Folge von Transformationen von Inhalten des Arbeitsspeichers aufgefasst und modelliert. Information kann von auen, durch "Wahrnehmung" in den Arbeitsspeicher gelangen. Beispielsweise kann dies eine Aufgabenstellung sein, die das kognitive System lsen soll. Der Inhalt des Arbeitsspeichers kann aber auch durch mentale Operationen verndert werden. Wrden wir die Umformung aus Tabelle 1 im Kopf ausfhren, wrden wir vermutlich hnliche Zwischenzustnde im Arbeitsspeicher erzeugen, wie es das Produktionssystem getan hat. Inhalte des Arbeitsspeichers knnen aus dem System ausgegeben werden. Im einfachsten Fall kann dies einfach als Zeichenfolge auf dem Computer-Monitor realisiert werden. Es ist aber auch mglich, das System mit Aktorik-Komponenten zum Beispiel einem Roboterarm zu koppeln. Alle Transformationen sowie auch Anforderungen zur Informationsaufnahme oder Aktionsausfhrung werden durch Produktionsregeln gesteuert. Diese modellieren das prozedurale Wissen des kognitiven Systems. Die Heuristik, also die Kontrollstrategie des Interpreters, gibt vor, welche Produktionsregel in einem bestimmten Zustand zur Anwendung kommt. Die Produktionsregeln legen also fest, was getan werden kann; die Kontrollstrategie beeinflusst, wie effizient eine Aufgabenstellung gelst wird. Wrde im Beispiel in Tabelle 1 etwa das Wissen darber fehlen, dass die Multiplikation einer Zahl mit zwei der Addition der Zahl mit sich selbst entspricht (R 3 ), wre es nicht mglich gewesen, die Aufgabe zu lsen. Htte die Kontrollstrategie in Schritt (2) die Regel bevorzugt, die Argumente einer Multiplikation zu vertauschen (R 4 ) wre danach Regel R 1 anwendbar geworden. Das Ergebnis htte dann die Form 2 + 2 + 2 und das Produktionssystem htte einen Schritt mehr bentigt, um ein Ergebnis zu

erzielen. Eine Kontrollstrategie, die immer Regel R 4 bevorzugt, bei der ja keine Multiplikation entfernt wird, wrde dazu fhren, dass das Produktionssystem keine Lsung findet. Es besteht weitgehend Einigkeit darber, dass verschiedene kognitive Prozesse auf Basis identischer Elementarmechanismen realisiert werden (Newell, 1990). Entsprechend wurden sogenannte kognitive Architekturen entwickelt , die ein Grundgerst fr die Modellierung kognitiver Prozesse liefern. Insbesondere legt eine kognitive Architektur fest, in welcher Weise Wissen und Produktionsregeln reprsentiert werden, wie die Interaktion mit der Umgebung realisiert wird und welche Kontrollstrategie verwendet wird. Rein praktisch hat die Verwendung einer kognitiven Architektur den Vorteil, dass man sich ganz auf die Entwicklung des kognitiven Modells selbst konzentrieren kann, das heit, auf die Formalisierung des Wissens, das Menschen verwenden, wenn sie eine bestimmte kognitive Aufgabe erledigen. Gleichzeitig liefert eine kognitive Architektur theoretisch begrndete Einschrnkungen fr die Formalisierung und ermglicht eine bessere Vergleichbarkeit von Modellen desselben Gegenstandsbereichs. Die in der Psychologie am bekanntesten und am meisten verwendete kognitive Architektur ist ACTR (Anderson, 1993). Diese Architektur baut auf der vorher entwickelten Architektur ACT (Adaptive Control of Thought) auf (Anderson, 1983). ACT-R basiert auf einer Produktionssystem-Architektur und hat die Besonderheit, dass neben einem Produktionsspeicher auch ein Wissensspeicher zur Verfgung steht. Dadurch wird das Langzeitgedchtnis durch zwei Komponenten beschrieben: Im Wissensspeicher ist deklaratives Wissen abgelegt, im Produktionsspeicher prozedurales Wissen. Deklaratives Wissen bezeichnet insbesondere semantisches Wissen, das in strukturierter Form abgelegt ist und das sprachlich formuliert werden kann (know that). Semantisches Wissen meint interindividuell vergleichbares Wissen ber Kategorien (ein Hund ist ein Sugetier, ein Hund kann bellen) und grundlegende Fakten (Paris ist die Hauptstadt von Frankreich, 7 mal 8 ist 56) (vgl. Kapitel Gedchtnis). Prozedurales Wissen bezeichnet Wissen, das in tatschliche oder mentale Handlungen umgesetzt wird (know how). Dieses Wissen ist hufig nicht dem Bewusstsein zugnglich und kann nicht verbalisiert werden. Erstellt man ein kognitives Modell in ACT-R kann also bercksichtigt werden, wie deklarative Wissenselemente bei der Lsung von Aufgaben benutzt werden knnen. Deklaratives Wissen wird als Aktivationsausbreitungsnetz modelliert. Das heit, wird ein bestimmter Wissensinhalt aktiviert, wird die Aktivierung zu mit diesem Inhalt verbundenen Wissenselementen weitergeleitet. Wird beispielsweise das Konzept Hund aktiviert, steht damit auch bereits das Wissen, dass ein Hund ein Sugetier ist und bellen kann, zur Verfgung. Dass Wissensorganisation in Form eines solchen Aktivationsausbreitungsnetzes kognitiv plausibel ist, wurde in zahlreichen Experimenten nachgewiesen (Anderson, 1983). Eine kognitive Architektur mit hnlichem Anspruch ist Soar (State Operator And Result) (Newell, 1990). Soar ist eine Weiterentwicklung der ersten kognitiven Architektur berhaupt dem General Problem Solver (Newell & Simon, 1963). Die Kontrollstrategie von Soar basiert auf der Mittel-ZielAnalyse. Whrend ACT und ACT-R von Psychologen entwickelt wurden, ist Soar eine in der

Knstlichen Intelligenz entwickelte Architektur. Das im Rahmen des General Problem Solvers entwickelte Konzept von Problemlsen als Suche im Problemraum lieferte auch die Grundlage fr zustandsbasierte Planungssysteme, wie sie in der Knstlichen Intelligenz bis heute entwickelt werden (Russell & Norvig, 2002). ACT-R und Soar sind symbolische Architekturen. Das heit, diesen Architekturen liegt die Annahme zugrunde, dass psychische Prozesse als Verarbeitung von Symbolen beschreibbar sind. Die mentale Sprache ist aus einer Menge von primitiven Symbolen aufgebaut. Symbole sind die kleinsten bedeutungstragenden Einheiten. Komplexere Symbolstrukturen werden nach festen Regeln aus den primitiven Symbolen aufgebaut und die Bedeutung komplexerer Strukturen ergibt sich kompositional, also aus der Beudeutung der einzelnen Symbole zusammen mit der Bedeutung ihrer Verknpfungen (Fodor & Pylyshyn, 1988). Alternativ existieren auf konnektionistischen Prinzipien aufgebaute Anstze. Diese Anstze sind von der Idee neuronaler Netze inspiriert. Hier wird Wissen in Form von Erregungsmustern reprsentiert. Konnektionistische Anstze eigenen sich besonders gut dazu, Lernprozesse zu modellieren. Ein Beispiel fr eine solche Architektur ist CLARION (Connectionist Learning with Adaptive Rule Induction ON-line) (Sun & Zhang, 2006). Lernen in symbolischen Anstzen wird hufig nur als Kombination von Regeln zu greren Einheiten realisiert. Problemlsestrategien sind blicherweise durch die fest vorgegebene Interpreter-Strategie zur Regelauswahl starr gegeben. Das heit, Strategienderungen basieren lediglich auf einer ber die Strkewerte der Regeln vernderten Prferenz bei der Regelauswahl. Kreatives Problemlsen sowie das Lernen neuer Problemlsestrategien aus beispielhafter Erfahrung sind nur unzureichend mit Produktionssystemen modellierbar. In konnektionistischen Architekturen steht dagegen Lernen aus Erfahrung im Fokus: Lernen wird als Generalisierung ber Beispiele, also als induktiver Prozess, modelliert. Einen Vorschlag zur Regelinduktion in symbolischen Systemen ist in Schmid, Hofmann, und Kitzelmann (2009) dargestellt. Die "urtmlichere" Form Modellkonstruktion besteht darin, dass man die Kausalbeziehungen, die man annimmt, in einer geeigneten Programmiersprache formuliert und das Verhalten des kausalen Netzwerks berprft. Solche Anstze finden sich hufig in der frhen Kybernetik, die auch "Systemtheorie" genannt wird. Man ist hier nicht auf das "Korsett" eines Produktionssystems festgelegt. Wir werden im nchsten Kapitel ein Beispiel fr eine solche Simulation schildern. Die genannten kognitiven Architekturen basieren auf der Grundannahme, dass es mglich ist, psychische Prozesse isoliert von der Einbettung eines Systems in die Umwelt und isoliert von emotionalen und motivationalen Einflssen beschreiben und erklren zu knnen. Diese Auffassung wird von verschiedenen Wissenschaftlern bezweifelt (Norman, 1993). Drei aktuelle Architekturen, die psychische Prozesse von in die Umwelt eingebeteten Agenten modellieren sind Icarus (Langley & Choi, 2006), Novamente (Looks, Goertzel, & Pennachin, 2004) und Psi (siehe unten). Whrend Produktionssysteme typischerweise eine hohe Flexibilitt bei der Regelanwendung

ermglichen, sind gerade bei der Bercksichtigung von Emotionen hufig einfachere Modelle angemessener, bei denen in einem gegebenen Kontext eine fest vorgegebene Regel feuert. Ein Beispiel wird im folgenden Unterkapitel gegeben, in dem ein Modell fr Angst vorgestellt wird. Um selbst kognitive Modelle zu entwickeln, bentigt man Grundkenntnisse in der Informatik, insbesondere von Methoden der Knstlichen Intelligenz. Ein generelles Verstndnis davon, wie vage, verbal beschriebene Annahmen przisiert werden knnen erhlt man durch die Beschftigung mit Logik sowie Algorithmenentwicklung. Die in der Knstlichen Intelligenz entwickelten Anstze zur Wissensreprsentation, zum Problemlsen und Planen (Russell & Norvig, 2002; Schmid, 2007) liefern das Fundament fr die Entwicklung kognitiver Architekturen.

3 Ein Beispiel: Angst


What I cannot create, I do not understand. Richard B. Feynman Der Ausgangspunkt fr die Konstruktion eines Modells ist natrlich Unwissen. Man hat keine Theorie; man kann sich etwas nicht erklren. Was ist Angst? Angst ist ein Gefhl, verfhrt zu irrationalem Handeln. Irgendwie ist Angst auch unangenehm! Aber es gibt auch Leute, die sprechen von Angstlust, z.B. beim Achterbahnfahren. Angst hat etwas mit einer Bedrohung zu tun, aber es gibt auch Angst "einfach so", Angst nicht vor etwas bestimmtem, sondern vor dem "Dunkel". Wie hngt das alles zusammen? Das ist unklar! Also versuchen wir einmal, ein Simulationsmodell fr "Angst" zu bauen. Das hat zudem den Vorteil, dass Angst ein Gefhl ist und Gefhle nach weit verbreiteter Meinung "nicht berechenbar" sind. Wenn man aber ein Simulationsmodell fr Angst" konstruieren mchte, so muss man natrlich! Angst als Berechnung darstellen knnen. Wie soll das gehen? Schauen wir mal! Man beginnt am besten mit einer ganz unsystematischen Sammlung von Daten ber Angst. Was ist Angst?
Angst bedeutet Fluchttendenzen, aber auch Aggression! Angst kann dazu fhren, dass Feindschaften (Hass) entstehen, aber auch Freundschaften (Hilfe!). In Angst kann man nicht mehr klar denken und neigt zu abrupten Reaktionen (Flucht oder Angriff). Der ngstliche neigt dazu, Krisen- und Gefahrensymptome zu bersehen. Angst bedeutet Selbstunsicherheit; man ist "allem" nicht gewachsen.

Es zeigt sich in dieser Sammlung, dass man dieses "Gefhl" schlecht abtrennen kann von anderen psychischen Prozessen; Angst scheint bestimmte Formen des Denkens und des Wahrnehmens zu enthalten, auerdem enthlt Angst Bedrfnisse. Es scheint, dass Angst etwas bergreifendes ist, nicht eigentlich ein Prozess eigener Art, sondern eine Art von Rahmen fr verschiedene Prozesse. Wie simuliert man Angst? Man braucht dafr Annahmen ber das Motivsystem des Menschen. Abbildung zwei zeigt ein solches Hypothesengerst bildhaft. Man sieht Tanks. Diese Tanks sind

Messanlagen fr bestimmte kritische Variable. Wir haben hier nur vier dargestellt, nmlich Tanks fr Hunger, Affiliation (Gruppeneinbindung), Bestimmtheit und Kompetenz. Andere (Durst, Schlaf, Sexualitt,. ) haben wir hier weggelassen.

Hilfeaktionen Suche nach L-Signalen Exploration, Analyse

Suche nach Kompetenzsignalen

"Gte"

Allgemeines, unbestimmtes Sympathikussyndrom Auflsungsgrad (= 1 - Inhibition)


Soll BI Ist Soll BI Ist Soll BI Ist Soll BI

Ist

Arousal

Inhibition

Hunger

Affiliation

Bestimmtheit

Kompetenz
Antizipation von Erfolg oder Mierfolg; Antizipation von Gelingen oder Versagen (je str ker BI, desto geringer die Kompetenz, desto geringer die Erfolgswahrscheinlichkeit).

IL-Signale, mobbing

Unerwartetes Ereignis

Mierfolg

Abb. 2: Ein Bedrfnissystem. In den Tanks befindet sich eine "Flssigkeit", die einen bestimmten Pegelstand hat. Es gibt fr diesen Pegelstand einen Sollwert, (zum Beispiel die vollstndige Fllung des Tanks); Sollwert und Istwert knnen voneinander abweichen; dann wird je nach Strke der Abweichung das Element Bedarfsindikator (BI) aktiv; eine Sollwertabweichung bedeutet, dass ein Bedrfnis einer bestimmten Strke vorhanden. Die Sollwertabweichung wird dadurch zum Bedrfnis, dass ein aktiver Bedarfsindikator eine Aufforderung fr das Gesamtsystem darstellt; er "sagt": "Tu was!", "Beseitige die Ist - Sollwertdifferenz!" Das System, dessen Bestandteile diese Tanks sind, soll bei einer Sollwertabweichung nach Mglichkeiten suchen, den Tank wieder aufzufllen. Solche Aktivitten werden als "Verhaltenstendenzen" durch den BI "vorgeschlagen". ber den BI sieht man in Abb. 2 solche Verhaltenstendenzen, z.B. prosoziale Aktivitten ("Hilfeleistung"), "etwas Gutes tun" fr den "Affiliationstank", Exploration und Analyse fr den Bestimmtheitstank. Jeder Tank hat einen Zulauf und einen Ablauf. Der Zulauf wird durch bestimmte Ereignisse geffnet, der Ablauf desgleichen. Diese Ereignisse sind fr die verschiedenen Tanks verschieden. Die Zulaufereignisse fr den Affiliationstank sind zum Beispiel ein Lcheln, ein Umarmung, Krperkontakte; alle diese Signale sind "Legitimittssignale" (L-Signale, Boulding, 1974); sie indizieren, dass man den "Gesetzen der Gruppe entspricht" (daher "Legitimitt"), dass die Gruppe einen mag. L-Signale sind die Bedrfnisbefriedigungen fr den Affiliationstank; sie fllen ihn und vermindern dadurch die Ist-Sollwertdifferenz. "Ablaufereignisse" fr den Affiliationstank sind: das bse Gesicht eines Kollegen, sein Wutausbruch, ein Tadel. Diese Illegitimttssignale entleeren den Affiliationstank, erhhen also das

Bedrfnis nach L-Signalen. Die L- und IL-Signale sind zum Teil angeboren (Lcheln, Gesichtsausdruck), zum anderen werden sie gelernt. Gleichartige Signale gibt es fr den Bestimmtheitstank. Ein Zulaufsignal ist ein Ereignis, welches "wie erwartet" eintritt. Ein solches Ereignis "sagt": "du kannst die Welt voraussagen!" Dies Signal befriedigt das Bedrfnis nach Bestimmtheit. Ein "Bestimmtheits-Ablaufsignal" ist z.B. ein unerwartetes Ereignis, berraschung z.B. Ein solches Ereignis erhht das Bedrfnis nach Bestimmtheit. Fr den Kompetenztank sind "Zulaufereignisse", also Bedrfnisbefriedigungen, zum Beispiel Erfolgsereignisse, Ereignisse also, die darin bestehen, dass etwas klappt. Ablaufereignisse sind dementsprechend Misserfolge und - besonders! - andauernde (also offenbar nicht zu bewltigende) Sollwertabweichungen in anderen Tanks, zum Beispiel andauernder Hunger, andauernder Schmerz! Der Pegelstand im Kompetenztank hat fr die gesamte Verhaltensregulation des Systems eine besondere Bedeutung. Der Pegel misst die allgemeine Kompetenz und das ist nichts anderes, als die antizipierte allgemeine Erfolgswahrscheinlichkeit von Aktionen. Das heit konkret: das System berechnet den Erfolg einer Aktion unter anderem aufgrund der allgemeinen Kompetenz. Ist nun der Pegelstand niedrig, so bedeutet das generell die Antizipation von Mierfolg! Die Zukunft sieht dster aus; man wird nicht das erreichen, was man erreichen mchte. (Tatschlich gehen in die Berechnung der Erfolgswahrscheinlichkeit einer Aktion noch andere Gren ein, vor allem die "epistemische Kompetenz", das Wissen um die Wirksamkeit einer Aktion. Bei Routineoperationen ist dies Wissen um den Erfolg sehr sicher und die allgemeine Kompetenz spielt kaum eine Rolle. Dass eine Tr sich ffnet, wenn man auf die Klinke drckt, wird auch bei niedriger Kompetenz noch mit groer Sicherheit antizipiert. Anders ist es aber zum Beispiel mit der Schtzung der Erfolgswahrscheinlichkeit, eine Prfung zu bestehen. Hier spielt die allgemeine Kompetenz eine groe Rolle.) Das ist ein einfaches Modell; in Wirklichkeit nehmen wir natrlich nicht an, dass sich im Nervensystem eines Lebewesen "Tanks" befinden. Diese Tanks sind aber ganz praktisch, weil sie sehr anschaulich sind. Hyland (1981) fordert aus diesem Grunde fr Simulationsmodelle ein interpretatorisches "Surplus", eine (eigentlich berflssige) mechanische oder neuronale Interpretation des Models. Mit solchen Gebilden wie Tanks kann unsere Fantasie besser umgehen als mit der abstrakten mathematischen Formulierung, die eigentlich dahinter steht (und das Wichtige ist). Die Tanks in Abb. 2 sind Beispiele fr akkumulierende beziehungsweise deakkumulierende Speicher. Tatschlich kann man ja die fortlaufende Berechnung der Pegelzustnde in den Tanks durch zwei einfache Anweisungen in einem Computerprogramm realisieren, nmlich durch folgende: Pegel := Pegel + Zulauf - Ablauf;

BI := Sollwert - Pegel; An den Tanks, genauer gesagt an deren BI - Elementen, an den Bedarfsindikatoren also, hngen noch andere Variable. Zum Beispiel aktiviert das BI des Kompetenztanks eine Variable "Arousal". Diese wiederum soll den Muskeltonus und die Wahrnehmungsbereitschaft der Sinnesorgane erhhen, insgesamt fr eine erhhte Handlungsbereitschaft sorgen. Zugleich sollte sie den Auflsungsgrad der kognitiven Prozesse herabsetzen, so dass Wahrnehmungs-, Erinnerungs- und Planungsprozesse zwar grob, aber damit auch schnell ablaufen. (Ein System mit niedriger Kompetenz, also einer niedrigen Erfolgserwartung, sollte die niedrige Kompetenz durch hohe Bereitschaft zum schnellen Handeln kompensieren, das ist die These, die hinter dieser Annahme steht.) Eine Sollwertabweichung im Bestimmtheitstank sollte Explorationstendenzen auslsen; wenn die Bestimmtheit gering ist, ist nicht gengend Wissen ber die Welt vorhanden; man sollte versuchen, sich dieses Wissen zu verschaffen. Exploration aber ist gefhrlich; daher sollte eine geringe Kompetenz (groe Sollwertabweichung im Kompetenztank) zu einer Minderung der Explorationstendenz fhren. Einer Erhhung des Pegels im Bestimmtheitstank fhrt natrlich auch zu einer Erhhung des Pegels im Kompetenztank; damit lt der "Stress" (arousal) nach. Eine Erhhung des Pegels im Affiliationstank, also eine Sollwertabweichung im Hinblick auf die Affiliation, die "Gruppeneinbindung", fhrt zu einer Suche nach "L-Signalen", also zur Suche nach einem Lcheln, einem Gesprch. Eine Senkung des Pegels im Bestimmtheitstank, also eine Sollwertabweichung im Hinblick auf die Bestimmtheit, fhrt zu Manahmen, die Bestimmtheit zu erhhen, im wesentlichen zu Explorationstendenzen. Im einfachsten Fall sind Explorationstendenzen Tendenzen zum Verhalten nach dem Prinzip Versuch-und-Irrtum, also zum "Herumspielen" mit der Umwelt. Auf diese Weise wird die Kenntnis der Umwelt erhht; man kann bessere Voraussagen machen und lernt neue Verhaltensweisen kennen, um die Umgebung zu manipulieren. Das alles erhht die Bestimmtheit und zugleich auch die Kompetenz. Wir haben jetzt ein Wirkungsgefge entworfen, welches im wesentlichen die Regulation von drei Bedrfnissen betrifft. Wenn wir dieses System nun in ein knstliches Lebewesen einbauen, so wird dessen Verhalten zum Teil durch das System, welches wir in Abb. 5 geschildert haben, gesteuert. Es realisiert das, was in der Kognitionswissenschaft gern als "embodiment" bezeichnet wird, die Beziehung der kognitiven Prozesse zu einem lebendigen Krper. Und was hat das mit Angst zu tun? Sie kommt in dem Wirkungsgefge der Abb. 2 ja gar nicht vor. Nirgendwo steht "Angst" als Bezeichnung fr eine Variable. Die Angst wird ersetzt durch ein System von Regulationen. Am ehesten knnte man noch sagen: Angst ist niedrige Kompetenz und niedrige Bestimmtheit und alles, was dadurch ausgelst wird, z.B. ein hohes arousal und ein niedriger Auflsungsgrad. Daraus ergeben sich ungenaue Wahrnehmungs- und Planungsprozesse.

Wie kann man eine solche Theorie (denn die steckt natrlich hinter dem Modell) prfen? Wir haben knstliche Lebewesen ("Muse"), die durch ein Bedrfnissystem der Art des in Abb. 2 dargestellten, gesteuert werden, tatschlich konstruiert und knnen ihr Verhalten im Computer beobachten. Abb. 3 zeigt ein Screenshot aus dem Leben der "Muse".

W G 3

F G

Abb. 3: Die Muse in ihrer Welt. Sie leben auf einer "Insel" wo sie Futter und Wasser finden. (Die entsprechenden Pltze auf der Abb. sind mit F und W gekennzeichnet.) Die Muse mssen allerdings wissen, wo solche Pltze sind; zu diesem Zwecke mssen sie die "Insel" erkunden. Auerdem gibt es Pltze mit Heilpflanzen (H), die die Muse benutzen knnen, um Verletzungen zu heilen. Diese knnen sie sich in Gefhrlichen Bereichen zuziehen (z.B. durch Steinschlag) oder durch Streit mit Feinden. Die Muse befreunden sich mit anderen Musen (d.h. sie werden einander zuverlssige Lieferanten von L-Signalen), entwickeln aber auch Feindschaften zum Beispiel bei dem Kampf um Ressourcen. Die Muse knnen sich vermehren und erziehen ihre Jungen. Das (erworbene) Gedchtnis der Muse besteht zum groen Teil aus einem Wegegedchtnis; die Muse lernen, wie sie, sich von Landmarke zu Landmarke bewegend, z.B. einen Futterplatz erreichen knnen. Abb. 6 zeigt einen solchen Weg beispielhaft auf die Landkarte projiziert. Auf die Dauer wird es auf der Insel zu einer berbevlkerung kommen. Dann entstehen Verhltnisse, die man in der Psychologie als Crowding kennt. Bei Menschen erzeugt crowding Angst. Bei Musen auch, wie man der Abb. 4 entnehmen kann. Man sieht, dass sich unter crowding - Bedingungen das Verhalten der Muse deutlich verndert.

Die sechs Diagramme der Abb. 4 zeigen auf Abszisse die Zeit in "100-Takt" Einheiten. Auf der Ordinate werden relative Hufigkeiten angezeigt ("pro Maus und Zeittakt"). Ein Zeittakt entspricht ca 5 "echte" Stunden. Im ersten Diagramm allerdings wird die absolute Populationsgre angezeigt, in dem linken Diagramm der 2. Reihe das durchschnittliche subjektive "Gefhl der Bedrohtheit" pro Maus auf einer Skala zwischen 0 und 1. Folgendes ergibt sich. Mit der Populationsgre wchst der Stre (Arousal) und es sinkt der Auflsungsgrad der kognitiven Prozesse (Inhibition). Die Muse nehmen ungenauer wahr, erinnern sich ungenauer, handeln dadurch schneller, aber auch fehlerhafter. Es steigt die Anzahl der Freunde (pro Maus), aber auch die der Feinde. Die Tendenzen zu aggressivem Verhalten nimmt zu, zugleich die "sozialen" Bemhungen. Die relative Hufigkeit der Fluchtreaktionen nimmt leicht zu, dann aber wieder ab (aufgrund der steigenden Anzahl von Freunden). Die Nachhaltigkeit des Verhaltens nimmt ab, sichtbar in der Zunahme der Motivwechsel (weil sich die Motivstrken verndern, bzw. wegen dem Versuch die laufende Absicht wegen sich bietender Gelegenheiten abzubrechen). Das Museverhalten wird mehr "ad hoc" und verliert dadurch an Nachhaltigkeit. Die Muse sind mit steigender Populationsdichte zunehmend desorientiert, bersehen Freunde und Feinde und Landmarken. Man sieht auch, dass die Population ab dem Zeittakt 100,000 stagniert sogar wieder abnimmt! Das sind direkte Effekte der Angst!
200 0.6

Arousal Population

Freunde

Inhibition

Feinde

0 0 0.35 500 1000 1500 2000 2500

0 0 0.05 500 1000 1500 2000 2500

bersehen von Musen Bedrohtheit Landmarken


0 0 500 1000 1500 2000 2500 0 0 500 1000 1500 2000 2500

0.06

0.07

Kontaktsuche Aggression Flucht


0 0 500 1000 1500 2000 2500 0 0

Motivwechsel wegen Motivstrke "Gelegenheit"


500 1000 1500 2000 2500

Abb. 4: Crowding und Angst. Wir haben nun gezeigt, dass es durchaus gelingen kann, einen komplexes psychisches Geschehen, ein Gefhl, als ein Gefge von berechenbaren Prozessen darzustellen. Genau das ist der Vorteil, den man durch "Simulation" gewinnt. Indem man etwas schafft, versteht man es! Angst ist jetzt nicht mehr nur einfach Angst, sondern ein organisiertes Gefge anderer Prozesse, eine bestimmte Form von Wahrnehmungsprozessen, die verstrkte Entwicklung sozialer Beziehungen, "unscharfe" kognitive Prozessse, "fahriges" Verhalten. (Dies "Gefhlsmodell" ist ein Teil des PsiModells, s. Drner et al., 2003 und Bach, 2009.)

Zusammenfassung

Die Simulation psychischer Prozesse durch Computermodelle ist das wesentliche Werkzeug der theoretischen Psychologie. Simulation zwingt dazu, theoretische Annahmen genau, vollstndig und widerspruchsfrei in einem Modell umzusetzen. Eine wichtige Grundlage fr die Entwicklung von Computermodellen psychischer Prozesse sind Produktionssysteme. Produktionssysteme knnen als Basis sogenannter kognitiver Architekturen verwendet werden. Eine kognitive Architektur bietet einen allgemeinen Rahmen zur Entwicklung von Computermodellen ber verschiedene Aufgaben und Inhaltsbereiche hinweg. Eine bekannte kognitive Architektur ist ACTR. Hier wird Wissen in deklarativer sowie prozeduraler Form reprsentiert. Klassische Architekturen fokussieren auf die Modellierung hherer kognitiver Prozesse von Einzelindividuen. Ein Ansatz, der Kognition, Emotion und Motivation fr mehrere Agenten, die in eine Umwelt eingebettet agieren, ist das Psi-Modell. Im Rahmen des Psi-Modells werden Grundbedrfnisse ber Pegelstnde in Tanks modelliert. Bestimmte Konstellationen der Ist-Soll-Wert-Abweichungen korrespondieren mit Gefhlen. Beispielsweise korrespondiert das Wirkungsgefge aus niedriger Kompetenz und niedriger Bestimmtheit mit dem Gefhl der Angst.

Denkanste 1. Gibt es wesentliche Unterschiede zwischen der Simulaton psychischer Prozesse auf dem Computer und den psychischen Prozessen beim Menschen? Macht es einen Unterschied, wenn ein Mensch sagt, ich habe Schmerzen und wenn ein Computerprogramm ausgibt, dass Schmerz vorliegt? 2. Kann ein auf Symbolverarbeitung basierendes Computermodell, das vllig von der neuronalen Realisierung psychischer Prozesse im Gehirn abstrahiert, tatschlich als Modell

psychischer Prozesse gelten? 3. Kann eine Computersimulation, die auf die Einbettung eines psychischen Systems in eine Umwelt und auf Krperlichkeit verzichtet, brauchbare theoretische Erkenntnisse ber die Funktionsweise des menschlichen Geistes liefern?

Empfehlungen zum Weiterlesen Drner, D., Bartl, C. & Detje, F. (2002). Die Mechanik des Seelenwagens. Eine neuronale Theorie der Handlungsregulation. Bern: Hans Huber Verlag. Drner, D. (2001). Bauplan fr eine Seele. Reinbek: Rowohlt. Grz, G. & Nebel, B. (2003). Knstliche Intelligenz. Frankfurt: Fischer. Schmid, U. & Kindsmller, M. (1996). Kognitive Modellierung. Einfhrung in die logischen und algorithmischen Grundlagen. Heidelberg: Spektrum Akademischer Verlag. Strube, G., Becker, B. & Freksa, C. (Hrsg.) (1996). Wrterbuch der Kognitionswissenschaft. Stuttgart: Klett-Cotta. Thagard, P. (1999). Kognitionswissenschaft. Stuttgart: Klett-Cotta.

Literatur

Anderson, J. R. (1993). Rules of the mind. Hillsdale, NJ: Lawrence Erlbaum. Anderson, J. R. (1983). The architecture of cognition. Cambridge, MA: Havard University Press. Bach, J. (2009). Principles of synthetic intelligence. Psi, an architecture of motivated cognition. New York: Oxford University Press. Fodor, J. A., & Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28, 3-71. Gray, W. D. (Ed.). (2007). Integrated models of cognitive systems. Oxford University Press. Hcker H.O. & Stapf K.-H. (1998). Dorsch Psychologisches Wrterbuch. Bern: Verlag Hans Huber. Hyland, M. (1981): Introduction to Theoretical Psychology. Macmillan: London. Langley, P., & Choi, D. (2006). A unified cognitive architecture for physical agents. In Proceedings of the Twenty-First National Conference on Artificial Intelligence. Boston: AAAI Press. Looks, M., Goertzel, B., & Pennachin, C. (2004). Novamente: An integrative architecture for general intelligence. In AAAI Symposium: Achieving Human-Level Intelligence via Integrated Systems and Research. Washington, DC. Newell, A. (1990). Unified theories of cognition. Cambridge, MA: Harvard University Press. Newell, A., & Simon, H. (1963). GPS, A program that simulates human thought. In E. Feigenbaum & J. Feldman (Eds.), Computers and thought (p. 279-293). New York: McGraw-Hill.

Newell, A., & Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ: Prentice Hall. Norman, D. (1993). Cognition in the head and in the world: An introduction to the special issue on situated action. Cognitive Science, 17, 1-6. Russell, S. J., & Norvig, P. (2002). Artificial intelligence. A modern approach (2nd edition). Englewood Cliffs, NJ: Prentice-Hall. Schmid, U. (2007). Computermodelle des Problemlsens. In J. Msseler (Ed.), Allgemeine Psychologie (2. Auflage) (pp. 601630). Heidelberg: Spektrum Verlag. Schmid, U., Hofmann, M., & Kitzelmann, E. (2009). Analytical inductive programming as a cognitive rule acquisition devise. In B. Goerzel, P. Hitzler, & M. Hutter (Eds.), Proceedings of the Second Conference on Artificial General Intelligence (AGI-09, Arlington, Virginia, March 6-9 2009) (pp. 162167). Amsterdam: Atlantis Press. Sun, R., & Zhang, X. (2006). Accounting for a variety of reasoning data within a cognitive architecture. Journal of Experimental and Theoretical Artificial Intelligence, 18, 169-191. Weller, S., & Schmid, U. (2006). Analogy by abstraction. In F. D. Missier & A. Stocco (Eds.), Proceedings of the 7th International Conference on Cognitive Modeling (ICCM) (p. 334-339). Edizioni Goliardiche.

También podría gustarte