Documentos de Académico
Documentos de Profesional
Documentos de Cultura
es una matriz 2 x 4
es una matriz 4 x 2
Ejemplo
Multiplicacin de matrices
Dos matrices se pueden multiplicar si y slo si el nmero de columnas de la
primera matriz es igual al nmero de filas de la segunda
AxB=
Ejemplo
Ejemplo
Ejemplo
I. INTRODUCCIN
La psicologa cognitiva como paradigma psicolgico tiene una
historia reciente: aunque algunas propuestas de finales de los aos
cuarenta y de la dcada de los cincuenta se pueden considerar como
primeros esbozos de esta forma de hacer psicologa, es a partir de los
aos sesenta cuando realmente se empieza a extender por el mundo
entero, compitiendo en los centros de estudio y de investigacin con
el conductismo, al que finalmente parece haber desbancado como
paradigma dominante.
El conductismo supuso uno de los mayores esfuerzos de los
psiclogos por hacer de su disciplina una ciencia. Los principios
metodolgicos que exigieron a la psicologa (experimentacin,
rechazo de la introspeccin, empleo de categoras explicativas
definidas operacionalmente, ...) supuso un adelanto y una conquista
que la mayora de los psiclogos consideran irrenunciable. Sin
embargo, estos triunfos se vieron claramente empaados en
cuestiones fundamentales: el conductismo es una psicologa sin
sujeto(psicologa del organismo vaco); su pretensin terica
fundamental consiste en explicar toda la conducta a partir del
aprendizaje: son los refuerzos y los estmulos presentes en la vida de
los organismos los que determinan su modo de relacionarse con el
medio y de resolver sus problemas adaptativos. Esta paradjica
renuncia al sujeto para explicar lo que el sujeto hace se puede
plantear en los trminos tradicionales de cuerpo y mente: el
conductismo da poca importancia al cuerpo y a las predisposiciones
genticas de la conducta; pero tambin rechaza la mente, prescinde
de forma explcita y, en muchos casos combativa, de la mente como
elemento explicativo. La psicologa conductista estudia la
conducta para explicar la conducta.
Esta idea del ambientalismo y del organismo vaco entra en crisis
en los aos sesenta. Por un lado los etlogos y las investigaciones en
neurociencias, y por otro los desarrollos de la propia la psicologa,
van a cuestionar estos principios explicativos bsicos.
Por parte de la psicologa cognitiva, la crtica se referir
bsicamente al olvido de la mente. Sabemos por qu result atractiva
la psicologa cognitiva: de nuevo se introducen en la psicologa temas
como el de la atencin, la percepcin, la memoria, el pensamiento, el
lenguaje, temas que parecen irrenunciables para toda psicologa que
quiera ser completa y que el conductismo a duras penas pudo incluir
en sus investigaciones. Y como compendio de todas estas
capacidades y actividades, la mente. De nuevo la mente entra el la
psicologa, y, adems, explicada con mtodos que heredan del
conductismo la pretensin de objetividad: la psicologa cognitiva
V. HISTORIA
(involucrado en el control del movimiento de los ojo) era una red del
segundo
tipo.
Volver al ndice
VI.2.
AOS
CINCUENTA
SESENTA
La
memoria
asociativa
VI.2.2.
El
reconocimiento
de
patrones
En
1963
Shamuel Winograd y
Jack
D. Cowan escribieron Reliable Computation in the Presence of Noise.
En esta obra recogieron y mejoraron las ideas de Von Neumann,
defendiendo una propuesta an msdistribuida del conocimiento: en
las redes de Winograd-Cowan un bit o unidad de informacin se
representaba mediante varias neuronas, como en las redes de Von
Neumann, pero, y esta era la novedad, cada neurona representaba
parcialmente
varios
bits.
La figura de Frank Rosenblatt es imprescindible par entender el
desarrollo del conexionismo. En sus obras de 1958 The Perceptron, a
Probabilistic Model for Information Storage and Organization in the
Brain y de 1962Principles of Neurodynamics, defiende la importancia
de las redes neuronales para la computacin y de los mtodos
probabilsticos ms que de los lgicos en el uso de las redes, mejora
la regla de aprendizaje de Hebb y presenta una red a la que llam
Perceptrn. En su versin ms sencilla, el Perceptrn consta de
dos capas: la de entrada o capa con unidades sensoriales y,
conectada con la anterior, la de salida o capa con unidades motoras.
Las unidades eran unidades McCulloch-Pitts (podan tomar
simplemente los valores activado-desactivado). Inicialmente los pesos
de las conexiones eran aleatorios, y el aprendizaje consista en la
modificacin de los pesos de tal forma que dada una entrada se
consiguiese la salida deseada. Rosenblatt encontr un sencillo
procedimiento de entrenamiento con el cual la red poda dar con los
pesos requeridos para tal tarea. El Perceptrn era capaz de reconocer
patrones sencillos y de generalizar similitudes entre patrones. Pero a
pesar de las esperanzas que muchos investigadores en este tipo de
red, pronto se vio que tena serias limitaciones, que se ejemplificaron
en la imposibilidad de la red para resolver una tarea lgica
aparentemente sencilla: la del problema de la disyuncin exclusiva.
En trminos ms tcnicos, se vio que eraincapaz de clasificar clases o
patrones no separables linealmente (ver ms adelante la exposicin
delPerceptrn y del
problema
citado).
En este breve recorrido de la historia del conexionismo es preciso
referirse a la trayectoria de MarvinMinsky, compaero de Rosenblatt
en el instituto. En sus primeros escritos mantuvo algunas tesis que,
claramente, son un antecedente del conexionismo:
carcter relativamente indiferenciado del cerebro pues aunque
se dae una parte otras pueden realizar su funcin,
particularmente si el dao es en una poca temprana;
importancia del aprendizaje en la organizacin de las redes
neuronales;
importancia del estudio del cerebro y del comportamiento de
las neuronas para la construccin de una mquina que
reproduzca aspectos sustanciales de la mente humana.
AOS
SETENTA
OCHENTA
5. Toda conexin viene caracterizada por un valor de fuerza del trazo o peso
de la conexin, tambin expresado de forma cuantitativa.
Neurocomputadores:
constan
de
un
conjunto
de
procesadores
conectados
entre
s
y
que
operan
concurrentemente. Por ejemplo, el MARK IV est formado por
un conjunto de procesadores Motorola 68020 asociados cada
uno de ellos a un coprocesador matemtico, es capaz de
simular hasta 256.000 neuronas y 5.500.000 sinapsis, y puede
alcanzar una velocidad de 5.000.000 de interconexiones por
segundo. El ANZA Plus puede simular redes de hasta 1.000.000
de neuronas y 15.000.000 de conexiones, a velocidades de
1.500.000
conexiones
por
segundo.
segundo.
cabe
destacar
las
siguientes
partes
DE
LA
las matrices nos pueden servir de ejemplo para mostrar cmo un conjunto de
elementos puede procesar distintos conjuntos de datos (distintos vectores de entrada)
para producir cada uno de ellos la salida correspondiente (distintos vectores de salida)
por ejemplo, la matriz
Conceptos y elementos de la
estructura conexionista
Conceptos y mecanismos
bsicos para el procesamiento
en las redes conexionistas
Las unidades
La regla de propagacin
El estado de activacin
El peso sinptico
La funcin de transferencia
El patrn de conexin
VII.1.
CONCEPTOS
CONEXIONISTA
Reglas de aprendizaje
ELEMENTOS
DE
LA
ESTRUCTURA
La informacin que puede recibir una red, la que puede ser almacenada y la
que puede emitir, est determinada en gran medida por lo que se llama el abanico
de entrada (fan-in) y el abanico de salida (fan-out). El abanico de entrada es el
nmero de elementos que excitan o inhiben una unidad dada. El abanico de salida
de una unidad es el nmero de unidades que son afectadas directamente por dicha
unidad.
Se llama capa o nivel o estrato al conjunto de neuronas que reciben
informacin de la misma fuente (informacin externa, otra capa de neuronas) y
ofrecen informacin al mismo destino (al usuario, a sistemas motores, a otra capa
de neuronas).
Volver al ndice
VII. 1.2. Las conexiones entre unidades (las sinapsis)
Las sinapsis son las conexiones entre las neuronas. En la mayor parte de
redes las sinapsis sonunidireccionales: la neurona j transmite informacin a la
neurona i y la neurona i la recibe, y nunca ocurre lo contrario. Sin embargo, en
redes como las de Hopfield las sinapsis son bidireccionales.
Tipos de sinapsis:
a) sinapsis inhibidora: en este tipo de conexin el impulso transmitido por una
neurona inhibe la activacinde la neurona con la que est conectada: si la
neurona j le transmite a la neurona i un impulso que inhibe a sta, el nivel de
activacin de la neurona i decrecer, y decrecer en funcin del peso establecido
Volver al ndice
Veamos un ejemplo:
wj2: 0.2
wj3: 0
wj4: -0.3
ui
uj
u1
-0.5
u2
0.3
0.2
u3
-1
u4
0.6
-0.3
pero tambin podemos utilizar los siguientes grficos para representar las neuronas
McCulloch- Pitts, grficos que seguramente resultan ms intuitivos (tomado
de Estructura, dinmica y aplicaciones de las redes de neuronas artificiales, VVAA,
Editorial Centro de Estudios Ramn Areces, p. 103); el nmero en el interior de la
neurona indica el umbral
Volver al ndice
VIII. 2. PERCEPTRONES
En 1958 Frank Rosenblatt escribi The Perceptron, a Probabilistc Model for
Information Storage and Organization in the Brain. Rosenblatt rechaz el uso que
McCulloch y Pitts hicieron de la lgica simblica aplicada a las redes y defendi
mtodos probabilsticos. En esta obra llam perceptrones a unas redes McCullochPitts capaces de modificar los pesos de sus conexiones si las respuestas de la red
no eran las correctas y demostr que estas redes se podan entrenar para clasificar
ciertos patrones en iguales o distintos, por tanto que erancapaces del
reconocimiento de formas sencillas.
tanto, a todos los efectos el Perceptrn puede considerarse como una red de dos
capas, sin unidades ocultas.
El Perceptrn era una red capaz de aprendizaje. En su configuracin inicial a
los pesos de las conexiones se les da valores arbitrarios, por lo que ante la
presencia de estmulos la red genera respuestas arbitrarias, respuestas que no
coinciden con las deseadas. Se considera que la red ha conseguido aprender
cuando los pesos se han ajustado de tal modo que la respuesta que emite es la
deseada. El procedimiento propuesto por Rosenblatt para este entrenamiento era
sencillo: se le presenta a la red un patrn cuya seal se transmite hasta la capa de
salida, provocando la activacin de alguna de sus unidades; si se activan las
unidades de respuesta correcta, no se hace ningn ajuste de sus pesos; si la
respuesta es incorrecta se procede de la manera siguiente: si la unidad deba estar
activada y no lo est, aumentar todos los pesos de sus conexiones; si la unidad
deba estar desactivada y est activada, disminuir los pesos de sus conexiones. Se
repite este procedimiento con todos los patrones deseados de estmulo-respuesta.
Rosenblatt crey que era posible hacer que los pesos converjan en un conjunto de
valores, a partir de los cuales le es posible a la red computar cada uno de los
patrones de entrada para producir los correspondientes patrones de salida.
En el prrafo anterior se ha descrito de modo cualitativo y poco preciso la
modificacin que han de sufrir los pesos cuando la red produce errores; existen
varios algoritmos que se pueden utilizar para detallar con exactitud el modo de
modificar los pesos de las conexiones, por ejemplo:
*oi;
*oi
donde
wij : es el peso correspondiente a la conexin de la unidad i con la unidad j
oi : es la salida de la unidad i
x1
x2
x1 x
2
x1
x2
x1 x
2
tabla de verdad de la
conjuncin
La tarea que tiene que realizar el Perceptrn es, en el primer caso, aprender
a asociar la entrada (1,1) con la salida 1, y las entradas restantes con la salida 0;
en el segundo caso debe aprender a asociar la entrada (0,0) con la salida 1, y las
entradas restantes con la salida 1. La red que se ha de utilizar para realizar la
computacin debe constar de dos unidades de entrada y una unidad de salida: cada
unidad de entrada recoge uno de los elementos del patrn de entrada y la unidad
de salida produce una salida, que es la que corresponde a la solucin.
x1
2
Lneas
verticale
s
A
Lneas
horizontale
s
Lneas
oblicua
s
ngulo
s
rectos
ngulo
s
agudos
3
Curvas
continua
s
Curvas
discontinua
s
1
2
1
1
3
O
P
1
1
Q
R
3
1
1
2
2
2
1
Y
Z
1
2
En
su
artculo
de
1964 Visual
search (Scientific
American,
210) Neisser plante la siguiente hiptesis: si el modelo de deteccin de
caractersticas es correcto la identificacin de una letra (que podramos
llamar letra-objetivo) en un contexto formado por otras letras con
caractersticas muy semejantes ser ms lenta que la identificacin de una
letra en un contexto formado por letras con caractersticas muy distintas;
por ejemplo la identificacin de la letra-objetivo "Z" en el contexto de las
letras "X", "L", "N" (letras angulosas) ser ms lenta que la identificacin de
dicha letra-objetivo en el contexto de las letras "C", "S" o "G"(letras
redondeadas). Esta hiptesis parece razonable puesto que se debe tardar
ms en rechazar una "N"que una "C", puesto que la "Z" comparte con
la "N" ms rasgos que con la "C". En los experimentos, los sujetos tardaban
ms en identificar la letra-objetivo cuando estaban en un contexto con letras
similares que cuando estaban en un contexto con letras menos parecidas.
Existen ciertas tcnicas que nos permiten preparar el ojo de tal modo que la
imagen visual en la retina sea la misma aunque el ojo cambie de posicin;
en estos casos se observa (y quiz por la fatiga de los receptores retinianos)
que la imagen empieza a desaparecer, pero lo hace perdiendo partes
significativas, no al azar (la imagen detenida va perdiendo lneas rectas,
curvas, segmentos significativos, ...). Estos estudios de fragmentacin
perceptual parecen avalar la teora del anlisis de caractersticas.
conexionistas no es posible saber cules son los elementos relevantes que la red
toma en cuenta para el procesamiento ni el orden ni la lgica de dicho
procesamiento; precisamente la originalidad del planteamiento conexionista es que
rechaza la existencia de reglas de procesamiento).
Volver al ndice
el peso asociado a cada una de las conexiones, wij (del ingls wheit,
peso)
y la intensidad o seal que se transmite por la sinapsis;
a la suma de todas las seales ponderadas por el peso de las correspondientes
conexiones se le llama NETi
5. el nuevo estado de activacin ai(t+1) de la neurona i se calcula mediante una
funcin de activacin Fa, teniendo en cuenta la entrada total calculada o NET y
su anterior estado de activacin, ai(t)
Los valores que transmite una neurona a las neuronas con las que est
conectada se representan como o (oj sera el valor que transmite la neurona j).
Pongamos que los valores que transmite las neuronas de la capa de entrada, y los
pesos correspondientes a sus conexiones con la neurona i son los siguientes:
valores: O(t)
oj: 0.5
ok: 0.3
ot: 0.5
pesos: (Wij)
wil: -0.5
wik: 1
wit: 0.5
ou: -1
wiu: -0.3
Volver a al ndice
los pesos de las conexiones por las que recibe las seales;
Se llama ciclo a cada una de las veces que la red toma los vectores de
entrada (conjunto de valores de entrada) para realizar los cmputos
correspondientes; pues bien, dado que en cada ciclo la activacin de las neuronas
puede ser distinta, es preciso caracterizar dicha activacin en cada pasada de la
informacin o ciclo, por ello es necesario referirse al tiempo; as, es habitual
representar como Ai(t) (o tambin, con minscula, como ai(t)), el nivel de
activacin de la neurona i en el tiempo t.
Lo que la red representa en cada momento depende del conjunto o patrn
de activacin de la totalidad de las unidades que la componen, por ello es
conveniente tambin especificar dicho patrn. Para reflejar el patrn de activacin
se suele utilizar un vector de N nmeros reales a(t), vector que representa el
estado de activacin de todas las unidades de la red en el tiempo t; en el vector,
cada uno de los elementos representa la activacin de cada unidad en el tiempo t:
A(t) = (a1(t), a2(t), ..., ai(t), ...., an(t))
I. CONTINUOS
a) abiertos; los modelos que utilizan este tipo reciben el nombre de modelos
no acotados (o modelos sin lmite): el valor de activacin de una
neurona i puede ser cualquier nmero real;
b) o cerrados; los modelos que utilizan este tipo reciben el nombre
de modelos acotados (o modelos con lmites): pueden tomar cualquier valor
real comprendido en un intervalo con un valor mnimo y un valor mximo,
por ejemplo, el intervalo {0,1}, o el intervalo {-1,1}, generalmente
siguiendo una funcin sigmoidal.
Volver a al ndice
todas las entradas que recibe dicha unidad de las otras unidades;
los pesos de las conexiones que la unidad en cuestin tiene con las unidades
de las que recibe las entradas.
los pesos de conexin wij correspondientes a las distintas sinapsis por los
que cada seal oj llega a la neurona i en el tiempo t.
Volver a al ndice
Funcin identidad
Se trata de una funcin muy simple que no tiene en cuenta el anterior
estado de activacin de la unidad. Se puede expresar con la siguiente frmula:
Volver a al ndice
su grado de activacin;
fi[ai(t+1)] = ai(t+1)
oi(t+1) = ai(t+1)
y, en representacin grfica:
Funcin umbral
O funcin escaln. Su uso es ms frecuente que la funcin identidad. Con
la funcin umbral la unidad enva seales de salida slo cuando su activacin es
mayor o igual que cierto valor umbral. La respuesta de salida ser binaria o
discreta: slo 1 0 (o bien 1 y -1 si utilizamos esta otra notacin), y depender de
si el valor de activacin (que en este caso es un valor continuo) supera cierto
umbral.
1 si ai(t+1)
umbral
oi(t+1) =
0 si ai(t+1) <
umbral
si el umbral es 0 tendramos
1
1 si ai(t+1) 0
si ai(t+1) 0
oi(t+1) =
oi(t+1) =
-1 si ai(t+1) < 0
0 si ai(t+1) <
0
y, en representacin grfica:
Funcin mixta
Con esta funcin, si la activacin es menor que un lmite inferior, la salida es
0 ( -1). Si la activacin es mayor o igual que el lmite superior, entonces la salida
es 1. Si la activacin est entre los lmites, la salida es una funcin lineal de la
activacin
0 si x < -C
f(x) =
1
si
xC
x/ (2C) + en
otro caso
-1 si x < - C
f(x) =
1 si x C
a.x en otro caso
y, en representacin grfica
Funciones de Saturacin
Son las funciones en las que los incrementos o disminuciones de la
intensidad de la actividad de la unidad producen incrementos o disminuciones de
los valores de salida hasta llegar a unos lmites de salida mxima o mnima a partir
de los cuales la salida se estabiliza y es la misma a pesar del incremento o
disminucin de la intensidad de actividad de la unidad. Dicho de otro modo:
mediante las funciones de saturacin conseguimos que el aumento de la actividad
de la unidad por encima de un lmite no se traduzca en un incremento de salida (y
lo mismo para los valores mnimos). Las funciones de saturacin establecen lmites
mximos y mnimos para las salidas (por ejemplo 1 y -1) y aunque la actividad de
la unidad est por encima de dichos lmites, la salida es siempre el valor mximo.
Volver a al ndice
(aiai) * (ajaj)
wij =
wij =
* ai(t) * oj(t)
* ai(t) * aj(t)
: es la tasa de aprendizaje
ai(t) : es la activacin de la neurona i en el tiempo t
ai : media de los valores de activacin de i
aj : es la activacin de la neurona j
aj : media de los valores de activacin de j
oj(t) : es la seal que emite la neurona j en el tiempo t
Volver a al ndice
wij =
: tasa de aprendizaje
Ti(t+1) : activacin deseada en la neurona i
ai(t+1) : activacin real de la neurona i
oj(t) : seal emitida por la neurona j y enviada a la neurona i
wij =
: tasa de aprendizaje
Ti : es la seal deseada de la unidad i (la unidad de salida)
oi : es la seal producida por la unidad i (la unidad de salida)
aj(t) : es la activacin de la unidad j (la unidad de entrada)
Volver a al ndice
Taylor propuso las redes que llevan su nombre para explicar la memoria
asociativa y afirm que las reas de asociacin de la corteza cerebral y el
tlamo contenan dichas redes;
y en este mismo contexto hay que situar las teoras del cerebelo, del
hipocampo y del neocortexdefendidas por Marr a finales de los sesenta y
principios de los aos setenta:
inhibitorias;
clulas de
Golgi (Go)
controlan los
umbrales de las
clulas
granulares;
clulas de
cesta (Ba):
controlan los
umbrales de
las clulas de
Purkinje (Pu)
clulas
estrelladas (S):
controlan los
umbrales de las
clulas de
Purkinje (Pu)
La red se
comporta como
una red ACAM y
asocia los
patrones de las
fibras musgosas
(MF) y de las
clulas en
pendiente (CF).
BIBLIOGRAFIA
1. Ballesteros Jimnez, Soledad. (1995). Psicologa general. Un enfoque
cognitivo. Madrid: Editorial Universitas, Segunda edicin.
11. Fodor, Jerry A. (1995). The Language of Thought. Cronwell. Nueva York.
21. Martnez
Arias,
Rosario
y
Yela,
Mariano
(coordinadores).
(1991). Pensamiento e inteligencia. Madrid: Editorial Alhambra.
una
tarea
de
facilitacin
28. Rivire, Angel. (1991). Objetos con mente. Madrid: Alianza Editorial.
29. Rumelhart,
David
E.,
McClelland,
James
L.
y
el
grupo
PDP. (1986). Parallel Distributed Processing: Explorations in the
Microstructure of Cognition. Massachusetts: The MIT Press. Traduccin
castellana: (1992). Introduccin al procesamiento distribuido en
paralelo. Madrid: Alianza Editorial.
30. Searle,
John
R.
(1990). Es
la
mente
informtico? Investigacin y Ciencia. Marzo, 1990.
un
programa