Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Derivada
Derivada
INTELIGENCIA ARTIFICIAL II
TAREA 07
INDICE ................................................................................................................................... 2
INTRODUCCIÓN .................................................................................................................. 3
CORRECIÓN DE ERROR .................................................................................................... 4
BOLTZMAN .......................................................................................................................... 5
LEY DE EFECTOS THORNDIKE ....................................................................................... 6
REGLA DE HEBB ................................................................................................................. 8
COMPETITIVO ................................................................................................................... 10
CONCLUSIÓN .................................................................................................................... 12
INTRODUCCIÓN
En el paradigma de aprendizaje supervisado, la red recibe una salida deseada para cada patrón
de entrada. Durante el proceso de aprendizaje, la salida real, y, generada por la red puede no
ser igual a la salida deseada, d. El principio básico de las reglas de aprendizaje de corrección
de errores es utilizar la señal de error (d - y) para modificar los pesos de conexión de manera
que este error se reduzca gradualmente.
La conocida regla de aprendizaje del perceptrón se basa en el principio de corrección de
errores. Un perceptrón consta de una sola neurona con pesos ajustables, 𝑤𝑗 ; 𝑗 = 1,2, … , 𝑛, y
el umbral 𝑢. Dado un vector de entrada 𝑥 = (𝑥1, 𝑥2, … , 𝑥𝑛) la entrada neta a la neurona
(antes de aplicar la función de umbral) es:
BOLTZMAN
Las máquinas de Boltzmann son redes recurrentes simétricas que constan de unidades
binarias. 1 para encendido y -1 para apagado. Por simétrico, queremos decir que el peso en
la conexión de la unidad i a la unidad j es igual al peso en la conexión de la unidad j a la
unidad i 𝑤𝑗𝑖 = 𝑤𝑖𝑗 Solo una parte de las neuronas, neuronas visibles, interactúan con el
entorno, el resto (neuronas ocultas) son invisibles. Cada neurona es una unidad estocástica
que genera salida (o estado) de acuerdo con la distribución de Boltzmann de la mecánica
estadística. Las máquinas de Boltzmann operan en dos modos:
• Modo de sujeción en el que las neuronas visibles se sujetan a estados específicos
determinados por el entorno.
• Modo de funcionamiento libre en el que se permite que tanto las neuronas visibles
como las ocultas funcionen libremente.
donde −𝑝𝑖𝑗 y 𝑝𝑖𝑗 son las correlaciones entre los estados de la unidad i y la unidad j cuando
la red opera en el modo fijo y en el modo de funcionamiento libre, respectivamente. Los
valores de −𝑝𝑖𝑗 y 𝑝𝑖𝑗 generalmente se estiman a partir de experimentos de Monte Carlo
que son extremadamente lentos.
El aprendizaje de Boltzmann se puede ver como un caso especial de regla de corrección de
errores en el que el error se mide no como la diferencia directa entre la salida deseada y la
salida real, sino como la diferencia entre las correlaciones entre las salidas de dos neuronas
en dos condiciones de funcionamiento (sujeto y libre).
La Ley del Efecto fue un precursor del condicionamiento operante de BF Skinner y fue
desarrollada por el psicólogo Edward Thorndike. La Ley del efecto establece que las
respuestas que reciben resultados positivos en una situación dada se repetirán en esa
situación, mientras que las respuestas que conducen a resultados negativos en una situación
determinada no se repetirán en esa situación.
REGLA DE HEBB
Donde 𝑥𝑖 y 𝑦𝑗 son los valores de salida de las neuronas i y j, respectivamente, que están
conectadas por la sinapsis 𝑤𝑖𝑗 , y n es la tasa de aprendizaje. Tenga en cuenta que 𝑥𝑖 es la
entrada a la sinapsis.
Una propiedad importante de esta regla es que el aprendizaje se realiza localmente, es decir,
el cambio del peso de la sinapsis depende solo de las actividades de las dos neuronas
conectadas por ella. Esto simplifica significativamente la complejidad del circuito de
aprendizaje en una implementación VLSI.
Un problema con esta regla de aprendizaje es que los pesos de conexión crecerán sin límites
a medida que avanza el aprendizaje. Para hacer frente a este problema, se han propuesto
muchas modificaciones a la regla básica de Hebb. Por ejemplo, la regla de Oja agrega una
disminución de peso proporcional a 𝑦𝑗2 a la regla básica de Hebbian:
Es interesante notar que esta regla es similar a la regla de corrección de errores inversa; 𝑤𝑖𝑗
depende de la diferencia entre la entrada real y la salida retro propagada. Una sola neurona
entrenada usando la regla de Hebbian exhibe una selectividad de orientación. La figura
demuestra esta propiedad. Los puntos representados en la Figura se extraen de una
distribución gaussiana bidimensional y se utilizan para entrenar una neurona. El vector de
peso de la neurona se inicializa en 𝑤0 como se muestra en la figura. A medida que avanza el
aprendizaje, el vector de peso se acerca cada vez más a la dirección w de varianza máxima
en los datos. De hecho, w es el vector propio de la matriz de covarianza de los datos
correspondientes al valor propio más grande.
Es sencillo generalizar el comportamiento anterior de una sola unidad y concluir que una red
de alimentación directa de una capa con m unidades de salida puede extraer los primeros m
componentes principales de datos n-dimensionales,𝑚 ≤ 𝑛. Debido a la ortogonalidad de los
auto vectores, los otros (m - 1) componentes principales se encuentran en el subespacio que
es perpendicular al primer componente principal correspondiente al autovalor más grande.
Por lo tanto, los componentes principales (m - 1) se pueden determinar de forma recursiva
en subespacios de una manera similar a calcular el primer componente. Se han propuesto
varios métodos más elegantes para calcular todos los componentes principales
simultáneamente imponiendo algunas restricciones a las actividades de las unidades de
salida.
COMPETITIVO
A diferencia del aprendizaje de Hebbian, donde múltiples unidades de salida pueden ser rojas
simultáneamente, en el aprendizaje competitivo todas las unidades de salida compiten entre
sí para ser activadas. Como resultado de dicha competencia, solo una unidad de producción,
o solo una por grupo, está activa en un momento dado. Este fenómeno se conoce a menudo
como el ganador se lleva todo. Se ha descubierto que el aprendizaje competitivo existe en
redes neuronales biológicas. Los experimentos neurobiológicos han demostrado que el
aprendizaje competitivo juega un papel importante en la formación de mapas topográficos
en el cerebro y la autoorganización de las células nerviosas sensibles a la orientación en la
corteza estriada. El resultado del aprendizaje competitivo es a menudo una agrupación o
categorización de los datos de entrada. Los patrones similares están agrupados por la red y
representados por una sola unidad. Este proceso de agrupación lo realiza la red
automáticamente en función de las correlaciones de los datos. La red de aprendizaje
competitiva más simple consta de una sola capa de unidades de salida, como se muestra en
la Figura.
Cada unidad de salida i en la red se conecta a todas las unidades de entrada mediante pesos,
𝑤𝑖𝑗 , 𝑗 = 1,2, … , 𝑑. Cada unidad de salida también se conecta a todas las demás unidades de
salida a través de pesos inhibidores, pero tiene retroalimentación automática con un peso
excitador. Como resultado de la competencia, solo la unidad con la entrada neta más grande
(o la más pequeña) se convierte en la ganadora, es decir:
o
Cuando todos los vectores de peso están normalizados, estas dos desigualdades son
equivalentes. Una regla de aprendizaje competitiva simple se puede establecer como sigue:
Tenga en cuenta que solo se actualizan los pesos de la unidad ganadora. El efecto de esta
regla de aprendizaje es mover el patrón almacenado en la unidad ganadora (pesos) un poco
más cerca del patrón de entrada. En la siguiente figura se muestra una interpretación
geométrica del aprendizaje competitivo. En este ejemplo, asumimos que todos los vectores
de entrada se han normalizado para tener una longitud unitaria. Están representados como
puntos negros en la Figura (a). Los vectores de peso de las tres unidades se inicializan
aleatoriamente. Sus posiciones iniciales y posiciones finales en la esfera después del
aprendizaje competitivo se muestran como cruces en las Figuras (a) y (b), respectivamente.
Como podemos ver en la Figura, cada uno de los tres grupos naturales de patrones ha sido
descubierto por una unidad de salida cuyo vector de peso apunta al centro de gravedad del
campo descubierto.
CONCLUSIÓN
Los avances en las RNA también han experimentado mucho entusiasmo y críticas. Muchos
estudios comparativos ofrecen una perspectiva optimista para las RNA, mientras que otros
ofrecen una visión pesimista. Para muchas tareas, como el reconocimiento de patrones,
ningún enfoque domina al otro. La elección de la mejor técnica debe basarse en la naturaleza
de la aplicación dada. Debemos tratar de comprender las capacidades, los supuestos y la
aplicabilidad de varios enfoques desarrollados en diversas disciplinas, y aprovechar al
máximo las ventajas complementarias de estos enfoques para desarrollar mejores sistemas
inteligentes. Tal esfuerzo puede conducir a un enfoque sinérgico que combine las fortalezas
de las ANN y otras disciplinas para lograr un desempeño significativamente mejor para
problemas desafiantes. ha reconocido que ha llegado el momento de construir sistemas a
partir de diversos componentes. En este enfoque sinérgico, no solo son importantes los
módulos individuales, sino que también una buena metodología para integrar varios módulos
es la clave del éxito. Está claro que la comunicación y el trabajo cooperativo entre las RNA
y otras disciplinas no solo evitará el trabajo repetitivo, sino que, lo que es más importante,
estimulará y motivará disciplinas individuales.