Está en la página 1de 12

UNIVERSIDAD DE GUADALAJARA

CENTRO UNIVERSITARIO DE CIENCIAS EXACTAS E INGENIERÍA


DIVISION DE ELECTRONICA Y COMPUTACION

DEPARTAMENTO DE CIENCIAS COMPUTACIONALES

INTELIGENCIA ARTIFICIAL II

TAREA 07

Nombre: Pedro Morales Enríquez


Código: 216787639
Sección: D02
Profesor: Julio Esteban Valdés López

Fecha: 01 de octubre del 2020


INDICE

INDICE ................................................................................................................................... 2
INTRODUCCIÓN .................................................................................................................. 3
CORRECIÓN DE ERROR .................................................................................................... 4
BOLTZMAN .......................................................................................................................... 5
LEY DE EFECTOS THORNDIKE ....................................................................................... 6
REGLA DE HEBB ................................................................................................................. 8
COMPETITIVO ................................................................................................................... 10
CONCLUSIÓN .................................................................................................................... 12
INTRODUCCIÓN

En la siguiente investigación se presentará algunos de los algoritmos de aprendizaje más


importantes, como lo son: Corrección del error, la máquina de Boltzman, ley de los efectos
de Thorndike, regla de Hebb y el algoritmo competitivo.
CORRECIÓN DE ERROR

En el paradigma de aprendizaje supervisado, la red recibe una salida deseada para cada patrón
de entrada. Durante el proceso de aprendizaje, la salida real, y, generada por la red puede no
ser igual a la salida deseada, d. El principio básico de las reglas de aprendizaje de corrección
de errores es utilizar la señal de error (d - y) para modificar los pesos de conexión de manera
que este error se reduzca gradualmente.
La conocida regla de aprendizaje del perceptrón se basa en el principio de corrección de
errores. Un perceptrón consta de una sola neurona con pesos ajustables, 𝑤𝑗 ; 𝑗 = 1,2, … , 𝑛, y
el umbral 𝑢. Dado un vector de entrada 𝑥 = (𝑥1, 𝑥2, … , 𝑥𝑛) la entrada neta a la neurona
(antes de aplicar la función de umbral) es:

La salida y del perceptrón es +1 si v> 0 y 0 en caso contrario. En un problema de clasificación


de dos clases, el perceptrón asigna un patrón de entrada a una clase si y = 1, y a la otra clase,
si y = 0. La ecuación lineal define el límite de decisión (un hiperplano en el espacio de entrada
n-dimensional) que divide el espacio en dos mitades.
Rosenblatt desarrolló un procedimiento de aprendizaje para determinar los pesos y el umbral
en un perceptrón, dado un conjunto de patrones de entrenamiento. El procedimiento de
aprendizaje del perceptrón se puede describir como sigue:

1. Inicialice los pesos y el umbral a un número aleatorio pequeño


2. Presentar un vector de patrón 𝑥 = (𝑥1, 𝑥2, … , 𝑥𝑛)𝑡 y evaluar la salida de la neurona.
3. Actualizar los pesos de acuerdo:

donde d es la salida deseada, t es el número de iteración y (0.0 < n < 1.0) es


la ganancia (tamaño del peso).
Tenga en cuenta que el aprendizaje ocurre solo cuando el perceptrón comete un error.
Rosenblatt demostró que, si los patrones de entrenamiento se extraen de dos clases
linealmente separables, el procedimiento de aprendizaje del perceptrón convergerá después
de un número finito de iteraciones. Este es el conocido teorema de convergencia del
perceptrón. Sin embargo, en la práctica, no se sabe si los patrones son linealmente separables
o no. En la literatura se han propuesto muchas variaciones de este algoritmo de aprendizaje.
También se pueden utilizar otras funciones de activación, que conducen a diferentes
características de aprendizaje. Sin embargo, un perceptrón de una sola capa solo puede
separar patrones linealmente separables, siempre que se utilice una función de activación
monótona. Tenga en cuenta que las funciones de activación no monótonas, como una función
gaussiana, podrían formar límites de decisión no lineales.

BOLTZMAN

Las máquinas de Boltzmann son redes recurrentes simétricas que constan de unidades
binarias. 1 para encendido y -1 para apagado. Por simétrico, queremos decir que el peso en
la conexión de la unidad i a la unidad j es igual al peso en la conexión de la unidad j a la
unidad i 𝑤𝑗𝑖 = 𝑤𝑖𝑗 Solo una parte de las neuronas, neuronas visibles, interactúan con el
entorno, el resto (neuronas ocultas) son invisibles. Cada neurona es una unidad estocástica
que genera salida (o estado) de acuerdo con la distribución de Boltzmann de la mecánica
estadística. Las máquinas de Boltzmann operan en dos modos:
• Modo de sujeción en el que las neuronas visibles se sujetan a estados específicos
determinados por el entorno.
• Modo de funcionamiento libre en el que se permite que tanto las neuronas visibles
como las ocultas funcionen libremente.

El aprendizaje de Boltzmann es una regla de aprendizaje estocástica derivada de principios


de la teoría de la información y la termodinámica. El objetivo del aprendizaje de Boltzmann
es ajustar los pesos de conexión tales que los estados de las unidades visibles satisfagan una
distribución de probabilidad deseada particular. Según la regla de aprendizaje de Boltzmann,
el cambio de peso de conexión 𝑤𝑖𝑗 viene dado por:

donde −𝑝𝑖𝑗 y 𝑝𝑖𝑗 son las correlaciones entre los estados de la unidad i y la unidad j cuando
la red opera en el modo fijo y en el modo de funcionamiento libre, respectivamente. Los
valores de −𝑝𝑖𝑗 y 𝑝𝑖𝑗 generalmente se estiman a partir de experimentos de Monte Carlo
que son extremadamente lentos.
El aprendizaje de Boltzmann se puede ver como un caso especial de regla de corrección de
errores en el que el error se mide no como la diferencia directa entre la salida deseada y la
salida real, sino como la diferencia entre las correlaciones entre las salidas de dos neuronas
en dos condiciones de funcionamiento (sujeto y libre).

LEY DE EFECTOS THORNDIKE

La Ley del Efecto fue un precursor del condicionamiento operante de BF Skinner y fue
desarrollada por el psicólogo Edward Thorndike. La Ley del efecto establece que las
respuestas que reciben resultados positivos en una situación dada se repetirán en esa
situación, mientras que las respuestas que conducen a resultados negativos en una situación
determinada no se repetirán en esa situación.

Conclusiones clave: la ley del efecto


• La Ley del Efecto fue propuesta por el psicólogo Edward Thorndike a principios del
siglo XX.
• La Ley del efecto dice que es probable que los comportamientos que conducen a la
satisfacción en una situación específica se repitan cuando la situación se repite, y que
es menos probable que los comportamientos que conducen a la incomodidad en una
situación específica se repitan cuando la situación se repite.
• Thorndike tuvo una gran influencia en el conductismo, el enfoque psicológico que
defendió BF Skinner, ya que este último construyó sus ideas sobre el
condicionamiento operante en la Ley del Efecto.

Orígenes de la ley del efecto


Si bien hoy en día BF Skinner y el condicionamiento operante son conocidos por demostrar
que aprendemos en función de las consecuencias de nuestras acciones, esta idea se basó en
las primeras contribuciones de Edward Thorndike a la psicología del aprendizaje. La Ley del
efecto, también conocida como la ley del efecto de Thorndike, surgió de los experimentos de
Thorndike con animales, típicamente gatos.
Thorndike colocaba un gato en una caja de rompecabezas que tenía una pequeña palanca en
un lado. El gato solo podía salir presionando la palanca. Thorndike luego colocaba un trozo
de carne fuera de la caja para alentar al gato a escapar, y calculaba cuánto tiempo le tomaría
al gato salir de la caja. En su primer intento, el gato presionaría la palanca por accidente. Sin
embargo, debido a que el gato fue recompensado con su libertad y comida después de cada
presión de palanca, cada vez que se repitió el experimento, el gato presionaría la palanca más
rápidamente.
Las observaciones de Thorndike en estos experimentos lo llevaron a postular la Ley del
Efecto, que se publicó en su libro Animal Intelligence en 1911. La ley tenía dos partes.
En cuanto a las acciones que recibieron consecuencias positivas, la Ley del Efecto señaló:
“De varias respuestas que se den a una misma situación, las que van acompañadas o seguidas
de cerca por la satisfacción del animal, en igualdad de condiciones, estarán más firmemente
vinculadas a la situación, para que, cuando se repita, sea más probable que se repitan ".
De las acciones que recibieron consecuencias negativas, la Ley del Efecto señaló: “Aquellas
respuestas que van acompañadas o seguidas de cerca de malestar hacia el animal, en igualdad
de condiciones, verán debilitadas sus conexiones con esa situación, de modo que, cuando se
repita, será menos probable que ocurran.
Thorndike concluyó su teoría observando: "Cuanto mayor es la satisfacción o el malestar,
mayor es el fortalecimiento o el debilitamiento del vínculo entre la respuesta y la situación".
Thorndike modificó la ley de efecto en 1932, después de determinar que ambas partes no
eran igualmente válidas. Encontró que las respuestas que van acompañadas de resultados
positivos o recompensas siempre fortalecen la asociación entre la situación y la respuesta, sin
embargo, las respuestas que van acompañadas de resultados negativos o castigos solo
debilitan un poco la asociación entre la situación y la respuesta.

REGLA DE HEBB

La regla de aprendizaje más antigua, aunque todavía utilizada, es el postulado de aprendizaje


de Hebb. Fue propuesto por Hebb en base a la siguiente observación de experimentos
neurobiológicos: cuando un axón de una célula A está lo suficientemente cerca para excitar
una célula B y participa repetida o persistentemente en el anillo, se produce algún proceso de
crecimiento o cambios metabólicos en uno o ambas células de modo que la eficiencia de A
como una de las células del anillo B aumenta. En otras palabras, si dos neuronas a cada lado
de una sinapsis se activan de forma sincrónica y repetida, entonces la fuerza de esa sinapsis
aumenta selectivamente. Tal sinapsis a menudo se conoce como sinapsis de Hebb o sinapsis
correlacional porque el cambio de la fuerza de la sinapsis depende de la correlación entre las
actividades presinápticas y postsinápticas. Matemáticamente, la actualización de la sinapsis
de Hebb se puede describir como:

Donde 𝑥𝑖 y 𝑦𝑗 son los valores de salida de las neuronas i y j, respectivamente, que están
conectadas por la sinapsis 𝑤𝑖𝑗 , y n es la tasa de aprendizaje. Tenga en cuenta que 𝑥𝑖 es la
entrada a la sinapsis.
Una propiedad importante de esta regla es que el aprendizaje se realiza localmente, es decir,
el cambio del peso de la sinapsis depende solo de las actividades de las dos neuronas
conectadas por ella. Esto simplifica significativamente la complejidad del circuito de
aprendizaje en una implementación VLSI.
Un problema con esta regla de aprendizaje es que los pesos de conexión crecerán sin límites
a medida que avanza el aprendizaje. Para hacer frente a este problema, se han propuesto
muchas modificaciones a la regla básica de Hebb. Por ejemplo, la regla de Oja agrega una
disminución de peso proporcional a 𝑦𝑗2 a la regla básica de Hebbian:

Es interesante notar que esta regla es similar a la regla de corrección de errores inversa; 𝑤𝑖𝑗
depende de la diferencia entre la entrada real y la salida retro propagada. Una sola neurona
entrenada usando la regla de Hebbian exhibe una selectividad de orientación. La figura
demuestra esta propiedad. Los puntos representados en la Figura se extraen de una
distribución gaussiana bidimensional y se utilizan para entrenar una neurona. El vector de
peso de la neurona se inicializa en 𝑤0 como se muestra en la figura. A medida que avanza el
aprendizaje, el vector de peso se acerca cada vez más a la dirección w de varianza máxima
en los datos. De hecho, w es el vector propio de la matriz de covarianza de los datos
correspondientes al valor propio más grande.

Orientación selectiva de una neurona simple:

Es sencillo generalizar el comportamiento anterior de una sola unidad y concluir que una red
de alimentación directa de una capa con m unidades de salida puede extraer los primeros m
componentes principales de datos n-dimensionales,𝑚 ≤ 𝑛. Debido a la ortogonalidad de los
auto vectores, los otros (m - 1) componentes principales se encuentran en el subespacio que
es perpendicular al primer componente principal correspondiente al autovalor más grande.
Por lo tanto, los componentes principales (m - 1) se pueden determinar de forma recursiva
en subespacios de una manera similar a calcular el primer componente. Se han propuesto
varios métodos más elegantes para calcular todos los componentes principales
simultáneamente imponiendo algunas restricciones a las actividades de las unidades de
salida.

COMPETITIVO

A diferencia del aprendizaje de Hebbian, donde múltiples unidades de salida pueden ser rojas
simultáneamente, en el aprendizaje competitivo todas las unidades de salida compiten entre
sí para ser activadas. Como resultado de dicha competencia, solo una unidad de producción,
o solo una por grupo, está activa en un momento dado. Este fenómeno se conoce a menudo
como el ganador se lleva todo. Se ha descubierto que el aprendizaje competitivo existe en
redes neuronales biológicas. Los experimentos neurobiológicos han demostrado que el
aprendizaje competitivo juega un papel importante en la formación de mapas topográficos
en el cerebro y la autoorganización de las células nerviosas sensibles a la orientación en la
corteza estriada. El resultado del aprendizaje competitivo es a menudo una agrupación o
categorización de los datos de entrada. Los patrones similares están agrupados por la red y
representados por una sola unidad. Este proceso de agrupación lo realiza la red
automáticamente en función de las correlaciones de los datos. La red de aprendizaje
competitiva más simple consta de una sola capa de unidades de salida, como se muestra en
la Figura.

Cada unidad de salida i en la red se conecta a todas las unidades de entrada mediante pesos,
𝑤𝑖𝑗 , 𝑗 = 1,2, … , 𝑑. Cada unidad de salida también se conecta a todas las demás unidades de
salida a través de pesos inhibidores, pero tiene retroalimentación automática con un peso
excitador. Como resultado de la competencia, solo la unidad con la entrada neta más grande
(o la más pequeña) se convierte en la ganadora, es decir:
o

Cuando todos los vectores de peso están normalizados, estas dos desigualdades son
equivalentes. Una regla de aprendizaje competitiva simple se puede establecer como sigue:

Tenga en cuenta que solo se actualizan los pesos de la unidad ganadora. El efecto de esta
regla de aprendizaje es mover el patrón almacenado en la unidad ganadora (pesos) un poco
más cerca del patrón de entrada. En la siguiente figura se muestra una interpretación
geométrica del aprendizaje competitivo. En este ejemplo, asumimos que todos los vectores
de entrada se han normalizado para tener una longitud unitaria. Están representados como
puntos negros en la Figura (a). Los vectores de peso de las tres unidades se inicializan
aleatoriamente. Sus posiciones iniciales y posiciones finales en la esfera después del
aprendizaje competitivo se muestran como cruces en las Figuras (a) y (b), respectivamente.
Como podemos ver en la Figura, cada uno de los tres grupos naturales de patrones ha sido
descubierto por una unidad de salida cuyo vector de peso apunta al centro de gravedad del
campo descubierto.

Un ejemplo de aprendizaje competitivo: a) Antes de aprender. b) Después de aprender.


Se puede ver en la regla de aprendizaje competitivo que la red nunca dejará de aprender
(actualizar los pesos) a menos que la tasa de aprendizaje n sea cero. Es posible que un patrón
particular pueda cambiar diferentes unidades de salida (cambiar categorías) para siempre
durante el aprendizaje. Esto trae a colación el problema de la estabilidad de un sistema de
aprendizaje. Se dice que un sistema de aprendizaje es estable si ningún patrón en los datos
de entrenamiento cambia su categoría después de un número finito de iteraciones de
aprendizaje. La forma de lograr la estabilidad es forzar a que la tasa de aprendizaje disminuya
gradualmente a medida que avanza el proceso de aprendizaje y, por lo tanto, finalmente se
acerca a cero. Sin embargo, esta congelación artificial del aprendizaje provoca otro problema
de plasticidad, que se define como la capacidad de adaptación a nuevos datos. Este es el
conocido dilema estabilidad-plasticidad de Grossberg en el aprendizaje competitivo.

CONCLUSIÓN

Los avances en las RNA también han experimentado mucho entusiasmo y críticas. Muchos
estudios comparativos ofrecen una perspectiva optimista para las RNA, mientras que otros
ofrecen una visión pesimista. Para muchas tareas, como el reconocimiento de patrones,
ningún enfoque domina al otro. La elección de la mejor técnica debe basarse en la naturaleza
de la aplicación dada. Debemos tratar de comprender las capacidades, los supuestos y la
aplicabilidad de varios enfoques desarrollados en diversas disciplinas, y aprovechar al
máximo las ventajas complementarias de estos enfoques para desarrollar mejores sistemas
inteligentes. Tal esfuerzo puede conducir a un enfoque sinérgico que combine las fortalezas
de las ANN y otras disciplinas para lograr un desempeño significativamente mejor para
problemas desafiantes. ha reconocido que ha llegado el momento de construir sistemas a
partir de diversos componentes. En este enfoque sinérgico, no solo son importantes los
módulos individuales, sino que también una buena metodología para integrar varios módulos
es la clave del éxito. Está claro que la comunicación y el trabajo cooperativo entre las RNA
y otras disciplinas no solo evitará el trabajo repetitivo, sino que, lo que es más importante,
estimulará y motivará disciplinas individuales.

También podría gustarte