Está en la página 1de 25

LAS REDES NEURONALES (NN : NEURAL NETWORKS)

MODELOS INSPIRADOS

EN LA

BIOLOGA:

MODELOS

ARTIFICIALES APLICADOS:

PESOS FIJOS:
PESOS ADAPTABLES:

- SUPERVISADO:

CUANDO SE LE PROPORCIONA A LA RED TANTO LA ENTRADA COMO LA SALIDA CORRECTA, Y LA RED AJUSTA SUS PESOS TRATANDO DE MINIMIZAR EL ERROR DE SU SALIDA CALCULADA. ESTE TIPO DE ENTRENAMIENTO SE APLICA POR EJEMPLO, EN EL RECONOCIMIENTO
DE PATRONES

- NO SUPERVISADO:

1. ENTRENAMIENTO EL

O APRENDIZAJE:

USUARIO PROPORCIONA A LA RED UN NMERO "ADECUADO" DE ESTMULOS DE ENTRADA, Y DE SALIDA, LA RED ENTONCES AJUSTA SU PESOS DE INTERCONEXIN O SINAPSIS HASTA QUE LA SALIDA DE LA RED ESTA "LO SUFICIENTEMENTE CERCA" DE LA SALIDA CORRECTA.

2. RECUPERACIN DE LO APRENDIDO:

A LA RED SE LE PRESENTA UN CONJUNTO DE ESTMULOS DE ENTRADA Y ESTA SIMPLEMENTE CALCULA SU SALIDA. CUANDO LA RED EMPLEA ENTRENAMIENTO NO SUPERVISADO, ALGUNAS VECES SER NECESARIO QUE REAJUSTE SU SINAPSIS DURANTE LA FASE DE RECUPERACIN.

Una neurona aislada dispone de poca potencia de clculo. Los nodos se conectan mediante la sinapsis Las neuronas se agrupan formando una estructura llamada capa. Los pesos pasan a ser matrices W (n x m) La salida de la red es un vector: Y=(y1, y2, ... , yn)T Y=F(WX+b)

REDES MULTICAPA: CAPAS EN CASCADA. TIPOS DE CAPAS: ENTRADA SALIDA OCULTA NO HAY REALIMENTACIN => RED FEEDFORWARD

SALIDA DEPENDE DE ENTRADAS Y PESOS.


SI HAY REALIMENTACIN => RED RECURRENTE

EFECTO MEMORIA SALIDA DEPENDE TAMBIN DE LA HISTORIA PASADA.

UNA RNA ES UN APROXIMADOR GENERAL DE FUNCIONES NO LINEALES.

EXISTEN VARIAS

FORMAS DE INTERCONECTAR LAS

RNA:

ELEGIR LA CORRECTA TOPOLOGA Y SUS CARACTERSTICAS, ES IMPRESCINDIBLE PARA LOGRAR FCILMENTE LA SOLUCIN DEL PROBLEMA. PERCEPTRON BACKPROPAGATION HOPFIELD (RECURRENTE) KOHONEN (COMPETITIVA)

El caso ms sencillo de Red Neuronal (RN) es el que presenta una sola neurona de cmputo. A esta estructura se le denomina perceptrn y su estudio resulta obligado antes de profundizar en redes neuronales ms complejas.

El perceptrn simple tiene una serie de limitaciones muy importantes. La ms importante es su incapacidad para clasificar conjuntos que no son linealmente independientes. Esto qued patente en la obra perceptrons que en 1969 demostr que un perceptrn es incapaz de aprender una funcin tan fcil como la XOR. Este modelo es una ampliacin del perceptrn a la cual aade una serie de capas que, bsicamente, hacen una transformacin sobre las variables de entrada, que permiten eludir el problema anterior. El perceptrn multicapa consta de una capa de entrada y una capa de salida y una o ms capas ocultas. Dichas capas se unen de forma total hacia delante, esto es, la capa entrada se une con la primera capa oculta y esta con la siguiente y la ltima capa oculta se une con la capa de salida. Los valores que el perceptrn multicapa acepta son reales.

APLICACIONES

DEL

PERCEPTRN:

EL MTODO DE BACK-PROPAGATION (O ENTRENAMIENTO HACIA ATRS) ES UN SISTEMA AUTOMTICO DE ENTRENAMIENTO DE REDES NEURONALES CON CAPAS OCULTAS, PERFECCIONADO EN LA DCADA DE LOS 80.EN ESTE TIPO DE REDES, EL PROBLEMA A LA HORA DE ENTRENARLAS RESIDE EN QUE SLO CONOCEMOS LA SALIDA DE LA RED Y LA ENTRADA, DE FORMA QUE NO SE PUEDEN AJUSTAR LOS PESOS SINPTICOS ASOCIADOS A LAS NEURONAS DE LAS CAPAS OCULTAS, YA QUE NO PODEMOS INFERIR A PARTIR DEL ESTADO DE LA CAPA DE SALIDA COMO TIENE QUE SER EL ESTADO DE LAS CAPAS OCULTAS. EL SISTEMA DE ENTRENAMIENTO MEDIANTE BACK-PROPAGATION CONSISTE EN: EMPEZAR CON UNOS PESOS SINPTICOS CUALQUIERA (GENERALMENTE ELEGIDOS AL AZAR). INTRODUCIR UNOS DATOS DE ENTRADA (EN LA CAPA DE ENTRADAS) ELEGIDOS AL AZAR ENTRE LOS DATOS DE ENTRADA QUE SE VAN A USAR PARA EL ENTRENAMIENTO. DEJAR QUE LA RED GENERE UN VECTOR DE DATOS DE SALIDA (PROPAGACIN HACIA DELANTE). COMPARAR LA SALIDA GENERADA POR AL RED CON LA SALIDA DESEADA.

LA DIFERENCIA OBTENIDA ENTRE

SE USA PARA AJUSTAR LOS PESOS SINPTICOS DE LAS NEURONAS DE LA CAPA DE SALIDAS.

LA SALIDA GENERADA Y LA DESEADA (DENOMINADA ERROR)

EL ERROR SE PROPAGA HACIA ATRS (BACK-PROPAGATION), HACIA LA CAPA DE NEURONAS ANTERIOR, Y SE USA PARA AJUSTAR LOS PESOS SINPTICOS EN ESTA CAPA. SE CONTINUA
PROPAGANDO EL ERROR HACIA ATRS Y AJUSTANDO LOS PESOS HASTA QUE SE CON LOS DIFERENTES DATOS DE ENTRENAMIENTO. ALCANCE LA CAPA DE ENTRADAS.

ESTE PROCESO SE REPETIR

HTTP://HUGO-INC.NET16.NET/RNA/INDICE.HTML HTTP://PERSO.WANADOO.ES/ALIMANYA/INDEX2.HTML HTTP://WWW.REDES-NEURONALES.COM.ES/TUTORIAL-REDES-NEURONALES/REDESNEURONALES-AUTOORGANIZADAS-MAPAS-DE-KOHONEN.HTM DES%20NEURONALES%20ARTIFICIALES.PPT FTP://WWW.CC.UAH.ES/PUB/ALUMNOS/I.INFORMATICA/AGENTES.INTELIGENTES/SLICESAI/RE HTTP://HALWEB.UC3M.ES/ESP/PERSONAL/PERSONAS/JMMARIN/ESP/DM/TEMA3DM.PDF HTTPS://WWW.YOUTUBE.COM/WATCH?V=UEIPUYUNVUA

También podría gustarte