Está en la página 1de 34

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO

FACULTAD DE INGENIERÍA CIVIL, SISTEMAS Y ARQUITECTURA


ESCUELA PROFESIONAL DE INGENIERÍA CIVIL

1“INTELIGENCIA ARTIFICIAL EN LA HIDROLOGÍA”

PRESENTADO POR:

MARTINEZ GUEVARRA, Luis Fernando


MEOÑO DOMINGUEZ, Randy Brand
SANTA CRUZ VILITANGA, Kevin Junior
YNOÑAN LLAUCE, Gian Edgar

El presente documento es elaborado para la asignatura de Hidrología Aplicada


Docente, Ing. José Del Carmen Arbulu Ramos
Lambayeque – Perú
16 agosto del 2020
Presentación

Ing. JOSE DEL CARMEN ARBULU RAMOS, docente encargado de la asignatura

“HIDROLOGÍA APLICADA”, de la Universidad Nacional Pedro Ruiz Gallo, Escuela

Profesional de Ingeniería Civil.

Hacemos entrega del primer trabajo del curso que ha encargado a los alumnos, para lo cual

nos dividió por grupos y se les asigno un tema específico para que obtenga la información

necesaria y haga las investigaciones correspondientes relacionado a la inteligencia artificial en la

hidrología.
ii

ÍNDICE GENERAL

ÍNDICE DE FIGURAS...........................................................................................................iii

I. RESUMEN...............................................................................................................1

II. ABSTRACT..............................................................................................................1

III. INTRODUCCIÓN...................................................................................................2

IV. INTELIGENCIA ARTIFICIAL............................................................................4

A. OBJETIVOS..........................................................................................................................4

B. GENERALIDADES...............................................................................................................5

C. CONCEPTOS FUNDAMENTALES.....................................................................................5

1. Marco histórico.......................................................................................................................5

Orígenes......................................................................................................................................6

2. Definiciones............................................................................................................................9

3. Enfoques................................................................................................................................10

4. Redes Neuronales Artificiales...............................................................................................10

4.1. Elementos de una red neuronal artificial.........................................................................11

4.2. Características de las RNA..............................................................................................12

4.3. Funciones de Transferencia más usadas.........................................................................12

4.4. Clasificación de las RNA................................................................................................13

4.5. Algoritmos de aprendizaje..............................................................................................22

4.5.1. Backpropagation(retropropagación)..........................................................................22

4.6. Aplicaciones de las RNA................................................................................................25

4.7. Ventajas y desventajas....................................................................................................26

V. CONCLUSIONES.................................................................................................28

VI. BIBLIOGRAFIA Y WEBGRAFIA.....................................................................29


iii

ÍNDICE DE FIGURAS

Figura 1. Red Neuronal Artificial...............................................................................................1

Figura 2. Red Neuronal Biológica y Artificial............................................................................2

Figura 3. Estructura d una RNA.................................................................................................3

Figura 4. Función Escalón Unitario...........................................................................................3

Figura 5. Función Escalón Unitario Bipolar..............................................................................4

Figura 6. Modelo de Hoppfield..................................................................................................5

Figura 7. Red Neuronal Artificial Monocapa.............................................................................5

Figura 8. Red Neuronal Artificial Multicapa.............................................................................6

Figura 9. Red Neuronal Artificial Convencional.......................................................................6

Figura 10. Red Neuronal Artificial recurrente...........................................................................7

Figura 11. Red Neuronal Artificial de Base Radial....................................................................7

Figura 12. Estructura de la Red Neuronal ADELINE................................................................9

Figura 13. Estructura de la Red Neuronal Autoasociada.........................................................12

Figura 14. Red Neuronal Continua...........................................................................................13

Figura 15. Red Neuronal Discreta............................................................................................13


I. RESUMEN

En el presente trabajo investigativo abordaremos los aspectos más resaltantes e influyentes, en

materia de lo que es Inteligencia artificial, a lo largo veremos un poco de su historia, las primeras

ideas que fueron el punto de partida para el desarrollo de esta, sus primeros investigadores,

definiciones, las diferentes concepciones, según los científicos que la estudiaron.

Desarrollaremos algunas de las principales ramas que la componen, sus definiciones,

componentes, y métodos, para poder tener una idea más clara acerca de lo que es la inteligencia

artificial y su funcionamiento, el cual tiene diversas aplicaciones en el campo de la ingeniería,

debido al aporte que nos da para el logro de solución a problemas complejos a través del uso de

las máquinas.

II. ABSTRACT

In this investigative work we will address the most outstanding and influential aspects, in

terms of what is Artificial Intelligence, throughout we will see a little of its history, the first ideas

that were the starting point for the development of this, its first researchers, definitions, the

different conceptions, according to the scientists who studied it.

We will develop some of the main branches that compose it, their definitions, components,

and methods, in order to have a clearer idea about what artificial intelligence is and its operation,

which has various applications in the engineering field, due to to the contribution it gives us to

achieve the solution to complex problems through the use of machines.


2

III. INTRODUCCIÓN

La inteligencia artificial fue propuesta 1950 por Alan Turing, en donde defino a la conducta

inteligente como la capacidad de lograr una eficiencia a nivel humano.

La investigación de la Inteligencia Artificial (IA) ha venido desarrollándose desde que en

1956 el término «Inteligencia Artificial» fuera usado por primera vez. Muchos autores han

tratado de definirla desde entonces. Quizás la más sencilla y a la vez la más completa definición

es: «El estudio de las facultades mentales a través del uso de modelos computacionales». En esta

disciplina se conjugan ramas tan diversas como son la teoría de la información, la sicología, la

lingüística y la neurofisiología. Y es que el objetivo de la IA es crear máquinas que piensen y

actúen como humanos; para eso los investigadores crean situaciones que ponen a pensar a la

computadora y van ajustando parámetros en dependencia de la respuesta obtenida.

Existen cuatro categorías en que se divide la IA:

1. Sistemas que piensan como humanos: Estos sistemas tratan de emular el pensamiento

humano; por ejemplo, las redes neuronales artificiales.

2. Sistemas que actúan como humanos: Estos sistemas tratan de actuar como humanos; es

decir, imitan el comportamiento humano; por ejemplo, la robótica.

3. Sistemas que piensan racionalmente: Tratan de imitar el pensamiento lógico racional del

ser humano; por ejemplo, los sistemas expertos.

4. Sistemas que actúan racionalmente: Tratan de emular de forma racional el comportamiento

humano; por ejemplo, los agentes inteligentes.

En cada una de estas categorías se han desarrollado herramientas que permiten la resolución

de problemas en muy diversas disciplinas. Esto se debe a una característica inherente de la IA, y

es que desde sus inicios estuvo orientada a la resolución de problemas para los que las

ecuaciones no tienen posible solución analítica o numérica; y, por lo tanto, pueda ser aplicada a
3

la resolución de multitud de problemas de diferentes disciplinas. Una de las disciplinas que se ha

beneficiado con el desarrollo computacional es la Ingeniería Civil. Numerosos son los avances

que ha tenido este campo gracias a la aplicación de técnicas computacionales en la resolución de

problemas propios de esta ciencia.

Los problemas que se presentan en la construcción de una obra ingenieril están sujetos a una

serie de factores cambiantes, que hacen muy difícil predecir el resultado final utilizando los

métodos tradicionales. Algunos de estos factores, como son las condiciones del lugar, la calidad

de los materiales, entre otros, hace que constantemente se tenga que verificar la estructura en

busca de posibles fallas. Estos problemas no se resuelven solo con la ayuda de la matemática, la

física y los cálculos mecánicos, sino que dependen también de la experiencia previa acumulada.

Aunque las construcciones se diseñan para que sean longevas, suelen vivir en entornos

agresivos que afectan su integridad estructural. La predicción de la vida útil está lejos de ser un

problema sencillo debido a los muchos cambios internos de la propia estructura, como también a

causas externas a menudo inciertas. En muchos casos, la intensidad y el tipo de parámetros (por

ejemplo, la carga, condiciones ambientales, etcétera) son en su mayoría desconocidos en su

naturaleza y magnitud. Tradicionalmente, se ha supuesto que las inspecciones visuales rutinarias

determinarían deterioro o daño con suficiente antelación para permitir las actuaciones o

reparaciones necesarias a realizar. Pero en ocasiones esto no es suficiente.

En este artículo se muestran algunas técnicas de IA que se utilizan para obtener resultados

inmediatos sobre la salud de una estructura. Asimismo, se presenta una comparación de las

técnicas explicadas y se hace un análisis de las tendencias futuras de este campo aplicadas en el

área de la Ingeniería Civil.


4

IV. INTELIGENCIA ARTIFICIAL

A. OBJETIVOS

El objetivo principal de esta recopilación es la implementación y la demostración de la

aplicabilidad de la inteligencia artificial (redes de neuronas artificiales y computación evolutiva)

a la ingeniería civil. Para ello se necita de una herramienta informática que permite al ingeniero

la aplicación de estas técnicas en diversos campos de una forma cómoda y práctica, sin necesidad

de un conocimiento profundo de estas técnicas

El propósito de la inteligencia artificial es lograr que las máquinas hagan lo que los humanos

hacemos como la representación del conocimiento, el reconocimiento de patrones,

comportamiento adaptación (en su sentido más simple que es no chocar con objetos)

reconocimiento de lenguaje, solución de problemas y sistemas expertos.


5

B. GENERALIDADES

En una primera aproximación definir la Inteligencia Artificial como una ciencia que tiene

como objetivo el diseño y construcción de máquinas capaces de imitar el comportamiento

inteligente de las personas. Una rama especializada de la informática que investiga y produce

razonamiento por medio de máquinas automáticas y que pretenden fabricar artefactos dotados de

la capacidad de pensar.

La IA es la rama de la ciencia que se encarga del estudio de la inteligencia en elementos

artificiales y, desde el punto de vista de la ingeniería, propone la creación de elementos que

posean un comportamiento inteligente. Dicho de otra forma, la IA pretende construir sistemas y

máquinas que presenten un comportamiento que, si fuera llevado a cabo por una persona, se diría

que es inteligente. El aprendizaje, la capacidad de adaptación a entornos cambiantes, la

creatividad, etc., son facetas que usualmente se relacionan con el comportamiento inteligente.

Además, la IA es muy interdisciplinar, y en ella intervienen disciplinas tan variadas como la

Neurociencia, la Psicología, las Tecnologías de la Información, la Ciencia Cognitiva, la Física,

las Matemáticas, etc.


6

C. CONCEPTOS FUNDAMENTALES

1. Marco histórico

Antes de empezar a hablar de Redes Neuronales Artificiales (RNA) es necesario conocer un

poco más acerca de sus orígenes y su historia. Por esta causa se hace una breve descripción de

las mismas.

Conseguir diseñar y construir máquinas capaces de realizar procesos con cierta inteligencia ha

sido uno de los principales objetivos de los científicos a lo largo de la historia. En un principio

los esfuerzos estuvieron dirigidos a la obtención de autómatas, en el sentido de máquinas que

realizaran, con más o menos éxito, alguna función típica de los seres humanos. Hoy en día se

continúa estudiando en ésta misma línea, con resultados sorprendentes, existen maneras de

realizar procesos similares a los inteligentes y que podemos encuadrar dentro de la llamada

Inteligencia Artificial (IA).

La otra línea de la investigación ha tratado de aplicar principios físicos que rigen en la

naturaleza para obtener máquinas que realicen trabajos pesados en nuestro lugar. De igual

manera se puede pensar respecto a la forma y capacidad de razonamiento humano; se puede

intentar obtener máquinas con esta capacidad basadas en el mismo principio de funcionamiento.

No se trata de construir máquinas que compitan con los seres humanos, sino que realicen ciertas

tareas de rango intelectual con que ayudarle, principio básico de la Inteligencia Artificial.

Orígenes

Las primeras explicaciones teóricas sobre el cerebro y el pensamiento ya fueron dadas ya

por Platón (427-347 a.C.) y Aristóteles (348-422 a.C.). Las mismas ideas también las mantuvo

Descartes (1569-1650) y los filósofos empiristas del siglo XVIII.

La clase de las llamadas máquinas cibernéticas, a la cual la computación neuronal

pertenece, tiene más historia de la que se cree: Herón (100 a.c) construyó un autómata hidráulico.
7

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el

mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos

de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un

matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas

(Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa - Boletín de Matemática

Biofísica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos eléctricos.

1949 - Donald Hebb. Escribió un importante libro: La organización del comportamiento,

en el que se establece una conexión entre psicología y fisiología. Fue el primero en explicar los

procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de

vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el

fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red

neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran

activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa.

Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales.

1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar

el nacimiento de la inteligencia artificial

1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptrón. Esta es la red neuronal

más antigua; utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo

era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía

reconocer otros similares, aunque no se le hubiesen presentado anteriormente. Sin embargo, tenía

una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función

OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente. En 1959,

escribió el libro Principios de Neurodinámica, en el que confirmó que, bajo ciertas condiciones,
8

el aprendizaje del Perceptrón convergía hacia un estado finito (Teorema de Convergencia del

Perceptrón).

1960 - Bernard Widrow/Marcial Hoff. Desarrollaron el modelo Adaline (ADAptative

LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros

adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente

durante varias décadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas

(memoria asociativa).

1967 - Stephen Grossberg. A partir de sus conocimientos fisiológicos, ha escrito

numerosos libros y desarrollado modelo de redes neuronales. Realizó una red: Avalancha, que

consistía en elementos discretos con actividad que varía en el tiempo que satisface ecuaciones

diferenciales continuas, para resolver actividades como reconocimiento continuo de habla y

aprendizaje de los brazos de un robot.

1969 - Marvin Minsky/Seymour Papert. En este año surgieron críticas que frenaron,

hasta 1982, el crecimiento que estaban experimentando las investigaciones sobre redes

neuronales. Minsky y Papera, del Instituto Tecnológico de Massachussets (MIT), publicaron un

libro Perceptrons. Probaron (matemáticamente) que el Perceptrón no era capaz de resolver

problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto

demostró que el Perceptrón era muy débil, dado que las funciones no-lineales son extensamente

empleadas en computación y en los problemas del mundo real. A pesar del libro, algunos

investigadores continuaron su trabajo. Tal fue el caso de James Anderson, que desarrolló un

modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales

(neuronas) que sumaban sus entradas. Este modelo se basa en el principio de que las conexiones
9

entre neuronas son reforzadas cada vez que son activadas. Anderson diseñó una potente

extensión del Asociador Lineal, llamada Brain State in a Box (BSB).

1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de

propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en

1985.

1977 - Stephen Grossberg. Teoría de Resonancia Adaptada (TRA). La Teoría de

Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás

previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto

plazo.

1980 - Kunihiko Fukushima. Desarrolló un modelo neuronal para el reconocimiento de

patrones visuales.

1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro:

"Computación neuronal de decisiones en problemas de optimización."

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de

propagación hacia atrás (backpropagation). A partir de 1986, el panorama fue alentador con

respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son

numerosos los trabajos que se realizan y publican cada año, las aplicaciones nuevas que surgen

(sobre todo en el área de control) y las empresas que lanzan al mercado productos nuevos, tanto

hardware como software (sobre todo para simulación)

2. Definiciones

Según las diversas investigaciones que se han hecho hasta el día de hoy sobre las Redes

Neuronales Artificiales se proponen diversas definiciones, de acuerdo a sus experiencias tenemos

que:
10

“son modelos que utilizan densa interconexión de elementos computacionales simples en

combinación con algoritmos específicos para hacer su estructura (y por lo tanto su respuesta)

adaptarse a información que se presenta a ellos.”[CITATION Adr16 \p 132 \l 10250 ]

“es un sistema de procesamiento de información que está basado en la forma en que

funciona el sistema nervioso de los animales. Constituyen, por lo tanto, modelos electrónicos o

computacionales basados en la estructura neuronal del cerebro”

FiguraFigura
2. Red1.Neuronal Biológica
Red Neuronal y Artificial
Artificial

3. Enfoques

Se pueden definir dos puntos de vista o enfoques de la IA, el punto de vista tecnológico o

ingenieril y el punto de vista científico.

 La rama ingenieril busca la creación de sistemas informáticos que realicen tareas para

las que se precisa inteligencia. Se persigue desde este planteamiento la resolución de

problemas concretos, sin limitar las técnicas a utilizar a aquellas que utilizan los seres

inteligentes.

 La rama científica de la IA se puede definir como “el estudio del comportamiento

inteligente, siendo su fin conseguir una teoría de la inteligencia que explique la

conducta que se produce en seres de natural inteligentes, y que guíe la creación de entes

artificiales capaces de alcanzar dicho proceder inteligente”


11

4. Redes Neuronales Artificiales

Es un sistema de procesamiento de información que está basado en la forma en que funciona

el sistema nervioso de los animales. Constituyen, por lo tanto, modelos electrónicos o

computacionales basados en la estructura neuronal del cerebro

IV.1. Elementos de una red neuronal artificial

Las RNA son modelos que intentan reproducir el comportamiento del cerebro. Como tal

modelo, realiza una simplificación, averiguando cuáles son los elementos relevantes del sistema,

bien porque la cantidad de información de que se dispone es excesiva o bien porque es

redundante. Una elección adecuada de sus características, más una estructura conveniente, es el

procedimiento convencional utilizado para construir redes capaces de realizar determinada tarea.

Asociada con cada unidad hay una función de salida, que transforma el estado actual de

activación en una señal de salida. se estructura de la siguiente manera:

 Entradas: señales que ingresan a la red neuronal, su valor puede variar

dependiendo de la aplicación en la que se trabaje.

 Salida: indicador de salida de la red neuronal, el cual indica si la neurona está

activa o no, por lo general esta salida proviene de una función de transferencia

que limita la salida a un rango.

 Pesos: intensidad que conecta a dos neuronas. Memoria de aprendizaje de una

neurona. se representa por una letra W.

 Capas ocultas: representan las diferentes partes de la red neuronal multinivel.


12

IV.2. Características de las RNA

 Robusto y tolerante a fallas.

 Es flexible, se ajusta a casos no aprendidos.

 Puede manejar información con ruido.

 Alta capacidad de procesamiento en paralelo.

IV.3. Funciones de Transferencia más usadas

Las funciones de activación sigmoidales o de activación(salida) más destacadas son las

siguientes:

4.3.1 Escalón unitario

Figura 4. Función Escalón Unitario

4.3.2 Escalón unitario bipolar

Figura 5. Función Escalón Unitario Bipolar


13

IV.4. Clasificación de las RNA

Existen 4 aspectos que van a clasificar las redes neuronales artificiales.

4.4.1. Por su topología

Al hacer una clasificación topológica se tiene en cuenta:

a. Red monocapa

También es llamada perceptrón simple, se establecen conexiones laterales entre las

neuronas que pertenecen a la única capa que constituye la red, llamada neurona de salida, es allí

donde se hacen los diferentes cálculos. Ejemplos de redes de este tipo son la red HOPPFIELD.
14

Figura 6. Red Neuronal Artificial Monocapa

Figura 7. Modelo de Hoppfield

b. Red multicapa

Llamado también Perceptrón multicapa, es una generalización de la red neuronal

monocapa, la diferencia reside en que mientras la red neuronal monocapa está compuesta por

una capa de neuronas de entrada y una capa de neuronas de salida, esta dispone de un conjunto

de capas intermedias (capas ocultas) entre la capa de entrada y la de salida. Dependiendo del

número de conexiones que presente la red esta puede estar total o parcialmente conectada.

las conexiones entre neuronas pueden ser del tipo feedforward (conexión hacia adelante)

o del tipo feedback (conexión hacia atrás


15

c. Red neuronal Convolucional (CNN)

Se tiene en que cada neurona no se une con todas y cada una de las capas siguientes, sino

que solo con un subgrupo de ellas (se especializa), con esto se consigue reducir el número de

neuronas necesarias y la complejidad computacional necesaria para su ejecución.

Figura 9. Red Neuronal Artificial Convencional

d. Red neuronal recurrente (RNN)

La red neuronal recurrente no tiene una estructura de capas, sino que permiten

conexiones arbitrarias entre las neuronas, incluso pudiendo crear ciclos, con esto se consigue

crear la temporalidad, permitiendo que la red tenga memoria.

Los datos introducidos en el momento t en la entrada, son transformados y van circulando

por la red incluso en los instantes de tiempo siguientes t + 1, t + 2, …

Figura 10. Red Neuronal Artificial recurrente.


16

e. Red de base radial (RBF)

Calculan la salida de la función en función de la distancia a un punto denominado centro.

La salida es una combinación lineal de las funciones de activación radiales utilizadas por las

neuronas individuales. Tienen la ventaja de que no presentan mínimos locales donde la

retropropagación pueda quedarse bloqueada.

Figura 11. Red Neuronal Artificial de Base Radial.

4.4.2 Por el mecanismo de aprendizaje

El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta

a una información de entrada. Los cambios que se producen durante la etapa de aprendizaje se

reducen a la destrucción (el peso de la conexión toma el valor 0), modificación y creación (el

peso de la conexión toma un valor distinto de 0) de conexiones entre las neuronas.

Podemos considerar que el proceso de aprendizaje ha terminado cuando los valores de los

∂wj
pesos permanecen estables( =0).
∂t

Un aspecto importante es determinar los criterios de la regla de aprendizaje; cómo se van

a modificar los pesos. De forma general se consideran dos tipos de aprendizaje:


17

4.4.2.1. Aprendizaje supervisado

Se caracteriza porque el proceso de aprendizaje se realiza mediante un entrenamiento

controlado por un supervisor que determina la respuesta que se debe generar para cada entrada.

El supervisor controla la salida y si esta no es correcta, modifica los pesos de las

conexiones, con el fin de que la salida obtenida se aproxime a la deseada. A su vez el aprendizaje

supervisado se puede subdividir en:

Aprendizaje por corrección de error.

Consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre

los valores deseados y los obtenidos en la salida. La fórmula para la corrección de los pesos

podría ser la siguiente: Incr(wji) = ß yi (dj - yj)

siendo:

Incr(wji): Variación en el peso de la conexión entre las neuronas i y j

yi: Salida de la neurona i

dj: Valor de salida deseado para la neurona j

yj: Valor de salida obtenido en la neurona j

ß: Factor de aprendizaje (0 < ß <= 1) que regula la velocidad del aprendizaje

Ejemplos de algoritmos que usan este sistema de aprendizaje son:

 Regla de aprendizaje del perceptrón: utilizada en la red PERCEPTRÓN

 Regla delta o del mínimo error cuadrado: utilizado en las redes ADALINE y

MADELINE.

 Backpropagation o Programación hacia atrás (LMS multicapa)


18

Figura 12. Estructura de la Red Neuronal ADELINE.

4.4.2.2. Aprendizaje por refuerzo

este tipo de aprendizaje es más lento que el anterior y se basa en la idea de no disponer de

un ejemplo completo del comportamiento deseado; es decir, de no indicar durante el

entrenamiento la salida exacta que se desea que proporcione la red ante una determinada entrada.

Aquí la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida

obtenida en la red se ajusta a la deseada (éxito = +1 o fracaso = -1) y en función de ello se

ajustan los pesos basándose en un mecanismo de probabilidades. Ejemplos de este tipo de

algoritmos son el denominado Linear Reward -Penalty.

4.4.2.3. Aprendizaje estocástico

consiste básicamente en realizar cambios aleatorios en los valores de los pesos y evaluar

su efecto a partir del objetivo deseado y de distribuciones de probabilidad. Una red que utiliza

este tipo de aprendizaje es la red Boltzmann Machine, ideada por Hinton, Ackley y Sejnowski en

1984.
19

4.4.2.4. Aprendizaje no supervisado

No requieren de influencia externa para ajustar los pesos de las conexiones entre sus

neuronas. La red no recibe ninguna información por parte del entorno que le indique si la salida

generada en respuesta a una determinada entrada es o no correcta; son capaces de auto-

organizarse. por eso se le llama también red autosupervisado. los algoritmos no supervisados

pueden ser de 2 tipos:

4.4.2.5. Aprendizaje hebbiano

pretende medir la familiaridad o extraer características de los datos de entrada. Este

aprendizaje consiste básicamente en el ajuste de los pesos de las conexiones de acuerdo con la

correlación de los valores de activación (salidas) de las dos neuronas conectadas. Este tipo de

aprendizaje se utiliza en la RED HOPFIELD (1982), ADDITIVE GROSSBERG (1973)

4.4.2.6. Aprendizaje competitivo y cooperativo

las neuronas compiten unas con otras con el fin de llevar a cabo una tarea dada. Se

pretende que cuando se presente a la red cierta información, sólo una o un grupo de ellas se

activen. Por tanto, las neuronas compiten por activarse, quedando las perdedoras a sus valores de

respuesta mínimos. La conexión entre neuronas se realiza en todas las capas de la red, existiendo

en estas neuronas conexiones recurrentes de autoexcitación y conexiones de inhibición (signo

negativo) por parte de neuronas vecinas.

4.4.3. Por el tipo de asociación entre la información de entrada y de salida

Las redes neuronales son sistemas que almacenan cierta información aprendida; esta se

registra de forma distribuida en los pesos asociados a las conexiones entre neuronas. Hay que

establecer cierta relación o asociación entre la información presentada a la red y la salida

ofrecida por esta. Es lo que se conoce como memoria asociativa. Existen dos formas primarias de

realizar esta asociación entrada/salida y que generan dos tipos de redes:


20

Redes heteroasociativas

La red aprende parejas de datos [(A1, B1), (A2, B2) … (An, Bn)], de tal forma que

cuando se le presente determinada información de entrada Ai responda con la salida

correspondiente Bi. Al asociar informaciones de entrada con diferentes informaciones de salida,

precisan al menos de 2 capas, una para captar y retener la información de entrada y otra para

mantener la salida con la información asociada. Si esto no fuese así se perdería la información

inicial al obtenerse la salida asociada; es necesario mantener la información de entrada puesto

que puede ser necesario acceder varias veces a ella, por lo que debe permanecer en la capa de

entrada. El aprendizaje de este tipo de redes puede ser con supervisión.

Redes autoasociativas

La red aprende ciertas informaciones A1, A2, ..., An de forma que cuando se le presenta

una información de entrada realizará una autocorrelación, respondiendo con uno de los datos

almacenados, el más parecido al de entrada. Este tipo de redes pueden implementarse con una

sola capa de neuronas. El tipo de aprendizaje utilizado habitualmente es el no supervisado y

suelen utilizarse en tareas de filtrado de información para la reconstrucción de datos, eliminando

distorsiones o ruido, explorar relaciones entre informaciones similares para facilitar la búsqueda

por contenido en bases de datos y para resolver problemas de optimización.

Figura 13. Estructura de la Red Neuronal Autoasociada.


21

4.4.4. Por la forma de representación de estas informaciones

4.4.4.1. Redes continuas

En un gran número de redes, tanto los datos de entrada como de salida son de naturaleza

analógica (valores reales contínuos y normalmente normalizados, por lo que su valor absoluto

será menor que la unidad). En este caso las funciones de activación de las neuronas serán

también contínuas, del tipo lineal o sigmoidal.

Figura 14. Red Neuronal Continua.

4.4.4.2. Redes discretas

Por el contrario, otras redes sólo admiten valores discretos [0,1] a la entrada, generando

también en la salida respuestas de tipo binario. La función de activación en este caso es del tipo

escalón.
22

Figura 15. Red Neuronal Discreta.

4.4.4.3. Redes híbridas

La información de entrada es contínua, pero a la salida ofrecen información binaria.

IV.5. Algoritmos de aprendizaje

A continuación, se presentarán los principales algoritmos de redes neuronales artificiales:

IV.5.1. Backpropagation(retropropagación)

Es un algoritmo que se introdujo originalmente en la década de 1970, pero su importancia no

se apreció completamente hasta un famoso artículo de 1986 de David Rumelhart, Geoffrey

Hinton y Ronald Williams. Este documento describe varias redes neuronales en las que la

retropropagación funciona mucho más rápido que los enfoques de aprendizaje anteriores, lo que

hace posible utilizar redes neuronales para resolver problemas que anteriormente habían sido

insolubles. Hoy, el algoritmo de backpropagation es el caballo de batalla del aprendizaje en redes

neuronales.

En esta red se interconectan varias unidades de procesamiento en capas, las neuronas de cada

capa se conectan entre sí. Cada neurona de una capa proporciona una entrada a cada una de las

neuronas de la siguiente capa.


23

a. CONCEPTO

Tiene por función la modificación de pesos, está orientada a que el error cometido sea

mínimo.

El método de BLACKPROPAGATION, entendida como propagación hacia atrás de errores o

retropropagación (del inglés backpropagation), ha sido denominado como un método de cálculo

del gradiente utilizado en algoritmos de aprendizaje supervisado utilizados para entrenar redes

neuronales artificiales. El método de BLACKPROPAGATION consiste en una vez obtenido el

error estimado, se va a ir retrocediendo.

Podemos definir el error total cometido por la red como la suma de los cuadrados de los

errores cometidos. El objetivo es minimizar dicho error.

preciso utilizar un algoritmo alternativo. El algoritmo iterativo que permite entrenar redes

multipaca.

b. CARACTERISTICAS FUNDAMENTALES

 El algoritmo busca el mínimo de la función de error a partir de un conjunto de

patrones de entrenamiento.

 El algoritmo precisa que la función de activación sea diferenciable (fácilmente).

 Entrenar consiste en modificar los pesos de la red.

 Los pesos se modifican hacia la dirección descendente de la función error.

 La red entrenada es capaz de generalizar, clasificando correctamente patrones ruidosos

o incompletos.

c. PROCESOS QUE SE REALIZAN EN EL MÉTODO DE BRACKPOGATION


24

En esta red se realizan dos procesos, uno hacia adelante (forward pass) y otro hacia atrás

(backward pass).

En el primero, se coloca a la entrada de la red una señal de entrenamiento, la cual atraviesa la

misma generando una salida que es comparada con la salida deseada, produciéndose una señal de

error por cada neurona de la capa de salida.

En el segundo, dicha señal de error es propagada desde la salida hacia atrás, donde se realiza

la actualización y modificación de los pesos sinápticos en función de la razón de aprendizaje, el

gradiente local y la entrada de la neurona específica.

Este proceso se da repetidamente para cada patrón de entrada hasta que se obtenga un mínimo

de error.

d. IMPORTANCIA DEL METODO DE BLACKPROPAGATION

La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas

de las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas

aprenden a reconocer distintas características del espacio total de entrada. Después del

entrenamiento, cuando se les presente un patrón arbitrario de entrada que contenga ruido o que

esté incompleto, las neuronas de la capa oculta de la red responderán con una salida activa si la

nueva entrada contiene un patrón que se asemeje a aquella característica que las neuronas

individuales hayan aprendido a reconocer durante su entrenamiento. Y a la inversa, las unidades

de las capas ocultas tienen una tendencia a inhibir su salida si el patrón de entrada no contiene la

característica para reconocer, para la cual fueron entrenadas.

IV.5.2. Algoritmo genético

son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y

optimización. Están basados en el proceso genético de los organismos vivos. son capaces de ir
25

creando soluciones para problemas del mundo real. La evolución de dichas soluciones hacia

valores óptimos del problema depende en buena medida de una adecuada codificación de las

mismas.

IV.5.3. Boltzmann

Para redes estocásticas, donde se contemplan parámetros aleatorios.

IV.5.4. Hebb

cuando el disparo de una célula activa otra, el peso de la conexión entre ambas tiende a

reforzarse (Ley de Hebb).

IV.5.5. Competitivo

sólo aprenden las neuronas que se acercan más a la salida deseada.

IV.6. Aplicaciones de las RNA

Aplicación generalizada

Finanzas. Predicción de índices, Detección de fraudes, Riesgo crediticio, clasificación

Predicción de la rentabilidad de acciones

Negocios. Marketing, Venta cruzada, Campanas de venta

Tratamiento de textos y proceso de formas. Reconocimiento de caracteres impresos

mecánicamente, Reconocimiento de gráficos, Reconocimiento de caracteres escritos a mano,

Reconocimiento de escritura manual cursiva.

Alimentación. Análisis de olor y aroma, Perfilamiento de clientes en función de la

compra, Desarrollo de productos, Control de Calidad.

Industria manufacturera. Control de procesos, Control de calidad, Control de robots.

Medicina y salud. Ayuda al diagnóstico, Análisis de Imágenes, Desarrollo de

medicamentos, Distribución de recursos.


26

Ciencia e Ingeniería. Análisis de datos y clasificación, Ingeniería Química, Ingeniería

Eléctrica, Ingeniería Civil (Hidrología, Estructuras, Transporte, etc.).

Aplicación en el campo de la hidrología

 Redes Neuronales Artificiales para determinar la distribución espacial de la

humedad del suelo en una cuenca de drenaje. (Se usa las redes neuronales

multicapa de tipo feedforward con aprendizaje por algoritmo de retropropagación)

 Redes Neuronales para la previsión de caudales en cuencas hidrográficas.

 Redes Neuronales para predecir máximas avenidas

 Redes Neuronales para la predicción de inundaciones usando modelos de tanques

[ CITATION Mar19 \l 10250 ]

 Modelado de Lluvia – Flujo

 Pronóstico de flujo de corrientes de agua

 Modelado de suelo – agua

 Calidad del agua, políticas del manejo del agua, pronóstico de precipitación,

series de tiempo hidrológicos y operaciones de depósito. (se usaron algoritmos

fundamentales para los estudios hidrológicos, backpropagation y algoritmos

genéticos)

IV.7. Ventajas y desventajas

Ventajas

 Tienen la habilidad de aprender mediante una etapa que se llama etapa de

aprendizaje. Esta consiste en proporcionar a la RNA datos como entrada a su vez

que se le indica cuál es la salida (respuesta) esperada.


27

 Crea su propia representación de la información en su interior, descargando al

usuario de esto (Auto-organización).

 Debido a que una RNA almacena la información de forma redundante, ésta puede

seguir respondiendo de manera aceptable aun si se daña parcialmente (tolerancia a

fallos).

 Puede manejar cambios no importantes en la información de entrada, como

señales con ruido u otros cambios en la entrada (ej. si la información de entrada es

la imagen de un objeto, la respuesta correspondiente no sufre cambios si la

imagen cambia un poco su brillo o el objeto cambia ligeramente).

 Es paralela, por lo cual, si esto es implementado con computadoras o en

dispositivos electrónicos especiales, se pueden obtener respuestas en tiempo real.

Desventajas

 Complejidad de aprendizaje para grandes tareas, cuantas más cosas se necesiten

que aprenda una red, más complicado será enseñarle.

 Tiempo de aprendizaje elevado. Esto depende de dos factores: primero si se

incrementa la cantidad de patrones a identificar o clasificar y segundo si se

requiere mayor flexibilidad o capacidad de adaptación de la red neuronal para

reconocer patrones que sean sumamente parecidos, se deberá invertir más tiempo

en lograr que la red converja a valores de pesos que representen lo que se quiera

enseñar.

 No permite interpretar lo que se ha aprendido, la red por si sola proporciona una

salida, un número, que no puede ser interpretado por ella misma, sino que se

requiere de la intervención del programador y de la aplicación en si para

encontrarle un significado a la salida proporcionada.


28

  Elevada cantidad de datos para el entrenamiento, cuanto más flexible se requiera

que sea la red neuronal, más información tendrá que enseñarle para que realice de

forma adecuada la identificación.

V. CONCLUSIONES

 Las redes neuronales artificiales son herramientas que la inteligencia artificial nos

brinda para poder solucionar problemas de manera segura, aminorando el trabajo

de solución para el usuario.

 En el ámbito de la Hidrología las RNAs se han usado de manera constante,

teniendo resultado exitosas investigaciones, de acuerdo a ello es porque se usa

 comúnmente dos algoritmos (backpropagation y algoritmos genéticos) que ha

dado satisfacción en el campo de la predicción de los recursos hidrológicos.

VI. BIBLIOGRAFIA Y WEBGRAFIA

 Martínez Pérez, M., Ortiz Valencia, E., López Guzmán, D., & Casas Rosíquez, M.

(2019). Predicción de Inundaciones Usando Modelos de Tanques y Redes Neuronales.

Memorias del XXV Congreso Internacional Anual de la SOMIM, 1-10.

 Alemán Morales, D. (2017). Técnicas de inteligencia artificial aplicadas a problemas de

ingeniería civil. Revista de Arquitectura e Ingeniería, 1-7. Obtenido de

https://www.redalyc.org/articulo.oa?id=193955164005
29

 Amela Llobet, M. (2016). Aproximación de funciones con redes. España: Universitat

Jaume I de valencia. Obtenido de

http://repositori.uji.es/xmlui/bitstream/handle/10234/165697/TFG_2016_AmelaLlobetMi

guel.pdf?sequence=1&isAllowed=y

 Calvo, D. (13 de Julio de 2017). Diego Calvo. Obtenido de Diego Calvo:

https://www.diegocalvo.es/clasificacion-de-redes-neuronales-artificiales/

 Corbí Cabrera, A. (2016). Estudio de redes neuronales y modelos de cuadripolos para la

solución del problema inverso en ensayos no destructivos por medio de corrientes

inducidas. Aplicación para el control de espesores en superficies metálicas con protección

multicapa(tesis). Valencia, España: Universidad Politecnica de Valencia.

 https://ingenieriacivilunh.wordpress.com/2018/06/13/primera-entrada-del-blog/

 http://repositorio.ucam.edu/handle/10952/3381

 https://cdv.dei.uc.pt/wp-content/uploads/2014/03/ms07.pdf

 http://www.rclibros.es/pdf/InteligenciaArtificial.pdf

 [4] Gómez, A., Juristo, N., Montes, C., Pazos, J., 1997. “Ingeniería del Conocimiento”.

Centro de Estudios Ramón Areces S.A.Madrid.

 Pazos, A., Col., 1991. “Estructura, dinámica y aplicaciones de las Redes de Neuronas

Artificiales”. Centro de Estudios Ramón Areces S.A. Madrid.

 https://lelinopontes.files.wordpress.com/2014/09/inteligencia-artificial-con-aplicaciones-

a-la-ingenierc3ada.pdf

 https://dspace.uib.es/xmlui/bitstream/handle/11201/2511/Montano_Moreno_JuanJose.pdf

?sequence=1

 http://revistas.unica.cu/index.php/uciencia/article/viewFile/195/791
30

 http://portal.uned.es/EadmonGuiasWeb/htdocs/abrir_fichero/abrir_fichero.jsp?

idGuia=80646

 http://blogdetrabajospublicados.blogspot.com/2008/04/inteligencia-artificial-y-la-

ingenieria.html

 https://www.iagua.es/noticias/europa-press/inteligencia-artificial-prevenir-inundaciones

 Consultado en: https://empresas.blogthinkbig.com/como-funciona-el-algoritmo-

backpropagation-en-una-red-neuronal/ (05/08/2020)

 [1]http://decsai.ugr.es/~castro/Neuro/E-Backpropagation/ppframe.htm (05/08/2020).

 [2]http://decsai.ugr.es/~castro/Neuro/E-Backpropagation/ppframe.htm (05/08/2020).

 [3]http://decsai.ugr.es/~castro/Neuro/E-Backpropagation/ppframe.htm (05/08/2020)

 [4]MONJA OSORIO, Manuel Alejandro; TESIS: “Diseño para de una arquitectura para

una red neural artificial perceptron sobre una FPGA aplicada al reconocimiento de

caracteres”; Repositorio de la Pontificia Universidad Católica del Perú. Lima-Perú. Año

2008.

 [5]GARRIDO ROJAS, Eduart Rudolf. TESIS: “Diseño e Implementación de un módulo

de Reconocimiento de números manuscritos”, para obtener el título profesional de

Ingeniero Electrónico-Pontificia Universidad Católica del Perú- Lima. Marzo-2010.

También podría gustarte