Está en la página 1de 10

INTELIGENCIA ARTIFICIAL

Tema: parte 1

Br. RUTH GONZALEZ


ING.MARTHA GARCIA
Aplicaciones de las redes neuronales

Las redes neuronales pueden utilizarse en un gran número y variedad de


aplicaciones, tanto comerciales como militares. Se pueden desarrollar redes
neuronales en un periodo de tiempo razonable, con la capacidad de realizar
tareas concretas mejor que otras tecnologías. Cuando se implementan
mediante hardware (redes neuronales en chips VLSI), presentan una alta
tolerancia a fallos del sistema y proporcionan un alto grado de paralelismo
en el procesamiento de datos. Esto posibilita la inserción de redes
neuronales de bajo coste en sistemas existentes y recientemente
desarrollados. Hay muchos tipos diferentes de redes neuronales; cada uno
de los cuales tiene una aplicación particular más apropiada. Algunas
aplicaciones comerciales son:
Biología: - Aprender más acerca del cerebro y otros sistemas. - Obtención
de modelos de la retina.
Empresa: - Evaluación de probabilidad de formaciones geológicas y
petrolíferas. - Identificación de candidatos para posiciones específicas. -
Explotación de bases de datos. - Optimización de plazas y horarios en líneas
de vuelo. - Optimización del flujo del tránsito controlando convenientemente
la temporización de los semáforos. - Reconocimiento de caracteres escritos.
- Modelado de sistemas para automatización y control.
Medio ambiente: - Analizar tendencias y patrones. - Previsión del tiempo.
Finanzas: - Previsión de la evolución de los precios. - Valoración del riesgo
de los créditos. - Identificación de falsificaciones. - Interpretación de firmas.
Manufacturación: - Robots automatizados y sistemas de control (visión
artificial y sensores de presión, temperatura, gas, etc.). - Control de
producción en líneas de procesos. - Inspección de la calidad.
Medicina: - Analizadores del habla para ayudar en la audición de sordos
profundos. - Diagnóstico y tratamiento a partir de síntomas y/o de datos
analíticos (electrocardiograma, encefalogramas, análisis sanguíneo, etc.). -
Monitorización en cirugías. - Predicción de reacciones adversas en los
medicamentos. - Entendimiento de la causa de los ataques cardíacos.
Militares: - Clasificación de las señales de radar. - Creación de armas
inteligentes. - Optimización del uso de recursos escasos. - Reconocimiento
y seguimiento en el tiro al blanco. La mayoría de estas aplicaciones
consisten en realizar un reconocimiento de patrones, como ser: buscar un
patrón en una serie de ejemplos, clasificar patrones, completar una señal a
partir de valores parciales o reconstruir el patrón correcto partiendo de uno
distorsionado. Sin embargo, está creciendo el uso de redes neuronales en
distintos tipos de sistemas de control. Desde el punto de vista de los casos
de aplicación, la ventaja de las redes neuronales reside en el procesado
paralelo, adaptativo y no lineal. El dominio de aplicación de las redes
neuronales también se lo puede clasificar de la siguiente forma: asociación
y clasificación, regeneración de patrones, regresión y generalización, y
optimización.

¿Qué es la matriz de confusión y para qué se utiliza?

Un modelo de clasificación es aquel capaz de predecir a qué clase va a


pertenecer una nueva instancia, basándose en lo aprendido en instancias
anteriores. Así, en un modelo binario, podemos considerar dos clases:
“Positiva” y “Negativa”. Basándonos en datos históricos de nuestra base de
clientes, por ejemplo, podremos construir un modelo que prediga si un
cliente va a darse de baja (caso tipo de predicción de “churning”), o no. Para
evaluar este modelo que hemos creado, podríamos simplemente calcular
su precisión (“accuracy”), como la proporción entre las predicciones
correctas que ha hecho el modelo y el total de predicciones.

Precisión= (Predicciones correctas)/(Número total de Predicciones)

Esta precisión sería equivalente a restar el ratio de error de la unidad:


1- ratio de error.

Sin embargo, aunque en ocasiones resulta práctico por su facilidad de


cálculo, otras veces es necesario profundizar un poco más y tener en cuenta
los tipos de predicciones correctas e incorrectas que realiza el clasificador.
Es aquí donde entra en juego la Matriz de Confusion (“Confusion Matrix”).
Definición de matriz de confusión.

La matriz de confusión de un problema de clase nes una matríz nxnen la que


las filas se nombran según las clases reales y las columnas, según las clases
previstas por el modelo. Sirve para mostrar de forma explícita cuándo una clase
es confundida con otra. Por eso, permite trabajar de forma separada con
distintos tipos de error.

Por ejemplo, en un modelo binario que busque predecir si una seta es


venenosa o no, basándose en determinadas características físicas de éstas
consideraremos las clases reales positivo= la seta es venenosa) y negativo=la
seta es comestible), y las clases pronosticadas por el modelo, S(í, es
venenosa), o N(o, es comestible). De esta forma, la matriz de confusión para
este modelo tiene etiquetadas sus filas con las clases reales, y sus columnas,
con las predichas por el modelo. Quedaría así:

De esta forma, la diagonal principal contiene la suma de todas las


predicciones correctas (el modelo dice “S” y acierta, es venenosa, o dice “N”
y acierta también, es comestible). La otra diagonal refleja los errores del
clasificador: los falsos positivos o “true positives” (dice que es venenosa “S”,
pero en realidad no lo es “n”), o los falsos negativos o “false negatives” (dice
que es comestible “N”, pero en realidad es venenosa “p”).

Sin embargo, cuando las distintas “clases” están muy desequilibradas, esta
forma de clasificar la “bondad” del funcionamiento de un clasificador resulta
poco útil. Por ejemplo, si la tasa de abandono de clientes (“churn”) es de un
10% al mes (es decir, 10 personas de cada 100 se dan de baja al mes), y
consideramos al cliente que se da de baja como clase “positiva”, la relación
entre clases positivas: negativas esperada sería de 1:9. Así que si
directamente asignamos todos los clientes la clase negativa (=no churn),
estaríamos consiguiendo una precisión base del 90%, pero… no nos serviría
para nada.

El problema radica en que al medir la precisión del algoritmo de esa forma


no distinguimos entre los errores de tipo falso positivo y falso negativo, como
si ambos tuvieran la misma importancia.

Como se hace un Análisis con R. N. A.

El perceptrón
Fue el primer modelo de red neuronal artificial desarrollado en 1958 por
Rosenblatt. Despertó un enorme interés en los años 60 debido a su
capacidad para aprender a reconocer patrones sencillos.

Está formado por varias neuronas para recibir las entradas a la red y una
neurona de salida que es capaz de decidir cuándo una entrada a la red
pertenece a una de las dos clases que es capaz de reconocer.

La neurona de salida del Perceptrón realiza la suma ponderada de las


entradas, resta el umbral y pasa el resultado a una función de
transferencia de tipo escalón. La regla de decisión es responder +1 si el
patrón presentado pertenece a la clase A, o -1 si el patrón pertenece a la
clase B.
Qué pueden representar los perceptrones

Al constar sólo de una capa de entrada y otra de salida con una única
neurona, tiene una capacidad de representación bastante limitada. Sólo es
capaz de discriminar patrones muy sencillos y linealmente separables en el
plano. Es incapaz, por ejemplo, de representar la función OR-EXCLUSIVA.

La separabilidad lineal limita a las redes con sólo dos capas a la resolución
de problemas en los cuáles el conjunto de puntos (valores de entrada) sean
separables geométricamente. En el caso de dos entradas, la separación se
lleva a cabo mediante una línea recta. Para tres entradas, la separación se
realiza mediante un plano en el espacio tridimensional y así sucesivamente
hasta el caso de N entradas, en el cuál el espacio N-dimensional es dividido
en un hiperplano.

El hecho de que el perceptrón sólo es capaz de representar funciones


linealmente separables se deduce de la expresión

salida = W E

Dónde:

W es el vector de los pesos de las conexiones con la neurona de


salida

E es el vector de las entradas a la neurona de salida

Este produce un 1 sólo si W.E > 0 Esto significa que todo el espacio de
entradas se divide en dos a lo largo de un límite definido por W.E = 0, es
decir, un plano en el espacio de entrada con coeficientes definidos por los
pesos.
APRENDIZAJE DE LAS RNA

Es el proceso por el que una RNA actualiza los pesos (y, en algunos
casos, la arquitectura) con el propósito de que la red pueda llevar a cabo de
forma efectiva una tarea determinada.

Hay tres conceptos fundamentales en el aprendizaje:

Paradigma de aprendizaje: información de la que dispone la red.

Regla de aprendizaje: principios que gobiernan el aprendizaje.

Algoritmo de aprendizaje: procedimiento numérico de ajuste de los


pesos.

Existen dos paradigmas fundamentales de aprendizaje:

Supervisado: la red trata de minimizar un error entre la salida que


calcula y la salida deseada (conocida), de modo que la salida calculada
termine siendo la deseada.

No supervisado o autoorganizado: la red conoce un conjunto de


patrones sin conocer la respuesta deseada. Debe extraer rasgos o agrupar
patrones similares.

En cuanto a los algoritmos de aprendizaje, tenemos cuatro tipos:

Minimización del error: reducción del gradiente, retropropagación,


etc. La modificación de pesos está orientada a que el error cometido sea
mínimo.
Boltzmann: para redes estocásticas, donde se contemplan
parámetros aleatorios.

Hebb: cuando el disparo de una célula activa otra, el peso de la


conexión entre ambas tiende a reforzarse (Ley de Hebb).

Competitivo: sólo aprenden las neuronas que se acercan más a la


salida deseada.

Los algoritmos, y en general el proceso de aprendizaje, son complejos


y suelen llevar bastante tiempo computacionalmente hablando. Su ventaja
es que una vez ha aprendido, la red puede congelar sus pesos y funcionar
en modo recuerdo o ejecución.

Tipos de Redes Neuronales.

 El Perceptron Simple.
 La Red de Hopfield.
 El Perceptron Multicapa.
 Red neuronal Competitiva Simple.
 Redes Neuronales Online ART1.
 Redes Neuronales competitivas ART2.
 redes neuronal auto organizado: Mapas de Kohonen.

Tipos de R. N. A.

Red neuronal Multicapa – Perceptrón multicapa


La red neuronal multicapa es una generalización de la red neuronal mono
capa, la diferencia reside en que mientras la red neuronal mono capa está
compuesta por una capa de neuronas de entrada y una capa de neuronas
de salida, esta dispone de un conjunto de capas intermedias (capas ocultas)
entre la capa de entrada y la de salida.
Dependiendo del número de conexiones que presente la red esta puede
estar total o parcialmente conectada.

Perceptrón multicapa
Red neuronal Convolucional (CNN)

La principal diferencia de la red neuronal convolucional con el perceptrón


multicapa viene en que cada neurona no se une con todas y cada una de
las capas siguientes sino que solo con un subgrupo de ellas (se especializa),
con esto se consigue reducir el número de neuronas necesarias y la
complejidad computacional necesaria para su ejecución.

Red neuronal convolucional

Red neuronal recurrente (RNN)


Las redes neuronales recurrentes no tienen una estructura de capas, sino
que permiten conexiones arbitrarias entre las neuronas, incluso pudiendo
crear ciclos, con esto se consigue crear la temporalidad, permitiendo que la
red tenga memoria.
Los datos introducidos en el momento t en la entrada, son transformados y
van circulando por la red incluso en los instantes de tiempo siguientes t + 1,
t + 2, …

Red Neuronal Recurrente

Redes de base radial (RBF)


Las redes de base radial calculan la salida de la función en función de la
distancia a un punto denominado centro. La salida es una combinación lineal
de las funciones de activación radiales utilizadas por las neuronas
individuales.
Las redes de base radial tienen la ventaja de que no presentan mínimos
locales donde la retro propagación pueda quedarse bloqueada.

También podría gustarte