Está en la página 1de 7

http://redesneuro.blogspot.com/2011/04/1.

html

https://magiquo.com/redes-neuronales-o-el-arte-de-imitar-el-cerebro-humano/

http://webs.ucm.es/info/pslogica/redesdoc.pdf

w=peso

2.1. La neurona artificial


La unidad básica de una RNA es la neurona. Aunque hay varios tipos de
neuronas diferentes, la mas común es la de tipo McCulloch-Pitts. En la siguiente
figura puede verse una representación de la misma

Figura 2-1. Representación de una neurona artificial tipo McCulloch-Pitts

Una neurona artificial es un procesador elemental, en el sentido de que procesa


un vector x (x1,x2,...xN) de entradas y produce un respuesta o salida única. Los
elementos clave de una neurona artificial los podemos ver en la figura anterior y
son los siguientes:

 Las entradas que reciben los datos de otras neuronas. En una neurona
biológica corresponderían a las dendritas
 Los pesos sinapticos wij. Al igual que en una neurona biológica se
establecen sinápsis entre las dendritas de una neurona y el axón de otra, en
una neurona artificial a las entradas que vienen de otras neuronas se les
asigna un peso, un factor de importancia. Este peso, que es un número, se
modifica durante el entrenamiento de la red neuronal, y es aquí por tanto
donde se almacena la infomación que hara que la red sirva para un
propósito u otro.
 Una regla de propagación. Con esas entradas y los pesos sinapticos, se
suele hacer algun tipo de operación para obtener el valor del potencial
postsinaptico (valor que es funcion de las entradas y los pesos y que es el
que se utiliza en último término para realizar el procesamiento). Una de las
operaciones mas comunes es sumar las entradas, pero teniendo en cuenta
la importancia de cada una (el peso sináptico asociado a cada entrada). Es
lo que se llama suma ponderada, aunque otras operaciones también son
posibles.

Ecuación 2-1. Suma ponderada

La otra regla de propagacion mas habitual es la distancia euclidea. Este es


el tipo de regla que tienen redes como el SOM o las RBF.

 Una función de activación. El valor obtenido con la regla de propagación,


se filtra a través de una función conocida como función de activación y es
la que nos da la salida de la neurona. Según para lo que se desee entrenar
la red neuronal, se suele escoger una función de activación u otra en
ciertas neuronas de la red. En la siguiente tabla se muestran las funciones
de activación mas usuales

Figura 2-2. Funciones de activación más usuales


En muchas ocasiones la razón para la aplicación de una función de activación
distinta de la identidad surge de la necesidad de que las neuronas produzcan una
salida acotada. Esto desde un punto de vista de similitud con el sistema
biológico, no es tan descabellado, ya que las respuestas de las neuronas
biológicas estan acotadas en amplitud. Además cada neurona tiene asociado un
número denominado bías o umbral, que puede verse como un número que indica
a partir de que valor del potencial postsináptico la neurona produce una salida
significativa.
Punto2

Ejemplo del estudiante

Tenemos un estudiante que quiere


estudiar para un examen entonces el
día del examen estudio 4 horas y
durmió 3 horas y este fue el resultado,
en otro día para otro examen estudio 5
horas y durmió 2 horas y este fue el
resultado entonces se comienza a
combinar dos datos que no
necesariamente se siente que tuvieran
una correlación: la cantidad de horas
de sueño y la cantidad de horas de
estudio, al frente colocamos la
cantidad de nota que obtuvo en el examen entoces la teoría de es que un red neuronal que es
entrenada con estos datos podría generarnos una aproximación de cuanto quedaría la nota del
examen apartir de estos dos datos Metemos las horas de sueño, las horas de estudio y tenemos
unas capas misteriosas que mueven esos datos y generan un resultado, como funciona
internamente funciona de esta forma

sabemos cuales son los datos de entradas y le damos a los nodos esos datos, esta red neuronal lo
que hace es mover los datos entre un rango de valores como 0 y 100 con diferentes funciones y
luego intentan ver si se acercan al resultado original y si no lo vuelven a intentar muchas veces en
paralelo

básicamente es tirarles datos y que un pequeño microprocesador una pequeña función los
cambien de muchas maneras y las que no funcionan simplemente se apagan, las que si funcionan
son las que se prenden y tienen mas rango de algo que internamente se llama baias que es como
el sesgo o la probabilidad de que sea de verdad o no

tomamos los datos horas de sueño y horas de


estudio, los sumamos con la sumatoria pero
estos datos los multiplicamos con el peso que
tienen los datos peso que le damos nosotros
como que pensar que el estudio es mas
importante que el sueño y luego los pasamos
por una función de activación

activation functions

función de paso que es básicamente poner en 1


o 0 como si fuera un sistema digital

función de signos que la pone en -1, 0 o 1 los datos con los que tendríamos 3 pasos,

y una función especial que es un gradiente que nos pasa por todos los posibles números
que va desde 0 a 1 en una curva esta función se llama la función sigmoide.
Segundo ejemplo ///////////////////////////////////

Red neuronal para detectar un auto

Imaginemos que esta red neuronal funciona con imputs y cada imput seria un pixel de la imagen

Entonces se necesitaría mucho poder de computación

Primero revisa grupo de pixeles para ver como se parecen


Se vuelve más grande intentando revisar grupos de patrones

Luego intenta revisar cuales son los frontales, ruedas logo del frente

Proceso gigantesco donde se requiere una masiva cantidad de computación para poder lograrlo

Y esta es la forma en la que una red neuronal ve, creando muchos procesos pasándola por la
función sigmoide

También podría gustarte