Está en la página 1de 5

Capítulo 4

Primeros modelos matemáticos de las neuronas biológicas


En este capítulo, comenzaremos nuestro estudio de las redes neuronales artificiales a través de uno
de los algoritmos clásicos del aprendizaje máquina: el perceptrón. Las bases teóricas que nos
brindará el estudio del perceptrón, nos permitirán ganar intuición para afrontar apropiadamente
aquellas tareas en las que se requieren aplicar arquitecturas de redes neuronales artificiales más
complejas. Asimismo, se proporcionará un breve análisis acerca de la inspiración biológica del
perceptrón.

Neuronas biológicas
Haciendo un símil con los bits en una computadora, podemos decir que una neurona es la unidad
de procesamiento básica del cerebro biológico. Nuestro cerebro contiene aproximadamente 1011
neuronas, las cuales presentan un alto grado de conectividad entre sí. La siguiente figura muestra
una representación genérica de una neurona:

Imagen adaptada de (Raschka & Mirjalili, 2019)

Ajustándonos a un enfoque general y sumamente simplificado, podemos decir que el


procesamiento de la información por parte de las redes neuronales biológicas, ocurre de la siguiente
manera: una neurona recibe diversas señales eléctricas en las dendritas, después, estas señales se
traspasan al núcleo celular y si el conjunto de señales de entrada supera un umbral, se produce
como respuesta una señal eléctrica que viaja a lo largo del axón hasta llegar a las terminales del
axón, desde donde se transmite a las dendritas de otras neuronas, repitiéndose el proceso de
propagación de la señal antes descrito. La figura siguiente ilustra justamente este proceso de
transmisión de información entre las neuronas.

Imagen adaptada de (Rash, 2016)

Es de especial importancia recalcar el hecho de que el comportamiento de las neuronas biológicas


es mucho más complejo que la descripción que se realizó arriba. No obstante, nuestra descripción
se apega a la perspectiva desde la que tradicionalmente se han tratado a las redes neuronales
biológicas en el área de machine learning.

Primeros modelos matemáticos de las neuronas biológicas


En 1943, Warren McCulloch y Walter Pitts publicaron un artículo en el que propusieron el primer
modelo matemático de una neurona biológica (McCulloch & Pitts, 1943). Este trabajo abrió el
camino a las investigaciones orientadas a replicar el funcionamiento de las neuronas biológicas.
McCulloch y Pitts representaron a la neurona biológica como una compuerta lógica que recibe
múltiples señales de entrada, que luego son sometidas a una sumada ponderada y si el resultado de
esta suma supera un umbral, se produce una salida, la cual es de tipo binario. Es decir, si la suma
ponderada de las señales de entrada supera un umbral, la neurona se activa y transmite una señal
de salida, de lo contrario, permanece inactiva y no transmite señal alguna.
Posteriormente, en la década de los 50’s, Frank Rosenblatt publicó un modelo neuronal
denominado perceptrón (Rosenblatt, 1958), el cual se basa en el modelo de McCulloch-Pitts y que
se distinguió por presentar una regla de aprendizaje que permitió resolver problemas de
clasificación de tipo binario.
Todos los detalles sutiles relacionados al funcionamiento del perceptrón, quedarán clarificados una
vez que desarrollemos e implementemos un ejemplo. No obstante, la lección principal que tiene
que obtenerse del análisis previo que se realizó referente a las neuronas biológicas y a los modelos
de McCulloch-Pitts y Rosenblatt, se relaciona con el hecho de que dichos modelos, e inclusive los
modelos de redes neuronales más avanzados de la actualidad, guardan una similitud mínima con
sus contrapartes biológicas. Las implicaciones de este problema quedan fuera de los alcances de
este curso.

Definición forma de una neurona artificial


Como analizamos previamente, las neuronas artificiales se inscriben dentro de la modalidad de
clasificación binaria, ya que pueden producir como salida una señal eléctrica o en caso contrario, no
emitir ninguna salida. Entonces, en el contexto del aprendizaje máquina, podemos decir que una
neurona artificial categoriza las entradas en dos clases: clase 1 y clase 0. También podemos decir
que la clase 1 es la clase positiva y que la clase 0 es la clase negativa. Además, en lugar de que la
clase negativa tenga el valor de 0, también podríamos haberle asignado el valor de -1. El punto es
que deben ser dos clases distintas, ya que nuestras neuronas artificiales realizan una clasificación
de tipo binaria.
Como se mencionó anteriormente, desde una óptica fijada en el campo del aprendizaje máquina,
podemos decir que una neurona artificial recibe una serie de entradas, procede a sumarlas y si esta
suma supera un umbral, se generada una salida. Matemáticamente, una neurona artificial se
representa mediante la siguiente función de decisión o función de transferencia:

1, 𝑠𝑖 𝑧 ≥ 𝜃
𝜙(𝑧) = {
−1, 𝑠𝑖 𝑧 < 𝜃

Donde 𝜃 hace referencia al umbral y 𝑧 se denomina entrada neta, la cual representa la suma de las
entradas. Es de vital importancia señalar que, formalmente, 𝑧 no recibe únicamente la suma de las
entradas, sino que recibe la combinación lineal de los valores de las entradas 𝑥 y los valores de sus
pesos correspondientes 𝑤. Estos pesos, son los parámetros que tenemos que ajustar para que la
clasificación se lleve a cabo de forma apropiada. Una vez establecido lo anterior, tenemos que la
definición de 𝑧 es la siguiente:

𝑧 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝑤3 𝑥3 + ⋯ + 𝑤𝑚 𝑥𝑚

𝑤1 𝑥1
𝑤2 𝑥2
Donde 𝑤 = 𝑤3 y 𝑥 = 𝑥3
⋮ ⋮
[𝑤𝑚 ] [𝑥𝑚 ]

z se genera a través del producto interno entre los vectores w y x.


Retomemos la función de transferencia que describe el comportamiento de una neurona:

1, 𝑠𝑖 𝑧 ≥ 𝜃
𝜙(𝑧) = {
−1, 𝑠𝑖 𝑧 < 𝜃

Tradicionalmente, el umbral 𝜃 suele colocarse a la izquierda de la ecuación, de tal forma que la


función de transferencia se expresaría como sigue:

1, 𝑠𝑖 𝑧 − 𝜃 ≥ 0
𝜙(𝑧) = {
−1, 𝑠𝑖 𝑧 − 𝜃 < 0

Aún más, podemos integrar el umbral 𝜃 a 𝑧 haciendo que 𝑤0 = −𝜃 y que 𝑥0 = 1, y por lo tanto, z
quedaría expresada de la siguiente manera:

𝑧 = 𝑤0 𝑥0 + 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝑤3 𝑥3 + ⋯ + 𝑤𝑚 𝑥𝑚

En la literatura del aprendizaje máquina, el umbral negativo o 𝑤0 = −𝜃, se denomina bias.

Bibliografía
McCulloch, W. S., & Pitts, W. (1943). A Logical Calculus of the Idea Immanent in Nervous Activity.
Bulletin of Mathematical Biophysics, 5, 115–133. https://doi.org/10.1007/BF02478259
Raschka, S., & Mirjalili, V. (2019). Python Machine Learning: Machine Learning and Deep Learning
with Python, scikit-learn, and TensorFlow 2. In Packt Publishing Ltd (Issue January 2010).
Rash, T. (2016). Make Your Own Neural Network-CreateSpace Independent Publishing Platform.
CreateSpace Independent Publishing Platform.
Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and
organization in …. Psychological Review, 65(6), 386–408. https://doi.org/10.1037/h0042519

También podría gustarte