Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Las RNA no alcanzan la complejidad del cerebro, sin embargo hay dos aspectos
similares entre redes biológicas y artificiales, primero los bloques de
construcción de ambas redes son sencillos elementos computacionales (aunque
las RNA son mucho más simples que las biológicas) altamente interconectados;
segundo, las conexiones entre neuronas determinan la función de la red.
Tema: La neurona: estructura y función
neurona
Estructura de la neurona:
Algunas de las partes de la neurona son similares a las de las demás células. Otras
partes le son distintivas. A continuación se listan las estructuras principales de la
neurona.
Soma o cuerpo celular. Esta parte incluye el núcleo. Al igual que todas las demás
células, las neuronas tienen un núcleo. En esta parte es donde se produce la
energía para el funcionamiento de la neurona. Una diferencia importante es que el
núcleo de las neuronas no esta capacitado para llevar a cabo división celular
(mitosis), o sea que las neuronas no se reproducen. Que implica esto:
Dendritas - Son prolongaciones que salen de diferentes partes del soma. Suelen ser
muchas y ramificadas. El tamaño y ramificación de las dendritas varía según el
lugar y la función de la neurona (insertar transparencia).
Axón - Es una sola prolongación que sale del soma en dirección opuesta a las
dendritas. Su tamaño varía según el lugar donde se encuentre localizado el axón,
pero por lo regular suele ser largos (insertar transparencia). La función del axón
es la de conducir un impulso nervioso desde el soma hacia otra neurona, músculo
o glándula del cuerpo. El axón tiene varias estructuras distintivas:
Capas de mielina - Son capas de una sustancia grasosa que cubre partes de la
superficie del axón. Estas capas facilitan la transmisión del impulso nervioso.
Esta sustancia es producida por las células Schuann La falta de mielina esta
asociada con dificultad en la transmisión de impulso nervioso (Ej. esclerosis
múltiple). Además, su ausencia en los infantes explica sus limitaciones motrices.
No todo el axón esta cubierto de mielina. Hay partes que no; estos espacios se
conocen como:
Botones Sinápticos - Son ramificaciones al final del axón que permiten que el impulso
nervioso se propague en diferentes direcciones. En los botones sinápticos hay:
Células glia - Son células que tienen a su cargo ayudar a la neurona en diversas
funciones (Ej., intercambio de fluidos, eliminar desechos metabólicos). Esto
permite a la neurona ser más eficiente.
Células Shuann- Es un tipo de célula glia que tienen a su cargo producir la mielina
Función de la neurona
Introducción:
El potencial de reposo.
Se llama así al estado en que se encuentra una neurona que no esta transmitiendo un
mensaje o impulso nervioso.
El potencial de acción
Dentro y fuera del axón. La carga eléctrica cambiará aproximadamente de -70mv a
+40mv.
Esos disturbios (que no son sino desbalances en las cargas eléctricas adyacentes)
van a afectar el próximo punto de intercambio (o sea, el próximo nódulo de
Ranvier) donde los canales se abrirán y dejaran entrar el Na+, produciéndose en
ese punto un nuevo potencial de acción.
Esa secuencia de potenciales de acciones desde la base del axón hasta su final es lo
que se conoce como un impulso nervioso.
Una vez se inicia el primer potencial de acción en la base del axón, este continuar<
propagándose a lo largo del axón. No importa cuán intenso sea la estimulación
inicial, si esta supera el umbral (o intensidad mínima necesaria) el impulso
nervioso ser< siempre de igual magnitud. A esto se le conoce como el principio
del todo o nada.
La transmisión sináptica
Cuando el potencial de acción llega a los botones sinápticos, hace que las vesículas
sinápticas se peguen a la membrana abriéndose y liberando a la sinapsis los
neurotransmisores (NT)
Cuando el NT llega a la membrana objetivo tiene como resultado excitarla para que
emita una señal o inhibirla de emitir mensajes
Los neurotransmisores son los que, al incidir sobre las dendritas, inician un nuevo
disturbio en la próxima neurona cuyo resultado puede ser que el impulso se
transmita a través de esa neurona. El efecto puede ser también una contracción
muscular o una secreción glandular
Los NT guardan una relación llave cerradura respecto al lugar donde se adhieren.
Esto quiere decir que la relación es específica: ciertos NT pueden adherirse en
determinados lugares y producen reacciones específicas.
También, dependiendo del lugar un mismo NT puede estar relacionado con diferentes
procesos psicológicos o actividades mentales.
Acetilcolina (Ach)
Dopamina
A nivel muscular actúa como inhibidor. Su función principal es lograr una mayor
coordinación del movimiento muscular
En los pacientes con el mal de Parkinson los niveles de dopamina son bajos. Una de
las características de estos pacientes es la falta de coordinación de los
movimientos musculares. Se ha utilizado el medicamento L-dopa en el
tratamiento de esta condición
Por otro lado, en pacientes esquizofrénicos se ha encontrado un sobre uso de
dopamina en ciertas <reas del lóbulo frontal, lo que se asocia con las
alucinaciones que algunos de estos pacientes experimentan.
Noradrenalina
Este NT se encuentra en diferentes <reas del cerebro. El mismo ha sido asociado
con el estado de alerta en términos generales. Desbalances en Noradr. (ya sea
que esté muy alto o bajo) tiene como consecuencias alteraciones en el estado de
<nimo (Ej. estado depresivo o de agitación).
Serótonina
Actúan principalmente como inhibidor del dolor. También son capaces de producir un
estado de euforia (sensación de placer, bienestar y sentido de competencia).
b. Las llamadas drogas opioides u opiáceas actúan simulando los efectos de las
endorfinas.
Neurona artificial
La unidad de procesamiento artificial equivalente a una neurona biológica intenta imitar los
aspectos de esta en cuanto a su comportamiento y funcionamiento. De este modo se
disponen de unas entradas y salidas, como en las neuronas biológicas, que transmitirán
valores, bien reales o binarios de una neurona a otra, en vez de señales electroquímicas.
Estructura de una neurona artificial
Debido a que en las neuronas biológicas no todas las conexiones entre axones y dendritas
(sinapsis) tienen la misma concentración de iones, su conductividad es diferente, de modo
que una conexión tendrá mayor preferencia sobre otra con menor conducción. Para reflejar
esto se plantean una serie de pesos en las conexiones de entrada wi que ponderarán las
entradas definiendo así el estado interno o nivel de activación de la célula.
La salida depende de este estado interno y se define a partir de una función denominada
función de activación, que puede ser bien lineal, una función umbral o una función
cualquiera que dependerá de la arquitectura de la red elegida.
E x1 ·w j1 x2 ·w j 2 x3 ·w j 3 ... xn ·w jn
1
f1 ( x)
Sigmoidal, con rango de (0,1): 1 ex
1 e x
f 2 ( x)
Tangente hiperbólica, con rango de (-1,1): 1 ex
En general, no todas las neuronas de una misma red han de disponer de la misma función
de activación.
Existen, además, ciertos tipos de red como las redes de Base Radial, en las que las neuronas
disponen de una forma diferente de activación.
Capa de entrada: actúa de buffer ante los datos de los patrones de entrada se
introducen a la red.
Capas ocultas: Puede haber una, varias o bien no existir dependiendo de la
topología de la red y de la potencia de esta. Normalmente, las neuronas ocultas
son las que realmente realizan el procesado de los datos, de forma que cuanto
más complejo sea el problema, habrá que introducir más neuronas en estas capas.
De este modo, se denominará red al conjunto de capas, que abarcan las diferentes neuronas
de un mismo nivel y las conexiones entre ellas.
Del cerebro, visto a alto nivel y simplificando su estructura, podríamos decir que es
un conjunto de millones y millones de unas células especiales, llamadas neuronas,
interconectadas entre ellas por sinapsis. Las sinapsis son las zonas donde dos
neuronas se conectan y la parte de la célula que está especializada en ello son las
dendritas y las ramificaciones del axón.
Por las entradas Xi llegan unos valores que pueden ser enteros, reales o binarios.
Estos valores equivalen a las señales que enviarían otras neuronas a la nuestra a
través de las dendritas.
Los pesos que hay en las sinapsis Wi, equivaldrían en la neurona biológica a los
mecanismos que existen en las sinapsis para transmitir la señal. De forma que la
unión de estos valores (Xi y Wi) equivalen a las señales químicas inhibitorias y
excitadoras que se dan en las sinapsis y que inducen a la neurona a cambiar su
comportamiento.
Estos valores son la entrada de la función de ponderación o red que convierte estos
valores en uno solo llamado típicamente el potencial que en la neurona biológica
equivaldría al total de las señales que le llegan a la neurona por sus dendritas. La
función de ponderación suele ser una la suma ponderada de las entradas y los
pesos sinápticos.
Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis
en el potencial de la neurona.
Normalmente se usa como función de propagación la suma ponderada de las entradas
multiplicadas por los pesos. En esta función se interpreta como un regulador de las señales
que se emiten entre neuronas al ponderar las salidas que entran a la neurona.
Otra regla de propagación usada es la distancia euclídea. Usada en los mapas de kohonen y
algunas redes competitivas.En ella, los pesos sinápticos funcionan de manera distinta al
anterior ya que lo que hacen es aproximarse lo máximo posible al vector de entrada. Es
utilizada en redes no supervisadas para que se ajuste a los patrones.
Otra versión de esta función es la misma pero con la distancia de Manhattan esto es en vez
de usar el uadrado usamos el valor absoluto.En esta regla de propagación los pesos tienen la
misma interpretación que la anterior, da la medida del parecido entre el patrón de entrada X
y los pesos W.
Función de activación
Lineal:
Algunas redes neuronales usan esta función de activación como el Adeline por su eficiencia
y facilidad.
Escalón:
Esta función es la más usada para redes neuronales binarias ya que no es lineal y es muy
simple. Algunas redes que usan esta función son el Perceptrón y Hopfield. Para redes que
trabajan en el rango [-1,1] se usa la funcion signo
Hiperbólicas o tangenciales:
Las redes con salidas continuas, como el Perceptron multicapa con retropropagación, usan
esta función ya que su algoritmo de aprendizaje necesita una función derivable
Función de Salida.
Esta función convierte el estado de la neurona en la salida hacia la siguiente neurona que se
transmite por las sinapsis. Usualmente no se considera y se toma la identidad, esto es, de
manera que la salida es el propio estado de activación de la neurona.
Existen algunas redes que transforman su estado de activación en una salida binaria y para
eso usan la función escalón antes mostrada como salida.
Introducción
Las redes neuronales típicamente están formadas por una serie de capas de neuronas que
están unidas entre si mediante sinapsis.
Las neuronas artificiales como unidades independientes no son muy eficaces para el
tratamiento de la información y se agrupan en estructuras más grandes, las redes de
neuronas artificiales o redes neuronales.
En este apartado veremos las estructuras más comunes que forman las neuronas para
formar redes. Para ello abordare el tema desde dos vistas distintas el número de capas y la
forma de interconexión de las capas.
Niveles de Neuronas:
Según algunos autores, las capas de entrada y de salida no son validas para producir
procesamiento, y son usadas solo como sensores. Tras plantearlo de diferentes modos
nuestro marco de trabajo se ha diseñado de manera que puede usarse de las dos maneras,
podemos usar las capas de entrada y salida para procesar o simplemente como sensores.
Consiste en unir cada neurona de una capa con todas las neuronas de la otra capa. Este tipo
de conexionado es el más usado en las redes neuronales, se usa en todo tipo de uniones
desde el Perceptron multicapa a las redes de Hopfield o BAM
Unión Lineal:
Consiste en unir cada neurona con otra neurona de la otra capa. Este tipo de unión se usa
menos que el anterior y suele usarse para unir la capa de entrada con la capa procesamiento,
si la capa de entrada se usa como sensor. También se usa en algunas redes de aprendizaje
competitivo
Predeterminado:
Este tipo de conexionado aparece en redes que tienen la propiedad de agregar o eliminar
neuronas de sus capas y de eliminar también conexiones.
Si establecemos un orden en las capas podemos establecer conexiones hacia delante, hacia
atrás o conexiones laterales. Esto sirve para clasificar las redes en feedforward o hacia
delante, no tienen ninguna conexión hacia atrás, y feedback o hacia atrás que si permiten
este tipo de conexiones.
Las conexiones laterales son conexiones entre neuronas de la misma capa, este tipo de
conexión son muy comunes en las redes mono capa. Si la red admite que las neuronas
tengan conexiones a sí mismas se dice que la red es auto recurrente.