Está en la página 1de 30

CARMEN BELLOSO ROCIO BERNAL ZAMORANO ELENA BOTO BARRIGA

El flujo de informacin que procesan los seres vivos proviene de los sistemas sensoriales sensibles al entorno que los rodea. Esta informacin es recibida por el cerebro, donde se analiza y toma la forma de sensaciones. El control coordinado de los msculos del cuerpo es llevado a cabo, asimismo, por el cerebro.

Todas estas funciones cerebrales se realizan gracias a las clulas nerviosas, o neuronas, a travs de las innumerables conexiones existentes entre ellas.

Unidad estructural y funcional del sistema nervioso. Recibe los estmulos provenientes del medio ambiente, los convierte en impulsos nerviosos y los transmite a otra neurona, a una clula muscular o glandular donde producirn una respuesta.

Situ por vez primera las neuronas como elementos funcionales del sistema nervioso. Propuso que actuaban como entidades discretas que, intercomunicndose, establecan una especie de red mediante conexiones especializadas o espacios (doctrina de la neurona)

Neuronas: clulas especializadas para la intercomunicacin rpida, principalmente a travs de corrientes inicas. Su principal propiedad es la excitabilidad por encima del umbral dadas corrientes de estimulacin lo suficientemente fuertes, las neuronas "emiten" pulsos de corriente. Adrian (1914): "potenciales de accin" o respuestas todo o nada"

Principio de polarizacin dinmica: El flujo de informacin tiene lugar en una direccin predecible y consistente en cada neurona Principio de especificidad conexional: - No hay continuidad citoplasmtica entre las neuronas. - Las clulas neuronales no forman redes aleatorias. - Cada neurona forma conexiones especficas y precisas con determinadas clulas neuronales.

Los procesos elctricos que dan lugar a la transmisin de seales a travs de una neurona son: iniciacin de la seal, integracin de la seal, conduccin y finalizacin.

Potencial receptor o potencial generador: alteracin del potencial de reposo de la membrana neuronal. Tiene lugar en la superficie receptiva de las neuronas sensoriales y sirve para transformar el estmulo sensorial (temperatura, presin, luz, etc) en una seal elctrica.

Potenciales receptores y sinpticos son seales locales que se propagan pasivamente a lo largo de una pequea distancia por la membrana celular, hasta alcanzar la denominada zona de disparo. Si el grado de despolarizacin de la membrana existente en un momento dado en la zona de disparo es superior al umbral, entonces la neurona dispara un potencial de accin.

El potencial de accin provoca la apertura de canales de Ca2+ presentes en los terminales presinpticos, la cual produce localmente el denominado potencial de secrecin, debido exclusivamente a dicho catin.

Intensidad de la seal, codificada por la frecuencia de disparo del potencial de accin: -Nmero de potenciales -Intervalo entre ellos

Base de la capacidad del cerebro para: -adaptarse -aprender -almacenar informacin

Continuas modificaciones de las conexiones entre ellas, sobre todo en las sinapsis

Eficiencia sinptica: corriente generada en la clula postsinptica por unidad de actividad presinptica Alteraciones que la modifican: -Variacin nmero de receptores postsinpticos -Variacin en la eficiencia de transmisin de los receptores -Variacin del nmeto de neurotransmisores en el espacio intersinptico -Cambios de tipo estructural o morfolgico en los terminales sinpticos:

Adhesin

Contacto eficaz

Multiplicacin

Degeneracin y desaparicin

Aprendizaje

Experiencia

Primera regla: (Donald Hebb 1949) Cuando un axn de la clula A est suficientemente cerca para excitar una clula B y repetida y persistentemente toma parte activa en conseguir que B dispare, algn proceso de crecimiento o cambio metablico ocurre en una o ambas clulas tal que aumenta la eficiencia de A como una de las clulas que hace que B dispare. Ley de Hebb: la eficiencia de conexin entre dos neuronas se ve incrementada cuando tiene lugar una actividad conjunta y simultnea de las neuronas pre y postsinptica.

Aprendizaje de tipo pauloviano

REDES N EURONALES ARTIFICIALES

ESTUDIO DE LAS REDES NEURONALES E INTELIGENCIA ARTIFICIAL


Siempre ha exisi>do inters por comprender cmo funciona el cerebro y el comportamiento. A par>r de nales del siglo XIX y hasta mediados del XX se estudiar las redes neuronales como tales. Golgi. Ramn y Cajal. Hebb. McCulloch y Pi`s. Minsky.

Alrededor de 1960, el inters por la inteligencia est en auge. Se dedican numerosos proyectos y recursos al diseo de mquinas inteligentes mediante el perfeccionamiento de programas.

Los programas que intetentan emular intelgencia ar>cial slo sirven para unas funciones muy concretas (demostrar teoremas matem>cos sencillos, traduccin del lenguaje,..). Ninguno consigue ser realmente inteligente.

El estudio de las redes neuronales hace surgir la idea de la Inteligencia ar>cial. 1956 - McCarthy acua por primera vez el trmino inteligencia ar>cial 1950 Turing: Test de Turing, mquina de Turing.

En parte debido al gran inters generado por la inteligencia ar>cial, el estudio de redes neuronales cae casi por completo en el olvido.

Los fracasos en Inteligencia ar>cial hacen que el inters vuelva a las redes neuronales. Si se consigue emular una red neuronal se podra conseguir la inteligencia ar>cial.

NEURONAS ARTIFICIALES

Neuronas reales.

Neuronas ar>ciales.

Funcin de Heaviside.

1943

Modelo de McCulloch y Pi`s

MODELO DE MCCULLOCH Y PITTS


Funcin Sigmoidal

n =0.5 n =1 n =2

Derivable Salida en el rango con>nuo (0,1)

MODELO DE HOPFIELD

Modelo basado en el de McCulloch y Pi`s. Memoria asocia>va. La memoria se almacena en los pesos (patrones). Aprendizaje Hebbiano. Una sola capa de N neuronas conectadas entre s. No autoconectadas (ii=0). Pesos simtricos (ij=ji).

Matriz de pesos:

Comportamiento >po vidrio espn

espn.

MODELO DE HOPFIELD
Tengo dos elementos: el i-simo y el j-simo cuyos estados vienen dados por i y j respec>vamente. =1 =-1 El estado del par ij = 1 si estn en el mismo estado o ij = -1 si estn en estados diferentes. E=-ijij
Ferromagne>smo. Una parjcula con espin hacia arriba induce a sus parjculas vecinas a tener el espn hacia arriba, ya que la energa ser mnima cuando dos elementos consecu>vos estn en el mismo estado (pesos posi>vos)

An>ferromagne>smo. Una parjcula con espn hacia arriba induce a sus vecinas a tener espn hacia abajo. La energa es mnima cuando elementos consecu>vos >enen estados contrarios (pesos nega>vos).

Comportamiento >po vidrio espn. Los pesos son aleatorios, pudiendo ser posi>vo para un elemento y el siguiente pero nega>vo para ese elemento y el inmediatamente anterior.

MODELO DE HOPFIELD

Ferromagne>smo. Vidrio Espn.

An>ferromagne>smo.

MODELO DE RETROPROPAGACIN

Modelo de N neuronas distribuidas en capas. Tipicamente hay 3 capas bsicas: la de entrada, la intermedia y la de salida.

En este modelo las neuronas a su salida estn conectadas con su propia entrada (autoretropropagacin)

Muy eciente con pautas de entrada incompletas o desordenadas. Ante una desconocida busca el patrn ms parecido y presenta la pauta de salida correspondiente

MODELO DE RETROPROPAGACIN
Son redes de aprendizaje asis>do. La salida se compara con el patrn esperado.Se calcula el error a par>r de la diferencia entre la salida real y la esperada.

Se modica el peso de las conexiones implicadas en la respuesta para reducir el error. El proceso se repite hasta que la pauta de salida es muy parecida al patrn esperado.

Los pesos ya no se modican (estado estacionario) y la red est entrenada.

MODELO DE RETROPROPAGACIN

EJEMPLO

REDES NEURONALES COMO DISPOSITIVOS DE MEMORIA.


Itay Baruchi y Eshel Ben-Jacob (osico), de la Universidad de Tel Avive Se ha comprobado que se pueden almacenar patrones de memoria en un cul>vo de neuronas vivas. Esto abre una nueva puerta al desarrollo de disposi>vos (como memorias o chips) con materia orgnica. Las neuronas respondan a esjmulos elctricos o qumicos y se encontraban patrones hasta 48 horas despus de haberlos introducido. Arjculo Neuro Memory Chip. Las neuronas como materia orgnica para memorizar informacin