Está en la página 1de 10

TITULO GLOBAL SUGERIDO: Una teoría matemática de la energía

eficiente neuronal y Un modelo de neurona de eficiencia energética Berger-


Levy con pesos sinápticos desiguales.

ESTUDIANTES:

 Abramonte Bonifacio Maria José


 Bonifacio Guizado Maverick

CURSO: Telecomunicaciones II

Semana: 07 Grupo: tema 71

TEMA DE EXPOSICIÓN: Una teoría matemática de la energía neuronal


en la computación y comunicación eficientes

Autores del artículo A: Toby Berger, Life Fellow, IEEE, y William B Levy

Objetivos A

Presentar y analizar un modelo matemático basado en la neurociencia que


muestra cómo las neuronas procesan los datos y comunican la información.
Además, se involucra en una forma extrema de codificación de red; no
almacena ni reenvía la información que recibe, sino que más bien calcula de
forma precisa una cierta función de la unión de todos sus trenes de picos de
entrada que luego transmite a una multiplicidad de destinatarios
seleccionados.
METODO A

Se sabe que el excitador y la sinapsis tienen pesos positivos, donde los


pesos de las sinapsis inhibitorias son negativos en un sentido que
describiremos más adelante.

Aproximadamente el 85% de las sinapsis en la corteza de primates son


excitadoras. El número de sinapsis excitadoras que posee se denotará por,
siendo típico.

La cohorte aferente de neuronas, que designamos, consiste en aquellas


neuronas que directamente se dividen físicamente, es decir, son aferentes a
una o más sinapsis.

El número de sinapsis excitativas generalmente es porcentualmente cercano


a pesar de que los axones de algunas neuronas forman más de una sinapsis.

Desde que hablamos de la llegada de estos picos de duración infinita,


necesitamos un tiempo de llegada (Convención TOA). La convención
TOA que adoptamos es inconsecuente, pero es esencial que la apliquemos
consistentemente.
RESULTADOS A

Articulo 1 Articulo 2

LA ASUNCIÓN DE
Título del
VALOR EL MODELO IDEALIZADO DE
documento INTEGRAR Y DISPARAR
SIGNIFICATIVO

S. N. Baker and R. N.
Autores A.D.Barbour,L.Holst,andS.Janson
Lemon

Mostrar que, para


cualquiera, el recuento
de una función no
homogénea de Poisson
con intensidad se
Mostrar las propiedades de una
distribuye de manera
neurona para entender su
Objetivos idéntica al recuento de
funcionamiento en la
un proceso de Poisson
comunicacion
homogéneo definido en
cuya intensidad
constante se encuentra
el promedio de teorema
interno
Permita un proceso de Es bien sabido que si un proceso
conteo de Poisson no de punto de Poisson tiene una
homogéneo con la función determinista de
función de intensidad intensidad no homogénea,
que es Riemann llámelo, entonces una vez que se
integrable sobre especifique su punto de llegada,
Método cualquier intervalo los instantes desordenados de
finito. Por lo tanto, es el llegada de sus puntos inmediatos
número aleatorio de se vuelven independientes y se
llegadas, es decir, el distribuyen de manera idéntica.
conteo en. La prueba del (iid) de los cuales es
Teorema 1 aparece en la
Sección XI.

Al mostrar que, para


cualquiera, el recuento
de una función no
homogénea de Poisson
con intensidad se
distribuye de manera Los estudios anatómicos de una
idéntica al recuento de neurona en niveles superiores del
un proceso de Poisson córtex, en parte de
homogéneo definido en retroalimentación "horizontal" de
cuya intensidad otras neuronas en su propia región
constante se encuentra
Resultados neural y en parte de señales de
el promedio de teorema
interno, el teorema 1 "abajo arriba" de neuronas en
respalda nuestra niveles inferiores de la jerarquía
adopción del supuesto cortical, que cierran de manera
de valor medio. Aunque automática los órganos
otras consideraciones sensoriales.
más allá de las
condiciones negativas a
su respecto, siguen
siendo una suposición.
Discusión con el artículo 1

La transmisión de información describe aproximadamente la intensidad


variable en el tiempo de la excitación que experimenta continuamente
desde los trenes de espinas neuronales entregados a su sinapsis por
miles de otras neuronas. Por medio de transformaciones biofísicas,
"codifica" esta historia de excitación en secuencia de instantes en los
que genera picos neurales propios.

En la terminología de la comunicación y la teoría de la información, se


trata de un canal de difusión multiacceso parcialmente degradado que
realiza cálculos sobre datos recibidos en miles de terminales de entrada
y transmite información sobre muchos de los terminales de salida por
medio de una versión continua de la modulación de la posición del
pulso.

Discusión con el artículo 2

Si uno dota a la neurona modelo con la habilidad de variar sus


parámetros, entonces también es capaz de funcionar adaptativamente.
Prestamos especial atención a la forma en que los efectos de parámetros
varian entre el número de bits transmitidos por segundo y la cantidad de
bits que transmite por joule de energía que gasta.

En relación con esto, creemos que la mayoría de las veces las neuronas
reales se esfuerzan por alcanzar bits relativamente altos por joule (bpj) a
expensas de bits relativamente bajos por segundo (bps). Sin embargo,
cuando las circunstancias actuales exigen, pueden adquirir sus
parámetros para obtener temporalmente un mayor valor de bps a
expensas de una menor bpj.
TEMA DE EXPOSICION B: Un modelo de neurona de eficiencia
energética Berger-Levy con pesos sinápticos desiguales.

AUTORES DEL ARTICULO B: Jie Xing , Toby Beger y Terrence J.


Sejnowski.

OBJETIVOS B

El objetivo de este documento es encontrar la capacidad de lograr


distribución de entrada de intensidad de EPSP entrante para un extendido
Modelo de Berger-Levy en el que sus sinapsis tienen pesos desiguales, y la
distribución del ISI de salida duraciones que resulta de dicha entrada de logro
de capacidad distribución. (51palabras)

METODO B

Para analizar la actividad neuronal de un punto de vista de la eficiencia


energética de la información, Berger y Levy calcula la transferencia máxima
de información mutua de Shannon por unidad de gasto de energía de una
integración idealizada y-neurona de fuego (IIF) cuyas sinapsis excitatorias
tienen el mismo peso Aquí, ampliamos su modelo IIF a un biofísicamente
más realista en el que los pesos sinápticos son desigual. Usando la teoría de
la información, medidas aleatorias de Poisson, y el principio de máxima
entropía, mostramos que función de densidad de probabilidad (pdf) del
intervalo entre las rutas (ISI) duración inducida por los bits por joule (bpj)
maximizando pdf fv (‫ )ג‬de la intensidad del potencial postsináptico excitador
(EPSP) sigue siendo igual a la distribución gamma retrasada del IIF modelo.
Luego mostramos que, en el caso de pesos desiguales, fv (.) satisface una
ecuación de Cauchy-Euler no homogénea con coeficientes variables para los
cuales brindamos la solución general formar.

(158 palabras)
RESULTADOS B

Nuestro principal y quizás sorprendente resultado es que el misma


distribución gamma de las duraciones de ISI que Berger y Levy encontró
resultado de la capacidad limitada de energía distribución de entrada cuando
la sináptica pesa todo se asumió que son iguales continúa aplicando cuando
estos se permite que los pesos sean desiguales. Además, mostramos que el
intensidad EPSP óptima para el caso de sináptica desigual pesos, que difiere
de su contraparte de peso fijo, es la solución de una ecuación heterogénea de
Cauchy-Euler con coeficientes variables.(87 palabras)

Articulo 3 Articulo 4

Naturaleza Del
Título del Mezclas De Gamma
Desplazamiento Del Peso
documento Distribuciones
Vectores

B. Barbour, N. Brunel, V.
Autores Hakim, J. Nadal,, William T. Berger and W. B. Levy
Antonio Da Rosa

Este modelo de selección


aleatoria de pesos que
comprende W es aplicable
tanto a los ISI en los que el
disparo aferente la tasa es
El objetivo principal es demostrar
grande y para aquellos en
la mezclas de gamma mediante
que es pequeña. Cuando el
Objetivos distribuciones matemática para
valor asumido por es
obtener un modelo de neurona de
grande, los componentes
eficiencia.
de W solo ser
seleccionado más rápido
que cuando es pequeño,
pero seguir viniendo de la
misma distribución.
Es más útil pensar en
términos de histograma de
las distribuciones de peso
sinápticas de las neuronas
en cualquiera que sea la
región neuronal está
siendo investigada.
Cuando muchos tales
histogramas han sido
comprobados, si sus
formas casi todos se
parecen mucho, entonces
Metodo pueden ser
aritméticamente
promediada para obtener
un histograma de
población con una
resolución fina en los
pesos de sus contenedores
sinápticos.

Por otra parte, la gran


similitud del peso
sináptico distribuciones se
ha observado a través de
experimentos.

Con los resultados Es imposible determinar Pm en el


adquiridos, asumimos que caso general.
el peso componentes Sin embargo, hemos sido capaces
Resultados
vectoriales W1;...;WM de calcularlo exactamente en el
son conjuntamente caso especial de una distribución
independientes de A. de peso exponencial.
Discusión con el artículo 3:

En el artículo 3 Hemos demostrado que, cuando una neurona j está diseñado


para maximiza los bits transportados por joule gastados, aunque Las sinapsis
de j ya no se requieren para que todas tengan el mismo peso, el pdf de las
duraciones de ISI sigue siendo exactamente el mismo pdf gamma que en el
que todos los que se supuso que los pesos eran iguales. Esto pasa a pesar el
hecho de que la distribución condicional para T dada es ahora una mezcla de
distribuciones gamma en lugar de la pura distribución gamma que caracteriza
el caso especial de pesos iguales.

Discusión con el artículo 4:

En este articulo 4 también hemos determinado implícitamente el óptimo


distribución f (.) que caracteriza la excitación aferente intensidad por (1)
maximizar la información mutua de Shannon tasa dada una restricción en el
costo total de energía que una neurona cortical se gasta en metabolismo,
postsináptica acumulación potencial, y generación de potencial de acción y
propagación durante un ISI; (2) convirtiendo la integral ecuación a una
ecuación diferencial con una forma cerrada solución.

DISCUSION ENTRE ARTICULO A Y B

La diferencia entre los dos artículos es que en el artículo A nos habla de


manera mas detallada ampliamente considerados esenciales para el
aprendizaje y memoria, con la comunicación de información por parte
neurona, puede poseer un significado práctico considerable.

En cambio en el artículo B aquí, se amplia el modelo IIF a un biofísicamente


más realista en el que los pesos sinápticos son desigual. Usando la teoría de
la información, medidas aleatorias de Poisson, y el principio de máxima
entropía, mostramos que función de densidad de probabilidad (pdf) del
intervalo entre las rutas (ISI) duración inducida por los bits por joule (bpj)
maximizando pdf fv (‫ )ג‬de la intensidad del potencial postsináptico excitador
(EPSP) sigue siendo igual a la distribución gamma retrasada del IIF modelo.

REFERENCIAS

T. Berger and W. B. Levy, A mathematical theory of energy efficient neural


computation and communication, IEEE Trans. IT, vol. 56, No. 2, pp. 852-
874, February 2010.

L. C. Aiello, P. Wheeler, The expensive-tissue hypothesis–the brain and the


digestive-system in human and primate evolution, Curr Anthropol 36:199-
221,1995.

D. M. MacKay, W. S. McCulloch, The limiting information capacity of a


neuronal link, Bulletin of Mathematical Biophysics, vol. 14, 127-135, 1952.

W. Bialek, F. R. Rieke, R. R. de Ruyter van Steveninck and D. Warland,


Reading a neural code, Science, 252,1854-7, 1991.

B. Barbour, N. Brunel, V. Hakim, J. Nadal, What can we learn from synaptic


weight distributions?, Trends Neurosci 30(12): 622- 629, 2007.

T. Cover and J. Thomas, Elements of Information Theory, 2nd ed. Hoboken,


NJ: Wiley, 2006.

También podría gustarte