Está en la página 1de 30

Inteligencia cerebral: vaya más allá de la inteligencia artificial

Huimin Lu 1, * , Yujie Li 2 , Min Chen 3 , Hyoungseop Kim 1 , Seiichi Serikawa 1

1
Instituto de Tecnología de Kyushu, Japón

2
Universidad de Yangzhou, China

3
Universidad de Ciencia y Tecnología de Huazhong, China
luhuimin@ieee.org

Resumen

La inteligencia artificial (IA) es una tecnología importante que respalda la vida social diaria y las
actividades económicas. Contribuye en gran medida al crecimiento sostenible de la economía de Japón y
resuelve varios problemas sociales. En los últimos años, la IA ha llamado la atención como clave para el
crecimiento en países desarrollados como Europa y Estados Unidos y países en desarrollo como China e
India. La atención se ha centrado principalmente en el desarrollo de nuevas tecnologías de comunicación
de información de inteligencia artificial (TIC) y tecnología de robots (RT). Aunque la tecnología de
inteligencia artificial desarrollada recientemente es excelente para extraer ciertos patrones, existen
muchas limitaciones. La mayoría de los modelos de TIC dependen demasiado de los grandes datos,
carecen de una función de auto idea y son complicados. En este documento, en lugar de simplemente
desarrollar tecnología de inteligencia artificial de próxima generación, nuestro objetivo es desarrollar un
nuevo concepto de tecnología de cognición de inteligencia de propósito general llamada "Más allá de la
IA". Específicamente, planeamos desarrollar un modelo de aprendizaje inteligente llamado "Brain
Intelligence (BI)" que genera nuevas ideas sobre los eventos sin haberlos experimentado mediante el uso
de la vida artificial con una función de imaginación. También realizaremos demostraciones del modelo
de aprendizaje de inteligencia de BI desarrollado sobre conducción automática, atención médica de
precisión y robots industriales.

Palabras clave: Brain Intelligence; Inteligencia artificial; Vida artificial

1) Introducción

Desde SIRI [1] a AlphaGo [2], la inteligencia artificial (IA) se está desarrollando rápidamente. Si bien
la ciencia ficción a menudo retrata a la IA como robots con características similares a las humanas, la IA
puede abarcar cualquier cosa, desde algoritmos de predicción de comercio electrónico hasta máquinas
Watson de IBM [3]. Sin embargo, la inteligencia artificial hoy en día se conoce adecuadamente como IA
débil, que está diseñada para realizar una tarea especial (por ejemplo, solo reconocimiento facial o solo
búsquedas en Internet o solo conducir un automóvil). Si bien la IA débil puede superar a los humanos en
una tarea específica, como jugar ajedrez o resolver ecuaciones, la IA general superaría a los humanos en
casi todas las tareas cognitivas.

En los últimos años, el gobierno de los EE. UU. Ha apoyado la investigación básica sobre IA, que se centra
en los robots y el reconocimiento de patrones (voz, imágenes, etc.). Microsoft ha anunciado robots de
traducción en tiempo real y tecnologías innovadoras de reconocimiento de imágenes [4]. Amazon usa
inteligencia artificial para autonomía
robots en sistemas de entrega [5]. Facebook también ha desarrollado tecnología de reconocimiento facial
basada en inteligencia artificial llamada "DeepFace" [6]. Los robots y la inteligencia artificial se están
estudiando activamente en instituciones universitarias en los Estados Unidos. Están surgiendo
tecnologías innovadoras, como la cooperación corporativa y el aprendizaje profundo. El automóvil robot
desarrollado por el Laboratorio de Inteligencia Artificial de la Universidad de Stanford ha establecido un
tiempo más rápido que un corredor activo [7]. El Laboratorio de Ciencias de la Computación e
Inteligencia Artificial del Instituto de Tecnología de Massachusetts ha desarrollado un robot de limpieza
y un robot para caminar de cuatro pies [8].

Mientras tanto, la IA es la tecnología principal que se espera mejore la innovación de las TIC
japonesas y la tecnología de robots en el futuro cercano. Las TIC en Japón han avanzado rápidamente en
los últimos años. Para asegurar el estado de Japón como una "superpotencia tecnológica" de clase
mundial, el gobierno japonés ha formulado proyectos como el "Plan básico de ciencia y tecnología [9]" y
la "Conferencia de tecnología de inteligencia artificial [10]". Japón espera utilizar inteligencia artificial y
robots de última generación para resolver varios problemas.

Sin embargo, a través de algunas investigaciones, encontramos que las tecnologías recientes de
inteligencia artificial tienen muchas limitaciones. A continuación, enumeramos algunas limitaciones
representativas y analizamos las razones por las cuales la IA reciente no puede superar estas desventajas
inherentes.

Limitaciones de la inteligencia artificial

En los últimos años, las tecnologías de inteligencia artificial se han desarrollado dramáticamente
debido a la mejora en la capacidad de procesamiento de las computadoras y la acumulación de big data.
Sin embargo, los resultados de las tecnologías actuales de inteligencia artificial se limitan a áreas
intelectuales específicas, como el reconocimiento de imágenes, el reconocimiento de voz y la respuesta
al diálogo. Es decir, la IA actual es un tipo especializado de inteligencia artificial que actúa
intelectualmente en un área llamada individual (ver Figura 1). Los ejemplos incluyen técnicas como las
redes neuronales convolucionales (CNN) o el aprendizaje residual profundo (ResNet) para el
reconocimiento visual, las redes neuronales recurrentes (RNN) o las redes neuronales profundas (DNN)
para el reconocimiento de voz y el aprendizaje de representación (RL) para la comprensión del diálogo.
Todos estos son parte del trabajo intelectual realizado por cada área del cerebro humano; son solo un
sustituto y no realizan todas las funciones del cerebro humano. En otras palabras, la IA no ha podido
cooperar con las funciones de todo el cerebro, como la autocomprensión, el autocontrol, la
autoconciencia y la automotivación. Específicamente, concluimos que las limitaciones de las recientes
tecnologías de inteligencia artificial son las siguientes:

(1) Problema de marco

Teniendo en cuenta todos los eventos que pueden ocurrir en el mundo real, dado que lleva una gran
cantidad de tiempo debido al entrenamiento de big data, la IA generalmente se limita a un solo marco o tipo
de problema. Por ejemplo, si restringe el algoritmo para que se aplique solo al ajedrez, shogi, reconocimiento
de imagen o reconocimiento de voz, solo se pueden esperar ciertos resultados. Sin embargo, cuando se trata
de hacer frente a cada fenómeno en la realidad
mundo, hay un número infinito de posibilidades que tenemos que anticipar, por lo que el tiempo de
extracción se vuelve infinito debido a la sobrecarga de la base de datos.
Figura 1. Escasez de inteligencia artificial actual.

(2) Problema de la función de asociación

El aprendizaje automático y la inteligencia artificial son excelentes para extraer un patrón particular.
Sin embargo, los resultados del aprendizaje automático son fáciles de usar mal. La tecnología actual de
inteligencia artificial depende de datos a gran escala y puede obtener resultados utilizando solo valores
numéricos, pero no tiene la función de asociación como el cerebro humano. Es decir, una sola parte del
cerebro no puede ser tan inteligente como todo el cerebro.

(3) Problema de conexión a tierra del símbolo

Es necesario vincular los símbolos con sus significados, pero esta tarea a menudo no se resuelve en la
inteligencia artificial actual. Por ejemplo, si conoce el significado individual de la palabra "caballo" y el
significado de la palabra "rayas", entonces cuando le enseñen que "cebra = caballo + rayas", puede
comprender que "una cebra es un caballo con rayas". Sin embargo, la computadora no puede hacer las
mismas conexiones entre ideas.

(4) Problema mental y físico

¿Cuál es la relación entre la mente y el cuerpo? Es decir, si generalmente se piensa que la mente es
inmaterial, ¿cómo puede afectarle el cuerpo físico? No se ha aclarado si esto es posible o no.
En conclusión, podemos ver que hay muchos problemas sin resolver en la inteligencia artificial actual.
En este artículo, primero revisamos los algoritmos más recientes para una IA débil. Luego, presentamos
la arquitectura de inteligencia de próxima generación, Brain Intelligence, que es una inteligencia
artificial avanzada para resolver las desventajas de los algoritmos de IA débiles.

2) Inteligencia artificial
El mercado y el negocio de las tecnologías de IA están cambiando rápidamente. Además de la
especulación y la mayor atención de los medios, muchas empresas de nueva creación y gigantes de
Internet están compitiendo para adquirir tecnologías de inteligencia artificial en la inversión empresarial.
Narrative Science Survey encontró que el 38% de las empresas han estado usando IA en 2016, y el
número aumentará al 62% en 2018. Forrester Research espera que la inversión en inteligencia artificial
en 2017 crezca más de un 300% en comparación con 2016. IDC estima que el mercado de IA crecerá de
$ 8 mil millones en 2016 a $ 47 mil millones en 2020 [11].

La inteligencia artificial actual incluye una variedad de tecnologías y herramientas, algunas probadas
con el tiempo y otras que son relativamente nuevas. Para ayudar a comprender lo que está de moda y lo
que no, Forrester acaba de publicar un informe de TechRadar sobre inteligencia artificial
(desarrolladores de aplicaciones), que detalla las 9 tecnologías para las cuales las empresas deberían
considerar el uso de inteligencia artificial para respaldar las decisiones.

2.1 Generación de lenguaje natural

La generación de lenguaje natural (NLG) se utiliza para generar texto a partir de datos de la
computadora usando IA, especialmente arquitecturas de aprendizaje profundo, para generar las tareas de
NLG. Las redes neuronales profundas (DNN) son sin duda una de las áreas de investigación más
populares en el campo NLG actual. Los DNN están diseñados para aprender representaciones en capas
crecientes de abstracción mediante la adopción de propagación hacia atrás [12], retroalimentación [13],
modelos log-bilineales [14] y redes neuronales recurrentes (RNN) [15]. Su ventaja sobre los modelos
tradicionales es que los modelos DNN representan secuencias de voz de diferentes longitudes, por lo que
historias similares tienen representaciones relacionadas. Superan la desventaja de los modelos
tradicionales, que tienen escasez de datos y un registrador para recordar los parámetros.

Las arquitecturas de memoria a largo plazo (LSTM) [16], que son un desarrollo adicional en RNN,
contienen celdas de memoria y puertas multiplicativas que controlan el acceso a la información. Mei y
col. [17] propuso una arquitectura basada en LSTM, que utiliza el marco codificador-decodificador, para
la selección y realización de contenido. Luong y col. [18] demostró que analizar los conjuntos de datos
utilizados para el entrenamiento conjunto en codificador y decodificador puede mejorar la eficiencia de
la traducción. En la mayoría de estos métodos, es difícil equilibrar entre lograr una salida de texto
adecuada y generar texto de manera eficiente y robusta.

LTSM se utiliza actualmente para servicio al cliente, generación de informes y resumen de


información de inteligencia empresarial. Los ejemplos de proveedores incluyen Attivio, Automated
Insights, Cambridge Semantics, Digital Reasoning, Lucidworks, Narrative Science, SAS e Yseop.

2.2 Reconocimiento de voz

Los modelos ocultos de Markov (HMM) [19] son herramientas útiles para el reconocimiento de voz.
En los últimos años, las redes de avance profundo (DFN) han llamado la atención para resolver
problemas de reconocimiento. Parece que
HMM se combina con RNN como una mejor solución. Sin embargo, el modelo HMM-RNN no funciona
tan bien como las redes profundas. El objetivo del reconocimiento de voz es traducir el lenguaje humano
y convertirlo a un formato útil para aplicaciones informáticas. Graves y col. [20] propuso una memoria
RNN profunda a largo plazo a corto plazo para el reconocimiento de voz. Este modelo es un método de
aprendizaje de extremo a extremo que entrena conjuntamente dos RNN separados como modelos
acústicos y lingüísticos. Es ampliamente utilizado en los actuales sistemas interactivos de respuesta de
voz y aplicaciones móviles. Los ejemplos de proveedores incluyen NICE, Nuance Communications,
OpenText y Verint Systems.

2.3 Realidad virtual / aumentada

La realidad virtual utiliza dispositivos simples y sistemas avanzados que pueden conectarse en red con
humanos. La realidad virtual es una simulación generada por computadora de un entorno 3D con el que
se puede interactuar de una manera aparentemente real. La inteligencia artificial se utilizará en la
realidad aumentada para la futura eHealth remota [21, 22]. Actualmente se utiliza en servicio al cliente y
soporte y como un administrador de casa inteligente [23, 49-52]. Los proveedores de muestra incluyen
Amazon, Apple, Artificial Solutions, Assist AI, Creative Virtual, Google, IBM, IPsoft, Microsoft y
Satisfi.

2.4 Hardware optimizado para IA

Debido al rápido crecimiento de los datos en los últimos años, es posible que los ingenieros usen
grandes cantidades de datos para aprender patrones. La mayoría de los modelos de inteligencia artificial
se proponen para satisfacer estas necesidades. Estos modelos requieren una gran cantidad de datos y
potencia informática para entrenarse y están limitados por la necesidad de una mejor aceleración de
hardware para acomodar el escalado más allá de los datos actuales y los tamaños de los modelos. Se
requieren unidades de procesamiento de gráficos (GPU) [24], procesadores de propósito general
(GPGPU) [25] y matrices de puertas programables en campo (FPGA) [26] para ejecutar de manera
eficiente tareas computacionales orientadas a AI. GPU tiene órdenes de magnitud más núcleos
computacionales que los procesadores tradicionales de propósito general (GPP) y permite una mayor
capacidad para realizar cálculos paralelos. En particular, generalmente se usa GPGPU. A diferencia de
las GPU, FPGA tiene una configuración de hardware flexible y proporciona un mejor rendimiento por
vatio que las GPU. Sin embargo, es difícil programar dispositivos FPGA debido a la arquitectura
especial. Los proveedores de muestra incluyen Alluviate, Cray, Google, IBM, Intel y Nvidia.

2.5 Gestión de decisiones


La toma de decisiones juega un papel fundamental en el logro del desarrollo sostenible durante los
mercados financieros turbulentos. Con la mejora de la tecnología de la información y la comunicación (TIC),
las técnicas basadas en IA, como el árbol de decisión (DT), la máquina de vectores de soporte (SVM), la red
neuronal (NN) y el aprendizaje profundo, se han utilizado para la toma de decisiones [27] . Los motores que
insertan reglas y lógica en los sistemas de IA se utilizan para la configuración / capacitación inicial y el
mantenimiento y ajuste continuos. Una tecnología madura, que se utiliza en una amplia variedad de
aplicaciones empresariales, que ayuda o realiza una toma de decisiones automatizada. Los proveedores de
muestra incluyen Conceptos de sistemas avanzados, Informatica, Maana, Pegasystems y UiPath.

2.6 Plataformas de aprendizaje profundo

Actualmente, la investigación utilizada en el reconocimiento y clasificación de patrones es apoyada


principalmente por muy
Grandes conjuntos de datos. Pocos enfoques buscan proporcionar una solución mejor que las plataformas de
procesamiento de big data existentes, que generalmente se ejecutan en un clúster de CPU de gran escala.
Además, las GPU parecen ser las mejores plataformas para entrenar redes de IA [28]. Sin embargo, las
plataformas recientes son peores que el cerebro humano en el procesamiento de la percepción y requieren
grandes cantidades de espacio y energía. Para este fin, Rajat et al.

[29] entrenó un modelo DBN con 100 millones de parámetros utilizando una tarjeta gráfica Nvidia
GTX280 con

240 núcleos Adam et al. [30] propuso un sistema de entrenamiento de redes neuronales profundas COTS
HPC. Google desarrolló DistBelief [31], que utiliza miles de CPU para entrenar la red neuronal
profunda; ver Figura 2. Microsoft desarrolló el proyecto Adam [32] para usar menos máquinas para el
entrenamiento. Otros proveedores de muestras, como la plataforma Zeroth de Qualcomm [33], Truenorth
de IBM [34] y SpiNNaker de la Universidad de Manchester [35] también están en desarrollo. Además,
también hay algunos paquetes de software para el aprendizaje profundo. Estos paquetes incluyen
Tensorflow, Theano, Torch / PyTorch, MxNet, Caffe, así como paquetes Keras de alto nivel. También
sería bueno mencionar el TPU de Google al mencionar las plataformas de hardware.
Figura 2 Enfoque Google DistBelief para la capacitación de DNN [31].

2.7 Automatización robótica de procesos

La automatización robótica de procesos (RPA) [36] utiliza software y algoritmos para automatizar la acción
humana para
Apoyar procesos comerciales eficientes. Se utiliza un robot de software en lugar de humanos para
escribir y hacer clic e incluso para analizar datos en diferentes aplicaciones. RPA se usa actualmente
donde es demasiado costoso o ineficiente para que los humanos ejecuten una tarea o un proceso. Los
investigadores están promoviendo la adopción de RPA en el área financiera. RPA también se ha aplicado
a la negociación de bonos del Tesoro, lo que afecta al personal de contabilidad involucrado en el área
bancaria. AI, como una solución para big data, ofrece una nueva posibilidad para la predicción precisa de
RPA. Los proveedores de muestra incluyen conceptos de sistemas avanzados, automatización en
cualquier lugar, Blue Prism, UiPath y WorkFusion.

2.8 Análisis de texto y PNL

El procesamiento del lenguaje natural (PNL) utiliza y respalda el análisis de texto al facilitar la
comprensión de la estructura y significado de las oraciones, el sentimiento y la intención a través de métodos
estadísticos y de aprendizaje automático. La PNL es una forma para que las computadoras entiendan, analicen
y obtengan significado del lenguaje humano de una manera inteligente y útil. Presentamos los siguientes
métodos de IA aplicados a PNL.

Las redes neuronales recurrentes (RNN) [37] hacen un uso completo de la información secuencial.
Como todos sabemos, las entradas y salidas de las redes neuronales tradicionales son independientes. En
la práctica, debe predecir las palabras antes de una oración. El llamado RNN es una red recurrente
porque realiza la misma tarea para cada elemento de una secuencia, y la salida depende de los cálculos
anteriores. Hay muchos tipos de modelos RNN mejorados que se han propuesto para resolver algunas de
las deficiencias del modelo RNN original. El RNN bidireccional [38] se basa en el principio de que la
salida puede depender no solo de los elementos anteriores de la secuencia sino también de los elementos
futuros. El RNN bidireccional profundo [39] es similar al RNN bidireccional pero mejorado al agregar
múltiples capas por paso de tiempo. La memoria a largo plazo a largo plazo (LSTM) [40] utiliza el
mismo mecanismo para decidir qué guardar y qué borrar de la memoria que se utiliza en las RNN.

La red neuronal recursiva [41] es otra red neuronal profunda creada mediante la aplicación recursiva
del mismo conjunto de pesos sobre una estructura para producir una predicción estructurada sobre la
entrada mediante la transferencia de una estructura dada en orden topológico. La red neuronal de
dependencia (DCNN) [53] es un método propuesto para capturar dependencias de larga distancia.
DCNN consiste en una capa convolucional construida sobre un modelo LSTM. La red neuronal de
agrupación dinámica k-max [54] es otro tipo de red que utiliza un operador de submuestreo de
agrupación máxima no lineal para devolver el máximo de un conjunto de valores. Esta red genera k
valores máximos en la secuencia y optimiza los valores de k seleccionados por otras funciones. Multi-
columna CNN [55] comparte la misma inclusión de palabras y múltiples columnas de redes neuronales
convolucionales. Clasificación CNN [56] toma la tarea de clasificación de relaciones utilizando una red
neuronal convolucional que realiza la clasificación por clasificación. La CNN dependiente del contexto
[57] consta de dos componentes: un modelo de oración convolucional que resume el significado de la
oración fuente y la frase objetivo y un modelo de comparación que compara las dos representaciones con
un perceptrón multicapa. Los proveedores de muestras incluyen Basis Technology, Coveo, Expert
System, Indico, Knime, Lexalytics, Linguamatics, Mindbreeze, Sinequa, Stratifyd y Synapsify.
2.9 Reconocimiento visual

Se ha demostrado que el aprendizaje profundo es una de las mejores soluciones para la visión por
computadora. Se ha desarrollado una gran cantidad de métodos para mejorar el rendimiento de los
algoritmos tradicionales de aprendizaje profundo. En general, estos métodos se pueden dividir en tres
categorías: redes neuronales convolucionales, autocodificadores y máquinas de Boltzmann dispersas y
restringidas. En este artículo, nos enfocamos en buscar modelos de redes neuronales convolucionales.

La canalización de la arquitectura de red neuronal convolucional tradicional consiste en tres conjuntos


principales de capas: convolucional, agrupación y capas completamente conectadas. Las diferentes capas
juegan diferentes roles en la clasificación. Las capas convolucionales se utilizan para convolucionar la
imagen para generar mapas de características. Las principales ventajas de las capas convolucionales son
que el mecanismo de distribución de peso reduce la cantidad de parámetros y la conectividad local
aprende las relaciones entre los píxeles vecinos. Además, es invariable a la ubicación de los objetos en la
imagen.

Las capas de agrupación generalmente se usan después de las capas convolucionales para reducir las
dimensiones de los mapas de características y ajustar los parámetros. La agrupación promedio y la
agrupación máxima se utilizan en la mayoría de los casos. Después de las últimas capas de agrupación,
las capas completamente conectadas se utilizan para convertir los mapas de entidades bidimensionales
en vectores de entidades unidimensionales. A continuación se revisan varios modelos de redes
neuronales convolucionales de última generación.

Las redes neuronales convolucionales (CNN) [43] son similares a las redes neuronales tradicionales
(NN). Están formados por neuronas que tienen pesos y sesgos aprendibles. La principal diferencia entre
CNN y NN es el número de capas. CNN utiliza varias capas de convoluciones con funciones de
activación no lineal aplicadas a los resultados.

AlexNet [42] contiene ocho capas. Las primeras cinco capas son las capas convolucionales, y las
siguientes tres capas son las capas completamente conectadas. En comparación con CNN [43], AlexNet
tiene ventajas tales como aumento de datos, abandono [44], ReLU, normalización de respuesta local y
agrupación superpuesta.

La principal contribución de VGGNet [45] es aumentar la profundidad de la red utilizando filtros de


convolución muy pequeños. El número total de capas en VGGNet es 16-19. Sin embargo, el uso de
capas de agrupación máxima da como resultado una pérdida de información espacial precisa.
Szegedy y col. [46] contribuyó a mejorar el uso de los recursos informáticos dentro de una red. El
método GoogLeNet aumenta el ancho y la profundidad de la red mientras mantiene constante el
presupuesto computacional. Según la investigación de Arora et al. [47], la construcción capa por capa
puede analizar las estadísticas de correlación de la última capa y luego combinarlas en grupos. Una de
las principales ventajas de GoogLeNet es que permite aumentar el número de capas en cada etapa sin
una explosión incontrolada de la complejidad computacional. Otro beneficio es que esta red es 2-3 veces
más rápida que las redes de rendimiento similar. Sin embargo, es complejo configurar el diseño de esta
red.
Existe una tendencia a que las capas más profundas den como resultado un mejor rendimiento de la
red. Sin embargo, al aumentar la profundidad de la red, la precisión del entrenamiento se satura y luego
se degrada rápidamente. He y col. [48] resolvió este problema utilizando un marco de aprendizaje
residual profundo. Se agregan "conexiones de acceso directo" adicionales a las redes neuronales de
avance porque las conexiones cortas no agregan parámetros adicionales ni complejidad computacional.

3) Inteligencia cerebral (BI)


Hay muchos enfoques [58-61] propuestos para resolver las limitaciones de la IA reciente. Sin
embargo, estos modelos simplemente se extienden de los modelos actuales de IA. Este documento
presenta los siguientes elementos para explicar el concepto de BI, que es diferente de la inteligencia
artificial, pero se extiende sobre la inteligencia artificial actual.

El modelo de aprendizaje inteligente de BI fusiona los beneficios de la vida artificial (AL) y la IA.
Actualmente, la investigación convencional sobre aprendizaje profundo es un método de aprendizaje de
expresiones extraídas de información esencial de datos de observación por una red neuronal profunda con
una gran cantidad de capas. Sin embargo, la investigación sobre el aprendizaje multitarea que aprende
múltiples tareas al mismo tiempo y los estudios de transición que desvían los resultados del aprendizaje
para una determinada tarea a otras tareas aún es insuficiente. Por esta razón, los modelos de IA basados
en el aprendizaje no supervisado y las redes neuronales poco profundas se convertirán en tendencias en el
futuro. En este documento, combinaremos varios métodos regionales de IA utilizando una regla
particular, especialmente métodos de aprendizaje no supervisados. Es esencial desarrollar un nuevo
modelo de aprendizaje inteligente con una pequeña base de datos y la capacidad de comprender
conceptos. Por lo tanto, proponemos un modelo de Brain Intelligence con memoria y función de idea en
la Figura 3. La red modelo BI combina tecnología de vida artificial y tecnología de inteligencia artificial
con función de memoria.
Figura 3. El concepto de la red modelo BI. Las diferentes redes neuronales están conectadas por una red
artificial basada en la vida, que puede compartir los parámetros, resultados entrenados y estructuras para
padres e hijos.
La investigación sobre IA actual se centra principalmente en áreas individuales como la comprensión
del diálogo, el reconocimiento visual y la discriminación auditiva, etc. La investigación sobre las
funciones del cerebro completo aún es insuficiente. Por ejemplo, hay pocos estudios sobre modelos de
comprensión perceptiva y modelos de pensamiento propio. Por lo tanto, en esta investigación,
aclararemos la función y los mecanismos de todo el cerebro y haremos esfuerzos para realizarlo como
inteligencia artificial. La red de BI está compuesta por muchas subredes simples. El sistema S [62]
actualiza los parámetros de cada subred, que puede modificar las subredes mediante reproducción,
selección y mutación.

A diferencia de NeuroEvolution of Augmenting Topologies (NEAT) [63, 64], la red de modo BI propuesta
no solo utiliza la estructura de la red neuronal y el mecanismo de optimización de parámetros, sino que mejora
la estructura de los modelos de IA actuales que utilizan el sistema S. hyperNEAT [65], un tipo de NN basado
en A-life, que usa la Red de Producción de Patrones Composicionales (CPPN) para la generación de patrones
y usa NEAT para la optimización de parámetros. hyperNEAT no puede superar los inconvenientes de la red
NEAT. Algunos investigadores también estudian otros modelos basados en genes, como la Red Reguladora de
Gen (GRN) [66] y la Red de reacción en evolución (ERN) [67]. Estos métodos están inspirados en
características biológicas, que no tienen en cuenta el uso de todas las funciones del cerebro. La Computación
Cognitiva (CC) [68] propone un nuevo modelo desde la perspectiva de las funciones cognitivas humanas. La
red modelo BI se investiga desde un punto de vista de ingeniería, en el futuro, desarrollaremos un
modelo de función cerebral superinteligente que tiene la intención de descubrir problemas en sí mismo y
mejorar de forma autónoma sus habilidades.

4) Conclusión
En este documento, hemos presentado herramientas de inteligencia artificial de última generación para
áreas de aplicación individuales, como el procesamiento del lenguaje natural y el reconocimiento visual.
Las principales contribuciones de este trabajo son las siguientes. Primero, esta es una descripción
general de los métodos actuales de aprendizaje profundo. Hemos resumido las nueve aplicaciones
potenciales en detalle. En segundo lugar, este documento reúne todos los problemas de los modelos
recientes de IA, que dirigirán el trabajo futuro para los investigadores. En tercer lugar, en este
documento, primero propusimos el modelo de inteligencia cerebral, que es un modelo que fusiona
inteligencia artificial y vida artificial. Los modelos AL, como el sistema S, tienen los beneficios de una
función de asociación, que es diferente de las redes adversas generativas (GAN), para construir grandes
datos dentro de un proceso de evolución de la vida. Es previsible que el modelo de BI pueda resolver los
problemas del problema del marco, el problema de la función de asociación, el problema de conexión a
tierra del símbolo y el problema mental / físico.

Expresiones de gratitud

Este trabajo fue apoyado por Leading Initiative for Excellent Young Researcher (LEADER) del
Ministerio de Educación, Cultura, Deportes, Ciencia y Tecnología de Japón (16809746), Subvenciones
para la Investigación Científica de JSPS (17K14694), Fondo de Investigación de China Academia de
Ciencias (Nº MGE2015KG02), Fondo de Investigación del Laboratorio Estatal Clave de Geología
Marina en la Universidad de Tongji (MGK1608), Fondo de Investigación del Laboratorio Clave Estatal
de Ingeniería del Océano en la Universidad Jiaotong de Shanghai (1510), Fondo de Investigación de la
Fundación de Avance de Telecomunicaciones y Asociación de Desarrollo de Investigación Fundamental
para la Construcción Naval y Offshore.

Referencias

[1] Siri, https://en.wikipedia.org/wiki/Siri (Acceso en 2017/4/20).

[2] AlphaGo, https://deepmind.com/research/alphago/ (Acceso en 2017/4/20).

[3] IBM Watson, https://www.ibm.com/watson/ (Acceso en 2017/4/20).


[4] API de Microsoft Translator Speech, https://www.microsoft.com/en-us/translator/speech.aspx
(Acceso en 2017/4/20).

[5] Amazon Prime Air, https://www.amazon.com/Amazon-Prime-Air/b?node=8037720011 (Acceso en


2017/4/20).

[6] Y. Taigman, M. Yang, M. Ranzato, L. Wolf, "DeepFace: Closing the Gap to Human-Level
Performance in Face Verification", IEEE International Conference on Computer Vision and Pattern
Recognition (CVPR2014), pp.1-8 2014.

[7] Laboratorio de Inteligencia Artificial de Stanford, http://ai.stanford.edu/ (Acceso en 2017/4/20).


[8] MIT BigDog, https://slice.mit.edu/big-dog/ (Acceso en 2017/4/20).

[9] El Plan de 4º Básico de Ciencia y Tecnología de Japón, http://www8.cao.go.jp/cstp/english/basic/


(consultado el 04/20/2017).

[10] AI EXPO, http://www.ai-expo.jp/en/ (Consultado el 2017/4/20).

[11] 2017 será el año de la IA, http://fortune.com/2016/12/30/the-year-of-artificial-intelligence/


(Consultado el 2017/4/20).

[12] Y. LeCun, Y. Bengio, G. Hinton, "Aprendizaje profundo", Nature, vol.521, no.7553, pp.436-444,
2015. [13] Y. Bengio, R. Ducharme, P. Vincent, C. Janvin, "Un modelo de lenguaje neural
probabilístico", Journal of Machine Learning Research, vol.3, pp.1137-1155, 2003.

[14] A. Mnih, G. Hinton, "Tres nuevos modelos gráficos para el modelado de lenguaje estadístico", en
Proc of ICML07, pp.641-648, 2007.

[15] T. Mikolov, M. Karafiat, L. Burget, J. Cernocky, S. Khudanpur, "Modelo de lenguaje basado en


redes neuronales recurrentes", en Proc of Interspeech10, pp.1045-1048, 2010.

[16] I. Sutskever, O. Vinyals, Q. Le, "Secuencia para secuenciar el aprendizaje con redes neuronales", In
Advances in Neural Information Processing Systems, pp.3104-3112, 2014.

[17] H. Mei, M. Bansal, M. Walter, “¿De qué hablar y cómo? Generación selectiva utilizando LSTM
con alineación gruesa a fina ”, en NAACL-HLT, pp.1-11, 2016.

[18] M. Luong, Q. Le, I. Sutskever, O. Vinyals, L. Kaiser, "Multitarea secuencia a secuencia de


aprendizaje", en Proc ICLR, pp.1-10, 2016.

[19] H. Bourlard, M. Morgan, "Reconocimiento del discurso conexionista: un enfoque híbrido", Kluwer
Academic Publishers, 1994.

[20] A. Graves, A. Mohamed, G. Hinton, "Reconocimiento de voz con redes neuronales recurrentes
profundas", en ICASSP2013, pp.1-5, 2013.

[21] B. Wiederhold, G. Riva, M. Wiederhold, “Realidad virtual en salud: simulación médica e interfaz
experiencial”, Revisión anual de la terapia cibernética y la telemedicina, vol.13, 239 páginas, 2015. [22]
G. Bartsch, A. Mitra, S. Mitra, A. Almal, K. Steven, D. Skinner, D. Fry, P. Lenehan, W. Worzel, R.
Cote, “Uso de inteligencia artificial y algoritmos de aprendizaje automático con expresión génica
perfiles para predecir el carcinoma urotelial invasivo no muscular recurrente de la vejiga ”, The Journal
of Urology, vol.195, pp.493-498, 2016.

[23] N. Labonnote, K. Hoyland, "Tecnologías para el hogar inteligente que apoyan la vida
independiente: desafíos y oportunidades para la industria de la construcción: un estudio de mapeo
sistemático", Intelligent Buildings International, vol.29, no.1, pp.40-63, 2017.

[24] S. Chetlur, C. Woolley, P. Vandermersch, J. Cohen, J. Tran, B. Catanzaro, E. Shelhamer, “Cudnn:

primitivas eficientes para el aprendizaje profundo ”, pp.1-10, arXiv: 1410.0759, 2014.

[25] A. Coates, B. Huval, T. Wang, D. Wu, B. Catanzaro, N. Andrew, "Aprendizaje profundo con

sistemas cots hpc", en Proc de la 30ª Conferencia Internacional sobre Machine Learning, pp.1337-1345

2013.
[26] G. Lacey, G. Taylor, S. Areibi, "Aprendizaje profundo sobre FPGA: pasado, presente y futuro",
pp.1-8, arXiv: 1602.04283, 2016.

[27] W. Lin, S. Lin, T. Yang, "Prestigio empresarial integrado e inteligencia artificial para la toma de
decisiones corporativas en entornos dinámicos", Cybernetics and Systems, DOI: 10.1080 /
01969722.2017.1284533, pp.1-22, 2017.

[28] A. Ratnaparkhi, E. Pilli, R. Joshi, "Encuesta de escalado de plataformas para redes neuronales
profundas", en Proc de la Conferencia Internacional sobre Tendencias Emergentes en Tecnologías de la
Comunicación, pp.1-6, 2016. [29] R. Raina, A. Madhavan, A. Ng, “Aprendizaje profundo sin
supervisión a gran escala usando gráficos

procesadores ", en el Proc de la 26ª Conferencia Internacional Anual sobre Aprendizaje Automático,
pp.873-880, 2009.[30] B. Catanzaro, "Aprendizaje profundo con sistemas COTS HPC", en Proc de la 30ª
Conferencia Internacional sobre Aprendizaje Automático, pp.1337-1345, 2013.

[31] J. Dean, G. Corrado, R. Monga, K. Chen, M. Devin, Q. Le, M. Mao, M. Ranzato, A. Senior, P.
Tucker, K. Yang, A. Ng, "Distribuido a gran escala redes profundas ”, en Proc of Advances in Neural
Information Processing Systems, págs. 1223-1231, 2012.

[32] T. Chilimbi, Y. Suzue, J. Apacible, K. Kalyanaraman, "Proyecto Adam: Construyendo un

escalable sistema de enseñanza profunda,”En Proc del 11 ° Simposio USENIX en sistemas operativos
de diseño e implementación, pp.571-582, 2014.

[33] Qualcomm Zeroth, https://www.qualcomm.com/invention/cognitive-technologies/zeroth


(consultado el 27/04/2017).

[34] P. Merolla, J. Arthur, R. Alvarez-lcaza, A. Cassidy, J. Sawada, F. Akopyan, B. Jackson, N. Imam,


C. Guo, Y. Nakamura, B. Brezzo, I. Vo, S. Esser, R. Appuswamy, B. Taba, A. Amir, M. Flickner, W.
Risk, R. Manohar, D. Modha, "Un circuito integrado de un millón de neuronas con una red de
comunicación y una interfaz escalables", Science, vol. .345, no.6197, pp.668-673, 2014.

[35] M. Khan, D. Lester, L. Plana, A. Rast, X. Jin, E. Painkras, S. Furber, "SpiiNNaker: mapeo de redes
neuronales en un multiprocesador de chips masivamente paralelo", en Proc de IEEE International Joint
Conference on Neural Redes, pp.2849-2856, 2008.
[36] M. Lacity, L. Willcocks, "Un nuevo enfoque para la automatización de servicios", MIT Sloan
Management Review, vol.2016, pp.1-16, 2016.

[37] T Mikolov, M. Karafiat, L. Burget, J. Cernocky, S. Khudanpur, “Modelo de lenguaje basado en


redes neuronales recurrentes”, en Proc of Interspeech2010, pp.1045-1048, 2010.

[38] M. Schuster, K. Paliwal, "Redes neuronales recurrentes bidireccionales", IEEE Transactions on


Signal Processing, vol.45, no.11, pp.2673-2681, 1997.

[39] A. Graves, N. Jaitly, A. Mohamed, "Reconocimiento de voz híbrido con LSTM bidireccional
profundo", en el Proc. Del taller IEEE sobre reconocimiento y comprensión automáticos de voz, págs. 1-
4, 2013. [40] A. Graves, J. Schmidhuber, "Clasificación de fonemas de Framewise con LSTM
bidireccional y otros arquitectos de redes neuronales", Neural Networks, vol.18, no.5-6, pp.602-610,
2005.
[41] A. Mishra, V. Desai, "Predicción de sequía utilizando una red neuronal recursiva de
retroalimentación", Ecological Modeling, vol.198, no.1-2, pp.127-138, 2006.

[42] A. Karpathy, G. Toderici, S. Shetty, T. Leung, R. Sukthankar y F. Li, "Clasificación de video a gran
escala con redes neuronales convolucionales", en Proc de la Conferencia IEEE sobre Visión por
Computadora y Reconocimiento de Patrones, pp.1725 -1732, 2014.

[43] Y. LeCun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard y L. Jackel, "La


propagación hacia atrás aplicada al reconocimiento de código postal escrito a mano", Neural
Computation, vol.1, no.4, pp. 541-551, 1989.

[44] R. Bell e Y. Koren, "Lecciones del desafío del premio de Netflix", ACM SIGKDD Explorations
Newsletter, vol.9, no.2, pp.75-79, 2007.

[45] K. Simonyan y A. Zisserman, "Redes convolucionales muy profundas para el reconocimiento de


imágenes a gran escala", en Proc de IEEE ICLR2015, pp.1-14, 2015.

[46] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A.


Rabinovich, "Profundizando en convoluciones", en el Proc de la Conferencia IEEE sobre visión por
computadora y Reconocimiento de patrones, pp.1-12, 2015.

[47] S. Arora, A. Bhaskara, R. Ge y T. Ma, "Límites demostrables para aprender algunas


representaciones profundas", arXiv: abs / 1310.6343, 2013.

[48] K. Él, X. Zhang, S. Ren, J. Sun, "Aprendizaje residual profundo para el reconocimiento de
imágenes", en Proc. De IEEE Conference on Computer Vision and Pattern Recognition, pp.1-12, 2016.

[49] M. Chen, Y. Ma, Y. Li, D. Wu, Y. Zhang, "Wearable 2.0: Habilitando la integración humano-nube
en los sistemas de salud de la próxima generación", IEEE Communications Magazine, vol. 54, no. 12,
pp. 3-9, 2017.

[50] J. Song, Y. Zhang, "TOLA: Asistencia de aprendizaje orientada a temas basada en sistema
ciberfísico y big data", Sistemas informáticos de generación futura, DOI: 10.1016 / j.future.2016.05.040,
2016.[51] Y. Zhang, "Grorec: un sistema de recomendación inteligente centrado en el grupo que integra
tecnologías sociales, móviles y de grandes datos", IEEE Transactions on Services Computing, vol. 9, no.
5, pp. 786-795, 2016. [52] P. Liu, Y. Ma, M. Alhussein, Y. Zhang, L. Peng, "Centro de datos ecológico
con detección de IoT y sistema inteligente de control de temperatura asistido por la nube", Computer
Networks, vol. 101, pp. 104-112, junio de 2016. [53] D. Chen, C. Manning, "Un analizador de
dependencias rápido y preciso que utiliza redes neuronales", en Proc of Empirical Methods in Natural
Language Processing, pp.740-750, 2014.

[54] N. Kalchbrenner, E. Grefenstette, P. Blunsom, "Una red neuronal convolucional para modelar
oraciones", en el Proc de la Reunión Anual de la Asociación de Lingüística Computacional, pp.655-665,
2014.

[55] D. Ciresan, U. Meier, J. Masci, J. Schmidhuber, "Red neuronal profunda de varias columnas para la
clasificación de señales de tráfico", Neural Networks, vol.32, pp.333-338, 2012.

[56] C. Santos, B. Xiang, B. Zhou, "Clasificación de las relaciones por clasificación con neural
convolucional
redes ”, en Proc de la Reunión Anual de la Asociación de Lingüística Computacional, pp.626-634, 2015.

[57] B. Hu, Z. Tu, Z. Lu, Q. Chen, "Selección de traducción dependiente del contexto utilizando una red
neuronal convolucional", en proceso de la reunión anual de la Asociación de Lingüística Computacional,
pp.536-541, 2015.

[58] Y. Li, H. Lu, J. Li, X. Li, Y. Li, S. Serikawa, "Dispersión de imágenes submarinas y clasificación
por red neuronal profunda", Computers & Electrical Engineering, vol.54, pp.68-77 2016.

[59] H. Lu, B. Li, J. Zhu, Y. Li, Y. Li, X. Xu, L. Él, X. Li, J. Li, S. Serikawa, "Corrección y
segmentación de la intensidad de la herida con redes neuronales convolucionales" Concurrencia y
cálculo: práctica y experiencia, vol.29, no.6, pp.1-8, 2017.

[60] H. Lu, Y. Li, T. Uemura, Z. Ge, X. Xu, L. He, S. Serikawa, H. Kim, "FDCNet: filtrado de redes
convolucionales profundas para la clasificación de organismos marinos", Herramientas y aplicaciones
multimedia, págs. 1-14, 2017.

[61] H. Lu, Y. Li, L. Zhang, S. Serikawa, "Mejora de contraste para imágenes en agua turbia", Journal of
the Optical Society of America, vol.32, no.5, pp.886-893, 2015.

[62] S. Serikawa, T. Shimomura, "Propuesta de un sistema de descubrimiento de funciones utilizando un


tipo de error de vida artificial", Transactions of IEE Japan, vol.118-C, no.2, pp.170-179, 1998.

[63] K. Stanley, R. Miikkulainen, "Evolución de las redes neuronales a través del aumento de las
topologías", Computación evolutiva, vol.10, no.2, pp.99-127, 2002.

[64] J. Schrum, R. Miikkulainen, "Evolución del comportamiento multimodal con redes neuronales
modulares en la Sra. Pac-Man", en Proc de la Conferencia de Computación Genética y Evolutiva,
pp.325-332, 2014. [65] K. Stanley, D. Ambrosio, J. Gauci, "Una codificación basada en hipercubos para
la evolución de redes neuronales a gran escala", Artificial Life, vol.15, no.2, pp.185-212, 2009.

[66] F. Emmert-Streib, M. Dehmer, B. Haibe-Kains, "Redes reguladoras de genes y sus aplicaciones:


comprender los problemas biológicos y médicos en términos de redes", Frontiers in Cell and
Developmental Biology, vol.2, no.38, pp. 1-7, 2014.

[67] H. Dinh, M. Aubert, N. Noman, T. Fujii, Y. Rondelez, H. Iba, "Un método eficaz para desarrollar
redes de reacción en sistemas bioquímicos sintéticos", IEEE Transactions on Evolutionary Computation,
vol.19, no.3, pp.374-386, 2015.
[68] K. Hwang, M. Chen, "Análisis de Big Data para cloud, IoT y computación cognitiva", Wiley Press,
432 páginas, 2017.