Está en la página 1de 14

INTRODUCCION

En el siguiente informe haremos una breve explicación sobre los temas


tratados en la conferencia “Visión artificial con Deep learning” que estuvo
a cargo del Ing. Juan Manuel Jacinto Sandoval, en la conferencia trato
diferentes temas relacionados con la inteligencia artificial, así como
también nos presentó algunos de sus trabajos desarrollados en este tema
y nos invitó a involucrarnos más en el tema pues representa uno de los
grandes retos de la ingeniería y no podemos ser ajenos a ella.
Vivimos un momento histórico, no porque las organizaciones quieran
incorporar algo radicalmente nuevo, sino porque ahora son conscientes
de que existe tecnología capaz de procesar todos los datos de los que
disponen, hacerlo en escalas de tiempo inferiores a las humanas e incluso
proporcionar la inteligencia necesaria.
INTELIGENCIA ARTIFICIAL

La inteligencia artificial (IA) hace posible que las máquinas aprendan de la


experiencia, se ajusten a nuevas aportaciones y realicen tareas como
hacen los humanos. La mayoría de los ejemplos de inteligencia artificial de
los que usted escucha hoy día – desde computadoras que juegan ajedrez
hasta automóviles que se conducen por sí solos – se sustentan
mayormente en aprendizaje a fondo (Deep learning) y procesamiento del
lenguaje natural. Mediante el uso de estas tecnologías, las computadoras
pueden ser entrenadas para realizar tareas específicas procesando
grandes cantidades de datos y reconociendo patrones en los datos.
El término inteligencia artificial fue adoptado en 1956, pero se ha vuelto
más popular hoy día gracias al incremento en los volúmenes de datos,
algoritmos avanzados, y mejoras en el poder de cómputo y el almacenaje.
La investigación inicial de la inteligencia artificial en la década de 1950
exploraba temas como la solución de problemas y métodos simbólicos. En
la década de 1960, el Departamento de Defensa de los Estados Unidos
mostró interés en este tipo de trabajo y comenzó a entrenar
computadoras para que imitaran el razonamiento humano básico. Por
ejemplo, la Defense Advanced Research Projects Agency (DARPA, Agencia
de Proyectos de Investigación Avanzada de Defensa) realizó proyectos de
planimetría de calles en la década de 1970. Y DARPA produjo asistentes
personales inteligentes en 2003, mucho tiempo antes que Siri, Alexa o
Cortana fueran nombres comunes.
DEEP LEARNING
El cerebro es uno de los órganos más complejos y vitales del ser humano.
Se ha estimado que el cerebro humano contiene de cincuenta a cien mil
millones de neuronas, de las cuales cerca de diez mil millones son células
piramidales corticales, las cuales transmiten señales al cuerpo a través de
mil billones de conexiones sinápticas.
Las máquinas están empezando a utilizar el 'cerebro', muy parecido al del
ser humano. Una red de neuronas artificial es una herramienta
matemática que modela, de forma simplificada, el funcionamiento de las
neuronas en el cerebro. La arquitectura es la siguiente: las neuronas se
organizan en capas, donde las neuronas verdes son las entradas que
reciben la información, las azules son las ocultas, que contienen cálculos
intermedios de la red, y las amarillas son las salidas que contienen el
resultado. Normalmente hay una capa de entrada, una de salida y varias
ocultas. A más capas ocultas, más compleja es la red y mejores resultados
predice, pero también es más difícil crear el modelo.
Todas las neuronas contienen un número llamado bias, que indica su
importancia en la red, además todas están conectadas entre sí y contienen
un peso que indica la importancia de la conexión. La operación en la red
de neuronas sería sencilla si no fuera por la función activación, la cual
recibe como entrada la suma de todos los números que llegan por las
conexiones anteriores, transforma el valor mediante una fórmula, y
produce un nuevo número.
La misión de esta función activación es mantener los números producidos
por cada neurona dentro de un rango razonable.
Existen diferentes arquitecturas de redes de neuronas diferentes, entre las
principales tenemos: la máquina de Boltzmann restringida (RBM), la red
de creencia profunda (DBN), las redes de neuronas convolutivas (CNN), y
las redes de neuronas recurrentes (RNN).
Una de las claves de la IA avanzada está en el aprendizaje. Es cada vez más
habitual que les pidamos a las máquinas que aprendan por sí solas. No
podemos permitirnos el lujo de pre-programar reglas para lidiar con las
infinitas combinaciones de datos de entrada y situaciones que aparecen
en el mundo real.
En vez de hacer eso, necesitamos que las máquinas sean capaces de auto-
programarse, en otras palabras, queremos máquinas que aprendan de su
propia experiencia. La disciplina del Aprendizaje Automático (Machine
Learning) se ocupa de este reto y gracias a la tormenta perfecta en la que
nos acabamos de adentrar todos los gigantes de Internet han entrado de
lleno en el mundo del aprendizaje automático, ofreciendo servicios en la
nube para construir aplicaciones que aprenden a partir de los datos que
ingieren.
ALGUNAS HERRAMIENTAS UTILIZADAS

Tensor Flow

Los sistemas de inteligencia artificial son cada vez más importantes en el


mundo de la empresa para ahorrar costes económicos. El motor de
búsqueda Google lanzó la herramienta de software abierto TensorFlow en
2015 y está teniendo un gran éxito comercial. Varias empresas la utilizan
para sus procesos, pues resulta de gran utilidad por su versatilidad y nivel
de desarrollo.
Ya existían precedentes en 2011 como DistBelief, que realizaba funciones
similares, basándose en el sistema de redes neuronales. La necesidad de
crear una herramienta con un bagaje de datos mayor y editable, llevó al
desarrollo de TensorFlow. Este software está tan extendido que, hoy, es
imposible entender el desarrollo de la inteligencia artificial sin su
aportación.
En qué consiste TensorFlow
TensorFlow es una biblioteca de código abierto que se basa en un sistema
de redes neuronales. Esto significa que puede relacionar varios datos en
red simultáneamente, de la misma forma que lo hace el cerebro humano.
Por ejemplo, puede reconocer varias palabras del alfabeto porque
relaciona las letras y fonemas. Otro caso es el de imágenes y textos que se
pueden relacionar entre sí rápidamente gracias a la capacidad de
asociación del sistema de redes neuronales. En el programa, se almacenan
todas las pruebas y experimentos que se realizaron para el desarrollo de
programas y aplicaciones.
La decisión de liberar TensorFlow se tomó en noviembre de 2015, por lo
que hoy es posible acceder a esta herramienta libremente y editarla en
función de las necesidades. Ya cuando se lanzó, la capacidad de
reconocimiento y relación que tenía era superior al 93 % en las imágenes,
y su perfeccionamiento a través de la licencia OpenSource ha permitido su
uso masivo. Además, también consiguió que en la versión de 2015 el
tiempo de procesamiento se redujese a los 0,7 segundos de media.
Por lo tanto, se trata de una herramienta que mejoró en capacidad de
procesamiento y en rapidez.

Aplicaciones de TensorFlow
Los directivos de Google consideran que TensorFlow puede ser muy útil
para las empresas sanitarias, de seguros y automovilísticas. Desde que
liberó el código, varias empresas utilizan el software o se han basado en el
mismo para desarrollar aplicaciones. El gigante de los seguros AXA ya
utiliza el software para predecir (con un 78% de acierto) las posibilidades
de que un asegurado cause un grave accidente de coche. Otra aplicación
popular derivada del uso de los datos de TensorFlow es el motor de
reconocimiento de imágenes DeepDream. Miles de startups e
investigadores universitarios apuestan por TensorFlow como base para
desarrollar sus propios sistemas de inteligencia artificial.
Además de por altruismo, Google liberó TensorFlow para extender esta
tecnología en el desarrollo de aplicaciones en distintos dispositivos.
También podemos decir que responde a una estrategia a largo plazo para
estar presentes en más dispositivos y plataformas. Una ventaja de la
política de Google es que sus competidores, Amazon y Microsoft, se
vieron obligados a facilitar herramientas de inteligencia artificial con
código abierto. Hoy, ofrecer herramientas de libre acceso de inteligencia
artificial es una política de empresa, sobre todo en el sector tecnológico.
Keras

Keras es una biblioteca de Redes Neuronales de Código Abierto escrita en


Python. Es capaz de ejecutarse sobre TensorFlow, Microsoft Cognitive
Toolkit o Theano.
Está especialmente diseñada para posibilitar la experimentación en más o
menos poco tiempo con redes de Aprendizaje Profundo. Sus fuertes se
centran en ser amigable para el usuario, modular y extensible.
Inicialmente fue desarrollada como parte de los esfuerzos de investigación
del proyecto ONEIROS (Open-ended Neuro-Electronic Intelligent Robot
Operating System).
Su autor principal y mantenedor ha sido el ingeniero de Google François
Chollet. En 2017, el equipo de TensorFlow de Google decidió ofrecer
soporte a Keras en la biblioteca de core de TensorFlow Chollet explica que
Keras ha sido concebido para actuar como una interfaz en lugar de ser una
framework de machine learning standalone. Ofrece un conjunto de
abstracciones más intuitivas y de alto nivel haciendo más sencillo el
desarrollo de modelos de aprendizaje profundo independientemente del
backend computacional utilizado.
Microsoft añadió un backend en CNTK a Keras también, disponible desde
la CNTK v2.0.
Keras contiene varias implementaciones de los bloques constructivos de
las redes neuronales como por ejemplo los layers, funciones objetivo,
funciones de activación, optimizadores matemáticos.
Keras permite generar modelos de Deep learning en Smartphone tanto
sobre iOS como sobre Android, sobre una Java Virtual Machine o sobre
web.
Unidad de procesamiento gráfico
(GPU)

Una unidad de procesamiento gráfico o GPU (graphics


processing unit) es un coprocesador dedicado al
procesamiento de gráficos u operaciones de coma flotante, para aligerar
la carga de trabajo del procesador central en aplicaciones como los
videojuegos o aplicaciones 3D interactivas. De esta forma, mientras gran
parte de lo relacionado con los gráficos se procesa en la GPU, la unidad
central de procesamiento (CPU) puede dedicarse a otro tipo de cálculos
(como la inteligencia artificial o los cálculos mecánicos en el caso de los
videojuegos).
La GPU implementa ciertas operaciones gráficas llamadas primitivas
optimizadas para el procesamiento gráfico. Una de las primitivas más
comunes para el procesamiento gráfico en 3D es el antialiasing, que
suaviza los bordes de las figuras para darles un aspecto más realista.
Adicionalmente existen primitivas para dibujar rectángulos, triángulos,
círculos y arcos. Las GPU actualmente disponen de gran cantidad de
primitivas, buscando mayor realismo en los efectos.
Es tentador utilizar GPU para Deep learning y la inferencia, dado el
entusiasmo en torno a su aceleración. Sin embargo, es importante
obtener una comprensión más profunda de la fuente de aceleración para
utilizar estos recursos de manera efectiva. En este artículo, examinaremos
la dependencia del rendimiento de una aplicación Deep Learning típica.
Usaremos como ejemplo la máquina DGX-1 de nVidia, muy publicitada,
pero los puntos a continuación son lo suficientemente genéricos como
para aplicarlos a una GPU o TPU genérica.
PROCESO DE DEEP LEARNING PASO A PASO

IDENTIFICACIÓN Y ENTRENAMIENTO:
Supongamos que deseas que una máquina identifique a un conejo. Lo
primero sería entrenar a un algoritmo con una imagen igual. Para ello,
dividirías las funciones de las capas en primero un proceso de entrada
para que luego se dé el proceso de salida.
PROCESAMIENTOS DE DATOS DE ENTRADA:
Ahora bien, lo que correspondería hacer seria elaborar una capa que
comprenda a la información que será proporcionada. De esa forma, se
haría necesario que las neuronas analizaran la información por cada pixel
de la imagen.
ELABORACIÓN DE UNA CAPA DE SEGUNDO NIVEL:
Aquí se quiere procesar todos pixeles, esto se logra cuando se puede ver
por separado los vectores que se encuentran dentro de los mismos
pixeles.
TERCER NIVEL:
En este punto se hace una unión de todos los bordes para crear las formas
y diseñar los objetos de la imagen como tal.

CAPA CUATRO:
Se hace uso de los filtros para identificar que es un conejo y cuales no lo
son. Las características que buscará será las siguientes: cuatro patas, una
cola, dos orejas. Estos datos son trasladados a la última etapa, y es allí
donde se hace la unión de las características para identificar si es o no un
conejo.
LOS MEJORES EJEMPLOS DE DEEP LEARNING
Es importante señalar que Deep learning ha inundado el sector
empresarial, pero también está presente en otros ámbitos. Conoce
algunos de los mejores ejemplos de Deep learning, a continuación:

 RECONOCIMIENTO DE VOZ:
Los algoritmos de Deep learning han logrado ser una herramienta
importante en este campo. Ya que, han podido asemejarse en todos los
aspectos del habla humana, como lo es la fonética, la parte lingüística y
hasta la acústica. Y, lo mejor del caso es que a medida que pasan los años,
estos sistemas se actualizan y se mejoran de forma impresionante.
Obteniendo así dos cosas esenciales, rapidez y presión, en la búsqueda de
la voz.
Un ejemplo de esto, es lo que creado una empresa haciendo uso de la
tecnología de aprendizaje profundo el sistema de Baidu, que también se le
llama Deep Speech 2. Su slogan se basa, en que es capaz de reconocer la
voces mejor que lo haría un ser humano.

 LOS FAMOSOS TRADUCTORES DE IDIOMAS:


Un ejemplo de esto es el que, de seguro has utilizado en Google. Lo que
procura es imitar como traduciría un ser humano esa expresión al idioma
que se necesita.
A lo mejor te imaginas que esta tecnología traduce palabra por palabra,
pero la verdad es que no es así. En vez de eso, la red neuronal puede
comprender la frase en ese idioma y tomando en cuenta el sentido
gramatical y el contexto, traduce la expresión. Así de sencillo, lo hace en
cuestión de segundos. ¡Asombroso! ¿Cierto?
COMPRENSIÓN SEMÁNTICA:
En este ejemplo entra lo que utiliza la Apple, el asistente virtual,
llamado Siri. Aquí, las máquinas son capaces de comprender
conversaciones y comentarios en las redes.

IDENTIFICACIÓN DE IMÁGENES:
Otro ejemplo de Deep learning en este campo, es lo que hacen los
policías y los departamentos de investigación para identificar un individuo.
Hacen uso del reconocimiento facial, aquí los algoritmos se basan en
analizar los pixeles introducidos y pueden reconocer aquellos que sean
iguales a los que tiene en su data.
Pero, este no es el único ejemplo de Deep learning, también se utiliza para
identificar en tiendas físicas y en a la autentificación. También lo puedes
ver en las redes sociales cuando, vas a etiquetar a un amigo y la misma red
lo identifica sin necesidad de que coloques su nombre.
CAMPO DE LA MEDICINA:
Los aportes del aprendizaje profundo son increíbles, te muestro tres
ejemplos de lo que ha logrado esta tecnología en este campo de estudio.
Primeramente, está un sistema llamado RADIO, el cual se utiliza para
diagnosticar cáncer a través de radiografías. Los investigadores dicen, que
esta gran tecnología se caracteriza por ser una herramienta fácil de usar y
muy rápida. Se menciona que puede analizar unos 10 millones de
radiografías en poco más de 30 segundos.
Otro ejemplo, que ha ayudado a la medicina por medio de Deep
learning, es Art medical, la cual es una gran empresa que busca solucionar
problemas. Los cuales se presentan en los con pacientes que se
encuentran en cuidados intensivos. Por ello, han creado tubos que sirven
para alimentación y monitores que son inteligentes. Esto puede contribuir
a la evitar muertes por complicaciones adquiridas en los hospitales.
En el mismo orden de ideas, se ha creado un sistema que puede predecir
con un 80% de exactitud, en un paciente la presencia de alguna
enfermedad mental.
Para finalizar con los ejemplos, tenemos a Corti. Que es una tecnología
que se ha creado para analizar con detalle las llamadas de emergencia,
puede detectar síntomas y hasta condiciones médicas por la forma de
hablar de las personas. De esa manera le informa a los del servicio de
emergencia que le está ocurriendo a la persona.
"Año de la lucha contra la corrupción y la impunidad"

UNIVERSIDAD NACIONAL
DE PIURA
FACULTAD CIENCIAS – ING ELECTRONICA Y
TELECOMUNICACIONES

 CURSO : PROCESAMIENTO DIGITAL DE SEÑALES

 DOCENTE : ING.JUAN MANUEL JACINTO SANDOVAL

 TEMA : DEEP LEARNING

 ALUMNO :

 DUARD ZAPATA OSCAR FABIAN

 CICLO ACADÉMICO : 2019-I

PIURA – PERÚ
2019

También podría gustarte