Está en la página 1de 9

T​ECNOLÓGICO​ N​ACIONAL​ ​DE​ M​ÉXICO

I​
NSTITUTO ​T​
ECNOLÓGICO DE ​T​
EPIC

» Inteligencia Artificial enfocada en el


Machine Learning«
Anteproyecto de Investigación

​ GENIERÍA ​E​LÉCTRICA Y ​E​LECTRÓNICA


A​CADEMIA DE ​IN
INGENIERÍA MECATRÓNICA

T​ALLER​ ​DE​ I​NVESTIGACIÓN​ I


L​IC​. R​OBERTO​ B​ERUMEN​ P​ARTIDA

Tercer Semestre

Grupo 11:00 - 12:00

P​RESENTADO​ ​POR​:

O​RTEGA​ M​ONTES​ E​VERARDO 19401079


R​AMÍREZ​ H​ERNÁNDEZ​ P​AUL​ D​ANIEL 19401093
V​ERDÍN​ A​RÁMBULA​ S​EVER​ A​DRIÁN 19401118

Lunes, 30 de noviembre 2020


Í​NDICE
Índice 1
Capítulo 1: Planteamiento General 2
Antecedentes del problema 2
1.2 Planteamiento del problema 2
1.3 Formulación del Problema 2
1.4 Objetivos 3
Objetivo General 3
Objetivos Específicos 3
1.5 Justificación de la Investigación 3
1.6 Limitaciones 3
Capítulo 2: Marco Teórico 4
2.1 Marco conceptual 4
2.2 Marco teórico 6

1
C​APÍTULO​ 1: P​LANTEAMIENTO​ G​ENERAL
1.1 Antecedentes del problema
El término de Inteligencia Artificial se propuso por primera vez en la Conferencia
de Dartmouth en 1956. Fue entonces cuando comenzaron a aparecer las primeras
computadoras digitales en los laboratorios universitarios. Los participantes de esta
conferencia fueron principalmente matemáticos e informáticos, muchos de los
cuales estaban interesados ​en probar teoremas y algoritmos que estas máquinas
pudieron probar. Hace treinta años, los sistemas de inteligencia artificial artificial
se consideraban sistemas independientes, al igual que los robots o los sistemas
expertos. Pero la mayoría de las aplicaciones de IA actuales incorporan
tecnología, como los trazadores de ruta digitales.

1.2 Planteamiento del problema


Desde que la humanidad ha utilizado entidades representativas para poder
comercializar sus productos o prestar servicios ha tenido que escuchar las
opiniones de los clientes, tanto críticas como sugerencias para poder asegurar la
posibilidad de seguir en el mercado, todo esto recogiendo los datos manualmente
y teniendo que contratar especialistas en el área para poder crear un plan de
mantenimiento.
El enfoque del mundo empresarial en el Machine Learning puede parecer que se
desarrolló de la noche a la mañana, pero el ruido que se ha generado alrededor
esta tecnología ha ido creciendo constantemente desde los primeros días del big
data. El Machine Learning no tiene mucho desde que empezó a cumplir con el
potencial creado por el big data y el análisis de convertir los datos sin procesar en
herramientas útiles y predictivas para empresas.

1.3 Formulación del Problema


¿Cuáles son los factores que intervienen en la mejora de los productos y/o
servicios de las grandes compañías a través del uso de la inteligencia artificial
enfocada al machine learning y la big data?

2
1.4 Objetivos
Objetivo General
Describir y analizar las características e impacto de la inteligencia artificial y
machine learning.

Objetivos Específicos
1. Describir las características e impacto de la inteligencia artificial y el
Machine Learning.
2. Analizar las características e impacto de la inteligencia artificial y el Machine
Learning.
3. Identificar las aplicaciones y ventajas del uso de Machine Learning y Big
Data en un ámbito empresarial.

1.5 Justificación de la Investigación


La manera en que el mundo ha estado evolucionando yendo hacia la
automatización ha requerido que las personas, en especial las organizaciones,
hayan tenido que dar un paso adelante hacia la actualización de su tecnología.
Como hemos podido observar a lo largo de las décadas posteriores a la segunda
revolución industrial, el uso de máquinas para la automatización de procesos ha
sido esencial para su desarrollo y evolución. Ahora en el mundo actual las
máquinas aprenden por sí mismas a partir de cierta programación, lo cual significa
que podemos obtener información de forma más precisa y rápida.

Por lo tanto, con esta investigación se intenta lograr que la información recopilada
y explicada sea distribuida hacia el público en general para despertar el interés por
el tema, o al menos, en este ámbito.

1.6 Limitaciones
La falta de disponibilidad de información sobre el tema debido a la confidencialidad
de las empresas que lo desarrollan.
La escasez de investigaciones previas relacionadas al enfoque del machine
learning.
Un contraste notable en los fundamentos teóricos para el desarrollo del tema,
comparado con otras investigaciones respecto al tema.

3
C​APÍTULO​ 2: M​ARCO​ T​EÓRICO
2.1 Marco conceptual
Muchos diccionarios definen a la inteligencia artificial como una subcategoría de la
ciencia computacional y la habilidad de las máquinas para parecerse a la
humanidad. "La teoría y el desarrollo de sistemas computacionales para llevar a
cabo tareas que normalmente requieren de inteligencia humana, como percepción
visual, reconocimiento de voz, toma de decisiones o traducción de lenguajes"
(English Oxford Living Dictionary, s.f.). (Encyclopedia Britannica, s.f.) ​define a la
inteligencia artificial como "la habilidad de una computadora digital o controlada
por un robot para realizar tareas comúnmente asociadas con la inteligencia de los
seres".

El término de “Machine Learning” tiene como raíz a la inteligencia artificial. Su


creación se debe a una idea que surgió en la década de los 60 a partir de la
inteligencia artificial. En teoría, se trataba de un subnivel de la Inteligencia artificial
pero que estaba producida por la ciencia en el ámbito computacional y las
neurociencias.
“Big data son datos que contienen una mayor variedad y que se presentan en
volúmenes crecientes y a una velocidad superior” (Gartner, 2001).

El aprendizaje automático y la recolección de datos son ya una realidad en


diversas áreas del conocimiento, Cada día desde ya hace varias décadas crece la
cantidad de datos ya sea persona que capture sus datos de usuario, se registre en
alguna actividad o almacene cookies, “el aprendizaje automático es conocimiento
obtenido al procesar computacionalmente datos de adiestramiento contenidos en
esas bases de datos” (Lugo-Reyes et al, 2014). Arthur Samuel, conocido por ser
el pionero de la inteligencia artificial y por supuesto el machine learning, lo definió
como “el campo de estudio que da a las computadoras la habilidad de aprender
sobre algo para lo que no han sido explícitamente programadas”(McClendon &
Meghanthan, 2015).

Otro pionero del aprendizaje automático es Tom Mitchell quien en el año 1997
propuso que “un programa aprende de la experiencia E con respecto a una tarea T
y a un rendimiento P, si el rendimiento medido por P en la tarea T mejora con la
experiencia E”.(Mitchell, 1997)

El Big Data es el conjunto de datos cuyo tamaño (volumen), complejidad


(variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión,
procesamiento o análisis mediante tecnologías y herramientas convencionales,
dentro del tiempo necesario para que sean útiles (Power Data, 2019).

4
El aprendizaje supervisado se basa en que el agente observa pares de datos de
entrada y salida a modo de ejemplo para aprender una función que modele la
salida según la entrada (Russell & Norvig, 2010). Por lo tanto, en los datos
utilizados para construir el modelo se encuentra la información que se desea
predecir. Existen dos tipos de problemas en el aprendizaje supervisado: los
problemas de regresión y los problemas de clasificación.

El aprendizaje no supervisado es un método de Aprendizaje Automático donde un


modelo se ajusta a las observaciones. Se distingue del Aprendizaje supervisado
por el hecho de que no hay un conocimiento visto de una manera superficial (RAI,
2012).

El aprendizaje reforzado (reinforcement learning) es una forma de aprendizaje


automático basado en un sistema de recompensas y castigos en el que un agente
busca las decisiones óptimas para obtener la máxima recompensa tanto a corto
como a largo plazo. La recompensa mide la contribución de la acción en el
objetivo final. El marco que define la interacción entre el agente y el entorno es un
Proceso de Decisión de Markov (Markov Decision Process, MDP), por el cual cada
estado depende únicamente del estado anterior (Russell & Norvig, 2010).

El deep learning o aprendizaje profundo se define como el conjunto de algoritmos


que se inspira en las redes neuronales humanas. En ese sentido, se considera
como un subcampo del machine learning (Yilda Morillo, s.f)

5
2.2 Marco teórico
Teoría de la Información de Shannon
Una de las bases más importantes para el desarrollo de las medidas de
información es la teoría de la información de Claude E. Shannon, quien fue un
destacado matemático, ingeniero eléctrico y criptógrafo estadounidense. Esta
teoría fue desarrollada con el objetivo de establecer una definición de la noción de
la información que permita cuantificarla, y se considera como uno de los avances
tecnológicos más importantes del siglo XX, ya que sus aplicaciones se extienden a
campos como la física, química, biología, inferencia estadística, robótica,
criptografía, computación, lingüística y reconocimiento de patrones. Sirvió para
encontrar los límites fundamentales en operaciones de procesamiento de señales
tales como compresión, almacenamiento y comunicación de datos.
En la actualidad vivimos en la que diversos autores han llamado la “era de la
información”, en la que este tema se volvió en un asunto de relevancia global,
puesto que los mercados actuales dependen de los canales informacionales entre
los distintos agentes económicos, lo que requiere que se realicen estudios acerca
de los problemas técnicos relacionados con la transmisión, medición y
procesamiento de la información.
Los conceptos del trabajo realizado por Shannon siguen siendo desarrollados en
la actualidad, por ello es importante su estudio para conocer el estado actual de la
teoría de la información y sus generalizaciones en las teorías de la información
cuántica y de la computación cuántica, que han sido estudiadas desde los años 90
hasta la actualidad.
Shannon publicó en el año 1948, en su artículo llamado “A mathematical theory of
communication”, los lineamientos fundamentales en los que se basaría para
construir su teoría de la información. Uno de sus aportes fue especificar cuál es el
problema informacional, separando los aspectos formales de los aspectos
semánticos asociados con el conocimiento del mensaje:
“El problema fundamental de la comunicación es el de reproducir en un punto
exacta o aproximadamente un mensaje seleccionado en otro punto.
Frecuentemente los mensajes tienen significado; esto es, ellos refieren o están
correlacionados de acuerdo a algún sistema con ciertas entidades físicas o
conceptuales. Estos aspectos semánticos de la comunicación son irrelevantes
para el problema de ingeniería. El aspecto significativo es que el mensaje de
hecho es uno seleccionado a partir de un conjunto de posibles mensajes. El
sistema debe ser diseñado para operar para cada posible selección, no sólo para
aquella que será seleccionada de hecho, dado que es desconocida al momento
del diseño.” (Shannon 1948)

6
Prueba de Turing y primeras IAs
En cuanto a inteligencia artificial, el primer planteamiento sobre el tema fue
realizado por el matemático Alan Turing en 1950, matemático reconocido por su
participación en la segunda guerra mundial como criptoanalista, descifrando el
código que Alemania utilizaba para sus comunicaciones militares, llamado
Enigma.
Turing, en su artículo “Computing machinery and intelligence”, planteó la
posibilidad de crear máquinas con la capacidad de simular a un ser humano y
realizar tareas de inteligencia o destreza mental, como por ejemplo, jugar ajedrez.
De este trabajo derivó ¨la prueba de Turing”, que aún hoy en día se utiliza para
determinar si una máquina es o no inteligente. Consiste en que un individuo tiene
que interrogar a dos “personas”, pero en realidad una de ellas es la computadora,
por lo que el entrevistador debe distinguir cuál de los dos es humano. El término
“inteligencia artificial” no fue utilizado sino hasta 1956 por John McCarthy en su
primera conferencia académica sobre el tema.
Posteriormente, McCarthy se trasladó de Darmouth al MIT, donde en 1958 definió
el lenguaje de alto nivel “Lisp”, que se convirtió en el lenguaje de programación
dominante en las inteligencias artificiales, siendo el segundo más antiguo utilizado
en la actualidad. También publicó el artículo titulado “Programs with Common
Sense”, en el que describió un programa hipotético que se puede considerar como
el primer sistema de inteligencia artificial completo, diseñado con el propósito de
buscar la solución a problemas utilizando el conocimiento, sin embargo, a
diferencia de otros, manejaba conocimiento general del mundo. Además, este
programa contaba con la capacidad de aceptar nuevos axiomas durante el curso
de operación, brindándole la capacidad de ser competente en áreas nuevas sin la
necesidad de reprogramarlo.

Big data - Un modelo teórico


A través del modelo desarrollado por Marco Pospiech y Carsten Felden, miembros
de la Universidad de Feiberg, se pudieron hacer 3 contribuciones significativas a la
discusión científica sobre el Big Data. La primera contibución es que aclara las
actuales características del Big data. La segunda contribución trata de la
explicación acerca de la dirección hacia la que se puede desarrollar este campo. Y
como tercer contribución logró producir datos positivos a través del uso de la Big
Data.
Este modelo menciona diversas definiciones acerca del término Big Data citando
sus respectivos autores, y cómo es que diversas áreas de investigación definidas
como “High Performance Computing” (HPC) se están definiendo como Big Data

7
para atraer más interés. Aquí tratan de exaltar que las fundamentaciones acerca
del Big Data son muy difusas como para poderle dar un fundamento teórico claro,
y que es por eso que las teorías relacionadas no se han podido identificar de
forma clara. El objetivo de realizar este modelo fue poder crear una vía para poder
desarrollar estrategias adecuadas y para que el intercambio de información entre
empresas fuese posible.

Las hipótesis que fueron utilizadas son las siguientes:

Hipótesis 1A: Las condiciones causales están relacionadas positivamente con el


fenómeno del Big Data.
En esta hipótesis suponían que los cambios positivos en el contexto conducirían a
un crecimiento en Big Data, como se afirma en “Big Data A Fashionable Topic with
(out) Sustainable Relevance for Research and Practice”, desarrollado por H. Buhl,
M. Röglinger, F. Moser, y J. Heidemann.

Hipótesis 1B: El contexto se relaciona positivamente con el fenómeno Big Data


Lo que querían lograr con probar esta teoría era poder abordar los efectos del Big
Data en la estrategia de categorías.

Hipótesis 2: Big Data se relaciona positivamente con la estrategia


Lo que quieren demostrar con esta hipótesis es que si la empresa u organización
que quisiera emplear el Big Data tuviese más comprensión acerca de este
fenómeno haría que los clientes pudiesen entender mejor a lo cual generaría más
ingresos. Por lo tanto, crear una mayor estrategia llevaría a más beneficios.

Hipótesis 3: La estrategia se relaciona positivamente con las consecuencias.


Aquí hablaban sobre que a pesar de que podían desarrollar mejor su modelo
incluyendo otros conceptos como Inteligencia Empresarial, necesitaban consolidar
una base inicial para poder dar una explicación a diversos fenómenos.

El estudio contribuye a una comprensión más clara de Big Data, que también
apoya las discusiones académicas y prácticas. Al aplicar la teoría del
procesamiento de la información, el estudio encontró evidencia de Big Data en
todos los mecanismos de TI. Además, verificó la relación positiva entre Big Data y
estrategia. Por lo tanto, cuanto más Big Data exista dentro de una organización,
más estrategia utilizará la organización. Además, se demostraron manifestaciones
estratégicas significativas.

También podría gustarte