Documentos de Académico
Documentos de Profesional
Documentos de Cultura
I
NSTITUTO T
ECNOLÓGICO DE T
EPIC
Tercer Semestre
PRESENTADO POR:
1
CAPÍTULO 1: PLANTEAMIENTO GENERAL
1.1 Antecedentes del problema
El término de Inteligencia Artificial se propuso por primera vez en la Conferencia
de Dartmouth en 1956. Fue entonces cuando comenzaron a aparecer las primeras
computadoras digitales en los laboratorios universitarios. Los participantes de esta
conferencia fueron principalmente matemáticos e informáticos, muchos de los
cuales estaban interesados en probar teoremas y algoritmos que estas máquinas
pudieron probar. Hace treinta años, los sistemas de inteligencia artificial artificial
se consideraban sistemas independientes, al igual que los robots o los sistemas
expertos. Pero la mayoría de las aplicaciones de IA actuales incorporan
tecnología, como los trazadores de ruta digitales.
2
1.4 Objetivos
Objetivo General
Describir y analizar las características e impacto de la inteligencia artificial y
machine learning.
Objetivos Específicos
1. Describir las características e impacto de la inteligencia artificial y el
Machine Learning.
2. Analizar las características e impacto de la inteligencia artificial y el Machine
Learning.
3. Identificar las aplicaciones y ventajas del uso de Machine Learning y Big
Data en un ámbito empresarial.
Por lo tanto, con esta investigación se intenta lograr que la información recopilada
y explicada sea distribuida hacia el público en general para despertar el interés por
el tema, o al menos, en este ámbito.
1.6 Limitaciones
La falta de disponibilidad de información sobre el tema debido a la confidencialidad
de las empresas que lo desarrollan.
La escasez de investigaciones previas relacionadas al enfoque del machine
learning.
Un contraste notable en los fundamentos teóricos para el desarrollo del tema,
comparado con otras investigaciones respecto al tema.
3
CAPÍTULO 2: MARCO TEÓRICO
2.1 Marco conceptual
Muchos diccionarios definen a la inteligencia artificial como una subcategoría de la
ciencia computacional y la habilidad de las máquinas para parecerse a la
humanidad. "La teoría y el desarrollo de sistemas computacionales para llevar a
cabo tareas que normalmente requieren de inteligencia humana, como percepción
visual, reconocimiento de voz, toma de decisiones o traducción de lenguajes"
(English Oxford Living Dictionary, s.f.). (Encyclopedia Britannica, s.f.) define a la
inteligencia artificial como "la habilidad de una computadora digital o controlada
por un robot para realizar tareas comúnmente asociadas con la inteligencia de los
seres".
Otro pionero del aprendizaje automático es Tom Mitchell quien en el año 1997
propuso que “un programa aprende de la experiencia E con respecto a una tarea T
y a un rendimiento P, si el rendimiento medido por P en la tarea T mejora con la
experiencia E”.(Mitchell, 1997)
4
El aprendizaje supervisado se basa en que el agente observa pares de datos de
entrada y salida a modo de ejemplo para aprender una función que modele la
salida según la entrada (Russell & Norvig, 2010). Por lo tanto, en los datos
utilizados para construir el modelo se encuentra la información que se desea
predecir. Existen dos tipos de problemas en el aprendizaje supervisado: los
problemas de regresión y los problemas de clasificación.
5
2.2 Marco teórico
Teoría de la Información de Shannon
Una de las bases más importantes para el desarrollo de las medidas de
información es la teoría de la información de Claude E. Shannon, quien fue un
destacado matemático, ingeniero eléctrico y criptógrafo estadounidense. Esta
teoría fue desarrollada con el objetivo de establecer una definición de la noción de
la información que permita cuantificarla, y se considera como uno de los avances
tecnológicos más importantes del siglo XX, ya que sus aplicaciones se extienden a
campos como la física, química, biología, inferencia estadística, robótica,
criptografía, computación, lingüística y reconocimiento de patrones. Sirvió para
encontrar los límites fundamentales en operaciones de procesamiento de señales
tales como compresión, almacenamiento y comunicación de datos.
En la actualidad vivimos en la que diversos autores han llamado la “era de la
información”, en la que este tema se volvió en un asunto de relevancia global,
puesto que los mercados actuales dependen de los canales informacionales entre
los distintos agentes económicos, lo que requiere que se realicen estudios acerca
de los problemas técnicos relacionados con la transmisión, medición y
procesamiento de la información.
Los conceptos del trabajo realizado por Shannon siguen siendo desarrollados en
la actualidad, por ello es importante su estudio para conocer el estado actual de la
teoría de la información y sus generalizaciones en las teorías de la información
cuántica y de la computación cuántica, que han sido estudiadas desde los años 90
hasta la actualidad.
Shannon publicó en el año 1948, en su artículo llamado “A mathematical theory of
communication”, los lineamientos fundamentales en los que se basaría para
construir su teoría de la información. Uno de sus aportes fue especificar cuál es el
problema informacional, separando los aspectos formales de los aspectos
semánticos asociados con el conocimiento del mensaje:
“El problema fundamental de la comunicación es el de reproducir en un punto
exacta o aproximadamente un mensaje seleccionado en otro punto.
Frecuentemente los mensajes tienen significado; esto es, ellos refieren o están
correlacionados de acuerdo a algún sistema con ciertas entidades físicas o
conceptuales. Estos aspectos semánticos de la comunicación son irrelevantes
para el problema de ingeniería. El aspecto significativo es que el mensaje de
hecho es uno seleccionado a partir de un conjunto de posibles mensajes. El
sistema debe ser diseñado para operar para cada posible selección, no sólo para
aquella que será seleccionada de hecho, dado que es desconocida al momento
del diseño.” (Shannon 1948)
6
Prueba de Turing y primeras IAs
En cuanto a inteligencia artificial, el primer planteamiento sobre el tema fue
realizado por el matemático Alan Turing en 1950, matemático reconocido por su
participación en la segunda guerra mundial como criptoanalista, descifrando el
código que Alemania utilizaba para sus comunicaciones militares, llamado
Enigma.
Turing, en su artículo “Computing machinery and intelligence”, planteó la
posibilidad de crear máquinas con la capacidad de simular a un ser humano y
realizar tareas de inteligencia o destreza mental, como por ejemplo, jugar ajedrez.
De este trabajo derivó ¨la prueba de Turing”, que aún hoy en día se utiliza para
determinar si una máquina es o no inteligente. Consiste en que un individuo tiene
que interrogar a dos “personas”, pero en realidad una de ellas es la computadora,
por lo que el entrevistador debe distinguir cuál de los dos es humano. El término
“inteligencia artificial” no fue utilizado sino hasta 1956 por John McCarthy en su
primera conferencia académica sobre el tema.
Posteriormente, McCarthy se trasladó de Darmouth al MIT, donde en 1958 definió
el lenguaje de alto nivel “Lisp”, que se convirtió en el lenguaje de programación
dominante en las inteligencias artificiales, siendo el segundo más antiguo utilizado
en la actualidad. También publicó el artículo titulado “Programs with Common
Sense”, en el que describió un programa hipotético que se puede considerar como
el primer sistema de inteligencia artificial completo, diseñado con el propósito de
buscar la solución a problemas utilizando el conocimiento, sin embargo, a
diferencia de otros, manejaba conocimiento general del mundo. Además, este
programa contaba con la capacidad de aceptar nuevos axiomas durante el curso
de operación, brindándole la capacidad de ser competente en áreas nuevas sin la
necesidad de reprogramarlo.
7
para atraer más interés. Aquí tratan de exaltar que las fundamentaciones acerca
del Big Data son muy difusas como para poderle dar un fundamento teórico claro,
y que es por eso que las teorías relacionadas no se han podido identificar de
forma clara. El objetivo de realizar este modelo fue poder crear una vía para poder
desarrollar estrategias adecuadas y para que el intercambio de información entre
empresas fuese posible.
El estudio contribuye a una comprensión más clara de Big Data, que también
apoya las discusiones académicas y prácticas. Al aplicar la teoría del
procesamiento de la información, el estudio encontró evidencia de Big Data en
todos los mecanismos de TI. Además, verificó la relación positiva entre Big Data y
estrategia. Por lo tanto, cuanto más Big Data exista dentro de una organización,
más estrategia utilizará la organización. Además, se demostraron manifestaciones
estratégicas significativas.