Está en la página 1de 6

 Eventos de evolución tecnológica en la actualidad

1. Inteligencia Artificial

Historia de la inteligencia artificial

El término inteligencia artificial fue adoptado en 1956, pero se ha vuelto más


popular hoy día gracias al incremento en los volúmenes de datos, algoritmos
avanzados, y mejoras en el poder de cómputo y el almacenaje.

La investigación inicial de la inteligencia artificial en la década de 1950 exploraba


temas como la solución de problemas y métodos simbólicos. En la década de 1960,
el Departamento de Defensa de los Estados Unidos mostró interés en este tipo de
trabajo y comenzó a entrenar computadoras para que imitaran el razonamiento
humano básico. Por ejemplo, la Defense Advanced Research Projects Agency
(DARPA, Agencia de Proyectos de Investigación Avanzada de Defensa) realizó
proyectos de planimetría de calles en la década de 1970. Y DARPA produjo
asistentes personales inteligentes en 2003, mucho tiempo antes que Siri, Alexa o
Cortana fueran nombres comunes.

Este trabajo inicial abrió el camino para la automatización y el razonamiento formal


que vemos hoy en las computadoras, incluyendo sistemas de soporte a decisiones y
sistemas de búsqueda inteligentes que pueden ser diseñados para complementar y
aumentar las capacidades humanas.

¿Por qué es importante la inteligencia artificial?

 La inteligencia artificial automatiza el aprendizaje y descubrimiento


repetitivos a través de datos.  En lugar de automatizar tareas manuales, la
inteligencia artificial realiza tareas computarizadas frecuentes de alto volumen de
manera confiable y sin fatiga. Para este tipo de automatización, la investigación
humana sigue siendo fundamental para configurar el sistema y hacer las preguntas
correctas.
 La inteligencia artificial se adapta a través de algoritmos de aprendizaje
progresivos para permitir que los datos llevan a cabo la programación. La
inteligencia artificial encuentra estructura y regularidades en los datos de modo que
el algoritmo adquiera una habilidad: el algoritmo se convierte en un clasificador o
en un indicador.
 La inteligencia artificial analiza más datos y datos más profundos utilizando
redes neurales que tienen muchas capas ocultas. Construir un sistema de detección
de fraude con cinco capas ocultas era casi imposible hace unos años. Todo eso ha
cambiado con increíble poder de cómputo y el big data. Usted necesita muchos
datos para entrenar modelos de aprendizaje a fondo porque éstos aprenden
directamente de los datos. Cuantos más datos pueda integrarles, más precisos se
vuelven.
 La inteligencia artificial saca el mayor provecho de los datos. Cuando los
algoritmos son de autoaprendizaje, los datos mismos pueden volverse de propiedad
intelectual. Las respuestas están en los datos; usted sólo tiene que aplicar
inteligencia artificial para sacarlas a la luz. Como el rol de los datos es ahora más
importante que nunca antes, pueden crear una ventaja competitiva.

En resumen, el objetivo de la inteligencia artificial consiste en proveer software que


pueda razonar lo que recibe y explicar lo que produce como resultado. La inteligencia
artificial proporcionará interacciones similares a las humanas con software y ofrecerá
soporte a decisiones para tareas específicas, pero no es sustituto de los humanos – y no
lo será en el futuro cercano. 

¿En qué se diferencia un programa informático de una IA?

Existen muchos tipos de IA, algunos de ellos aún experimentales. Para no divagar
demasiado vamos a centrarnos en los que se utilizan en informática, los móviles, los
servicios de Internet, y otros ámbitos cercanos a los usuarios de a pie. Conceptos como
el machine learning o aprendizaje automático, las redes neuronales, y otras tecnologías
que oímos a menudo, pero que no sabemos muy bien cómo funcionan.
Un programa informático es solo una lista de órdenes que le dice al ordenador lo que
tiene que hacer. "Haz esta operación matemática, escribe el resultado en pantalla,
reproduce este sonido", etc. Los programas tienen bifurcaciones del tipo "si pasa esto,
haz esto y si pasa esto otro, haz esto otro". Y también pueden realizar acciones al azar,
usando números aleatorios.
Pero la característica principal de un programa es que se trata de un conjunto de órdenes
que cubren todas las posibles opciones a las que se enfrenta el ordenador. Incluso si se
produce un error, hay una parte del programa que le dice: "si hay un fallo, escribe el
mensaje: Ha sucedido un error".
Con un programa informático, una máquina no piensa. Simplemente, hace exactamente
lo que le dicen.
La gran revolución de la IA es que no recibe órdenes para obtener un resultado. Es ella
la que, con unos datos de entrada, debe apañárselas para obtener los resultados.
Como hemos visto, una inteligencia artificial intenta imitar el pensamiento humano.
Cuando nacemos, nuestro cerebro es prácticamente un disco duro vacío. Necesita años
de aprendizaje para aprender conceptos básicos, desde no orinarse encima a aprender a
andar, a hablar, a sumar, y otras actividades más complejas. Aprendemos algo,
ponemos en práctica esa teoría, fallando mucho al principio hasta que cogemos práctica
y vamos mejorando con el tiempo.
Una IA funciona exactamente igual.

2. Analítica aumentada

A medida que las empresas comienzan o continúan su viaje de transformación digital, la


cantidad de datos con los que tratan aumenta en volumen y complejidad.

El análisis tradicional, el proceso de preparar y analizar datos, interpretar los resultados


y contar historias con esos datos, es un proceso manual que requiere mucho tiempo. Y
plantea desafíos significativos para las compañías que están tratando de lidiar con la
continua explosión de datos.

Para cumplir con las líneas de tiempo de preparación para el mercado de la


transformación digital, se ha vuelto imperativo reducir la intensidad de tiempo de la
analítica manual.

Para hacer esto, podemos aumentar los datos científicos de humanos con aprendizaje
automático (ML) e inteligencia artificial (AI) para acelerar cada paso en el viaje
analítico, algo que se llama analítica aumentada.

A mediados de la década de 2000, el almacenamiento en la nube y la potencia de


cómputo masivamente disponible se hicieron más comunes. Esto causó que el análisis
de big data explotara.

Este fue un cambio significativo, pero el proceso fue aún muy manual, lo que significa
que los profesionales de análisis todavía tenían que escribir volúmenes de código.

Antes de la revolución del big data, las compañías podrían haber necesitado escanear
miles de flujos para obtener información significativa, pero hoy estamos hablando de
millones de flujos.

Este enfoque es un mecanismo poderoso que permite a las empresas ser más receptivas
y ágiles, un aspecto necesario de la transformación digital .

Los beneficios clave de la analítica aumentada y cómo esta práctica está cambiando los
modelos de negocios tradicionales. Analítica aumentada:
 acelera el proceso de preparación y descubrimiento de datos;
 democratiza el análisis de datos para usuarios menos expertos en negocios;
 permite la adopción de ideas útiles para el equipo ejecutivo y en toda la
organización.

El término de analítica aumentada surgió a raíz del informe anual Hype Cycle de la
empresa de estudios de mercado Gartner, en 2017. A partir de entonces, en el ámbito
del Business Intelligence no se ha dejado de hablar sobre ello, sin embargo, no ha
trascendido demasiado
La analítica aumentada o Augmented Analytics, lo define Gartner en su documento
Magic Quadrant for Analytics and Business Intelligence Platforms como “un paradigma
que incluye consultas de lenguaje natural y narrativo, preparación aumentada de datos,
análisis avanzado automatizado y capacidades de descubrimiento de datos visuales”. En
ese mismo documento, inciden en la importancia que tendrá la Analítica Aumentada en
el 2020, actuando como impulsor del Business Intelligence, el Data Science y el
Machine Learning.
Lo realmente innovador es la vuelta de tuerca que le da en cuanto a la extracción de
conocimiento de las diferentes fuentes de datos que posee un negocio. Esta vuelta
de tuerca se sustenta bajo estos 3 pilares:
o La Inteligencia Artificial (IA.
o El Machine Learning. Es decir, un método de análisis de datos que
automatiza la construcción de modelos analíticos. Es una rama de la
inteligencia artificial basada en la idea de que los sistemas pueden aprender
de datos, identificar patrones y tomar decisiones con mínima intervención
humana.
o El Procesamiento de Lenguaje Natural (NLP). Es decir, un campo de
conocimiento de la Inteligencia Artificial el cual se encarga de investigar la
manera de comunicarse las máquinas con las personas a partir de lenguas
naturales, como el español, el inglés o el francés.
La importancia real de este enfoque radica en que la combinación de estas 3 ramas
de la analítica, posibilitan la extracción de información de forma automatizada. Pero
lo mejor de todo, es que puede realizarse sin necesidad de disponer de unos grandes
conocimientos técnicos. La introducción del NPL, hace que cualquier consulta sea
tan sencilla como preguntar a Siri o Alexa qué tiempo va a hacer mañana.
Hasta ahora, existe una gran variedad de sistemas que permiten recoger datos,
normalizarlos y analizarlos. La gran diferencia está en que, hasta este momento,
sólo las grandes empresas o aquellas especializadas en el dato, disponían del
personal y las herramientas necesarias.
Este tipo de analítica va a suponer, por tanto, la introducción a la analítica avanzada
para empresas que no pueden disponer hoy día de un equipo completo de científicos
de datos, debido al alto coste y la dificultad de encontrar profesionales adecuados.
Empresas de tamaño medio que no puedan permitirse soluciones y desarrollos a
medida, así como grandes empresas con la necesidad de poner en valor sus datos en
tiempo récord, van a obtener en la analítica aumentada un socio perfecto.
Con la Analítica Aumentada se lograría, por tanto, la democratización del dato,
pero, sobre todo, la democratización de la conversión de los conocimientos que
ofrecen los datos, en insights, algo muy valorado por cualquier departamento de
negocio y de marketing de cualquier empresa.
En estos momentos, la herramienta más conocida y la que más está trabajando en
analítica aumentada, es IBM Watson Analytics, aunque ya hay otras trabajando en
el mismo sentido. Tableau Insights y Qlik Sense son otras herramientas que están
apostando por ello. No obstante, se tiene previsto que conforme avance la
Inteligencia Artificial habrá más players en el mercado de plataformas.
 

Bibliografía

© SAS Institute Inc. . (2019). Inteligencia artificial Qué es y por qué es importante. 2020,
marzo 7, de www.sas.com Recuperado de
https://www.sas.com/es_co/insights/analytics/what-is-artificial-intelligence.html

© computerhoy. (24 ago. 2019). Inteligencia artificial: qué es, cómo funciona y para qué se está
utilizando . 2020, marzo 7, de computerhoy.com Recuperado de
https://computerhoy.com/reportajes/tecnologia/inteligencia-artificial-469917

Programa Web - Publicación Digital. (26 feb. 2019). Analítica aumentada, lo que necesita saber
para 2019. 2020, marzo 7, de https://www.programaweb.com Recuperado de
https://www.programaweb.com/analitica-aumentada-lo-que-necesita-saber-para-2019/

© Artyco comunicación y servicios. (2020). Qué es la analítica aumentada y por qué deberías
comenzar a utilizarla. 2020, marzo 7, de https://artyco.com/ Recuperado de
https://artyco.com/que-es-analitica-aumentada/

También podría gustarte