Está en la página 1de 5

Aspectos históricos de la inteligencia artificial

La inteligencia artificial (IA) puede ser definida como "el campo de la informática que
se ocupa del estudio y la creación de sistemas y programas informáticos que presentan una
forma de inteligencia: sistemas que aprenden nuevos conceptos, que pueden razonar y
deducir conceptos útiles en un campo del mundo”. Son sistemas, que pueden entender el
lenguaje natural o percibir y comprender un paisaje, que pueden aprender y tomar
decisiones, en una palabra, sistemas que requieren capacidades inteligentes específicas del
ser humano” según Burciu y Iancu (2019). Asimismo, la importancia de la inteligencia
artificial se basa en 5 aspectos básicos: permite agregar inteligencia a productos existentes,
permite el análisis de datos, logra adaptarse a través de algoritmos de aprendizaje, logra
una mayor precisión por medio de las redes neuronales profundas y permite sacar el mayor
provecho de los datos. Ahora bien, esta tecnología tiene gran importancia en la actualidad
debido al impacto que tiene en diversas industrias. En este sentido, es importante conocer
los aspectos históricos de las etapas evolución de la IA. En primer lugar, se hablará sobre
cómo surge esta tecnología, en segundo lugar se analizará cuando fue el punto de inflexión
en la importancia de la Ia y finalmente, se tratará el futuro de esta tecnología.

La inteligencia artificial tiene una larga historia. Se remonta al año 300 a.C., y
aunque en aquella época era inimaginable pensar en una idea así, los siguientes
acontecimientos históricos desempeñaron un papel importante en su desarrollo. Aristóteles
fue el primero en descubrir una serie de reglas, conocidas como silogismos, que describen
un componente del funcionamiento de la mente humana y que, cuando se siguen paso a
paso, producen conclusiones racionales a partir de premisas. Asimismo, Ctesibio de
Alejandría creó la primera máquina autocontrolada en el año 250 a.C. Se trataba de un
regulador de agua que modificaba su propio funcionamiento sin previo aviso. Por otro lado,
uno de los filósofos más reputados del siglo XVII anticipó en 1637 la creación de máquinas
que pudieran razonar por sí mismas. Adicionalmente, René Descartes fue la personificación
de esta figura. Tras una larga pausa en este campo, el matemático George Boole resucitó la
historia en 1847, demostrando que el razonamiento lógico podría sistematizarse de la
misma manera que una ecuación matemática. Treinta años más tarde, Gottlob Frege
desarrolló la Lógica de Primer Orden, que tenía un mayor énfasis y una mejor expresión,
basada en el trabajo de Boole. Todavía hoy se utiliza como referencia. Esta sucesión de
acontecimientos muestran cómo la historia de esta tecnología data de hace siglos atrás, sin
embargo, Alan Turing es considerado uno de los padres de la tecnología. Alan Turing, el
verdadero pionero, sentó las bases en 1936 al publicar su célebre artículo sobre "Números
calculables". Este artículo sirvió para sentar las bases teóricas y puede considerarse la
fuente oficial de datos teóricos. Aquí se desarrolló el concepto de "Máquina de Turing", que
pasó a influir en el concepto de algoritmo y se convirtió en el predecesor de los ordenadores
contemporáneos. Dejando de lado las teorías de Turing, podemos decir que la inteligencia
artificial se convirtió en una noción real en 1956. Durante la Conferencia de Dartmouth, John
McCarthy, Marvin Minsky y Claude Shannon, tres prominentes científicos de la época,
acuñaron la frase "la ciencia y el ingenio de hacer máquinas inteligentes, particularmente
programas de cálculo inteligentes". Estos científicos predijeron que la sociedad estaría
rodeada de máquinas inteligentes en menos de diez años. Lo cierto es que no fue así, y que
esta tecnología se desarrolló lentamente hasta los años 90, cuando la IA alcanzó su edad
de oro. Desde 1990, la mayoría de las grandes empresas tecnológicas han realizado
importantes inversiones en esta tecnología. ¿Qué les hizo replantearse? Las empresas se
dieron cuenta de que necesitaban mejorar la capacidad de procesamiento y análisis de las
cantidades masivas de datos que llegaban al acercarse a las puertas del mundo digital.
En 1997, IBM presentó Deep Blue, un ordenador capaz de derrotar al campeón mundial de
ajedrez Gari Kasparov. Este acontecimiento fue tan significativo que inspiró excelentes
películas sobre el futuro tecnológico, con la inteligencia artificial como uno de los
protagonistas. Además, fue durante esta década cuando aparecieron por primera vez los
agentes inteligentes, allanando el camino para el desarrollo de sofisticados chatbots, o
asistentes virtuales, como los conocemos hoy. Watson, otro ordenador de IBM que ganó el
famoso concurso "Jeopardy!", vivió una experiencia similar. "En su guerra contra el cerebro
humano, el ordenador Watson de IBM ha salido victorioso", afirmó el presentador del
programa de televisión de la cadena estadounidense ABC. Eran los años en los que IBM y
Microsoft invertían importantes sumas de dinero en liderar el progreso tecnológico. Ahora
que la inteligencia artificial se ha incorporado a nuestra vida cotidiana y ha empezado a
sustituir a los humanos en diversas tareas, la ética de la IA empieza a ser controlada, y
todas las empresas empiezan a reconocer la importancia de esta tecnología.

Ahora bien, el boom de esta tecnología, se da con el Big data, donde se encuentran
dos principales aspectos: el acceso a grandes volúmenes de datos y alta eficiencia de los
procesadores de tarjetas gráficas. La IA tuvo grandes avances con el Big data. Los datos
que son enormes, rápidos o lo suficientemente complicados como para ser difíciles o
imposibles de procesar con los métodos típicos se denominan "big data". La práctica de
adquirir y almacenar grandes cantidades de datos para su análisis tiene una larga historia.
Sin embargo, a principios de la década de 2000, el analista del sector Doug Laney describió
la definición actual de big data como las tres V: volumen, variedad y velocidad. El volumen
hace referencia a los datos que se recogen de diversas fuentes, como transacciones
corporativas, dispositivos inteligentes (IoT), equipos industriales, películas, medios sociales
y otras fuentes. Por otro lado, la variedad se refiere a los datos que están disponibles en
una gran variedad de formatos, desde datos numéricos organizados en bases de datos
estándar hasta documentos de texto no estructurados, correos electrónicos, películas,
audios, datos de teletipos y transacciones financieras. Finalmente, la velocidad hace
referencia al auge del Internet de los objetos, los datos entran en las empresas a un ritmo
sin precedentes y deben gestionarse rápidamente. Ahora bien, la importancia del big data
en la inteligencia artificial radica en que la Inteligencia Artificial (IA) necesita datos para
desarrollar su inteligencia, tanto al principio como con el tiempo. Cuantos más datos tengan
los sistemas de IA, más podrán aprender y, en consecuencia, más precisos y eficaces serán
sus resultados. A medida que la IA se vuelve más inteligente, se necesita menos
intervención humana para controlar las operaciones y supervisar las máquinas. Asimismo,
la Inteligencia Artificial se encuentra en un estado de aprendizaje continuo, en el que se le
suministran datos de forma regular. El Big Data es necesario para la Inteligencia Artificial, y
lo contrario también es cierto, sin modelos de IA capaces de liberar el potencial de estos
almacenes de datos y transformarlos en inteligencia, esas enormes cantidades de datos no
tendrían ningún valor.

Finalmente, el futuro de la Inteligencia Artificial vendrá dictado en gran medida por


los avances tecnológicos. La IA pronto podrá hacerse cargo de algunos puestos de trabajo y
juzgar mejor que los humanos en una serie de sectores. Para quienes ven en ello una
oportunidad de explorar rutas que nunca antes se creyeron concebibles, se trata de una
propuesta muy atractiva. La IA tiene una amplia gama de aplicaciones potenciales. Las
aplicaciones de impacto social, que emplearían la IA para ayudar a las personas a encontrar
trabajo, mejorar su estilo de vida y vivir de forma independiente, son una de ellas que
podrían estar en el horizonte. El aumento de la capacidad humana es otra posible aplicación
futura. Las prótesis con inteligencia artificial, los exoesqueletos, los dispositivos portátiles y
otras tecnologías que mejoran las capacidades cognitivas podrían utilizarse como métodos
de aumento. Asimismo, es probable que en el futuro más humanos utilicen estas
tecnologías para obtener una ventaja en el trabajo o en la escuela. Por otra parte, una
posible aplicación futura de la IA es la de ayudar a las personas a gestionar su atención
sanitaria. Nuestros métodos actuales para controlar las enfermedades crónicas
(especialmente la diabetes) son ineficaces a la luz de la creciente prevalencia de las
enfermedades crónicas en todo el mundo. La inteligencia artificial tiene el potencial de llevar
a las generaciones futuras a un nuevo nivel de riqueza que nunca hemos visto antes.
Algunos países ya han realizado importantes inversiones en esta tecnología y ahora están
cosechando los beneficios en industrias como la manufacturera, la bancaria y la textil. La
inteligencia artificial tiene la capacidad de mejorar la vida de un mayor número de personas.

Para concluir, se puede evidenciar que existen muchos aspectos históricos que nos
permiten entender la evolución de la inteligencia artificial. Asimismo, es importante conocer
cómo la inteligencia artificial data de muchos siglos atrás, inclusive desde Aristóteles y como
después es desarrollada fuertemente por Alan Turing. Adicionalmente, también es
importante conocer el origen de la inteligencia artificial ya que es una tecnología que ha
tenido un fuerte impacto en el mudo en diversos ámbitos. Por otro lado, es muy interesante
saber qué fue lo que permitió el boom de esta tecnología, lo cual fue el Big data. Este
último, permitió una gran evolución de la inteligencia artificial permitiendo el desarrollo de
una mayor precisión y tener un continuo aprendizaje. Finalmente, no solo es importante
conocer la historia, también es saber hacia dónde va. El futuro de la inteligencia artificial ve
grandes evoluciones en términos de tecnología y fuertes impactos en las nuevas
generaciones y en el mundo en general, trayendo diversos beneficios.

Referencias:

Camargo-Vega, J. J., Camargo-Ortega, J. F., & Joyanes-Aguilar, L. (2015). Conociendo Big

Data. Revista Facultad de Ingeniería, 24(38), 63–77.

http://www.scielo.org.co/scielo.php?pid=S0121-11292015000100006&script=sci_abstract&tl

ng=es

IANCU, E., & BURCIU, A. (2019). The Predictive Analysis and Machine Learning Platforms.
USV Annals of Economics & Public Administration, 19(2), 205–209.
http://cvirtual.cesa.edu.co/login?url=https://search.ebscohost.com/login.aspx?direct=true&db
=bsu&AN=142506531&lang=es&site=eds-live

Oracle. S.f. ¿Qué es Big data? Oracle.com.


https://www.oracle.com/co/big-data/what-is-big-data/
Unir. 2020. Futuro de la inteligencia artificial: ¿cómo afectará a nuestra vida cotidiana?.
Unir.net. https://www.unir.net/ingenieria/revista/futuro-inteligencia-artificial-vida-cotidiana/

SAS. s.f. Inteligencia artificial: Qué es AI y por qué importa?. sas.com.


https://www.sas.com/es_co/insights/analytics/what-is-artificial-intelligence.html#:~:text=%C2
%BFPor%20qu%C3%A9%20es%20importante%20la,de%20robots%20basada%20en%20h
ardware.

Tokio School. (2021). Los antecedentes de la inteligencia artifical tokioschool.com.


https://www.tokioschool.com/noticias/antecedentes-inteligencia-artificial/

También podría gustarte