Está en la página 1de 12

INTELIGENCIA

ARTIFICIAL

Docente: Integrantes:
Miguel Delpino Hernández Christopher CI: 25.079.140
Miquilena Gabriel CI: 32.916.448
Santander Anderson CI: 28.550.454
INTRODUCCION

La inteligencia artificial (IA) es un campo de la informática que se


enfoca en el desarrollo de algoritmos y sistemas que pueden realizar tareas
que normalmente requieren inteligencia humana. La IA se basa en la idea de
que una máquina puede aprender de la experiencia y mejorar con el tiempo,
al igual que lo hace un ser humano.

La IA se divide en varias subáreas, como el aprendizaje automático, el


procesamiento del lenguaje natural y la visión por computadora. El
aprendizaje automático es una técnica que permite a las máquinas aprender
de los datos sin ser programadas explícitamente. El procesamiento del
lenguaje natural se enfoca en permitir a las máquinas entender y procesar el
lenguaje humano. La visión por computadora se enfoca en permitir a las
máquinas “ver” y entender imágenes y videos.

La IA tiene muchas aplicaciones prácticas en diferentes campos, como


la medicina, la educación, el comercio y la industria. Por ejemplo, los
sistemas de diagnóstico médico basados en IA pueden ayudar a los médicos
a identificar enfermedades con mayor precisión y rapidez. Los sistemas de
recomendación basados en IA pueden ayudar a los usuarios a encontrar
productos o servicios que les interesen.

Sin embargo, también hay desafíos y riesgos asociados con el


desarrollo y uso de la inteligencia artificial. Algunos de estos desafíos
incluyen la privacidad y seguridad de los datos, la falta de transparencia en
los algoritmos y la posible pérdida de empleos debido a la automatización.
Historia de la IA

La expresión «inteligencia artificial» fue acuñada formalmente en 1956


durante la Conferencia de Dartmouth, pero para entonces ya se había estado
trabajando en ello durante cinco años en los cuales se había propuesto
muchas definiciones distintas que en ningún caso habían logrado ser
aceptadas totalmente por la comunidad investigadora. La IA es una de las
disciplinas más recientes junto con la genética moderna.

Las ideas más básicas se remontan a los griegos, antes de Cristo.


Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas
que describen una parte del funcionamiento de la mente para obtener
conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la
primera máquina autocontrolada, un regulador del flujo de agua (racional
pero sin razonamiento).

En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el


razonamiento podía ser efectuado de manera artificial.

En 1840 Ada Lovelace previó la capacidad de las máquinas para ir más


allá de los simples cálculos y aportó una primera idea de lo que sería el
software.

En 1936 Alan Turing diseña formalmente una Máquina universal que


demuestra la viabilidad de un dispositivo físico para implementar cualquier
cómputo formalmente definido.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de


neuronas artificiales, el cual se considera el primer trabajo del campo, aun
cuando todavía no existía el término. Los primeros avances importantes
comenzaron a principios del año 1950 con el trabajo de Alan Turing, a partir
de lo cual la ciencia ha pasado por diversas situaciones.
En 1955 Herbert Simon, Allen Newell y Joseph Carl Shaw, desarrollan
el primer lenguaje de programación orientado a la resolución de problemas,
el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz
de demostrar teoremas matemáticos.

En 1956 fue ideada la expresión «inteligencia artificial» por John


McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de
Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez
años que jamás se cumplieron, lo que provocó el abandono casi total de las
investigaciones durante quince años.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del


General Problem Solver (GPS). GPS era un sistema orientado a la resolución
de problemas.

En 1958 John McCarthy desarrolla en el Instituto Tecnológico de


Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP
fue el primer lenguaje para procesamiento simbólico.

En 1959 Rosenblatt introduce el «perceptrón».

A finales de la década de 1950 y comienzos de la de 1960 Robert K.


Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en
inglés y la inferencia de conclusiones a partir de su interpretación.

En 1963 Quillian desarrolla las redes semánticas como modelo de


representación del conocimiento.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic


Information Retrieval) el cual era capaz de inferir conocimiento basado en
información que se le suministra. Bobrow desarrolla STUDENT.

A mediados de los años 60, aparecen los sistemas expertos, que


predicen la probabilidad de una solución bajo un set de condiciones. Por
ejemplo, DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y
Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras
químicas complejas, MACSYMA, que asistía a ingenieros y científicos en la
solución de ecuaciones matemáticas complejas.

Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el


sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se
movía dentro de un mundo de bloques.

En 1968 Marvin Minsky publica Semantic Information Processing.

En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig desarrollan


el lenguaje de programación LOGO.

En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se


publica en 1980.

En 1973 Alain Colmenauer y su equipo de investigación en la


Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation
en LOGique) un lenguaje de programación ampliamente utilizado en IA.

En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de


muchas técnicas actuales en inteligencia artificial y la informática en general.

En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los


Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y
tratamiento de infecciones en la sangre.

En las décadas de 1970 y 1980, creció el uso de sistemas expertos,


como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET,
INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (Shells) como
EMYCIN, EXPERT, OPSS.

En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta


generación de computadoras.
En 1986 McClelland y Rumelhart publican Parallel Distributed
Processing (Redes Neuronales).

En 1988 se establecen los lenguajes Orientados a Objetos.

En 1997 Gari Kaspárov, campeón mundial de ajedrez, pierde ante la


computadora autónoma Deep Blue.

En 2006 se celebró el aniversario con el Congreso en español 50 años


de Inteligencia Artificial - Campus Multidisciplinar en Percepción e
Inteligencia 2006.

En 2009 ya había en desarrollo sistemas inteligentes terapéuticos que


permiten detectar emociones para poder interactuar con niños autistas.

En 2011 IBM desarrolló un superordenador llamado Watson, el cual


ganó una ronda de tres juegos seguidos de Jeopardy!, venciendo a sus dos
máximos campeones, y ganando un premio de 1 millón de dólares que IBM
luego donó a obras de caridad.

En 2016, un programa informático ganó cinco a cero al triple campeón


de Europa de Go.

En 2016, el entonces presidente Obama habla sobre el futuro de la


inteligencia artificial y la tecnología.

Existen personas que al dialogar sin saberlo con un chatbot no se


percatan de hablar con un programa, de modo tal que se cumple la prueba
de Turing como cuando se formuló: «Existirá inteligencia artificial cuando no
seamos capaces de distinguir entre un ser humano y un programa
informático en una conversación a ciegas».

En 2017 AlphaGo desarrollado por DeepMind derrota 4-1 en una


competencia de Go al campeón mundial Lee Sedol. Este suceso fue muy
mediático y marcó un hito en la historia de este juego. A finales de ese
mismo año, Stockfish, el motor de ajedrez considerado el mejor del mundo
con 3 400 puntos ELO, fue abrumadoramente derrotado por AlphaZero con
solo conocer las reglas del juego y tras solo 4 horas de entrenamiento
jugando contra sí mismo.

Como anécdota, muchos de los investigadores sobre IA sostienen que


«la inteligencia es un programa capaz de ser ejecutado independientemente
de la máquina que lo ejecute, computador o cerebro».

En 2018, se lanza el primer televisor con inteligencia artificial por parte


de LG Electronics con una plataforma denominada ThinQ.

En 2019, Google presentó su Doodle en que, con ayuda de la


inteligencia artificial, hace un homenaje a Johann Sebastian Bach, en el que,
añadiendo una simple melodía de dos compases la IA crea el resto.

En 2020, la OECD (Organización para la Cooperación y el Desarrollo


Económico) publica el documento de trabajo intitulado Hola, mundo: La
inteligencia artificial y su uso en el sector público, dirigido a funcionarios de
gobierno con el afán de resaltar la importancia de la IA y de sus aplicaciones
prácticas en el ámbito gubernamental.

Tipos de IA

Existen varios tipos de inteligencia artificial. Según su capacidad, se


pueden clasificar en inteligencia artificial débil y fuerte. La inteligencia
artificial débil es aquella que se encarga de realizar tareas específicas y no
tiene capacidad para aprender por sí misma. Por otro lado, la inteligencia
artificial fuerte es aquella que tiene la capacidad de aprender y razonar como
un ser humano1.

Según su funcionalidad, se pueden clasificar en los siguientes tipos:


Sistemas expertos: son programas informáticos que imitan el
razonamiento humano para resolver problemas complejos.

Redes neuronales: son sistemas que imitan el funcionamiento del


cerebro humano para aprender y reconocer patrones.

Aprendizaje automático: es una técnica que permite a los sistemas


informáticos aprender de forma autónoma a partir de datos.

Procesamiento del lenguaje natural: es una técnica que permite a los


sistemas informáticos entender y procesar el lenguaje humano.

Robótica: es una rama de la inteligencia artificial que se encarga del


diseño y construcción de robots capaces de realizar tareas complejas.

Visión artificial: es una técnica que permite a los sistemas informáticos


interpretar y analizar imágenes y vídeos.

Sistemas multiagente: son sistemas compuestos por varios agentes


inteligentes que trabajan juntos para resolver un problema.

Aplicaciones de IA

La inteligencia artificial se está aplicando en un amplio número de


campos. Algunas de las aplicaciones más comunes son:

Diagnóstico médico: la inteligencia artificial se utiliza para analizar


grandes cantidades de datos médicos y ayudar en el diagnóstico de
enfermedades.

Comercio de acciones: la inteligencia artificial se utiliza para analizar


los mercados financieros y predecir las tendencias del mercado.
Control robótico: la inteligencia artificial se utiliza para controlar robots
y otros sistemas autónomos.

Leyes: la inteligencia artificial se utiliza para analizar grandes


cantidades de datos legales y ayudar en la toma de decisiones legales.

Percepción remota: la inteligencia artificial se utiliza para analizar


imágenes satelitales y otras imágenes remotas.

Descubrimientos científicos: la inteligencia artificial se utiliza para


analizar grandes cantidades de datos científicos y ayudar en el
descubrimiento de nuevos conocimientos.

Juguetes: la inteligencia artificial se utiliza en algunos juguetes para


crear una experiencia más interactiva.

Desafíos y riesgos de la IA

El uso de sistemas de inteligencia artificial en los procesos de toma de


decisiones conlleva ciertos riesgos debido a los potenciales impactos
directos o indirectos de la implementación de estas tecnologías1. Algunos de
estos riesgos incluyen:

La filtración de los datos personales que pueden comprometer el


bienestar de las personas.

La extrema vigilancia y posterior manipulación por parte de las


organizaciones privadas o gubernamentales con acceso a la información que
alimenta a las tecnologías de inteligencia artificial.

Utilizar la inteligencia artificial para tomar decisiones influenciadas por la


etnia, el sexo o la edad incluidos en los datos al contratar o despedir, ofrecer
préstamos o incluso en procesos penales
Qué es GPT-3 (generative pre trained transformer 3)

GPT-3, creado por OpenAI, significa Generative Pre-trained


Transformer 3 y hace referencia, en el campo de la inteligencia artificial (IA),
a un modelo de lenguaje autorregresivo que emplea aprendizaje profundo
para diversas tareas relativas a la comprensión y generación de lenguaje.
Decimos que es generativo porque genera secuencias largas de texto
original, y preentrenado porque no se ha creado con ningún conocimiento de
dominio.

Es una red neuronal gigantesca y, como tal, forma parte del segmento
de aprendizaje profundo del aprendizaje automático, que en sí mismo es una
rama de la inteligencia artificial. Este tipo de modelo también se están
desarrollando para aplicación práctica en empresas.

La historia de OpenAI

OpenAI es la empresa creadora de ChatGPT y, tal como ofrece la


información corporativa, nació como un laboratorio pequeño sin fines de
lucro. En origen, su objetivo era crear Inteligencia Artificial segura para la
humanidad, con transparencia. Pero actualmente, esta empresa está
inmersa en un momento bien distinto, ya que la necesidad de financiación le
hace tomar decisiones no tan altruistas. En concreto, OpenAI ya proyecta
1.000 millones de dólares en ingresos para 2024.

Con una primera inversión de 1.000 millones de dólares y los mejores


jóvenes expertos en IA a nivel mundial, Musk y Altman iniciaron su proyecto
con una misión particular: para que la IA no sea negativa, o un riesgo, no
puede ser algo restrictivo, sino que debe estar al alcance de todo el mundo.
En 2018, por conflicto de intereses, Elon Musk renunció a participar en
el consejo de administración de OpenAI.

En 2019 se presentó GPT-2, el modelo de lenguaje avanzado que


redactaba párrafos completos, imitando el estilo de la frase fuente.

Y en 2020 llegó GPT-3, con 175.000 millones de parámetros de


aprendizaje automatizado. Este modelo es capaz de generar textos extensos
de gran calidad, similares a los redactados por cualquier persona. En esta
ocasión, GPT-3 tuvo distribución comercial para los desarrolladores.

Para poder obtener estos resultados, en 2019 la organización sin fines


de lucro se reestructuró financieramente, encaminándose hacia los
beneficios mediante OpenAI LP, que sí tenía fines de lucro. A partir de ese
momento es cuando Microsoft se incorporó a la organización como inversor y
socio preferente. Resultado de todo ello fue que Microsoft ofrecía, a sus
clientes desarrolladores, productos y soluciones tecnológicas que integraban
modelos de GPT-3.

Las organizaciones y los usuarios utilizan GPT-3 (generative pre trained


transformer 3) para infinidad de tareas, desde la redacción de ficción creativa
hasta la escritura de código de aprendizaje automático (machine learning).
Pero si el desarrollo de GPT-3 resulta exitoso, las aplicaciones podrían ser
muchísimas y se ha abierto un nuevo capítulo en el aprendizaje automático.

Fundada en 2015 como organización sin fines de lucro de EEUU, se


convirtió en uno de los laboratorios pioneros en el desarrollo de IA segura, es
decir, aquella que beneficiara equitativamente a la sociedad, superando los
sesgos habituales hasta ahora en el campo de la IA general.
Conclusión

La inteligencia artificial es una de las áreas más interesantes y


desafiantes de las ciencias de la computación. La inteligencia artificial ha
traído beneficios y soluciones a la vida humana, pero también riesgos y
desafíos, como el desempleo, la ética y la adaptación. Es necesario avanzar
con cuidado, colaboración y responsabilidad en el desarrollo y la integración
de la inteligencia artificial, sin perder de vista la singularidad y el valor del
cerebro humano

También podría gustarte