Está en la página 1de 5

UNITED STATES 

What is generative AI? The evolution of artificial


intelligence
Artificial intelligence is already designing microchips and sending us spam, so what's
next? Here's how generative AI really works and what to expect now that it's here.

By Josh Fruhlinger
Contributing writer, InfoWorld
MAR 10, 2023 2:00 AM PST

IA generativa es un término general para cualquier tipo de proceso automatizado que utiliza
algoritmos para producir, manipular o sintetizar datos, a menudo en forma de imágenes o
texto legible por humanos. Se llama generativo porque la IA crea algo que antes no existía.
Eso es lo que lo hace diferente de la IA discriminatoria , que establece distinciones entre
diferentes tipos de entrada. Para decirlo de otra manera, la IA discriminatoria intenta
responder a una pregunta como "¿Esta imagen es un dibujo de un conejo o un león?"
mientras que la IA generativa responde a indicaciones como "Dibújame un león y un conejo
sentados uno al lado del otro".

Este artículo le presenta la IA generativa y sus usos con modelos populares como ChatGPT y
DALL-E. También consideraremos las limitaciones de la tecnología, incluido por qué
"demasiados dedos" se ha convertido en un claro indicador del arte generado artificialmente.

[ Cuando llegan los robots: ChatGPT y la ética de la IA ]

Tabla de 
contenido

MOSTRAR MÁS 
El surgimiento de la IA generativa
La IA generativa ha existido durante años, posiblemente desde que ELIZA , un chatbot que
simula hablar con un terapeuta, se desarrolló en el MIT en 1966. Pero años de trabajo en IA y
aprendizaje automático se han materializado recientemente con el lanzamiento de nuevos
sistemas de IA generativa. . Es casi seguro que haya oído hablar de ChatGPT , un chatbot de
inteligencia artificial basado en texto que produce una prosa notablemente similar a la
humana. DALL-E y Stable Diffusion también han llamado la atención por su capacidad para
crear imágenes vibrantes y realistas basadas en indicaciones de texto. A menudo nos
referimos a estos sistemas y a otros como modelos.porque representan un intento de simular
o modelar algún aspecto del mundo real basado en un subconjunto (a veces muy grande) de
información sobre él.

El resultado de estos sistemas es tan extraño que muchas personas se hacen preguntas
filosóficas sobre la naturaleza de la conciencia y se preocupan por el impacto económico de
la IA generativa en los trabajos humanos. Pero si bien todas estas creaciones de inteligencia
artificial son sin duda una gran noticia, podría decirse que hay menos cosas debajo de la
superficie de lo que algunos pueden suponer. Llegaremos a algunas de esas preguntas
generales en un momento. Primero, veamos qué sucede bajo el capó de modelos como
ChatGPT y DALL-E.

¿Cómo funciona la IA generativa?


La IA generativa utiliza el aprendizaje automático para procesar una gran cantidad de datos
visuales o textuales, muchos de los cuales se extraen de Internet, y luego determina qué
cosas tienen más probabilidades de aparecer cerca de otras cosas. Gran parte del trabajo de
programación de la IA generativa se dedica a la creación de algoritmos que pueden distinguir
las "cosas" de interés para los creadores de la IA: palabras y oraciones en el caso de chatbots
como ChatGPT o elementos visuales para DALL-E. Pero fundamentalmente, la IA generativa
crea su salida evaluando un enorme corpus de datos en los que ha sido entrenado, y luego
responde a las indicaciones con algo que cae dentro del ámbito de la probabilidad según lo
determinado por ese corpus.

Autocompletar, cuando su teléfono celular o Gmail sugiere cuál podría ser el resto de la
palabra u oración que está escribiendo, es una forma de inteligencia artificial generativa de
bajo nivel. Modelos como ChatGPT y DALL-E simplemente llevan la idea a alturas
significativamente más avanzadas.

Entrenamiento de modelos generativos de IA


El proceso mediante el cual se desarrollan modelos para acomodar todos estos datos se
llama entrenamiento . Un par de técnicas subyacentes están en juego aquí para diferentes
tipos de modelos. ChatGPT usa lo que se llama un transformador (eso es lo que significa la T
). Un transformador deriva el significado de largas secuencias de texto para comprender
cómo las diferentes palabras o componentes semánticos pueden estar relacionados entre sí,
luego determina la probabilidad de que ocurran en la proximidad entre sí. Estos
transformadores se ejecutan sin supervisión en un vasto corpus de texto en lenguaje natural
en un proceso llamado preentrenamiento (esa es la P en ChatGPT), antes de ser ajustados
por seres humanos que interactúan con el modelo.

Otra técnica utilizada para entrenar modelos es lo que se conoce como red antagónica
generativa o GAN. En esta técnica, tiene dos algoritmos que compiten entre sí. Uno está
generando texto o imágenes basadas en probabilidades derivadas de un gran conjunto de
datos; el otro es una IA discriminatoria, que ha sido entrenada por humanos para evaluar si
ese resultado es real o generado por IA. La IA generativa intenta repetidamente "engañar" a la
IA discriminatoria, adaptándose automáticamente para favorecer los resultados exitosos. Una
vez que la IA generativa "gana" constantemente esta competencia, los humanos afinan la IA
discriminatoria y el proceso comienza de nuevo.

Una de las cosas más importantes a tener en cuenta aquí es que, si bien hay intervención
humana en el proceso de capacitación, la mayor parte del aprendizaje y la adaptación
ocurren automáticamente. Se requieren tantas iteraciones para que los modelos lleguen al
punto en que produzcan resultados interesantes que la automatización es esencial. El
proceso es bastante intensivo computacionalmente. 

¿Es inteligente la IA generativa?


Las matemáticas y la codificación que intervienen en la creación y el entrenamiento de
modelos generativos de IA son bastante complejas y van mucho más allá del alcance de este
artículo. Pero si interactúa con los modelos que son el resultado final de este proceso, la
experiencia puede ser decididamente extraña. Puede hacer que DALL-E produzca cosas que
parecen verdaderas obras de arte. Puedes tener conversaciones con ChatGPT que se sientan
como una conversación con otro ser humano. ¿Han creado realmente los investigadores una
máquina de pensar?

Chris Phipps, exlíder de procesamiento de lenguaje natural de IBM que trabajó en productos
de IA de Watson , dice que no. Describe ChatGPT como una "muy buena máquina de
predicción".

Es muy bueno para predecir lo que los humanos encontrarán coherente. No siempre es
coherente (la mayoría de las veces lo es), pero eso no se debe a que ChatGPT "entienda". Es
todo lo contrario: los humanos que consumen la salida son realmente buenos para hacer
cualquier suposición implícita que necesitamos para que la salida tenga sentido.

Phipps, que también es actor de comedia, hace una comparación con un juego de
improvisación común llamado Mind Meld.

Dos personas piensan en una palabra y luego la dicen en voz alta al mismo tiempo: usted
podría decir "bota" y yo diría "árbol". Se nos ocurrieron esas palabras de manera
completamente independiente y, al principio, no tenían nada que ver entre sí. Los siguientes
dos participantes toman esas dos palabras e intentan pensar en algo que tengan en común y
decirlo en voz alta al mismo tiempo. El juego continúa hasta que dos participantes digan la
misma palabra.

Tal vez dos personas digan "leñador". Parece magia, pero en realidad es que usamos nuestro
cerebro humano para razonar sobre la entrada ("arranque" y "árbol") y encontrar una
conexión. Nosotros hacemos el trabajo de comprensión, no la máquina. Hay mucho más de
eso sucediendo con ChatGPT y DALL-E de lo que la gente admite. ChatGPT puede escribir
una historia, pero los humanos trabajamos mucho para que tenga sentido.

Poniendo a prueba los límites de la inteligencia


informática
Ciertas indicaciones que podemos dar a estos modelos de IA harán que el punto de Phipps
sea bastante evidente. Por ejemplo, considere el acertijo "¿Qué pesa más, una libra de plomo
o una libra de plumas?" La respuesta, por supuesto, es que pesan lo mismo (una libra),
aunque nuestro instinto o sentido común nos diga que las plumas son más ligeras.

ChatGPT responderá este acertijo correctamente, y puedes asumir que lo hace porque es
una computadora fríamente lógica que no tiene ningún "sentido común" para hacerlo
tropezar. Pero eso no es lo que está pasando debajo del capó. ChatGPT no está razonando
lógicamente la respuesta; simplemente está generando una salida basada en sus
predicciones de lo que debería seguir a una pregunta sobre una libra de plumas y una libra
de plomo. Dado que su conjunto de entrenamiento incluye un montón de texto que explica
el acertijo, ensambla una versión de esa respuesta correcta. Pero si le preguntas a ChatGPT si
doslibras de plumas son más pesadas que una libra de plomo, le dirá con confianza que
pesan la misma cantidad, porque ese sigue siendo el resultado más probable de un aviso
sobre plumas y plomo, según su conjunto de entrenamiento. Puede ser divertido decirle a la
IA que está mal y ver cómo se tambalea en respuesta; Lo conseguí para disculparme por su
error y luego sugerir que dos libras de plumas pesan cuatro veces más que una libra de
plomo.

Página 1 de 2 ▻

💡 Cómo elegir una plataforma de desarrollo low-code

Derechos de autor © 2023 IDG Communications, Inc.

También podría gustarte