Documentos de Académico
Documentos de Profesional
Documentos de Cultura
By Josh Fruhlinger
Contributing writer, InfoWorld
MAR 10, 2023 2:00 AM PST
IA generativa es un término general para cualquier tipo de proceso automatizado que utiliza
algoritmos para producir, manipular o sintetizar datos, a menudo en forma de imágenes o
texto legible por humanos. Se llama generativo porque la IA crea algo que antes no existía.
Eso es lo que lo hace diferente de la IA discriminatoria , que establece distinciones entre
diferentes tipos de entrada. Para decirlo de otra manera, la IA discriminatoria intenta
responder a una pregunta como "¿Esta imagen es un dibujo de un conejo o un león?"
mientras que la IA generativa responde a indicaciones como "Dibújame un león y un conejo
sentados uno al lado del otro".
Este artículo le presenta la IA generativa y sus usos con modelos populares como ChatGPT y
DALL-E. También consideraremos las limitaciones de la tecnología, incluido por qué
"demasiados dedos" se ha convertido en un claro indicador del arte generado artificialmente.
Tabla de
contenido
MOSTRAR MÁS
El surgimiento de la IA generativa
La IA generativa ha existido durante años, posiblemente desde que ELIZA , un chatbot que
simula hablar con un terapeuta, se desarrolló en el MIT en 1966. Pero años de trabajo en IA y
aprendizaje automático se han materializado recientemente con el lanzamiento de nuevos
sistemas de IA generativa. . Es casi seguro que haya oído hablar de ChatGPT , un chatbot de
inteligencia artificial basado en texto que produce una prosa notablemente similar a la
humana. DALL-E y Stable Diffusion también han llamado la atención por su capacidad para
crear imágenes vibrantes y realistas basadas en indicaciones de texto. A menudo nos
referimos a estos sistemas y a otros como modelos.porque representan un intento de simular
o modelar algún aspecto del mundo real basado en un subconjunto (a veces muy grande) de
información sobre él.
El resultado de estos sistemas es tan extraño que muchas personas se hacen preguntas
filosóficas sobre la naturaleza de la conciencia y se preocupan por el impacto económico de
la IA generativa en los trabajos humanos. Pero si bien todas estas creaciones de inteligencia
artificial son sin duda una gran noticia, podría decirse que hay menos cosas debajo de la
superficie de lo que algunos pueden suponer. Llegaremos a algunas de esas preguntas
generales en un momento. Primero, veamos qué sucede bajo el capó de modelos como
ChatGPT y DALL-E.
Autocompletar, cuando su teléfono celular o Gmail sugiere cuál podría ser el resto de la
palabra u oración que está escribiendo, es una forma de inteligencia artificial generativa de
bajo nivel. Modelos como ChatGPT y DALL-E simplemente llevan la idea a alturas
significativamente más avanzadas.
Otra técnica utilizada para entrenar modelos es lo que se conoce como red antagónica
generativa o GAN. En esta técnica, tiene dos algoritmos que compiten entre sí. Uno está
generando texto o imágenes basadas en probabilidades derivadas de un gran conjunto de
datos; el otro es una IA discriminatoria, que ha sido entrenada por humanos para evaluar si
ese resultado es real o generado por IA. La IA generativa intenta repetidamente "engañar" a la
IA discriminatoria, adaptándose automáticamente para favorecer los resultados exitosos. Una
vez que la IA generativa "gana" constantemente esta competencia, los humanos afinan la IA
discriminatoria y el proceso comienza de nuevo.
Una de las cosas más importantes a tener en cuenta aquí es que, si bien hay intervención
humana en el proceso de capacitación, la mayor parte del aprendizaje y la adaptación
ocurren automáticamente. Se requieren tantas iteraciones para que los modelos lleguen al
punto en que produzcan resultados interesantes que la automatización es esencial. El
proceso es bastante intensivo computacionalmente.
Chris Phipps, exlíder de procesamiento de lenguaje natural de IBM que trabajó en productos
de IA de Watson , dice que no. Describe ChatGPT como una "muy buena máquina de
predicción".
Es muy bueno para predecir lo que los humanos encontrarán coherente. No siempre es
coherente (la mayoría de las veces lo es), pero eso no se debe a que ChatGPT "entienda". Es
todo lo contrario: los humanos que consumen la salida son realmente buenos para hacer
cualquier suposición implícita que necesitamos para que la salida tenga sentido.
Phipps, que también es actor de comedia, hace una comparación con un juego de
improvisación común llamado Mind Meld.
Dos personas piensan en una palabra y luego la dicen en voz alta al mismo tiempo: usted
podría decir "bota" y yo diría "árbol". Se nos ocurrieron esas palabras de manera
completamente independiente y, al principio, no tenían nada que ver entre sí. Los siguientes
dos participantes toman esas dos palabras e intentan pensar en algo que tengan en común y
decirlo en voz alta al mismo tiempo. El juego continúa hasta que dos participantes digan la
misma palabra.
Tal vez dos personas digan "leñador". Parece magia, pero en realidad es que usamos nuestro
cerebro humano para razonar sobre la entrada ("arranque" y "árbol") y encontrar una
conexión. Nosotros hacemos el trabajo de comprensión, no la máquina. Hay mucho más de
eso sucediendo con ChatGPT y DALL-E de lo que la gente admite. ChatGPT puede escribir
una historia, pero los humanos trabajamos mucho para que tenga sentido.
ChatGPT responderá este acertijo correctamente, y puedes asumir que lo hace porque es
una computadora fríamente lógica que no tiene ningún "sentido común" para hacerlo
tropezar. Pero eso no es lo que está pasando debajo del capó. ChatGPT no está razonando
lógicamente la respuesta; simplemente está generando una salida basada en sus
predicciones de lo que debería seguir a una pregunta sobre una libra de plumas y una libra
de plomo. Dado que su conjunto de entrenamiento incluye un montón de texto que explica
el acertijo, ensambla una versión de esa respuesta correcta. Pero si le preguntas a ChatGPT si
doslibras de plumas son más pesadas que una libra de plomo, le dirá con confianza que
pesan la misma cantidad, porque ese sigue siendo el resultado más probable de un aviso
sobre plumas y plomo, según su conjunto de entrenamiento. Puede ser divertido decirle a la
IA que está mal y ver cómo se tambalea en respuesta; Lo conseguí para disculparme por su
error y luego sugerir que dos libras de plumas pesan cuatro veces más que una libra de
plomo.
Página 1 de 2 ▻