Está en la página 1de 5

Learn Promting

Introducción
Para nuestros propósitos, la IA es un campo en el que las personas han creado algoritmos
“inteligentes” que “piensan” como humanos. Estos algoritmos pueden escribir ensayos, resolver
problemas matemáticos y crear arte. Los avances recientes en el campo han creado IAs tan
avanzados que pueden escribir convincentes correos electrónicos de ventas, artículos de noticias e
incluso ganar concursos de arte.

Prompting
El proceso de instruir a una IA para que realice una tarea se denomina prompting. Le decimos a la
IA un conjunto de instrucciones (prompt) y realiza la tarea. Las indicaciones pueden ser tan simples
como una pregunta, o tan complejo como varios párrafos.
Existen varias formas de hacer prompting con una IA:
• Dar instrucciones (pedir algo concretamente)
• Rol Prompt (asignar un rol para que responda acorde a este)
• Few Shot Promting: Consiste en mostrar al modelo algunos ejemplos (llamados Shots) de lo
que quieres que haga.

En el ejemplo, intentamos clasificar las opiniones de unos clientes como positivas o negativas.
Mostramos ejemplos de retroalimentación positiva/negativa y a continuación, mostramos una
nueva retroalimentación que no ha sido clasificada. El modelo ve que los 3 primeros ejemplos
fueron clasificados como “positivos” o “negativos” y utiliza esta información para clasificar el
nuevo ejemplo como negativo.
Existen variantes del shot prompting, en función de la cantidad de ejemplos que se aporte. En
definitiva el shot prompting ayuda a que la respuesta sea más precisa y en el formato deseado.
Combinación de técnicas
Los prompts pueden tener distintos formatos y complejidad. Pueden incluir contexto, instrucciones
y múltiples ejemplos de entrada-salida. Sin embargo, combinar estas técnicas puede dar lugar a
instrucciones más potentes.
Formalización de Prompts
Tras cubrir varios tipos de prompts, cabe explicar los términos para explicar los distintos tipos de
prompts.
Hay algunas partes diferentes de un prompt que se verán una y otra vez:
• Un rol
• Una instrucción/tarea
• Una pregunta
• Contexto
• Ejemplos (shots)

Fundamentos de ChatBot
Una de las formas más comunes en que puede ser útil el prompting es al interactuar con
numerosos chatbots disponibles para el público, como ChatGPT. Con ChatGPT puede responder
preguntas, proporcionar resúmenes y análisis de escritura, escribir texto o código. Sin embargo, su
valor real solo es accesible cuando se especifica con sus prompts.
Guía de Estilo
La guía de estilo pide al AI que hable en cierto estilo. Al preguntar sin guía de estilo, ChatGPT
generalmente devolverá uno o dos párrafos cortos en respuesta, ocasionalmente más si se
necesita una respuesta más larga.
Se puede pedir un tono amistoso o informal. También podemos pedir una lista con viñetas para un
formato más legible.
Descripciones
Si solo quieres cambiar el tono o ajustar la indicación en lugar de reformatearla, agregar
descriptores puede ser una buena manera de hacerlo. Simplemente pegar una o dos palabras a la
indicación puede cambiar la forma en que el chatbot interpreta o responde al mensaje.
Inducción preliminar
Debido a la estructura de una conversación por chatbot, la forma de la primera indicación que le
das al LLM puede afectar al resto de la conversación, permitiéndote agregar un nivel adicional de
estructura y especificación.
Por ejemplo:
Incorporar inducción en los prompts es una forma más avanzada de interactuar con los chatbots.

Trampas de los LLMs


Los LLMs son extemadamente potentes, pero no son perfectos. Cosas a tener en cuenta:
• La mayoría de los LLM no pueden citar las fuentes con precisión. Esto se debe a que no
tienen acceso a Internet y no recuerdan exactamente de dónde procede su información. A
menudo generan fuentes que parecen buenas, pero que son totalmente inexactas. (Ver:
LLMs con búsqueda aumentada).
• Los LLM suelen estar predispuestos a generar respuestas estereotipadas. Incluso con
medidas de seguridad, a veces dicen cosas sexistas, racistas y homófobas.
• Los LLM suelen decir falsedades cuando se les hace una pregunta cuya respuesta
desconocen. A veces dirán que no saben la respuesta, pero la mayoría de las veces darán
con seguridad una respuesta incorrecta.
• Los LLM suelen ser malos en matemáticas. Les cuesta resolver problemas matemáticos
sencillos y a menudo son incapaces de resolver problemas matemáticos más complejos.
• A menudo, los usuarios pueden engañar a los LLM para que generen el contenido que
deseen con Prompt Hacking.

Ajustes de LLM
Los resultados de los LLM pueden verse afectados por los hiperparámetros de configuración, que
controlan varios aspectos del modelo, como su grado de “aleatoriedad”. Estos hiperparámetros
pueden ajustarse para producir resultados más creativos, diversos e interesantes.
• Temperatura: Es un hiperparámetro de configuración que controla la aleatoriedad de los
resultados del modelo lingüístico. Una temperatura alta produce resultados más
impredecibles y creativos, mientras que una temperatura baja produce resultados más
comunes y conservadores.
• Top P: Conocido como muestreo de núcleos, es otro hiperparámetro de configuración que
controla la aleatoriedad de la salida del modelo lingüístico. Establece un umbral de
probabilidad y selecciona los tokens superiores cuya probabilidad acumulada supera el
umbral.
Tanto la temperatura como el Top P pueden afectar al resultado de un modelo lingüístico
controlando el grado de aleatoriedad y diversidad del texto generado. Un valor alto de
temperatura o de top P produce resultados más impredecibles e interesantes, pero también
aumenta la probabilidad de errores o de texto sin sentido. Un valor bajo de temperatura o de Top P
pueden producir resultados más conservadores y predecibles, pero también pueden dar lugar a
texto repetitivo o poco interesante.

Entender la mente de la IA
Existen miles, sino millones, de IA. Algunas son mejores que otras. Diferentes IAs pueden producir
imágenes, música, texto e incluso vídeos. Todas estas IAs son “generativas” (hacen cosas). También
hay IAs “discriminativas” (clasifican cosas).
Solo unas pocas IAs generativas son actualmente lo suficientemente avanzadas como para ser
especialmente útiles para la ingeniería de avisos.
Cómo funcionan las IAs
Las IAs tienen cerebros formados por miles de millones de neuronas artificiales. La forma en que
están estructuradas estas neuronas se denomina arquitectura transformadora. Se trata de un tipo
de red neuronal bastante compleja.
• Las IAs son solo funciones matemáticas.
• Estas IAs entienden las frases dividiéndolas en palabras/subpalabras llamadas tokens (por
ejemplo, la IA puede leer “no me gusta” como “yo”, “no”, “gustar”). A continuación, cada
token se convierte en una lista de números para que la IA pueda procesarlo.
• Estas IAs predicen la siguiente palabra/token de la frase basándose en palabras/tokens
anteriores.
• Estas IAs miran todos los tokens al mismo tiempo. No leen de izquierda a derecha ni de
derecha a izquierda como hacen los humanos.

También podría gustarte