Charro.aiCharro.ai

¿Qué es un buen prompt y porqué es importante?

La ingeniería de prompts es la práctica de optimizar la entrada textual proporcionada a un Modelo de Lenguaje Grande (LLM) para lograr respuestas deseadas. Implica usar lenguaje natural para mejorar el rendimiento de los LLM en varias tareas.

¿Por qué hacer un buen prompt es tan importante?

Mejora la calidad de las respuestas, guía el comportamiento del modelo, reduce costos operativos y aumenta la productividad. Para los agentes de IA, las instrucciones claras reducen la ambigüedad y mejoran la toma de decisiones.


¿Cuándo hacer prompt engineering?

No todos los criterios de éxito o evaluaciones fallidas se resuelven mejor con prompt engineering. Por ejemplo, la latencia y el costo a veces se pueden mejorar más fácilmente seleccionando un modelo diferente.


Prompting vs. fine-tuning

Hacer prompt engineering es mucho más rápido que otros métodos de control del comportamiento del modelo, como el fine-tuning, y a menudo puede generar saltos en el rendimiento en mucho menos tiempo.


¿Cómo construir un prompt claro y funcional?

Sé claro, directo y detallado: Al interactuar con el LLM, piensa en él como un empleado brillante pero muy nuevo (con amnesia) que necesita instrucciones explícitas. Como cualquier empleado nuevo, el LLM no tiene contexto sobre tus normas, estilos, pautas o formas preferidas de trabajar. Mientras más precisamente expliques lo que quieres, mejor será la respuesta del LLM.


Usa ejemplos al hacer prompts

Zero-shot prompting: Esto implica crear un buen prompt por sí mismo, sin proporcionar ejemplos en el texto del prompt. Few-shot / multi-shot prompting: Un método altamente efectivo para mejorar la calidad de salida es proporcionar "algunos ejemplos" dentro del prompt mismo para enseñar al LLM patrones, formatos o estilos deseados. Estos ejemplos deben incluir "casos extremos" o incluso demostraciones de "cómo NO realizar la tarea". Perplexity (herramienta de búsqueda de IA) recomienda evitar hacer Few-Shot prompting porque puede confundir los modelos de búsqueda web ya que podrían buscar tus ejemplos en lugar de la consulta real Más ejemplos = mejor rendimiento, especialmente para tareas complejas


Deja que el LLM piense (chain of thought prompting)

Cuando se enfrenta a tareas complejas como investigación, análisis o resolución de problemas, dar espacio al LLM para pensar puede mejorar dramáticamente su rendimiento. Esta técnica, conocida como chain of thought (CoT) prompting, anima al LLM a desglosar problemas paso a paso, llevando a outputs más precisos y matizados.


¿Cómo hacer prompting para generar pensamiento?

  • Prompt básico: Incluye la leyenda "Piensa paso a paso" en tu prompt.
  • Esto aún no tiene guía sobre cómo pensar (lo cual no es ideal especialmente si la tarea es muy específica a un app, caso de uso u organización)
  • Prompt guiado: Escribe pasos específicos para que el LLM siga en su proceso de pensamiento.
  • Todavía le falta estructuración para hacer fácil separar la respuesta del pensamiento
  • Prompt estructurado: Usa etiquetas XML como <thinking> y <answer> para separar el razonamiento de la respuesta final.


Si quieres conocer más sobre prompting tenemos cursos en AcademIA