El "few-shot Chain-of-Thought" (CoT) prompting se utiliza en modelos de lenguaje grandes (LLM). En esta estrategia, el usuario proporciona algunos ejemplos de razonamiento paso a paso (llamados "cadenas de pensamiento") para guiar al modelo hacia la generación de su justificación para nuevas preguntas.