La temperatura es un parámetro utilizado en los modelos de generación de texto que controla la aleatoriedad o la creatividad del resultado. Afecta a cómo el modelo elige la siguiente palabra al generar texto utilizando métodos basados en el muestreo.
Una temperatura más alta hace que el resultado sea más diverso y sorprendente, mientras que una temperatura más baja lo hace más predecible y enfocado.
Cómo funciona
Cuando un modelo de lenguaje predice la siguiente palabra, asigna probabilidades a todas las opciones posibles. La temperatura ajusta estas probabilidades antes de elegir una palabra.
Las temperaturas más bajas hacen que las palabras de alta probabilidad sean aún más probables, reduciendo la variación. Las temperaturas más altas aplanan la distribución de probabilidad, dando a más opciones la oportunidad de ser seleccionadas.
Escala de valores
La temperatura normalmente oscila entre 0 y 2, aunque los valores pueden variar dependiendo del modelo o el marco de trabajo.
- Temperatura = 0
El modelo se vuelve determinista, siempre eligiendo la palabra más probable (similar a la decodificación greedy). - Temperatura = 0,7 a 1,0
Este rango se utiliza a menudo para obtener resultados equilibrados: creativos pero aún relevantes. - Temperatura > 1,0
El resultado se vuelve más aleatorio y menos enfocado. Dependiendo de la tarea, esto puede conducir a la creatividad o a la incoherencia.
Propósito y uso
El parámetro de temperatura ajusta la creatividad y la variabilidad de la generación de texto. Puede ajustar el resultado del modelo para que coincida con el tono y el estilo deseados controlando la temperatura.
Una temperatura más alta (alrededor de 0,8 a 1,5) fomenta respuestas más diversas e imaginativas en aplicaciones creativas como la narración de cuentos, la lluvia de ideas o la escritura poética. Esto es útil cuando se desea que el modelo explore una amplia gama de ideas o genere algo inesperado.
Por el contrario, una temperatura más baja (alrededor de 0,2 a 0,5) es preferible para las tareas que requieren precisión y claridad, como los resúmenes, la atención al cliente o las respuestas médicas. Las temperaturas más bajas hacen que el resultado sea más enfocado, coherente y consistente, lo cual es importante para las tareas factuales donde la precisión es crítica.
Ejemplos
Si le indica al modelo: “Érase una vez…”:
- Temperatura 0,2: “una princesa que vivía en un castillo”.
El modelo genera una respuesta convencional y directa, con menos creatividad y más enfoque en una historia familiar. - Temperatura 1,0: “un robot explorando una ciudad abandonada”.
Aquí, el modelo introduce más diversidad y creatividad, eligiendo un giro inusual e interesante en la historia. - Temperatura 1,5: “nube cantante hecha de sueños de caramelo”.
La respuesta es muy creativa, pero puede carecer de coherencia. Tiene elementos abstractos y surrealistas. El modelo explora ideas más aleatorias, lo que lleva a resultados inesperados y, a veces, caprichosos.
Como puede ver, las temperaturas más altas conducen a más creatividad y menos previsibilidad, mientras que las temperaturas más bajas proporcionan resultados más estructurados y coherentes.
Comparación con el muestreo top-k y top-p
- El muestreo Top-k limita el número de posibles tokens siguientes a los k tokens más probables. Esto reduce la aleatoriedad al restringir las opciones, pero no controla directamente la probabilidad de esos tokens.
- El muestreo Top-p (muestreo de núcleo) elige el conjunto más pequeño de tokens cuya probabilidad acumulada supera un umbral p. Se centra en las opciones más probables, pero permite un número flexible de candidatos basado en la distribución de probabilidad.
- La temperatura, por otro lado, modifica la distribución de probabilidad en sí misma ajustando la intensidad con la que el modelo prefiere los tokens de mayor probabilidad. Mientras que top-k y top-p limitan las opciones, la temperatura influye en la dispersión de esas opciones, haciendo que la distribución sea más enfocada o dispersa.
Estas técnicas pueden funcionar juntas; la temperatura ajusta la forma de la distribución, mientras que top-k y top-p controlan el conjunto de opciones entre las que el modelo selecciona.
Beneficios de la temperatura (en el muestreo)
Control flexible del resultado
La temperatura ofrece un control preciso sobre la creatividad del resultado. Puede ajustarla en función de las necesidades de su tarea, tanto si desea resultados más predecibles para tareas factuales como resultados más variados para tareas creativas.
Mejor experiencia de usuario
Al ajustar la temperatura, los desarrolladores pueden hacer que las conversaciones con chatbots y asistentes virtuales sean más atractivas y apropiadas para el contexto. Las temperaturas más altas pueden conducir a interacciones más dinámicas y animadas, mejorando la participación del usuario.
Mejora la creatividad
Los ajustes de temperatura más altos (1,0 a 1,5) son especialmente útiles para tareas como la generación de ideas o la narración de cuentos. Permiten que el modelo explore caminos más diversos, fomentando la generación de contenido novedoso y creativo.
Limitaciones de la temperatura (en el muestreo)
Puede producir texto incoherente
A altas temperaturas, el modelo podría producir respuestas sin sentido o irrelevantes. Esto sucede porque la aleatoriedad introducida por las temperaturas más altas hace que sea más difícil para el modelo atenerse a respuestas lógicas y coherentes.
Poca fiabilidad para tareas factuales
Las altas temperaturas pueden conducir a errores en tareas donde la precisión y la consistencia son cruciales, como la escritura técnica o el asesoramiento médico. La aleatoriedad en la selección también puede hacer que el modelo genere información falsa o engañosa.
Requiere experimentación
Encontrar el ajuste de temperatura ideal a menudo requiere algunas pruebas y errores. La mejor temperatura depende de la tarea y el contexto, por lo que experimentar con diferentes valores es clave para lograr el equilibrio adecuado entre creatividad y coherencia.
Casos de uso de la temperatura (en el muestreo)
Chatbots
Para una conversación informal o amistosa, una temperatura ligeramente más alta (alrededor de 0,8 a 1,0) ayuda a mantener las respuestas atractivas y dinámicas, permitiendo que el modelo proporcione respuestas más variadas e interesantes. También evita respuestas demasiado rígidas o robóticas.
Aplicaciones de narración de cuentos
Una temperatura más alta (1,0 a 1,5) anima al modelo a crear narrativas más imaginativas e inesperadas al generar historias. Este ajuste ayuda a inspirar ideas frescas y contenido creativo, lo cual es ideal para escritores y narradores que buscan argumentos únicos.
Búsqueda y resumen
Una temperatura más baja (0,2 a 0,5) asegura respuestas claras y enfocadas en los resultados de búsqueda o tareas de resumen. Ayuda al modelo a generar resúmenes concisos e informativos o a seleccionar los resultados de búsqueda más relevantes sin desviarse hacia territorios irrelevantes o creativos.
Generación de código
Al generar código u otros resultados técnicos precisos, la temperatura a menudo se mantiene baja para mantener la lógica y la corrección de la sintaxis. Esto reduce las posibilidades de introducir errores o inconsistencias en el código generado.
Cuándo usar diferentes temperaturas
- Use de 0 a 0,3: Para tareas fiables basadas en hechos o cuando la consistencia es crítica.
- Use de 0,4 a 0,7: Para uso general, correos electrónicos, escritura y tareas creativas equilibradas.
- Use de 0,8 a 1,2: Para alta creatividad, lluvia de ideas, tono informal o escritura de ficción.
- Use 1,3 y superiores con cuidado: Puede ser divertido pero caótico para resultados experimentales o puramente imaginativos.
La temperatura en el muestreo es una herramienta sencilla pero potente para controlar lo aleatorio o predecible que será el resultado de un modelo de lenguaje. Las temperaturas más bajas producen resultados más enfocados y precisos, mientras que las temperaturas más altas hacen que el texto sea más variado y creativo.
Al ajustar este único parámetro, los desarrolladores y creadores pueden ajustar el comportamiento de los sistemas de IA para que coincida con diferentes tareas, ya sea respondiendo preguntas, escribiendo historias o generando ideas.