La alineación del agente se refiere al proceso de garantizar que un agente de IA autónomo o semiautónomo actúe de manera consistente de acuerdo con los objetivos, valores, limitaciones y expectativas humanas previstos a lo largo de su operación.
La alucinación del modelo ocurre cuando un modelo de aprendizaje automático genera información que no se basa en los datos de entrada reales. En cambio, el modelo crea o imagina detalles que no están presentes en el conjunto de datos real.