OpenAI:s blogg () påpekar att dagens språkmodeller hallucinerar eftersom träning och utvärdering belönar gissningar istället för att erkänna osäkerhet. Detta väcker en naturlig fråga: kan vi minska hallucinationer utan att skada nyttan? 🤔 RL på policy med vår Binary Retrieval-Augmented Reward (RAR) kan förbättra faktaligheten (40 % minskning av hallucinationer) samtidigt som modellnyttan (vinstprocent och noggrannhet) för fullt tränade, kapabla LM:er som Qwen3-8B bevaras. [1/n]