Blog OpenAI () upozorňuje, že dnešní jazykové modely halucinují, protože trénink a hodnocení odměňují hádání místo přiznání nejistoty. To vyvolává přirozenou otázku: můžeme snížit halucinace, aniž bychom poškodili užitečnost? 🤔 RL na základě politiky s naší Binary Retrieval-Augmented Reward (RAR) může zlepšit faktobilitu (40% snížení halucinací) a zároveň zachovat užitečnost modelu (win rate a přesnost) plně trénovaných, schopných LM jako Qwen3-8B. [1/n]