Jestem zaskoczony, że LLM-y nie wykorzystały fine-tuningu (lub przynajmniej kontrolowanej preferencji), aby używać mniej myślników, biorąc pod uwagę, jak oczywiste jest, kiedy coś napisał LLM.