Estou surpreso que os LLMs não tenham usado fine-tuning (ou pelo menos uma preferência controlável) para usar menos travessões, dado o quão óbvio é quando um LLM escreveu algo.