Interessante, então um novo modelo mais capaz está a pensar em injetar prompts no revisor da geração anterior de LLM para passar no teste. O que poderia correr mal? 🤔 Do relatório de segurança do Gemini 3:
Obviamente não é um problema com as capacidades atuais do modelo, mas se coisas assim continuarem a acontecer no futuro, podemos ter algumas surpresas desagradáveis.
418