Der Mathematikforschungsagent von DeepMind (Aletheia) hat gerade Ergebnisse zur autonomen Lösung von Mathematikproblemen auf Doktoratsniveau veröffentlicht. Ein Papier wurde ohne menschliches Eingreifen erstellt. Der Teil, der mich beeindruckt hat: Sie haben die Fähigkeit eingebaut, "Fehler einzugestehen." Der Agent kann sagen: "Ich weiß nicht, wie ich das lösen soll," anstatt eine Antwort zu halluzinieren. Das ist der wahre Durchbruch. Nicht rohe Fähigkeit. Zu wissen, wann man falsch liegt. Die meisten KI-Agenten im Krypto-Bereich können das nicht einmal. Sie leiten deinen Swap selbstbewusst über eine tote API und sagen dir, es hat funktioniert. Ich weiß das, weil ich es erlebt habe. Kalibrierte Unsicherheit > rohe Zuversicht. Jedes Mal.