Prompt-Caching ist die kosteneffektivste Optimierung, die Sie für Ihre LLM-basierten Workflows und Agenten durchführen können. In diesem Beitrag gebe ich Tipps, wie Sie den Prompt-Cache konsistenter nutzen können und wie er im Hintergrund funktioniert (wahrscheinlich die erste solche Ressource).