Ihre AI API-Rechnung ist wahrscheinlich 10-mal so hoch, wie sie sein sollte. Hier sind die tatsächlichen Kosten für den Betrieb von DeepSeek R1 auf Chutes im Vergleich zu den "großen Anbietern": (die Zahlen sind verrückt 👇)
DeepSeek R1 ist eines der leistungsfähigsten Denkmodelle, die verfügbar sind. Es konkurriert mit o1, aber hier ist die Preisrealität: Eingaben: 0,30 $/M, Ausgaben: 1,20 $/M OpenAI o1: 15 $/M Eingabe, 60 $/M Ausgabe Das ist 50x günstiger für Eingaben, 50x günstiger für Ausgaben.
Lass uns echte Mathematik machen. Verarbeite 10M Eingabetokens + generiere 2M Ausgabetokens pro Tag: Chutes DeepSeek R1: • Eingabe: 10M × 0,30 $ = 3 $ • Ausgabe: 2M × 1,20 $ = 2,40 $ • Täglich: 5,40 $ • Monatlich: ~162 $
Gleiche Arbeitslast auf OpenAI o1: • Eingabe: 10M × 15 $ = 150 $ • Ausgabe: 2M × 60 $ = 120 $ • Täglich: 270 $ • Monatlich: ~8.100 $ Sie zahlen 7.938 $/Monat mehr für vergleichbares Denken.
Aber warte, DeepSeek V3.1 ist sogar günstiger für nicht-argumentierende Aufgaben: $0.20/M Eingabe, $0.80/M Ausgabe Gleiche Arbeitslast: • Täglich: $3.60 • Monatlich: ~$108 im Vergleich zu GPT-4o bei ~$3.000/Monat für ähnliches Volumen.
"Aber wie steht es um die Qualität?" DeepSeek R1 Ergebnisse: • 79,8 % bei AIME 2024 (Mathematik) • 96,3 % bei MMLU (Wissen) • Wettbewerbsfähig bei den meisten Benchmarks mit o1 Die Leistung ist vorhanden. Die Kosten sind es nicht.
Der dezentrale Vorteil: • Über 60 Open-Source-Modelle • Modelle während des Gesprächs wechseln (kein Kontextverlust) • Kein Vendor Lock-in • OpenAI-kompatible API • Null DevOps-Setup Alles auf Chutes. Ab 3 $/Monat.
7,35K