70 % produkčních AI týmů používá open source modely. 72,5 % propojuje agenty s databázemi, ne s chatovými rozhraními. Tohle je to, co skutečně nabízí 375 technických stavitelů – a vůbec to nevypadá jako Twitter AI.
70 % týmů používá open source modely v nějaké míře. 48 % popisuje svou strategii převážně otevřenou. 22 % se zavazuje pouze k otevření. Pouze 11 % zůstává čistě proprietárních.
Agenti v terénu jsou systémoví operátoři, ne chatovací rozhraní. Mysleli jsme si, že agenti budou většinou volat API. Místo toho se 72,5 % připojuje k databázím. 61 % pro webové vyhledávání. 56 % pro paměťové systémy a souborové systémy. 47 % pro interprety kódu.
Těžiště jsou data a provedení, ne konverzace. Sofistikované týmy vytvářejí MCP pro přístup ke svým vlastním interním systémům (58 %) a externím API (54 %).
Syntetická data pohánějí hodnocení více než trénink. 65 % používá syntetická data pro generování hodnocení oproti 24 % pro doladění. To naznačuje krátkodobý nárůst tržišť s evaluačními daty, knihoven scénářů a korpusů v režimu selhání dříve, než se syntetická tréninková data rozšíří.
Načasování odhaluje, kam se stack ubírá. Týmy musí ověřit správnost, než mohou škálovat výrobu.
88 % používá automatizované metody pro zlepšení kontextu. Přesto zůstává #1 problémem při zavádění AI produktů. Tento rozdíl mezi přijetím nástrojů a řešením problémů ukazuje na zásadní výzvu.
Nástroje existují. Problém je těžší, než by vyřešilo lepší vyhledávání nebo chytřejší rozdělení.
Týmy potřebují systémy, které ověřují správnost, než mohou začít škálovat výrobu. Nástroje existují. Problém je těžší, než by lepší vyhledávání vyřešilo.
Kontext zůstává skutečnou výzvou a největší příležitostí pro další generaci AI infrastruktury.
Prozkoumejte celý interaktivní dataset zde: nebo si přečtěte kompletní analýzu Lauren: