70% tim AI produksi menggunakan model open source. 72,5% menghubungkan agen ke database, bukan antarmuka obrolan. Inilah yang sebenarnya dikirimkan oleh 375 pembangun teknis - & tidak terlihat seperti Twitter AI. 70% tim menggunakan model open source dalam beberapa kapasitas. 48% menggambarkan strategi mereka sebagian besar terbuka. 22% berkomitmen untuk hanya membuka. Hanya 11% yang tetap murni kepemilikan. Agen di lapangan adalah operator sistem, bukan antarmuka obrolan. Kami pikir agen sebagian besar akan memanggil API. Sebagai gantinya, 72,5% terhubung ke database. 61% untuk pencarian web. 56% untuk sistem memori & sistem file. 47% untuk penerjemah kode. Pusat gravitasi adalah data & eksekusi, bukan percakapan. Tim canggih membangun MCP untuk mengakses sistem internal mereka sendiri (58%) & API eksternal (54%). Data sintetis mendukung evaluasi lebih dari pelatihan. 65% menggunakan data sintetis untuk pembuatan eval versus 24% untuk penyempurnaan. Ini menunjukkan lonjakan jangka pendek di pasar data eval, pustaka skenario, & korpus mode kegagalan sebelum data pelatihan sintetis meningkat. Waktu mengungkapkan ke mana tumpukan itu menuju. Tim perlu memverifikasi kebenaran sebelum mereka dapat menskalakan produksi. 88% menggunakan metode otomatis untuk meningkatkan konteks. Namun itu tetap menjadi titik nyeri #1 dalam menerapkan produk AI. Kesenjangan antara adopsi perkakas & resolusi masalah ini menunjukkan tantangan mendasar. Alat-alat itu ada. Masalahnya lebih sulit daripada yang dapat dipecahkan oleh pengambilan yang lebih baik atau pemotongan yang lebih cerdas. Tim memerlukan sistem yang memverifikasi kebenaran sebelum mereka dapat menskalakan produksi. Alat-alat itu ada. Masalahnya lebih sulit daripada yang dapat dipecahkan oleh pengambilan yang lebih baik. Konteks tetap menjadi tantangan sejati & peluang terbesar bagi infrastruktur AI generasi berikutnya. Jelajahi kumpulan data interaktif lengkap di sini : atau baca analisis lengkap Lauren :