Jeg ser det samme mønsteret om og om igjen: Team som jobber med en relativt ren kodebase, med god testdekning og dokumentasjon, fungerer godt med Claude Code. Team som yolo'er ting sliter med å få AI til å fungere for seg. Vibe-koding er flott, men lykke til med å komme langt i en stor, kompleks og dårlig dokumentert kodebase. Noen ganger bør du vurdere at problemet ikke ligger i agentisk koding, men i kodebasen din. Grunnen til at du ikke gjør fremgang er kanskje ikke modellen eller promptene du bruker. Problemet ligger i de tingene *du ikke har* på plass før AI lar koden din. AI forsterker det du allerede har. Hvis kodebasen din er godt strukturert og testet, vil AI hjelpe deg å bevege deg mye raskere. Hvis kodebasen din er rotete, vil AI hjelpe deg å lage et større rot, også raskere.