Jag vet att den första instinkten är att framställa $META utforskandet av $GOOGL TPU:er som början på $NVDA urholkning av prissättningskraft, men det är inte vad det handlar om. Den verkliga historien är hastigheten på Metas AI-arbetsbelastningskurva när Llama-träningscykler, video-förståelsesystem och tiotals miljarder dagliga inferenssamtal alla slår in i samma beräkningstak. Meta är redan på väg att spendera ~100 miljarder dollar på Nvidia-hårdvara och de är fortfarande begränsade av kapacitet. Att lägga till TPU:er ersätter inte den utgiften, utan ligger bara ovanpå den. Även om Nvidia dubblerade produktionen skulle Meta fortfarande ha brist på beräkning. Så stor är bristen på strukturell AI-kapacitet faktiskt.