I november fortsatte resultatsäsongen för tredje kvartalet med fortsatt positiva fundamentala faktorer: bland våra största innehav rapporterade AMD och Nvidia starka resultat, som överträffade förväntningarna och låg betydligt bättre än marknadsprognosen. Båda gynnas avsevärt av AI-efterfrågan – AMD gynnas av det faktum att AI-beräkning också kräver mycket mer CPU-beräkning vid sidan av GPU:er; och Nvidia är fortfarande den tydliga de facto-standarden för AI-beräkning med sina GPU:er, med inträdeshinder som kommer från deras fördelar på chipnivå; nätverksfördelar; och deras CUDA-programvaruekosystem.
Under november lanserades Googles Gemini 3-modell som presterade bra i standard AI-benchmarkingtester. Det skapade en marknadsdebatt kring Google TPU som en trovärdig konkurrent till Nvidia, där Nvidia-aktier föll under månaden, vilket var vår största negativa faktor för fondens resultat. Vi äger Alphabet/Google i portföljen samt Broadcom (som designar Googles TPU-chip) och TSMC (som tillverkar både Nvidia- och Broadcom-chip).
Även om vi tror att Googles TPU skulle kunna säljas och hyras externt – och i så fall skulle vi dra nytta av både Broadcom (som var vår starkaste bidragsgivare till resultatet under månaden) och Alphabet (den näst starkaste bidragsgivaren) i portföljen – vill vi först och främst påminna investerare om att vi fortfarande är starkt begränsade i utbudet inom hela branschen – vad gäller den logik och det minne som båda chipen behöver – är det en av anledningarna till att vi tror att Nvidias prissättningskraft förblir intakt.
Vi är också fortfarande övertygade om att fördelen med GPU:er är att de är mycket mer flexibla och kan programmeras för många olika användningsfall – det är viktigt, särskilt med tanke på att vi är tillräckligt tidiga inom den här tekniken för att nya användningsfall fortfarande uppfinns. Nvidias GPU:ers generella karaktär innebär också att de kan köra och distribuera arbetsbelastningar mycket mer effektivt. Nvidias system kan växla mellan strömprofiler baserat på vilken typ av arbetsbelastningar som körs – AI-träning har mycket olika strömkrav jämfört med AI-inferens. Det betyder att i ett strömbegränsat datacenter skulle Nvidia-system sannolikt resultera i mycket mer dataflöde än ett system med enbart ASIC/TPU.
Det andra vi vill tillägga är att även om det kan vara vettigt för Meta att köra TPU:er, är det för den stora majoriteten av företag (utan samma skala) viktigt att inte vara bunden till en specifik molnleverantör och en specifik beräkningsarkitektur. Kommentarer från hela leveranskedjan fortsätter att notera att vi arbetar med leveransbrist – Nvidias VD Jensen Huang var enligt uppgift i Taiwan och bad om mer kapacitet hos TSMC, och Elon Musk noterade också att det inte fanns tillräckligt med chipproduktion för att möta efterfrågan.
På andra håll visade siffrorna för den taiwanesiska leveranskedjan för oktober fortfarande stark momentum i efterfrågan på AI-infrastruktur.
