Euroen steg i den europeiske handelen mandag mot en kurv av store valutaer, i et forsøk på å hente seg inn igjen fra et to ukers lavpunkt mot amerikanske dollar, støttet av røverkjøp på lavere nivåer og av en pause i dollarens nylige oppgang før viktige amerikanske inflasjonsdata.
Med fortsatt usikkerhet rundt sannsynligheten for et rentekutt fra Den europeiske sentralbanken i desember, venter investorene på en nøye fulgt tale senere i dag fra ECB-president Christine Lagarde, som forventes å gi nye ledetråder om eurosonens pengepolitiske retning.
Prisoversikt
• EUR/USD steg med 0,15 % til 1,1528 dollar, opp fra et åpningsnivå på 1,1511 dollar, etter å ha nådd et bunnpunkt på 1,1502 dollar i løpet av sesjonen.
• Euroen endte fredagens handel ned 0,15 % mot dollaren, noe som markerte sitt sjette daglige tap på rad og nådde et toukers lavpunkt på 1,1491 dollar, presset av svake industri- og tjenesteytende data over hele Europa.
• I løpet av uken falt euroen med 0,95 % – den største ukentlige nedgangen siden slutten av juli – ettersom investorer konsentrerte seg om å kjøpe amerikanske dollar som det mest attraktive aktivumet i dagens situasjon.
Amerikansk dollar
Dollarindeksen falt med 0,1 % mandag, etter en tilbakegang fra et seksmåneders høypunkt på 100,40. Dette gjenspeiler en pause i den amerikanske valutaens oppadgående momentum.
Utover gevinsttaking er investorer motvillige til å bygge nye lange posisjoner i forkant av viktige amerikanske inflasjonsdata, som forventes å gi klarere bevis på om Federal Reserve vil holde renten uendret i desember.
Europeiske priser
• Markedsprisingen gjenspeiler for tiden en sannsynlighet på rundt 25 % for et rentekutt på 25 basispunkter fra ECB i desember.
• Investorer venter på ytterligere data fra eurosonen om inflasjon, arbeidsledighet og lønninger for å revurdere disse forventningene.
• ECB-president Christine Lagarde skal holde en viktig tale senere i dag, som forventes å dekke den siste inflasjonsutviklingen og utsiktene for europeiske renter.
Utsikter for euroen
• Ifølge Economies.com: hvis Lagardes kommentarer høres mindre haukete ut, vil forventningene om et rentekutt fra ECB i desember styrke seg, noe som legger ytterligere press nedover på euroen mot en kurv av valutaer.
Den japanske yenen svekket seg i den asiatiske handelen mandag mot en kurv av store og små valutaer. Etter en kort pause i forrige sesjon mot amerikanske dollar gjenopptok den sin nedgang, og beveget seg igjen mot sine laveste nivåer på ti måneder. Valutaen er fortsatt under tydelig press på grunn av vedvarende bekymringer rundt statsminister Sanae Takaichis stimuleringstunge politikk.
Samtidig ser analytikere liten sjanse for direkte intervensjon for å støtte yenen før den når 160 per dollar. Investorer venter også på ytterligere ledetråder om Bank of Japans vei mot normalisering av politikken og potensielle renteøkninger.
Prisoversikt
• USD/JPY steg med omtrent 0,3 % til 156,80 ¥ fra et åpningsnivå på 156,37 ¥, etter å ha nådd et bunnpunkt på 156,37 ¥ i løpet av sesjonen.
• Yenen avsluttet fredagens handel med en oppgang på 0,7 % mot dollaren – den første oppgangen på seks dager – støttet av kjøp på kjøpspriser etter å ha nådd et timåneders lavpunkt på 157,89 dagen før.
• Valutaen falt med 1,2 % forrige uke, noe som markerer den andre ukentlige nedgangen på rad, presset av Takaichis stimuleringspakke.
Takaichis stimuleringspolitikk
Japans kabinett, ledet av Sanae Takaichi, godkjente en økonomisk stimuleringspakke på 21 billioner yen (135 milliarder dollar) sent i forrige uke – administrasjonens første store politiske initiativ. Programmet gjenspeiler hennes ekspansive finanspolitiske tilnærming som tar sikte på å støtte Japans svake økonomiske aktivitet.
Pakken inkluderer 17,7 billioner yen i generelle utgifter, som langt overstiger fjorårets 13,9 billioner yen, noe som gjør den til den største stimulansen siden COVID-19-pandemien. Den inneholder også skattekutt på 2,7 billioner yen. Regjeringen planlegger å godkjenne et tilleggsbudsjett 28. november for å sikre parlamentets godkjenning før årets slutt.
Synspunkter og analyser
• Christopher Wong, valutastrateg hos OCBC, sa at intervensjon ikke er utelukket før USD/JPY når 160, og la til at enhver bevegelse kan være skarp gitt tynne likviditetsforhold.
• Michael Boutros, sjefstrateg i StoneX, bemerket en pågående tautrekking mellom Bank of Japan og den nye statsministeren, som er «svært pro-næringsliv og ønsker at markedene skal forbli svært komfortable».
• Boutros la til: «Jeg tror ikke de vil endre renten med det første. Det vi i stedet kan se er snakk om intervensjon og flere advarsler etter hvert som disse endringene fortsetter.»
Japanske renter
• Markedet priser for tiden en omtrent 35 % sjanse for en renteøkning på 25 basispunkter fra BOJ i desember.
• For å revurdere disse sannsynlighetene følger investorene med på kommende data om inflasjon, arbeidsledighet og lønnsvekst i Japan.
Kryptovalutaer falt over hele linja på fredag, og forlenget de kraftige tapene som har trukket dem langt under de siste toppene, med Bitcoin som falt under 82 000 dollar.
Nedgangen kommer midt i motstridende veddemål om Federal Reserves politikk. Den siste amerikanske jobbrapporten dempet håpet om et rentekutt i desember, men disse forventningene dukket opp igjen i dag etter kommentarer fra en høytstående Fed-tjenestemann.
John Williams, presidenten i New York Federal Reserve, sa fredag at han forventer at sentralbanken vil ha større handlingsrom til å redusere renten.
Den innflytelsesrike politikeren forklarte under en tale i Chile at han ser risikoen arbeidsmarkedet står overfor som større enn de som er knyttet til inflasjon – noe som gjenspeiler synspunktene til de mer dueaktige medlemmene av FOMC.
Williams la til: «Jeg ser på pengepolitikken som fortsatt moderat restriktiv, men mindre enn før våre nylige tiltak. Så jeg ser fortsatt rom for en ytterligere kortsiktig justering av målintervallet for den føderale fondsrenten, for å flytte politikken nærmere nøytral og opprettholde balansen mellom våre to mål.»
Ifølge CME FedWatch-verktøyet steg sannsynligheten for et rentekutt på 25 basispunkter på desembermøtet til 75 %, opp fra 39 % dagen før og 44,4 % for en uke siden.
Regjeringsdata som ble offentliggjort i dag viste at PMI-en for industrien i USA falt til 51,9 i november fra tidligere 52,5, nær forventningene på 52.
I mellomtiden steg PMI-en for tjenester til 55 denne måneden fra 54,8, noe som trosset prognosene om et fall til 54,6.
Forbrukertillitsundersøkelsen ved University of Michigan forbedret seg også, og steg til 51 fra 50,3 og slo dermed forventningene på 50,6.
Ethereum
Når det gjelder handel, falt Ethereum med 3,7 % til 2 739,9 dollar innen 21:11 GMT, noe som bringer tapet for uken til 13,2 %.
Nvidia overgikk alle forventninger onsdag, og rapporterte skyhøye fortjeneste drevet av grafikkprosessorene (GPU-ene) som utmerker seg ved å drive kunstig intelligens-arbeidsmengder. Men andre klasser av AI-brikker begynner å få momentum.
Alle større skyleverandører designer nå sine egne applikasjonsspesifikke integrerte kretser (ASIC-er), fra Googles TPU til Amazons Trainium til OpenAIs planer med Broadcom. Disse brikkene er mindre, billigere, enklere å bruke, og kan redusere disse selskapenes avhengighet av Nvidias GPU-er. Daniel Newman fra Futurum Group fortalte CNBC at han forventer at ASIC-brikker «vil vokse raskere enn GPU-markedet de neste årene».
Ved siden av GPU-er og ASIC-er finnes det feltprogrammerbare gatearrays (FPGA-er), som kan omkonfigureres etter produksjon for bruk som signalbehandling, nettverk og AI. Og det finnes en hel generasjon AI-brikker designet for å kjøre direkte på enheter i stedet for gjennom skyen – et segment ledet av selskaper som Qualcomm og Apple.
CNBC snakket med eksperter og innsidere i store teknologiselskaper for å bryte ned dette overfylte landskapet og de ulike typene AI-brikker.
GPU-er for generell databehandling
GPU-er ble en gang hovedsakelig brukt til videospill, men de gjorde Nvidia til verdens mest verdifulle børsnoterte selskap da de ble motoren i moderne AI. Nvidia sendte omtrent 6 millioner enheter av sin nåværende generasjon «Blackwell» GPU-er i fjor.
Skiftet fra spilling til AI begynte i 2012, da forskere trente det nevrale nettverket AlexNet ved hjelp av Nvidia GPU-er – et gjennombrudd som mange ser på som gnisten i den moderne AI-revolusjonen. AlexNet konkurrerte i en profilert bildegjenkjenningskonkurranse og stolte på GPU-er i stedet for CPU-er, noe som leverte fantastisk nøyaktighet og et stort konkurransefortrinn.
Den samme parallelle prosesseringsevnen som gjør GPU-er i stand til å gjengi naturtro grafikk, gjør dem også ideelle for trening av dyplæringsmodeller, som lærer fra data i stedet for eksplisitt programmering.
I dag selges GPU-er til datasentersystemer paret med CPU-er for å kjøre skybaserte AI-arbeidsbelastninger. CPU-er har en håndfull kraftige kjerner for sekvensielle oppgaver, mens GPU-er har tusenvis av mindre kjerner spesialisert i parallelle operasjoner som matrisemultiplikasjon.
Fordi de kan utføre et enormt antall operasjoner samtidig, er GPU-er ideelle for både trening og inferens. Trening lærer AI-modeller å finne mønstre i enorme datasett, mens inferens bruker disse modellene til å ta beslutninger basert på ny informasjon.
GPU-er er fortsatt den primære motoren for Nvidia og den nærmeste konkurrenten AMD. Programvare er en viktig differensier mellom dem: Nvidia er avhengig av sitt CUDA-økosystem, mens AMD tilbyr en stort sett åpen kildekode-stack.
Begge selskapene selger skybaserte GPU-er til leverandører som Amazon, Microsoft, Google, Oracle og CoreWeave, som deretter leier ut datakraften til AI-utviklere.
Anthropics avtale på 30 milliarder dollar med Nvidia og Microsoft inkluderer for eksempel tilsvarende 1 gigawatt med datakapasitet bygget på Nvidia-maskinvare. AMD har nylig sikret seg store forpliktelser fra OpenAI og Oracle også.
Nvidia selger også direkte til myndigheter og AI-selskaper – inkludert minst 4 millioner GPU-er til OpenAI – og til utenlandske myndigheter som Sør-Korea, Saudi-Arabia og Storbritannia.
Selskapet fortalte CNBC at de tar omtrent 3 millioner dollar per serverkabinett som inneholder 72 Blackwell GPU-er, og at de sender rundt 1000 slike kabinetter hver uke.
Dion Harris, Nvidias seniordirektør for AI-infrastruktur, sa at han aldri hadde forestilt seg at etterspørselen ville vokse til dette nivået. «Da vi snakket med selskaper om et system med åtte GPU-er for mange år siden, syntes de det var overdrevent.»
ASIC-er for spesialisert skybasert AI
GPU-basert trening drev den første bølgen av store språkmodeller, men inferens har blitt stadig viktigere etter hvert som modellene modnes. Inferens kan kjøres på mindre fleksible, rimeligere brikker som er spesielt bygget for visse matematiske operasjoner – og det er her ASIC-er kommer inn i bildet.
Hvis en GPU er en «sveitsisk lommekniv» som kan utføre mange forskjellige parallelle oppgaver, er en ASIC et verktøy med ett formål – ekstremt raskt og effektivt, men låst til én type operasjon når den er produsert.
«Du kan ikke endre disse brikkene når de først er etset inn i silisium», sa Chris Miller, forfatter av *Chip War*. «Det er en avveining mellom effektivitet og fleksibilitet.»
Nvidias GPU-er er allsidige nok til å dekke utallige AI-behov, men de er dyre (opptil 40 000 dollar per enhet) og vanskelige å få tak i. Oppstartsbedrifter er avhengige av dem delvis fordi det å designe en tilpasset ASIC kan koste titalls millioner.
Skygiganter investerer imidlertid tungt i ASIC-er fordi de lover store besparelser i stor skala.
«Disse selskapene ønsker mer kontroll over arbeidsmengdene de bygger», sa Newman. «Men de vil fortsette å samarbeide med Nvidia og AMD – databehovet er enormt.»
Google var først ute med å bygge en tilpasset AI-ASIC, og lanserte Tensor Processing Unit (TPU) i 2015. Arbeidet startet i 2006, men det ble presserende i 2013 da Google innså at AI kunne doble størrelsen på datasenterets fotavtrykk. I 2017 bidro TPU til å muliggjøre Transformer-arkitekturen som ligger til grunn for det meste av moderne AI.
Google avduket den syvende generasjonen TPU i november. Anthropic vil trene sin Claude-modell på én million TPU-er. Noen mener at TPU-er konkurrerer med – eller utkonkurrerer – Nvidia GPU-er.
«Mange forventer at Google etter hvert vil gjøre TPU-er tilgjengelige for flere,» sa Miller.
AWS fulgte opp med sine egne brikker etter å ha kjøpt opp Annapurna Labs i 2015. De lanserte Inferentia i 2018 og Trainium i 2022, og Trainium3 forventes snart.
Amazon sier at Trainium leverer 30 % til 40 % bedre pris-ytelse enn alternativer. Anthropic bruker for tiden en halv million Trainium2-brikker for å trene modellene sine.
For å bygge tilpassede ASIC-er er skyleverandører avhengige av selskaper som Broadcom og Marvell – som leverer kritisk IP- og nettverksekspertise. «Det er derfor Broadcom har blitt en av de største vinnerne av AI-boomen», sa Miller.
Broadcom hjalp til med å designe Googles TPU-er og Metas 2023-akseleratorer, og bygger tilpassede brikker for OpenAI fra 2026.
Microsoft har utviklet Maia 100. Qualcomm har A1200. Intel tilbyr Gaudi-serien. Tesla jobber med sin AI5-brikke. Oppstartsbedrifter som Cerebras og Groq fremmer nye arkitekturer.
I Kina designer Huawei, ByteDance og Alibaba sine egne ASIC-er til tross for amerikanske eksportrestriksjoner.
Enhetsnivå-AI med NPU-er og FPGA-er
En tredje kategori av AI-brikker er bygget for å kjøre modeller direkte på enheter i stedet for gjennom skyen. Disse brikkene er vanligvis integrert i system-på-en-brikke (SoC)-design og er kjent som edge-AI-prosessorer. De lar AI-funksjoner kjøre lokalt og effektivt, noe som bevarer batterilevetid og personvern.
«Du vil kunne kjøre AI-oppgaver direkte på telefonen din med ekstremt lav latens», sa Saif Khan, tidligere AI- og teknologirådgiver i Det hvite hus. «Og uten å sende data til et datasenter.»
Nevrale prosesseringsenheter (NPU-er) er en viktig del av denne kategorien, utviklet av Qualcomm, Intel, AMD og andre.
Apple bruker ikke begrepet NPU, men bygger inn en «nevral motor» i sine M-serie Mac-brikker og sine A-serie mobilbrikker.
«Denne tilnærmingen har vist seg utrolig effektiv», sa Tim Millet, Apples visepresident for plattformarkitektur. «Den er rask og gir oss mer kontroll over opplevelsen.»
Snapdragon-brikker i Android-telefoner, Samsungs tilpassede NPU-er og edge-AI-prosessorer fra NXP og Nvidia driver AI i biler, roboter, kameraer og smarthjem-enheter.
«Mesteparten av dagens utgifter går fortsatt til datasentre», sa Miller. «Men det vil endre seg etter hvert som AI sprer seg til telefoner, biler, bærbare enheter og alt annet.»
FPGA-er tilbyr enda mer fleksibilitet fordi de kan omprogrammeres etter produksjon, selv om de er mindre energieffektive enn ASIC-er eller NPU-er.
AMD ble den største FPGA-produsenten etter å ha kjøpt Xilinx for 49 milliarder dollar i 2022. Intel er nummer to etter å ha kjøpt Altera for 16,7 milliarder dollar i 2015.
Konklusjon: Nvidia er fortsatt langt foran
Alle disse AI-brikkeselskapene er avhengige av én produsent: TSMC i Taiwan.
TSMC bygger et massivt produksjonsanlegg i Arizona, hvor Apple skal flytte deler av produksjonen sin. Nvidias administrerende direktør Jensen Huang sa i oktober at Blackwells GPU-er også har nådd «full produksjon» dit.
Til tross for det stadig mer overfylte markedet, er det fortsatt ekstremt vanskelig å avsette Nvidia.
«Nvidia er i denne posisjonen fordi de fortjente det», sa Newman. «De brukte år på å bygge opp dette utviklerokosystemet – og det er de som vant.»