De AI-boom is hier. De cloud is mogelijk nog niet klaar.
Nu staan cloudproviders, waaronder Amazon Web Services, Microsoft Azure en Google Cloud, onder druk om die berekening te veranderen om te voldoen aan de computerbehoeften van een grote AI-boom – en aangezien andere hardwareproviders een potentiële opening zien.
“Er is momenteel een behoorlijk grote onbalans tussen vraag en aanbod”, zegt Chetan Kapoor, directeur productbeheer bij de Elastic Compute Cloud-divisie van Amazon Web Services.
De meeste generatieve AI-modellen worden tegenwoordig getraind en uitgevoerd in de cloud. Deze modellen, ontworpen om originele tekst en analyse te genereren, kunnen 10 keer tot 100 keer groter zijn dan oudere AI-modellen, zegt Ziad Asghar, senior vice president product management bij Qualcomm Technologies, eraan toevoegend dat ook het aantal use cases aangezien het aantal gebruikers ook explodeert.
“Er is een onverzadigbare vraag naar het uitvoeren van grote taalmodellen op dit moment, ook in sectoren als productie en financiën”, zegt Nidhi Chappell, algemeen manager van Azure AI Infrastructure.
Het legt meer dan ooit druk op een beperkte hoeveelheid rekencapaciteit die afhankelijk is van een nog beperkter aantal gespecialiseerde chips, zoals grafische chips of GPU’s, van Nvidia. Bedrijven als Johnson & Johnson, Visa, Chevron en anderen zeiden allemaal dat ze verwachten cloudproviders te gebruiken voor generatieve AI-gerelateerde use-cases.
Maar een groot deel van de infrastructuur is niet gebouwd om zulke grote en complexe systemen te laten draaien. Cloud verkocht zichzelf als een handige vervanging voor on-premise servers die gemakkelijk capaciteit konden op- en afschalen met een pay-as-you-go-prijsmodel. Een groot deel van de huidige cloudvoetafdruk bestaat uit servers die zijn ontworpen om meerdere workloads tegelijkertijd uit te voeren en gebruikmaken van algemene CPU-chips.
Volgens analisten draait een minderheid ervan op chips die zijn geoptimaliseerd voor AI, zoals GPU’s en servers die zijn ontworpen om te functioneren in samenwerkingsclusters om grotere werklasten te ondersteunen, waaronder grote AI-modellen. GPU’s zijn beter voor AI omdat ze veel berekeningen tegelijk aankunnen, terwijl CPU’s minder berekeningen tegelijkertijd verwerken.
Bij AWS kan één cluster tot 20.000 GPU’s bevatten. Voor AI geoptimaliseerde infrastructuur is een klein percentage van de totale cloud-voetafdruk van het bedrijf, zei Kapoor, maar het groeit veel sneller. Hij zei dat het bedrijf van plan is om in de komende 12 maanden meerdere voor AI geoptimaliseerde serverclusters in te zetten.
Microsoft Azure en Google Cloud Platform zeiden dat ze op dezelfde manier werken om AI-infrastructuur een groter deel van hun totale wagenpark te maken. Microsoft’s Chappell zei echter dat dit niet betekent dat het bedrijf noodzakelijkerwijs afstapt van de gedeelde server – general purpose computing – die nog steeds waardevol is voor bedrijven.
Andere hardwareleveranciers hebben de kans om hier een rol te spelen, zei Lee Sustar, hoofdanalist bij technisch onderzoeks- en adviesbureau Forrester, over public cloud computing voor de onderneming.
Dell Technologies verwacht dat hoge cloudkosten, gekoppeld aan intensief gebruik, inclusief trainingsmodellen, sommige bedrijven ertoe kunnen aanzetten om on-premises implementaties te overwegen. De computermaker heeft een server ontworpen voor dat gebruik.
“De bestaande economische modellen van voornamelijk de public cloud-omgeving waren niet echt geoptimaliseerd voor het soort vraag en activiteitenniveau dat we zullen zien als mensen naar deze AI-systemen verhuizen”, zei Dell’s Global Chief Technology Officer John Roese.
Op locatie zouden bedrijven kunnen besparen op kosten zoals netwerken en gegevensopslag, zei Roese.
Cloudproviders zeiden dat ze verschillende aanbiedingen beschikbaar hebben tegen verschillende kosten en dat on-premises implementaties op de lange termijn uiteindelijk duurder zouden kunnen worden omdat bedrijven enorme investeringen zouden moeten doen als ze hardware willen upgraden.
Qualcomm zei dat het in sommige gevallen voor bedrijven goedkoper en sneller kan zijn om modellen op individuele apparaten uit te voeren, waardoor de cloud wat minder onder druk komt te staan. Het bedrijf werkt momenteel aan het uitrusten van apparaten met de mogelijkheid om steeds grotere modellen uit te voeren.
En Hewlett Packard Enterprise rolt zijn eigen openbare cloudservice uit, aangedreven door een supercomputer, die in de tweede helft van 2023 beschikbaar zal zijn voor ondernemingen die generatieve AI-modellen willen trainen. Net als sommige van de nieuwere cloudinfrastructuur heeft het het voordeel van met opzet gebouwd voor grootschalige AI-use-cases, zei Justin Hotard, executive vice president en general manager van High Performance Computing, AI & Labs.
Hardwareleveranciers zijn het erover eens dat het nog in de kinderschoenen staat en dat de oplossing uiteindelijk hybride zou kunnen zijn, waarbij bijvoorbeeld een deel van het computergebruik in de cloud gebeurt en een deel op individuele apparaten.
Op de lange termijn, zei Sustar, verandert de bestaansreden van cloud fundamenteel van een vervanging voor de moeilijk te onderhouden on-premise hardware van bedrijven naar iets kwalitatief nieuws: rekenkracht beschikbaar op een schaal die voorheen niet beschikbaar was voor ondernemingen.
“Het is echt een faseverandering in termen van hoe we naar infrastructuur kijken, hoe we de structuur hebben ontworpen, hoe we de infrastructuur leveren”, zegt Amin Vahdat, vice-president en algemeen manager van machine learning, systemen en Cloud AI bij Google Cloud.
Schrijf naar Isabelle Bousquette via [email protected]
Ontkenning van verantwoordelijkheid! Palaunow is een automatische aggregator rond de wereldwijde media. Alle inhoud is gratis beschikbaar op internet. We hebben het zojuist op één platform ondergebracht, alleen voor educatieve doeleinden. In elke inhoud wordt de hyperlink naar de primaire bron gespecificeerd. Alle handelsmerken behoren toe aan hun rechtmatige eigenaars, al het materiaal aan hun auteurs. Als u de eigenaar van de inhoud bent en niet wilt dat wij uw materiaal op onze website publiceren, neem dan contact met ons op via e-mail – [email protected]. De inhoud wordt binnen 24 uur verwijderd.