Under nyligen avslutade re:Invent i Las Vegas utannonserade Amazon Web Services (AWS) allmän tillgång till AI-chippet Trainium2.
Genom nya EC2 Trn2-instanser, drivna av Trainium2, får man mer kostnadseffektiva beräkningar jämfört med nuvarande GPU-baserade instanser, vilket gör träning och driftsättning av stora språkmodeller mer tillgängligt och effektivt.
Dessutom tillkännagav AWS Trainium3, sitt nästa generations AI-träningschip byggt på en 3-nanometerprocess. Trainium3-drivna UltraServers, som förväntas komma i slutet av 2025, beräknas vara fyra gånger kraftfullare än Trn2 UltraServers, vilket ytterligare accelererar modellutveckling och prestanda för realtidsinferens.
AWS introducerade också Trn2 UltraServers, som länkar samman fyra Trn2-servrar via en NeuronLink-baserad sammankoppling. Detta skapar ett massivt beräkningskraftverk, fyrdubblar prestandan och möjliggör träning och inferens för världens största AI-modeller.
Tillsammans med Anthropic arbetar AWS med “Project Rainier – ett kluster, bestående av hundratusentals Trainium2-chip och över fem gånger så mycket datorkraft som Anthropic tidigare använt. Det blir därmed världens största offentligt rapporterade AI-beräkningskluster. Anthropic kommer att använda detta för att träna och driftsätta framtida iterationer av sin språkmodell Claude.
Även Databricks planerar att använda Trn2 för att förbättra sin Mosaic AI-plattform, vilket projicerar upp till 30% kostnadsbesparingar för kunder. Hugging Face, en framstående plattform för AI-utvecklare, kommer också att integrera Trainium2, för att ge deras community tillgång till förbättrad prestanda för modellutveckling och driftsättning.
Trn2-instanser är till en början tillgängliga i delar av USA, med bredare tillgänglighet inom kort. Trn2 UltraServers är för närvarande i förhandsgranskning.
Materialet är fritt för användning och bearbetning. För mer information, se AWS Trainium2 Instances Now Generally Available