NVIDIA AI Enterprise finns nu tillgänglig direkt via Oracle Cloud Infrastructure Console, vilket ger kunder enkel åtkomst till över 160 AI-verktyg för träning och inferens.
NVIDIA GB200 NVL72-system på OCI Supercluster finns nu tillgängliga med upp till 131 072 NVIDIA Blackwell-GPU:er. Oracle är en av de första molnleverantörerna som integrerar med NVIDIA DGX Cloud Lepton, vilket hjälper utvecklare att få tillgång till avancerade GPU-resurser
Oracle har utökat sitt samarbete med NVIDIA för att hjälpa kunder att effektivisera utvecklingen och driftsättningen av produktionsklara AI-lösningar, utveckla och köra nästa generations resonemangsmodeller och AI-agenter samt få tillgång till de beräkningsresurser som krävs för att ytterligare accelerera AI-innovation. Inom ramen för detta initiativ är NVIDIA AI Enterprise – en molnbaserad mjukvaruplattform – nu tillgänglig direkt via Oracle Cloud Infrastructure (OCI) Console. Dessutom är NVIDIA GB200 NVL72-system nu allmänt tillgängliga på OCI Supercluster med upp till 131 072 NVIDIA Blackwell-GPU:er. Oracle är också en av de första molnleverantörerna som integreras med NVIDIA DGX Cloud Lepton – en AI-plattform med en beräkningsmarknadsplats som kopplar utvecklare till ett globalt nätverk av GPU-resurser.
“Oracle har blivit den föredragna plattformen för AI-träning och inferens, och vårt samarbete med NVIDIA stärker vår förmåga att stötta kunder som kör några av världens mest krävande AI-arbetslaster,” säger Karan Batta, Senior Vice President, Oracle Cloud Infrastructure. “Genom att kombinera NVIDIAs kompletta AI-plattform med OCIs prestanda, säkerhet och flexibilitet kan vi leverera AI-funktionalitet i stor skala för att driva AI-utvecklingen globalt.”
“Utvecklare behöver den senaste AI-infrastrukturen och mjukvaran för att snabbt kunna bygga och lansera innovativa lösningar,” säger Ian Buck, Vice President för hyperscale och HPC, NVIDIA. “Med OCI och NVIDIA får de prestandan och verktygen som krävs för att förverkliga sina AI-innovationer – oavsett var de arbetar.”
Oracle utökar kapaciteten för distribuerade moln med NVIDIA AI Enterprise
Till skillnad från andra NVIDIA AI Enterprise-erbjudanden som tillhandahålls via en marknadsplats, görs OCI lösningen tillgänglig direkt via OCI Console och möjliggör köp med befintliga Oracle Universal Credits. Detta minskar tiden för driftsättning och ger kunderna fördelar som direktfakturering och support. Med NVIDIA AI Enterprise på OCI får kunder tillgång till över 160 AI-verktyg för träning och inferens – inklusive NVIDIA NIM-mikrotjänster, ett paket optimerade, molnbaserade inferensmikrotjänster som förenklar driftsättning av generativa AI-modeller. Dessa kan kombineras med OCIs övriga tjänster för applikationsutveckling och datamanagement inom olika typer av distribuerade moln.
Genom att göra NVIDIA AI Enterprise tillgänglig via OCI Console, möjliggör Oracle driftsättning över hela sitt distribuerade moln – inklusive publika regioner, Government Cloud, OCI Sovereign Cloud, OCI Dedicated Region, Oracle Alloy, OCI Compute Cloud@Customer och OCI Roving Edge Devices. Detta hjälper kunder att möta krav på säkerhet, regelverk och efterlevnad vid utveckling, driftsättning och drift av AI-lösningar
NVIDIA Blackwell på OCI möjliggör AI var som helst
För att möta det ökande behovet av AI-träning och inferens, vidareutvecklar Oracle och NVIDIA sin AI-infrastruktur med nya GPU-typer i OCIs distribuerade moln. OCI erbjuder nu vätskekylda NVIDIA GB200 NVL72-system på OCI Supercluster som kan skalas upp till 131 072 NVIDIA GPU:er. Dessutom kan kunder använda tusentals NVIDIA Blackwell-GPU:er på NVIDIA DGX Cloud och OCI för att utveckla och köra nästa generations AI-agenter och resonemangsmodeller.
Oracles distribuerade moln, AI-infrastruktur och generativa AI-tjänster, i kombination med NVIDIAs accelererade beräkningar och AI-mjukvara, gör det möjligt för företag och myndigheter att etablera AI-fabriker. Dessa fabriker använder NVIDIA GB200 NVL72-plattformen – ett rackskalesystem som kombinerar 36 NVIDIA Grace-CPU:er och 72 NVIDIA Blackwell-GPU:er – för att leverera hög prestanda och energieffektivitet för agentbaserad AI som bygger på avancerade resonemangsmodeller.
Kopplar samman utvecklare med global GPU-kapacitet
För att ge utvecklare enkel tillgång till avancerade GPU-resurser har Oracle blivit en av de första molnleverantörerna att integrera med NVIDIA DGX Cloud Lepton. Genom denna integration får utvecklare tillgång till OCIs högpresterande GPU-kluster och den skalbara kapacitet som krävs för AI-träning, inferens, digitala tvillingar och storskaliga HPC-applikationer. Denna integration gör det också möjligt att uppnå strategiska och suveräna AI-mål genom att utnyttja GPU-kapacitet i specifika regioner – både för tillfälliga behov och långsiktig drift.
Omfattande AI- och molnalternativ som accelererar AI-utvecklingen
Oracle och NVIDIA hjälper organisationer i Europa och globalt att dra nytta av accelererad databehandling och AI.
Det italienska AI-företaget Almawave använder OCIs AI-infrastruktur och NVIDIA Hopper-GPU:er för att träna och köra Velvet – en familj av flerspråkiga generativa AI-modeller, utvecklade i Italien med fokus på italienska men även stöd för flera europeiska språk som engelska, franska, tyska, portugisiska och spanska. Modellerna integreras i Almawaves breda portfölj av vertikala AI-applikationer inom plattformen AIWave.
“Vår ambition är att bygga en högpresterande, transparent och fullt integrerad italiensk grundmodell för AI i en europeisk kontext – och vi har bara börjat,” säger Valeria Sandei, VD, Almawave. “Oracle och NVIDIA är viktiga partners för oss i detta arbete tack vare vår gemensamma AI-vision och deras kraftfulla infrastrukturkapacitet.”
Det danska hälsoteknikföretaget Cerebriu använder OCI och NVIDIA Hopper-GPU:er för att utveckla ett AI-baserat verktyg som syftar till att omvandla den kliniska analysen av hjärn-MR. Genom att träna företagets egna djupinlärningsmodeller på tusentals multimodala MR-bilder, gör verktyget det möjligt för vårdpersonal att snabbare diagnostisera tidskritiska sjukdomar genom att dramatiskt minska tiden det tar att tolka MR-bilder.
“AI spelar en allt viktigare roll i hur vi utformar och särskiljer våra produkter,” säger Marko Bauer, forskare inom maskininlärning på Cerebriu. “OCI och NVIDIA ger oss de AI-funktioner vi behöver för att snabbt, kostnadseffektivt och i stor skala upptäcka och utveckla nya AI-användningsområden. Att hitta det optimala sättet att träna våra modeller har varit centralt. Vi har testat andra molnplattformar, men OCI och NVIDIA har gett oss den bästa tillgängligheten och prestandan till rätt pris.”