Dell och Nvidia gör data mer användbar för AI

Dell och Nvidia gör data mer användbar för AI

Publicerat av: Redaktionen

Nya funktioner i Dell AI Data Platform för Nvidia ska göra företagsdata mer användbar för AI.

Syftet är att hjälpa företag att hitta, strukturera och använda sin data bättre, samtidigt som lagringen anpassas för mer krävande AI‑applikationer och autonoma AI‑agenter.

AI går allt mer från att vara enkla stödverktyg till att bli mer självständiga system. Men hur bra de fungerar beror på vilken data de faktiskt kommer åt och kan lita på. I många organisationer ligger viktig information utspridd i olika system utan gemensam struktur eller tydlig styrning, vilket gör att AI‑satsningar bromsas.

Därför ska Dell AI Data Platform göra företagsdata användbar i AI‑applikationer utan att ge avkall på säkerhet eller styrning. Dell Technologies uppger att organisationer ser upp till 12 gånger snabbare vektorindexering[1], tre gånger snabbare databehandling[2]och upp till 19 gånger kortare tid till första svar jämfört med mer traditionella sätt att arbeta[3].

Dell Data Orchestration Engine

Dell och Nvidia gör data mer användbar för AIEn nyckelkomponent är Dell Data Orchestration Engine. Det är ett no‑code/low‑code‑verktyg som automatiskt kan upptäcka, märka upp, berika och omvandla både strukturerad och ostrukturerad data till dataset som är redo att användas i AI‑modeller. Genom inbyggda arbetsflöden där människor kan granska och justera resultaten ska kvaliteten på data och modellernas träffsäkerhet, kunna förbättras över tid.

Via Data Orchestration Engine Marketplace kan organisationer ta del av färdiga arbetsflöden i stället för att bygga allt från början. Där finns bland annat Nvidia‑optimerade NIM:ar, blueprints från Nvidia och ett större bibliotek av modeller, applikationer och mallar. Dell stödjer Nvidias senaste AI‑Q‑blueprint i produktion, vilket möjliggör mer anpassade AI‑agenter.

Tätare integration med Nvidia

Plattformen integrerar med fler av Nvidias byggstenar för data och AI, inklusive färdiga blueprints, NIM:ar och modellen Nemotron 3 Super via Dell Enterprise Hub på Hugging Face. Dell planerar även stöd för Nvidias nya STX‑referensdesign, som kombinerar Vera Rubin‑plattformen, BlueField‑4 och Spectrum‑X‑nätverk för att effektivisera hur data hanteras och hämtas till AI‑system.

På lagringssidan vill Dell också undvika att hårdvaran blir en bromskloss när AI går från test till produktion. Dell Lightning File System är ett parallellt filsystem som är framtaget för miljöer där stora AI‑modeller tränas och körs. Det möjliggör mycket hög genomströmning per rack och en fabric‑arkitektur där lagring nås mer direkt, så att GPU:er inte behöver stå stilla och vänta på data.

Genom stöd för Nvidia Context Memory Storage (CMX) kan så kallad KV‑cache flyttas från GPU‑minnet till Dell‑lagring och snabb, delad nätverkslagring. Det riktar sig till användningsfall där AI‑system behöver hålla reda på längre historik eller längre dialoger utan att GPU‑minnet blir fullt, till exempel agentbaserade lösningar med långa kontexter.

 

[1] Elasticsearch GPU: vector indexing acceleration with NVIDIA – Elasticsearch Labs, Dec. 2025.

[2] Disclaimer: Based on Dell internal analysis, Sept. 2025

[3] Dell results are based on internal testing using the Qwen3-32B model. VAST results are based on testing information disclosed in the following VAST online source: Accelerating Inference – VAST Data. Oct. 2025.

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00