Red Hat fortsätter att bygga vidare på sina långvariga samarbeten med ledande IT-aktörer för att hjälpa kunder att implementera och vidareutveckla AI-innovation i hybridmolnmiljöer.
Red Hat Enterprise Linux AI (RHEL AI) och Red Hat OpenShift AI erbjuder nu en stabil och optimerad upplevelse med ett brett utbud av GPU-baserad hårdvara och mjukvarulösningar från NVIDIA, Lenovo, Dell, Microsoft, AWS, Intel och andra.
Träning av AI-modeller kräver optimerad hårdvara och kraftfull beräkningskapacitet. AI-plattformar måste också stödja ett brett urval av accelererade beräkningsarkitekturer och GPU:er. Kunder kan maximera nyttan av RHEL AI och Red Hat OpenShift AI genom att komplettera dem med andra integrerade tjänster och produkter som tillkännagivits under de senaste åtta månaderna:
• RHEL AI på Lenovo ThinkSystem SR675 V3-servrar
• RHEL AI på Dell PowerEdge
• RHEL AI-stöd för AMD Instinct Accelerators
• RHEL AI på Microsoft Azure
• RHEL AI och Red Hat OpenShift AI på AWS
• Red Hat OpenShift AI med Intel Gaudi AI och Intel Xeon- och Core-processorer
• Red Hat OpenShift med NVIDIA AI Enterprise
Molnlösningar är hybrida. Det är AI också.
I över 30 år har öppen källkod varit en drivkraft för innovation. Red Hat har spelat en nyckelroll i denna utveckling, först med företagsversionen av Linux (RHEL) på 2000-talet och senare med Red Hat OpenShift för containrar och Kubernetes. Idag fortsätter Red Hat denna resa med AI i hybridmolnet.
AI-modeller behöver ofta köras så nära en organisations data som möjligt för att minska latens och förbättra effektivitet. Detta kräver att modellerna kan köras där de behövs – i datacenter, i offentliga moln eller vid nätverkskanten. AI-plattformar måste kunna sträcka sig över alla dessa miljöer, sömlöst och utan integrationsutmaningar. AI är den ultimata hybrida arbetsbelastningen.