HPE och Nvidia samarbetar inom generativ AI för företag
Hewlett Packard Enterprise (HPE) och Nvidia inleder ett samarbete för att utveckla en fullskalig lösning för generativ artificiell intelligens (AI) i företagsmiljöer. Samarbetet syftar till att förenkla och effektivisera användningen av generativa AI-modeller för företag över hela världen.
HPE och Nvidi aska erbjuda en företagsinriktad datalösning som möjliggör snabb anpassning av grundläggande AI-modeller med hjälp av privat data. Denna lösning ska underlätta implementeringen av AI-applikationer i olika miljöer, inklusive moln och edge computing. Genom detta initiativ tar man bort komplexiteten för företag att skapa egen infrastruktur för generativ AI.
"Vårt utvidgade samarbete med HPE kommer att hjälpa företag att driva enastående produktivitet genom AI-applikationer som kopplar samman med affärsdata för att driva noggranna assistenter, informerade chattbotar och semantisk sökning", säger Jensen Huang, vd på Nvidia.
- Samarbete Mellan HPE och Nvidia: Det strategiska samarbetet mellan dessa två teknikjättar syftar till att minska hinder för företag som vill förvandla sina verksamheter med AI-teknik.
- Lösningens Egenskaper: Lösningen integrerar HPE:s maskininlärningsutvecklingsmiljö, Ezmeral Software, ProLiant Compute och Cray Superdatorer med Nvidias AI Enterprise-programsvit.
- Fokus på Användarfall: Den gemensamma lösningen är avsedd att stödja företag i användningen av generativa AI-modeller för applikationer som konversationssökning, automatisering av affärsprocesser och innehållsskapande.
- Optimerad för AI: Arkitekturen är optimerad för AI-applikationer, med funktioner som HPE ProLiant Compute DL380, konfigurerad med Nvidias L40S GPU:er, och innehåller kapacitet för att finjustera en modell med 70 miljarder parametrar.
Lösningen är utformad för att finjustera Llama 2-modellen med 70 miljarder parametrar och omfattar 16 HPE ProLiant DL380a servrar och 64 L40S GPU:er. Den integrerar HPE:s maskininlärningsutvecklingsmiljö och Ezmeral Software, vilket möjliggör snabb prototypning och testning av modeller, samt förenklar distribution och accelererar dataförberedelser för AI-arbetsbelastningar över hybridmolnet.