Infrastructuurspecialist Hewlett Packard Enterprise (HPE) gaat nauwer samenwerken met ai-hardware en softwareleverancier Nvidia. Samen bieden ze vanaf januari 2024 een krachtige enterprise computingoplossing voor generatieve artificiële intelligentie (gen-ai).
HPE breidt zijn aanbod van speciaal ontwikkelde ai-native-oplossingen uit om de training, tuning en inferencing van ai-modellen te versnellen. Inferentie is het proces waarbij live gegevens door een getraind ai-model worden gehaald om een voorspelling te doen of een taak op te lossen.
Bedrijven die gen-ai-modellen ontwikkelen en inzetten voor use cases zoals conversational search, automatisering van bedrijfsprocessen en contentcreatie, hebben behoefte aan een krachtige software- en infrastructuurstack. Met name het toegang krijgen tot bedrijfsdata uit verschillende bronnen en die samenvoegen in een uniform datamodel is lastig, aldus HPE. Hiervoor heeft het it-concern samen met Nvidia een computing- en modelleeroplossing bedacht. Die integreert HPE Machine Learning Development Environment Software, HPE Ezmeral Software, HPE ProLiant Compute en HPE Cray Supercomputers met de Nvidia AI Enterprise software suite, inclusief het Nvidia NeMo framework.
Volgens HPE biedt dit nieuwe ai-tuning en -inferencing-datacenterplatform bedrijven een kant-en-klare oplossing voor een snelle start van hun ai-traject met LLM’s. Denk aan use cases zoals conversational search, automatisering van bedrijfsprocessen, chatbots en contentcreatie.
Eerder dit jaar kondigde HPE een zwaardere, turnkey supercomputeroplossing, ondersteund door Nvidia, aan voor grote bedrijven, onderzoeksinstellingen en overheidsorganisaties om de eerste fase van de ai-levenscyclus aan te pakken: het ontwikkelen en trainen van basismodellen. De nieuwe enterprise computing oplossing voor gen-ai is een kleinere ai-omgeving voor zakelijke klanten die zich richten op tuning en inferencing.