HPE и NVIDIA совместно азработали новую ИИ платформу
HPE Private Cloud AI особенно эффективно работает с новым помощником OpsRamp AI copilot. Это позволяет максимизировать рабочие нагрузки и эффективно использовать имеющиеся мощности. При этом задействуются дополнительные возможности в части самообслуживания с применением облачных технологий, управления жизненным циклом ПО. Каждый из пользователей может выбрать для себя одну из доступных конфигураций от разработчика, чтобы поддерживать именно требуемый ему уровень рабочих нагрузок.
В HPE уже работают над стратегией выхода на рынок. Это относится не только собственно к продажам NVIDIA AI Computing, но и к деятельности сервисных центров, обучению заинтересованных лиц. Планируется задействовать и таких интеграторов, как Deloitte, HCLTech, Infosys, TCS и Wipro. Предполагается, что с их помощью компании из самых разных сфер деятельности смогут выходить на максимальный уровень рабочих нагрузок в области ИИ.
Анонсированием NVIDIA AI Computing занимался лично Антонио Нери, занимающий посты гендиректора и президента HPE. Информацией о возможностях новинки поделился и Дженсен Хуанг, возглавляющий NVIDIA. Руководители компаний еще раз подчеркнули, что сотрудничество NVIDIA и HPE и далее будет столь же плодотворным, а все вложения будут приносить всеми ожидаемый
HPE Private Cloud AI — это возможность использовать облачные технологии для сокращения сроков окупаемости капитальных вложений. Также решение позволяет управлять корпоративными рисками. Основные возможности:
- Реализованы логические выводы. Можно настраивать с учетом своих потребностей рабочие нагрузки RAG AI, работающие с собственными данными.
- Контроль над тем, в какой мере сотрудники соблюдают требования в части конфиденциальности данных, насколько обеспечена безопасность данных. Одновременно решены вопросы управления данными.
- Реализация облачных вычислений с ITOps и AIOps для повышения производительности до максимума.
- NVIDIA AI Enterprise создает возможности для повышения скорости работы конвейеров обработки данных. Также пользователи получают возможности меньше тратить ресурсы на разработку собственных копилотов и прочих приложений в сфере генеративного ИИ.
HPE AI Essentials является отличным дополнением к NVIDIA AI Enterprise и NVIDIA NIM. С этим ПО пользователь получает все необходимое, чтобы создавать собственные приложения в области ИИ. Также можно объединять разные данные на единой платформе для облегчения управления. Пользователь получает доступ к решениям с возможностью адаптации. Одновременно разработчик гарантирует ему необходимую поддержку на всех этапах использования ПО. Данные всегда соответствуют используемым моделям, функции — с возможностью масштабирования. Благодаря этому конвейеры ИИ всегда объяснимы, их можно воспроизвести в течение всего периода использования ИИ.
В компании HPE отдельное внимание уделяют повышению производительности программного стека ИИ. И для решения этой задачи в рамках HPE Private Cloud AI реализован стек инфраструктуры ИИ со всеми необходимыми интеграциями. Реализованы возможности в части самообслуживания на базе облачного сервиса HPE GreenLake. Все функции объединены на общей платформе, что облегчает управление ими, автоматизацию многих процессов, контроль рабочих нагрузок, в том числе в гибридных системах. В частности, речь идет о проверке устойчивости в конечных точках в процессе работы.
HPE представляет на рынке копилот OpsRamp. Он работает с применением платформы NVIDIA и позволяет анализировать БИГ-данные, для построения самых разных выводов. При этом «общаться» с копилотом позволяет разговорный помощник. На практике это позволяет управлять необходимыми операциями с максимальной эффективностью.
OpsRamp можно использовать совместно с API CrowdStrike для повышения безопасности данных во всей сети.
- HPE предлагает пользователям поддержку процессоров всех типов от NVIDIA, включая суперчипы:
- HPE Cray XD670. Позволяет работать сразу 8 графическим процессорам NVIDIA H200 NVL Tensor Core. Этот вариант оценят все, кто работает с LLM.
- HPE ProLiant DL384 Gen12 на базе чипов NVIDIA GH200 NVL2 подойдет для работы с языковыми моделями.
- HPE ProLiant DL380a Gen12 может включать сразу 8 чипов NVIDIA H200 NVL Tensor Core. С ним работа с языковыми моделями со множеством параметров будет легкой и беспроблемной, особенно, если требуется масштабировать рабочие нагрузки при использовании генеративного ИИ.
HPE гарантирует, что пользователи получат поддержку не только NVIDIA GB200 NVL72 / NVL2, но и более новых разработок в части архитектуры. Это относится к Blackwell, Rubin и Vera.
Масштабирование рабочих возможностей с учетом того, что потребности в генеративном ИИ будут постоянно расти.
Базой для разработки ПО стала платформа NVIDIA AI Enterprise, дополненная микросервисами NVIDIA NIM для реализации выводов.