HPE و NVIDIA طلایهداران هوش مصنوعی
اچ پی در جریان برگزاری رویداد سالانه خود در لاس وگاس که روز سهشنبه 29 خردادماه 1403 برگزار شد، خبر از همکاری جدیدی با شرکت انودیا در زمینه محاسبات هوش مصنوعی داد و اعلام داشت که قرار است مجموعهای از محصولات جدید هوش مصنوعی را به بازار عرضه کند.
شرکت هیولت پاکارد (HPE) تولیدکننده محصولات در حوزه فناوری اطلاعات و انویدیا سازندهی تراشههای گرافیکی، برای عرضهی محصولات هوش مصنوعی مخصوص مراکز داده و فضای ابری، قرارداد جدیدی را امضا کردهاند. این همکاری تحت عنوان «محاسبات هوش مصنوعی انویدیا بر پایه زیرساختهای اچ پی» شناخته میشود و شامل چند عنصر کلیدی است که مهمترین آنها «HPE Private Cloud AI» است.
محصول «HPE Private Cloud AI» در سخنرانی افتتاحیهی مدیرعامل اچ پی، آقای آنتونیو نری، در کنفرانس HPE Discover رونمایی شد. وی این محصول را «یک راهحل کلید در دست برای هوش مصنوعی در فضای ابری اختصاصی» توصیف کرد که «به سازمانها این امکان را میدهد تا منابع خود را بر توسعهی موارد استفادهی جدید هوش مصنوعی متمرکز کنند که میتواند بهرهوری را افزایش داده و کانالهای درآمدزایی جدیدی را ایجاد کند».
مدیرعامل انویدیا، جنسن هوانگ، که برای اعلام این خبر به نری در صحنه پیوست، افزود: «هوش مصنوعی مولد و محاسبات شتابدهنده در حال ایجاد یک تحول اساسی هستند، زیرا صنایع برای پیوستن به انقلاب صنعتی جدید به شدت در حال رقابت با یکدیگر هستند».
هوانگ گفت: «در حالی که اچ پی در حال حاضر محصولاتی سازگار با فناوریهای انویدیا در بازار دارد، این همکاری یک شراکت کاملا استراتژیک و عمیق است که قرار است فناوریهای محاسباتی هوش مصنوعی انویدیا را با فناوری ابر اختصاصی HPE ترکیب کند».
ویژگیهای کلیدی HPE Private Cloud AI
از ویژگیهای کلیدی محصول جدید به موارد زیر باید اشاره کرد:
نرمافزار:
پلتفرم Nvidia AI Enterprise: این بستر پایهای، توسعه و استقرار برنامههای هوش مصنوعی مولد (Generative AI) مانند Copilot را در سازمانها ساده میکند.
Nvidia NIM: این سرویس، میکروسرویسهای استنتاج (inference) را برای استنتاج بهینه مدلهای هوش مصنوعی ارائه میدهد. به گفتهی شرکتها، این قابلیت «گذار مدلهای هوش مصنوعی از نمونه اولیه به استقرار امن» را در سناریوهای مختلف تسهیل میکند، اما فعلا نمونهای از این سناریوها ذکر نشده است.
نرمافزار HPE AI Essentials: این مجموعه از ابزارهای هوش مصنوعی و زیرساختی، دادههای قابل استفاده را ارائه میدهد و از طریق یک پنل کنترل واحد قابل مدیریت است. این نرمافزار به گفتهی اچپی، راهحلهای تطبیقپذیر، پشتیبانی مستمر سازمانی و خدمات هوش مصنوعی قابل اعتماد مانند انطباق داده و مدلسازی را فراهم میکند.
سختافزار:
بستر زیرساخت هوش مصنوعی کاملا یکپارچه: این بستر شامل سرورهای HPE ProLiant با پشتیبانی از کارتهای گرافیک Nvidia L40S، Nvidia H100 NVL Tensor Core GPU و پلتفرم Nvidia GH200 NVL2، شبکهی اترنت Nvidia Spectrum-X™ و سیستم ذخیرهسازی فایل HPE GreenLake میشود.
زیرساخت جدید چه مزایایی در اختیار شرکتها قرار میدهد؟
از مزایای شاخص زیرساخت جدید به موارد زیر باید اشاره کرد:
تسریع در دستیابی به ارزشهای تعیین شده: به گفتهی مدیر ارشد فناوری اچ پی، فیدلما روسو، هدف این همکاری فراتر از کنار هم قرار دادن فناوریهای Nvidia و HPE است. آنها میخواهند تجربهای را ارائه دهند که به طور چشمگیری زمان رسیدن به ارزش را برای سازمانهایی که تمایل دارند از هوش مصنوعی مولد استفاده کنند، کاهش دهد.
راهاندازی سریع: بر خلاف راهحلهای مبتنی بر سرویس، HPE Private Cloud AI به صورت آمادهبهکار ارائه میشود. کافی است آن را راهاندازی کنید، به GreenLake متصل شوید و با چند کلیک به تیمهای علم داده و عملیات فناوری اطلاعات اجازه دهید از نرمافزار طراحی شده توسط انودیا استفاده کنند. همچنین، این محصول بهروزرسانی مستمر خواهد داشت تا همیشه از جدیدترین راهحلهای اچ پی و انودیا استفاده کنید.
افزایش بهرهوری: به گفتهی روسو، این محصول میتواند بهرهوری مهندسان داده، دانشمندان داده و تیمهای عملیات فناوری اطلاعات را تا ۹۰ درصد افزایش دهد.
نقش OpsRamp در HPE Private Cloud AI
کمپانی OpsRamp، که پس از خریداری در مارس ۲۰۲۳ اکنون زیرمجموعهی HPE GreenLake قرار گرفته و هستهی اصلی برنامههای هوش مصنوعی اچ پی شناخته میشود، در جدیدترین محصول هوش مصنوعی این شرکت، نقش تاثیرگذاری دارد. OpsRamp قابلیت مشاهده (observability) را برای کل پشتهی محاسباتی Nvidia که هستهی اصلی HPE Private Cloud AI را تشکیل میدهد، فراهم میکند.
زیرساختی قدرتمند در خدمت مدلهای زبانی بزرگ (LLMs)
رونمایی از محصول جدید، در شرایطی انجام شد که اچپی از GreenLake برای مدلهای زبانی بزرگ در سال گذشته رونمایی کرد و اعلام داشت که طیف گستردهای از مشتریان را هدف قرار داده است. در حالی که GreenLake برای مدلهای زبانی بزرگ هنوز عملا در فاز آزمایشی قرار دارد، HPE Private Cloud AI ظرف یک یا دو فصل به طور کلی در دسترس قرار خواهد گرفت.
نیل مکدونالد، معاون اجرایی و مدیر کل بخش محاسبات، رایانش ابری با کارایی بالا (HPC) و هوش مصنوعی اچ پی، در یک جلسه توجیهی مطبوعاتی پیش از کنفرانس گفت: «مشتریان هدف ما به طور قطع سازمانهای بزرگی هستند که به دنبال پذیرش هوش مصنوعی مولد هستند و میدانند که اجرای حجم عظیمی از پردازشهای هوش مصنوعی در ابر عمومی، بودجهی فناوری اطلاعات آنها را نابود خواهد کرد».
ابرمحصولات مرتبط با هوش مصنوعی در HPE Discover 2024
با این حال، قرار نیست تمرکز منحصرا بر ابر خصوصی باشد. بخش زیادی از درآمد اچ پی همچنان از راهحلهای درونسازمانی تأمین میشود و معرفی محصولات جدید نیز این موضوع را منعکس میکند.
دو مدل از سرورهای نسل دوازدهم پرولیانت – ProLiant DL384 Gen12 و ProLiant DL380a Gen12 – با پشتیبانی اختصاصی از هوش مصنوعی عرضه شدهاند.
به گفتهی HPE، سرور ProLiant DL384 Gen12 در تعامل با ابررایانهی Nvidia GH200 NVL2 Grace Hopper برای مصرفکنندگان مدلهای زبانی بزرگ که از مدلهای حجیمتر یا RAG استفاده میکنند، ایدهآل است.
در همین حال، سرور ProLiant DL380a Gen12 از حداکثر هشت کارت گرافیک Nvidia H200 NVL Tensor Core پشتیبانی میکند. این محصول نیز با در نظر گرفتن مشتریانی که از مدلهای زبانی بزرگ استفاده میکنند و میخواهند پروژههای هوش مصنوعی مولد خود را مقیاسبندی کنند، ارائه شده است.
در نهایت، در دستهی رایانش با کارایی بالا (HPC) سیستم HPE Cray XD670 از هشت کارت گرافیک Nvidia H200 NVL Tensor Core پشتیبانی میکند. در حالی که دو محصول قبلی برای کاربران مدلهای زبانی بزرگ هدفگذاری شدهاند، این محصول برای سازندگان مدلهای زبانی بزرگ ساخته شده است.
شرکت اچ پی اعلام کرد که زمان عرضهی محصولاتی برای پشتیبانی از معماریهای Nvidia GB200 NVL72 / NVL2 و همچنین معماریهای جدید Nvidia Blackwell، Nvidia Rubin و Nvidia Vera و همچنین برنامههای صدور گواهینامهی ذخیرهسازی بر اساس معماری مرجع انودیا به زودی اعلام خواهد شد.
به استثنای سرور HPE Cray XD670 با Nvidia H200 NVL که تابستان عرضه میشود، تمام این محصولات در پاییز امسال در دسترس قرار خواهند گرفت.