محاسبات با کارایی بالا (HPC) چیست؟

محاسبات با کارایی بالا
فهرست مطالب

محاسبات با کارایی بالا

نسل بعدی پردازش داده‌ها در مقیاس‌های غیرقابل تصور اتفاق خواهد افتاد و به ما اجازه خواهد داد بزرگ‌ترین و پیچیده‌ترین مشکلات را مدل‌سازی و حل کنیم. امروزه، همه جا صحبت از پردازش و انتقال سریع اطلاعات است که ماهیتی ترکیبی بوده و برخواسته از پردازش، شبکه‌سازی و ذخیره‌سازی است. محاسبات با کارایی بالا، این ایده را تقویت می‌کند و توان محاسباتی را به شکل تجمیع‌شده در اختیار ما قرار می‌دهد. واقعیت این است که حل برخی از مشکلات محاسباتی بزرگ به توان محاسباتی سنگینی نیاز دارد. معماری محاسبات با کارایی بالا قادر است سیستم‌های محاسباتی مختلف را به هم متصل می‌کند تا شبیه به یک گروه کار کنند و پاسخ‌ها را در زمان کوتاه‌تری ارائه دهند. با توانایی انجام محاسبات بسیار سریع، رایانش ابری و هوش مصنوعی شرایط را برای پذیرش گسترده محاسبات با عملکرد بالا هموار کرده‌اند تا دستیابی به نتایج غیرممکن را ممکن ‌کنند.

الئونور واتسون، عضو IEEE، مهندس اخلاق هوش مصنوعی و استاد هوش مصنوعی دانشگاه سینگ ularity می‌گوید: «به طور معمول، محاسبات با کارایی بالا مبتنی بر کامپیوترهای بزرگ هستند، اما گاهی اوقات از کامپیوترهای بازی قدیمی یا حتی کامپیوترهای خانگی نیز می‌توان برای تعریف این محیط‌ها استفاده کرد.».

محاسبات با عملکرد بالا از طریق تقسیم یک مسئله بزرگ به قسمت‌های کوچک‌تر و توزیع آن میان کامپیوترهای مختلف کار می‌کنند. هر کامپیوتر بخشی از مسئله را حل می‌کند و در نهایت همه جواب‌ها با هم ترکیب می‌شوند و به عنوان راه‌حل نهایی در اختیار ما قرار می‌گیرند. این معماری تحت عنوان محاسبات موازی (Parallel Computing) نامیده می‌شوند.

با این‌حال، محاسبات با عملکرد بالا تنها بر مبنای توان پردازنده‌های مرکزی تعریف نمی‌شوند. پیاده‌سازی کانال‌ها و شبکه‌های سریع اهمیت زیادی دارند و اجازه می‌دهند اطلاعات با سرعت بالایی ارسال و دریافت شوند. با توجه به این‌که مبحث کلان داده‌ها اهمیت زیادی دارد و در قالب مجموعه داده‌های مختلفی در دسترس ما قرار دارند، بنابراین به حافظه و فضای ذخیره‌سازی خیلی زیادی برای میزبانی آن‌ها نیاز داریم.

محاسبات با کارایی بالا چه کاربردهایی دارند؟

تصور کنید می‌خواهید جمعیت دنیا را با کاغذ و قلم بشمارید. شما نمی‌توانید به سرعت تغییرات جمعیت را بنویسید، چه برسد به اینکه نتیجه‌گیری نیز انجام دهید. تنها راه برای محاسبه چنین اطلاعات بزرگی ساخت یک مدل کامپیوتری است. برخی از این مدل‌ها بیش از اندازه بزرگ هستند، به طوری که کامپیوترهای قدرتمند نیز توانایی پردازش آن‌ها را دارند. در چنین شرایطی است که محاسبات با عملکرد بالا به یاری ما می‌آیند. الئونور واتسون می‌گوید: «رایانه‌های پرقدرت به دانشمندان کمک می‌کنند تا مشکلات پیچیده‌ای را حل کنند که با کامپیوترهای معمولی نمی‌شود آن‌ها را حل کرد.»

مشکلات پیچیده نیاز به بررسی و آزمایش دارند تا بفهمیم چه چیزی مهم است و چه تاثیری دارد. حدس زدن کافی نیست و متاسفانه کامپیوترهای عادی نمی‌توانند مثل زیرساخت‌های مبتنی بر محاسبات با عملکرد بالا سریع و دقیق کار کنند. این در حالی است که آمارها و گزارش‌ها به این نکته اشاره دارند که به کارگیری معماری محاسبات با عملکرد بالا در شرکت‌ها، باعث پیشرفت، سرعت و سوددهی بیشتر شده است. به طوری که در زمینه‌هایی مثل هوافضا، خودرو، دارو و شهرسازی نقش تعیین‌کننده‌ای دارند. به طور مثال، محاسبات با عملکرد بالا در یافتن واکسن کرونا نقش تعیین‌کننده‌ای داشتند. این زیرساخت قدرتمند به دانشمندان و پزشکان در پیش‌بینی شیوع بیماری‌ها، بررسی ساختار ویروس‌ها و ساخت واکسن کمک زیادی کرد. به طور مثال، زیرساخت قدرتمند Summit توانست با بررسی میلیاردها مدل ویروسی، داروهای موثر را پیدا کند، اما کرونا تنها استفاده پزشکی HPC نیست. ذخیره اطلاعات ژنتیکی افراد به یافتن بیماری‌های ژنتیکی کمک می‌کند تا دانشمندان بتوانند داروهای مخصوص برای هر فرد بسازند. گوگل از HPC برای پیش‌بینی ساختار پروتئین‌ها استفاده می‌کند. فهمیدن شکل پروتئین‌ها به ساخت داروهای بهتر کمک می‌کند.

مدل‌سازی دقیق آب و هوا یکی از مهم‌ترین و سخت‌ترین مشکلات است. برای پیش‌بینی بهتر اوضاع جوی، سازمان‌های هواشناسی از HPC برای ساخت شبیه‌سازی استفاده می‌کنند. علاوه بر پیش‌بینی اوضواع جوی، HPC می‌تواند با ساخت توربین‌های بادی و پنل‌های خورشیدی بهتر به مقابله با تغییرات آب و هوایی کمک کند.

مولفه‌های اصلی HPC

به زبان ساده، HPC عملکردی مشابه کامپیوتر‌های خانگی دارد، اما در مقیاس بسیار بزرگ‌تر و با قطعاتی که همیشه به صورت فیزیکی به یکدیگر متصل نیستند. بخش اول پردازنده‌هایی هستند که بخش‌هایی از یک مشکل را می‌گیرند و محاسبات را به طور همزمان انجام می‌دهند. در این حالت، کار میان پردازنده‌ها ترکیب می‌شود و آن‌ها بر مبنای الگوریتم‌های مشخصی با یکدیگر ارتباط برقرار می‌کنند تا سرانجام یک خروجی نهایی را ارائه دهند.

دومین بخش ذخیره‌سازی است، جایی که نه تنها کدهای برنامه، بلکه داده‌های ورودی باید ذخیره‌سازی شوند. هیچ نوار مغناطیسی یا حافظه حالت جامد (SSD) منفردی پهنای باند یا ظرفیت HPC را نخواهد داشت، بنابراین چند رسانه ذخیره‌سازی (دیسک و غیره) باید به هم متصل شوند. این حرف بدان معنا است که فناوری‌های داخلی دیسک‌ها مثل فریم‌ویرها (مکانیسم‌هایی که بیت‌ها را ذخیره و بازیابی می‌کنند) و سایر مولفه‌های سخت‌افزاری باید به اندازه کافی سریع باشند تا بتوانند یک سیستم مجازی ذخیره‌سازی بزرگ را تعریف کنند تا بتواند حجم زیادی از داده‌های مورد نیاز HPC را مدیریت کند.

بنابراین، ما نیازمند شبکه‌هایی با پهنای باند و سرعت بالا هستیم که اجازه دهند اطلاعات را سریع به کامپیوترهای هدف برسانیم و نتایج را دریافت کنیم. با توجه به این‌که اطلاعات ماهیت پویایی دارند، شبکه باید خیلی سریع باشد تا اطلاعات جدید را دریافت کند. به بیان دقیق‌تر، شبکه باید در بالاترین سطح نه تنها باید برای دریافت مجموعه داده‌های اولیه، بلکه برای دریافت به‌روزرسانی‌های مستمر نیز آمادگی کافی را داشته باشد.

مشکلات بزرگ و سیستم‌های پیچیده

برنامه‌هایی مثل مدل‌سازی ویروس کرونا یا بررسی فعالیت‌های خورشیدی به کامپیوترهای قدرتمند و فضای ذخیره‌سازی زیادی نیاز دارند. این اطلاعات به اندازه‌ای زیاد هستند که نمی‌توان همه آن‌ها را در یک کامپیوتر یا دیسک قرار داد. برای حل این مشکل، سیستم‌های خاصی ساخته شده‌اند تا همه چیز را مدیریت کنند. این سیستم‌ها با توجه به نیاز به برق، شبکه، فضای ذخیره‌سازی و سرعت اطلاعات، به گونه‌ای برنامه‌ریزی و مستقر می‌شوند تا داده‌ها را به نقاط مختلف و صحیح ارسال کنند و از منابع به بهترین شکل استفاده کنند. خوشبختانه، پیشرفت در حوزه شبکه‌های کامپیوتری باعث شده تا مولفه‌های مختلف را در مکان‌های متنوع مستقر کرد. یک مثال خوب، پروژه AIRR سرنام AI Research Resource است که برای توسعه محاسبات با عملکرد بالا در زمینه تحقیقات هوش مصنوعی توسط موسسه تحقیقات و نوآوری انگلستان در حال انجام است. سیستم‌های HPC معمولا از چند کامپیوتر تشکیل شده‌اند که به هم وصل هستند. به طور مثال، سیستم Dawn در کمبریج بیش از هزار پردازنده قوی دارد و همچنین، در نمونه دیگری، سیستم Isambard-AI در بریستول بیش از پنج هزار پردازنده دارد.

شرکت‌های بزرگ فعال در زمینه HPC

بازار جهانی رایانه‌های پرقدرت در سال 2023 حدود 50 میلیارد دلار ارزش داشت و انتظار می‌رود تا سال 2032 به بیش از 100 میلیارد دلار برسد. همان‌طور که انتظار می‌رود، بزرگ‌ترین شرکت‌های فناوری، اصلی‌ترین تامین‌کنندگان قطعات این کامپیوترها هستند. شرکت اچ پی (Hewlett Packard Enterprise) که در زمینه نرم‌افزار و رایانش ابری فعالیت می‌کند، یکی از بزرگترین تولیدکنندگان این کامپیوترها است. شرکت Dell Technologies هم در این زمینه فعال است و ابررایانه‌های قدرتمندی ساخته است.

شرکت انودیا (Nvidia) که در گذشته تنها در زمینه ساخت سخت‌افزار به فعالیت اشتغال داشت، امروزه تراشه‌های جدیدی را تولید می‌کند که نقش تاثیرگذاری بر دنیای هوش مصنوعی دارند. شرکت مایکروسافت نیز با استفاده از سرویس ابری Azure، سخت‌افزار و نرم‌افزار را با هم ترکیب کرده است تا کامپیوترهای پرقدرت بسازد.

مرز جدید

در حالی که محاسبات با عملکرد بالا در حال پیشرفت هستند، دانشمندان در حال ساخت نسل بعدی آن‌ها تحت عنوان رایانش اگزاسکال (exascale computing) هستند. رایانش اگزاسکال می‌تواند یک کوادریلیون محاسبه در ثانیه انجام دهد و می‌تواند سیستم‌هایی را مدل‌سازی کند که محاسبات با عملکرد بالای فعلی قادر به انجام آن نیستند. در حقیقت، رایانش اگزاسکال زیرساخت نسل بعدی محاسبات با عملکرد بالا خواهد بود.

آنتونیو کورکلس می‌گوید: «نسل بعدی HPC از پردازنده‌های معمولی و گرافیکی و پردازنده‌های کوانتومی استفاده خواهد کرد تا مشکلات پیچیده را حل کند. این رویکرد باعث خواهد شد تا به توان محاسباتی قدرتمند و پیشرفته‌ای دست پیدا کنیم که پردازنده‌های کوانتومی بخش مهمی از آن خواهند بود».

اشتراک‌گذاری:
برای ثبت نام در خبرنامه، عضو شوید.
مطالب مشابه
برای دریافت مشاوره و یا اطلاع از قیمت، با ما در تماس باشید.