
دیتاسنتر هوش مصنوعی (AI Data Center) مجموعهای است که زیرساخت فناوری اطلاعات ویژهای را برای آموزش، استقرار و ارائه برنامهها و خدمات هوش مصنوعی در خود جای داده است. این دیتاسنترها دارای معماریهای پیشرفته محاسباتی، شبکهای و ذخیرهسازی، همراه با قابلیتهای انرژی و خنکسازی مناسب برای مدیریت بارهای کاری هوش مصنوعی هستند.
در حالی که دیتاسنترهای سنتی اجزای مشابه با دیتاسنترهای هوش مصنوعی دارند، اما قدرت محاسباتی و سایر قابلیتهای زیرساختی فناوری اطلاعات آنها تفاوت چشمگیری دارد. سازمانهایی که میخواهند از مزایای فناوری هوش مصنوعی بهرهمند شوند، به زیرساخت هوش مصنوعی مناسب نیاز دارند. راههای زیادی برای دسترسی به این زیرساخت وجود دارد و اکثر کسبوکارها نیازی به ساخت دیتاسنتر هوش مصنوعی از صفر ندارند—کاری که بسیار دشوار است. گزینههایی مانند ابر ترکیبی (hybrid cloud) و کولوکیشن (colocation) موانع ورود را کاهش دادهاند تا سازمانهای با هر اندازهای بتوانند از ارزش هوش مصنوعی بهرهمند شوند.
دیتاسنترهای هوش مصنوعی در برابر دیتاسنترهای سنتی
دیتاسنترهای هوش مصنوعی شباهتهای زیادی با دیتاسنترهای سنتی دارند. هر دو شامل سختافزارهایی مانند سرورها، سیستمهای ذخیرهسازی و تجهیزات شبکهای هستند و همچنین اپراتورهای هر دو باید به مسائلی مانند امنیت، قابلیت اطمینان، دسترسیپذیری و بهرهوری انرژی توجه کنند.
تفاوت بین این دو نوع دیتاسنتر از نیازهای فوقالعاده بارهای کاری سنگین هوش مصنوعی ناشی میشود. برخلاف دیتاسنترهای هوش مصنوعی، دیتاسنترهای معمولی دارای زیرساختهایی هستند که بهسرعت تحت فشار بارهای کاری هوش مصنوعی از کار میافتند. زیرساخت آماده برای هوش مصنوعی بهطور خاص برای ابر، هوش مصنوعی و وظایف یادگیری ماشین طراحی شده است.
برای مثال، دیتاسنترهای معمولی معمولا برای رسیدگی به تراکنشهای محاسباتی که عمدتا نرخ پایه مشخصی دارند و از پردازندههای رایج استفاده میکنند، طراحی شدهاند و از آنها استفاده میکنند، در حالی که دیتاسنترهای آماده برای هوش مصنوعی عمدتا بر پایه واحدهای پردازش گرافیکی (GPUها) پیادهسازی میشوند تا بتوانند کارایی بالا و ملاحظات زیرساختی فناوری اطلاعات مانند ذخیرهسازی پیشرفته، شبکه، انرژی و قابلیتهای خنکسازی را عملیاتی کنند. اغلب، تعداد زیاد GPUهای موردنیاز برای موارد استفاده هوش مصنوعی به فضای فیزیکی بسیار بیشتری نیاز دارد.
فرامقیاس در برابر کولوکیشن
هایپراسکیل (Hyperscale) و کولوکیشن (Colocation) دو نوع دیتاسنتر هستند که معمولا توسط سازمانها با هدف رسیدگی به بارهای کاری هوش مصنوعی استفاده میشوند.
دیتاسنترهای هایپراسکیل
دیتاسنترهای هایپراسکیل بسیار بزرگ هستند، که حداقل 5 هزار سرور را میزبانی میکنند و چیزی بالغ بر 10 هزار فوت مربع فضای فیزیکی نیاز دارند. آنها قابلیت مقیاسپذیری فوقالعادهای دارند و برای بارهای کاری در مقیاس بزرگ (مانند هوش مصنوعی مولد) مهندسی شدهاند. این دیتاسنترها بهطور گسترده توسط ارائهدهندگان ابر مانند Amazon Web Services (AWS)، Microsoft Azure و Google Cloud Platform (GCP) برای اهداف مختلفی از جمله هوش مصنوعی، اتوماسیون، تحلیل داده، ذخیرهسازی داده، پردازش داده و غیره استفاده میشوند.
کولوکیشن
دیتاسنتر کولوکیشن به ماهیتی اشاره دارد که یک شرکت مالک یک دیتاسنتر هایپراسکیل است و امکانات، سرورها و پهنای باند خود را به شرکتهای دیگر اجاره میدهد. این رویکرد به کسبوکارها امکان میدهد بدون سرمایهگذاری کلان از مزایای هایپراسکیل بهرهمند شوند. برخی از بزرگترین کاربران خدمات کولوکیشن شرکتهای فعال در زمینه ارائه خدمات زیرساختی هستند. برای مثال، این ارائهدهندگان خدمات ابری فضای قابلتوجهی از دیتاسنتر اجاره میکنند. سپس، فضای بهدستآمده را به مشتریان خود اجاره میدهند و به سایر کسبوکارها اجاره میکنند.
رشد دیتاسنترهای هوش مصنوعی
در یک پست وبلاگی در اوایل سال ۲۰۲۵، مایکروسافت هوش مصنوعی را «برق عصر ما» نامید. اینکه این ادعا اغراقآمیز است یا دقیق، هنوز مشخص نیست. با این حال، پذیرش ابزارهای هوش مصنوعی مانند ChatGPT شرکت OpenAI توسط میلیونها کاربر غیرمتخصص با سرعتی شگفتانگیز پیش رفته است. این پتانسیل آشکار بهرهوری و درآمدزایی قابلیتهای هوش مصنوعی منجر به جریان شدیدی از ابزارهای جدید بهرهوری هوش مصنوعی، عاملها و تولیدکنندگان محتوا شده است.
مدلهای متنباز و ادامه دموکراتیزه شدن هوش مصنوعی به این معناست که تنها بازیگران بزرگ نیستند که در اکوسیستم هوش مصنوعی موج میسازند. تقریبا هر نهادی میتواند یک شرکت فناوری باشد، اگر بتواند یک مورد استفاده هوش مصنوعی را شناسایی کرده و زیرساخت فناوری اطلاعات لازم را برای انجام آن اتخاذ کند. طبق گزارش سال ۲۰۲۴ مؤسسه ارزش تجاری (IBM IBV)، ۴۳٪ از مدیران ارشد فناوری میگویند نگرانیهایشان درباره زیرساخت فناوری در شش ماه گذشته به دلیل هوش مصنوعی مولد افزایش یافته است و اکنون بر بهینهسازی زیرساخت خود برای مقیاسپذیری آن تمرکز دارند.
در همین حال، صنعت دیتاسنتر برای پاسخگویی به تقاضا رشد کرده است. زیرساخت دیتاسنتر در سراسر جهان بهطور فزایندهای آماده برای هوش مصنوعی است و قادر به پردازش حجم بالای محاسبات و درخواستهای پیچیده است. در حال حاضر، مناطق آسیا-اقیانوسیه و آمریکای شمالی بیشترین تعداد دیتاسنترها را دارند، بهویژه در مناطقی مانند پکن، شانگهای، ویرجینیای شمالی و منطقه خلیج سانفرانسیسکو.
سرمایهگذاریهای قابلتوجه از شرکتهای بزرگ فناوری نیز نشاندهنده رشد بخش دیتاسنتر هوش مصنوعی است. در سال ۲۰۲۵، مایکروسافت قصد دارد حدود ۸۰ میلیارد دلار در ساخت دیتاسنتر سرمایهگذاری کند و متا ۱۰ میلیارد دلار برای توسعه یک دیتاسنتر هایپراسکیل جدید با مساحت چهار میلیون فوت مربع در ایالت لوئیزیانای آمریکا سرمایهگذاری میکند.
ویژگیهای کلیدی یک دیتاسنتر آماده برای هوش مصنوعی
هنگامی که صحبت از دیتاسنترهای مخصوص هوش مصنوعی به میان میآید، یکسری ویژگیها و عملکرد منحصربهفرد وجود دارد که باید به آنها توجه کرد. این معیارها به شرح زیر هستند:
- محاسبات با کارایی بالا
- معماری ذخیرهسازی پیشرفته
- شبکهسازی مقاوم و امن
- راهحلهای انرژی و خنکسازی کافی
محاسبات با کارایی بالا
یک دیتاسنتر آماده برای هوش مصنوعی به قابلیتهای محاسباتی با کارایی بالا (HPC) نیاز دارد تا بتواند به درخواستهای مرتبط با هوش مصنوعی مولد پاسخ دهد. این درست همان چیزی است که شتابدهندههای هوش مصنوعی ارائه میدهند. شتابدهندههای هوش مصنوعی، تراشههای هوش مصنوعی هستند که برای سرعت بخشیدن به مدلهای یادگیری ماشین (ML) و یادگیری عمیق (DL)، پردازش زبان طبیعی و سایر عملیات هوش مصنوعی استفاده میشوند. آنها بهطور گسترده بهعنوان سختافزاری شناخته میشوند که هوش مصنوعی و کاربردهای متعدد آن را ممکن میسازد.
برای مثال، GPUها نوعی شتابدهنده هوش مصنوعی هستند. GPUها که توسط انودیا محبوب شدهاند، مدارهای الکترونیکی هستند که مشکلات پیچیده را به قطعات کوچکتر تقسیم میکنند که میتوانند بهصورت همزمان حل شوند، روشی که بهعنوان پردازش موازی شناخته میشود. HPC از نوعی پردازش موازی به نام پردازش موازی عظیم استفاده میکند که از دهها هزار تا میلیونها پردازنده یا هسته پردازنده بهره میبرد. این قابلیت GPUها را فوقالعاده سریع و کارآمد میکند. مدلهای هوش مصنوعی روی GPUهای دیتاسنتر آموزش دیده و اجرا میشوند و بسیاری از برنامههای پیشرو هوش مصنوعی را تأمین میکنند.
دیتاسنترهای آماده برای هوش مصنوعی بهطور فزایندهای شامل شتابدهندههای هوش مصنوعی تخصصیتر مانند واحد پردازش عصبی (NPU) و واحدهای پردازش تنسور (TPU) هستند. NPUها مسیرهای عصبی مغز انسان را برای پردازش بهتر بارهای کاری هوش مصنوعی در زمان واقعی تقلید میکنند. TPUها شتابدهندههایی هستند که بهطور سفارشی برای سرعت بخشیدن به محاسبات تنسور در بارهای کاری هوش مصنوعی ساخته شدهاند. توان عملیاتی بالا و تأخیر کم آنها را برای بسیاری از برنامههای هوش مصنوعی و یادگیری عمیق ایدهآل میکند.
معماری ذخیرهسازی پیشرفته
سرعت و نیازهای محاسباتی بالای بارهای کاری هوش مصنوعی به ظرفیت ذخیرهسازی بالایی نیاز دارد که بتواند دادهها را نگهداری کرده و دسترسی به آنها را در مدت زمان کوتاهی امکانپذیر کند. درایوهای حالت جامد (SSDها)—دستگاههای ذخیرهسازی مبتنی بر نیمهرسانا که معمولا از حافظه فلش NAND استفاده میکنند—دستگاههای ذخیرهسازی حیاتی برای دیتاسنترهای هوش مصنوعی محسوب میشوند. بهویژه، SSDهای NVMe که سرعت، قابلیت برنامهریزی و ظرفیت لازم برای مدیریت پردازش موازی را دارند. GPUهای دیتاسنتر، شتابدهندهها و برخیSSDها همچنین از حافظه با پهنای باند بالا (HBM) استفاده میکنند. این نوع معماری حافظه امکان انتقال داده با کارایی بالا با مصرف انرژی کمتر نسبت به حافظه دسترسی تصادفی پویا (DRAM) که معماری حافظه سنتیتر است، را فراهم میکند.
یکی دیگر از جنبههای معمول طراحی دیتاسنتر هوش مصنوعی، معماری ذخیرهسازی داده است که میتواند نوسانات در تقاضای داده، مانند افزایشهای غیرمنتظره، را مدیریت کند. بهجای اجرای بارهای کاری روی سختافزار اختصاصی، بسیاری از دیتاسنترها (چه هوش مصنوعی و چه معمولی) از معماری ابری استفاده میکنند که در آن ذخیرهسازی فیزیکی مجازیسازی میشود.
مجازیسازی تقسیم اجزای سختافزاری یک کامپیوتر (مانند حافظه و ذخیرهسازی) به چندین ماشین مجازی است. این رویکرد امکان استفاده بهتر از منابع و انعطافپذیری را فراهم میکند و به کاربران اجازه میدهد چندین برنامه و سیستمعامل را روی همان سختافزار فیزیکی اجرا کنند. مجازیسازی همچنین فناوری است که قابلیتهای ابر ترکیبی را هدایت میکند. ابر ترکیبی به سازمانها چابکی و انعطافپذیری بیشتری برای اتصال محیطهای ابری و داخلی میدهد، که برای پذیرش هوش مصنوعی مولد دادهمحور حیاتی است.
شبکهسازی مقاوم و امن
هوش مصنوعی باید سریع باشد. کاربران انتظار پاسخهای فوری از برنامههای آنلاین هوش مصنوعی دارند و خودروهای خودران نیاز به تصمیمگیریهای آنی در جاده دارند. بنابراین، شبکهسازی دیتاسنتر هوش مصنوعی باید بتواند نیازهای پهنای باند بالای بارهای کاری هوش مصنوعی را با تأخیر کم پشتیبانی کند. برای دیتاسنترهای هایپراسکیل، نیازهای پهنای باند میتواند از چند گیگابیت بر ثانیه (Gbps) تا ترابیت بر ثانیه (Tbps) متغیر باشد.
دیتاسنترهای سنتی از فیبر نوری برای شبکههای ارتباطی خارجی خود استفاده میکنند، اما رکهای داخل دیتاسنترها همچنان عمدتا از کابلهای مبتنی بر مس برای ارتباطات استفاده میکنند. اپتیکهای هم بستهبندیشده (Copackaged Optics)، فرآیند جدیدی برخواسته از تحقیقات آیبیام هستند که با آوردن اتصالات لینک نوری به داخل دستگاهها و دیوارهای دیتاسنترهایی که برای آموزش و استقرار مدلهای زبانی بزرگ (LLMها) استفاده میشوند، وعده بهبود بهرهوری انرژی و افزایش پهنای باند را میدهد. این نوآوری ممکن است پهنای باند ارتباطات دیتاسنتر را بهطور قابلتوجهی افزایش دهد و پردازش هوش مصنوعی را تسریع کند.
تقریباً همه دیتاسنترهای مدرن از خدمات شبکه مجازیسازیشده استفاده میکنند. این قابلیت امکان ایجاد شبکههای نرمافزارمحور را فراهم میکند که روی زیرساخت فیزیکی شبکه ساخته شدهاند. این رویکرد اجازه میدهد تا محاسبات، ذخیرهسازی و شبکهسازی برای هر برنامه و بار کاری بدون نیاز به تغییرات فیزیکی در زیرساخت بهینه شوند.
دیتاسنترهای هوش مصنوعی به فناوری مجازیسازی شبکه پیشرفته با اتصال بهتر، مقیاسپذیری و عملکرد نیاز دارند. البته در این زمینه باید بتواند نگرانیهای مربوط به حریم خصوصی و امنیت داده مرتبط با حجم عظیم دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی مولد را در نظر گرفت. در نظرسنجی IBM IBV، ۵۷٪ از مدیران عامل گفتهاند که نگرانیهای مربوط به امنیت داده مانعی برای پذیرش هوش مصنوعی مولد خواهد بود.
راهحلهای انرژی و خنکسازی کافی
قدرت محاسباتی بالا، شبکهسازی پیشرفته و سیستمهای ذخیرهسازی عظیم در دیتاسنترهای هوش مصنوعی به مقادیر عظیمی از انرژی الکتریکی و سیستمهای خنکسازی پیشرفته برای جلوگیری از قطعی، توقف و اضافهبار نیاز دارند. گلدمن ساکس پیشبینی میکند که هوش مصنوعی تا سال ۲۰۳۰ تقاضای برق دیتاسنترها را ۱۶۵٪ افزایش خواهد داد. تحلیل مککینزی نشان میدهد که تقاضای جهانی سالانه برای ظرفیت دیتاسنتر ممکن است به ۱۷۱ تا ۲۱۹ گیگاوات (GW) برسد. تقاضای فعلی ۶۰ گیگاوات است.
برای پاسخگویی به این نیازهای شدید مصرف انرژی و خنکسازی، برخی دیتاسنترهای هوش مصنوعی از تنظیمات با چگالی بالا استفاده میکنند. این استراتژی با پیکربندیهای سروری فشرده که عملکرد بهتری دارند، بهرهوری انرژی بیشتری دارند و دارای سیستمهای خنکسازی پیشرفته هستند، فضای دیتاسنتر را به حداکثر میرساند.
برای مثال، خنکسازی مایع اغلب از آب بهجای خنکسازی هوا برای انتقال و دفع گرما استفاده میکند. این روش کارایی بیشتری در مدیریت گرمای با چگالی بالا و بهبود اثربخشی استفاده از توان (PuE)—معیاری برای اندازهگیری بهرهوری انرژی دیتاسنتر—ارائه میدهد. روش خنکسازی دیگر، خنکسازی راهرو گرم و/یا سرد است که رک سرورها را سازماندهی میکند تا جریان هوا را بهینه کرده و اختلاط هوای گرم و سرد را به حداقل برساند.
با توجه به این نیازهای قابلتوجه انرژی، سازمانهای امروزی اغلب به دنبال تعادل بین جاهطلبیهای هوش مصنوعی و اهداف پایداری خود هستند. یک مثال چشمگیر در این زمینه شرکت اپل، یکی از بزرگترین مالکان دیتاسنترهای هایپراسکیل در جهان، است. از سال ۲۰۱۴، همه دیتاسنترهای اپل کاملا با انرژی تجدیدپذیر از طریق ترکیبی از سلولهای سوختی بیوگاز، نیروی برقآبی، انرژی خورشیدی و انرژی بادی کار میکنند.
دیگران به منابع انرژی فرازمینی چشم دوختهاند و امیدوارند از انرژی خورشیدی با شدت بالا در فضا برای ساخت دیتاسنترهای جدید استفاده کنند. پیشرفتها در دیتاسنترهای مداری ممکن است هزینههای انرژی برای آموزش مدلهای هوش مصنوعی را بهطور قابلتوجهی کاهش دهد و هزینههای برق را تا ۹۵٪ کم کند.
نویسنده: حمیدرضا تائبی






