مقدمه
ظهور مدلهای زبانی و شبکههای عصبی عظیم در سالهای اخیر، تحولی عظیم در فناوری اطلاعات ایجاد کرده است. این مدلها که میلیونها یا حتی میلیاردها پارامتر را پردازش میکنند، دیگر تنها ابزارهای تحقیقاتی نیستند؛ بلکه در موتورهای جستوجو، دستیارهای هوشمند، سامانههای ترجمه، پشتیبانی مشتریان و خدمات ابری مورد استفاده قرار میگیرند. با این حال، این پیشرفتها بهای سنگینی برای مراکز داده به همراه داشتهاند: افزایش شدید بار پردازشی و مصرف انرژی.
امروزه هر بار که فردی درخواست سادهای مانند «ممنونم» یا «سلام، امروز هوا چطور است؟» را به یک سرویس هوش مصنوعی ارسال میکند، فرایندی پیچیده در هزاران هسته پردازشی آغاز میشود. این حجم پردازش، چالشی جدی برای زیرساختهای جهانی و حتی سیاستهای انرژی آینده ایجاد کرده است. این مقاله بهصورت تحلیلی بررسی میکند که چرا مدلهای هوش مصنوعی بزرگ چنین فشاری بر مراکز داده وارد میکنند و چه پیامدهایی در پی دارند.
ماهیت مدلهای هوش مصنوعی بزرگ و نیاز پردازشی آنها
مدلهای مبتنی بر پارامترهای عظیم
مدلهای هوش مصنوعی بزرگ (Large Language Models - LLMs) گاهی تا ۱۰۰ میلیارد پارامتر یا بیشتر را در خود جای میدهند. هر پارامتر، بخشی از محاسبات داخلی شبکه عصبی است. پردازش این حجم از اطلاعات، نیازمند سختافزارهای پیشرفته همچون GPU، TPU یا شتابدهندههای تخصصی است.
مثال:
آموزش یک مدل در مقیاس جهانی میتواند هزاران برابر پرمصرفتر از اجرای یک نرمافزار معمولی باشد. براساس تحلیل برخی مراکز تحقیقاتی، آموزش یک مدل مشهور زبانی، معادل مصرف برق یک شهر ۱۰۰ هزار نفری در طول چند هفته بوده است.
فشار فنی بر مراکز داده
۱. افزایش بار CPU و GPU
در سرویسهای مبتنی بر هوش مصنوعی، صرفاً CPU کافی نیست. اهمیت اصلی بر GPU است؛ زیرا وظیفه اجرای عملیات ماتریسی سنگین را بر عهده دارد. مصرف یک خوشه GPU میتواند تا دهها مگاوات برسد.
2. ترافیک شبکه و نقش درخواستهای ساده
درخواستهایی نظیر:
3. حافظه و ذخیرهسازی
مدلهای بزرگ نیازمند حافظههای با پهنای باند بالا مانند HBM (High Bandwidth Memory) هستند. این حافظهها نیز مانند GPU گرمای زیادی تولید میکنند و نیازمند خنکسازی مستقل هستند.
مصرف انرژی و چالشهای زیستمحیطی
سیستمهای خنکسازی (Cooling Systems)
یکی از پرهزینهترین بخشهای مراکز داده، سیستمهای تهویه و سرمایش است. در مراکز داده مبتنی بر هوش مصنوعی، دمای GPUها ممکن است به ۸۰ درجه سانتیگراد برسد. برای کنترل این گرما، از فناوریهای زیر استفاده میشود:
-
سرمایش مایع (Liquid Cooling)
-
غوطهوری در سیالات دیالکتریک
-
چیلرهای صنعتی با مصرف برق مداوم
برخی برآوردها نشان میدهند که ۳۰ تا ۴۰ درصد برق مراکز داده صرف سرمایش میشود، نه پردازش.
مصرف جهانی برق
طبق گزارشهای غیررسمی از مراکز تحقیقاتی مستقل، احتمال میرود مصرف برق مراکز داده جهانی تا سال ۲۰۳۰ حدود ۲ تا ۳ درصد کل برق تولیدی جهان باشد. در این میان، مدلهای هوش مصنوعی یکی از مهمترین عوامل رشد هستند.
چرایی مصرف انرژی در کاربردهای روزمره
تولید پاسخ زبانی
مدلهای زبانی برای هر کلمه، احتمال صدها یا هزاران گزینه دیگر را محاسبه میکنند. حتی پاسخهای بسیار کوتاه مانند «باشه» یا «متشکرم» حاصل چند میلیارد محاسبه هستند.
تکرار درخواستها (Repeated Inference)
در هر گفتوگو، مکالمات ادامهدار با کلماتی مثل:
چالش اقتصادی و سرمایهگذاری در مراکز داده
هزینه ساخت مراکز داده هوش مصنوعی
ساخت یک مرکز داده سنتی ممکن است بین ۲۰۰ تا ۳۰۰ میلیون دلار هزینه داشته باشد، اما مرکز داده ویژه AI با GPUهای قدرتمند ممکن است تا ۱ میلیارد دلار سرمایه لازم داشته باشد.
هزینه انرژی
برخی شرکتهای ارائهدهنده سرویسهای ابری، گزارش دادهاند که هزینه برق GPU مهمترین جزء هزینههای عملیاتی (OPEX) آنهاست.
راهکارهای کنترل مصرف انرژی
۱. فشردهسازی مدلها (Model Compression)
با استفاده از روشهایی مانند pruning و quantization، میتوان برخی مدلها را ۵۰ تا ۶۰ درصد کممصرفتر کرد.
۲. استفاده از انرژیهای تجدیدپذیر
برخی شرکتها مراکز خود را در نزدیکی منابع انرژی بادی یا خورشیدی بنا میکنند تا وابستگی به شبکه عمومی برق را کاهش دهند.
۳. معماری هوش مصنوعی قابل تنظیم
مدلهای ترکیبی (Mixture of Experts) تنها بخش لازم از مدل را فعال میکنند و از مصرف کل مدل جلوگیری میکنند.
جمع بندی
مدلهای هوش مصنوعی بزرگ، مسیر آینده فناوری را شکل دادهاند، اما هزینه زیربنایی آنها—بهویژه از نظر انرژی—چالشی جدی برای بشر است. افزایش شدید بار پردازشی، نیاز به GPU و سرمایش سنگین، مراکز داده را به مصرفکنندگان عمده انرژی جهان بدل کرده است. آینده موفق این فناوری، نه تنها به نوآوری الگوریتمی، بلکه به پایداری انرژی وابسته خواهد بود.