Сколько памяти нужно дата-центрам для искусственного интеллекта?

Заголовок: Память как новый дефицит: почему дата-центры для ИИ столкнулись с беспрецедентным спросом на DRAM

Бум генеративного искусственного интеллекта создает не только технологический, но и инфраструктурный вызов глобального масштаба. Ключевым узким местом в развитии ИИ становятся дата-центры, чьи потребности в оперативной памяти (DRAM) стремительно растут и качественно меняются. Основными действующими лицами на этом рынке являются производители чипов памяти, такие как Samsung, SK Hynix и Micron, а также гиганты облачных вычислений — Amazon Web Services, Microsoft Azure и Google Cloud, которые вынуждены перестраивать архитектуру своих серверных ферм под новые требования.

Согласно последним отраслевым исследованиям, серверы, предназначенные для обучения и запуска крупных языковых моделей, требуют в 6-8 раз больше оперативной памяти по сравнению с традиционными системами для облачных вычислений. Если стандартный сервер общего назначения сегодня оснащается в среднем 0,5-1 ТБ DRAM, то конфигурация для высокопроизводительных задач ИИ начинается с 4 ТБ и может достигать 10-15 ТБ на один узел. Аналитики TrendForce прогнозируют, что доля серверной памяти высокой плотности (High-Density Server DRAM) в общих поставках вырастет с примерно 15% в 2023 году до более чем 30% к 2026 году. Это напрямую связано с архитектурой ИИ-ускорителей: для эффективной работы с моделями, содержащими сотни миллиардов параметров, необходимо хранить эти параметры в быстрой памяти, что и приводит к экспоненциальному росту требований к DRAM на один сервер.

Сдвиг в потребностях памяти меняет всю цепочку поставок и экономику дата-центров. Производители вынуждены перераспределять производственные мощности в пользу более сложных и дорогих модулей высокой плотности, что создает давление на доступность и цены. Для операторов ЦОД это означает значительный рост капитальных затрат на оборудование и необходимость пересмотра систем охлаждения и энергопотребления, так как массивы памяти также являются крупными потребителями энергии. В среднесрочной перспективе этот дефицит может стать одним из сдерживающих факторов для темпов внедрения ИИ-технологий, вынуждая компании искать компромиссы между производительностью моделей и стоимостью их эксплуатации. Ожидается, что технологическая гонка будет стимулировать развитие новых стандартов памяти, таких как HBM (High Bandwidth Memory), и более тесную интеграцию процессоров и памяти, что в долгосрочном итоге определит архитектуру вычислений следующего поколения.