Компания Microsoft представила свой новейший ИИ-ускоритель — Microsoft Azure Maia 200. Новый собственный чип стал следующим поколением серверных GPU-ускорителей линейки Maia, предназначенных для инференса ИИ-моделей с экстремально высокой производительностью. В этой статье мы детально разберем всю информацию, которая известна о Maia 200 на текущий момент, и сравним этот чип с конкурентами.
Система Maia 200 позиционируется как самая эффективная система обработки данных, когда-либо развёрнутая Microsoft. В пресс-релизах компания одновременно подчёркивает как высокие показатели производительности, так и свою приверженность экологической повестке.
Технические возможности и сравнение с конкурентами
Maia 200 изготовлен на 3-нм техпроцессе TSMC и содержит 140 миллиардов транзисторов. Чип способен обеспечивать до 10 петафлопс (FP4), что, по словам Microsoft, в три раза больше, чем у Amazon Trainium3. Также он оснащён 216 ГБ памяти HBM3e с пропускной способностью 7 ТБ/с, а также 272 МБ встроенной SRAM.
|
Specification |
Azure Maia 200 |
AWS Trainium3 |
Nvidia Blackwell B300 Ultra |
|
Process technology |
N3P |
N3P |
4NP |
|
FP4 petaFLOPS |
10.14 |
2.517 |
15 |
|
FP8 petaFLOPS |
5.072 |
2.517 |
5 |
|
BF16 petaFLOPS |
1.268 |
0.671 |
2.5 |
|
HBM Memory Size |
216 GB HBM3e |
144 GB HBM3e |
288 GB HBM3e |
|
HBM Memory Bandwidth |
7 TB/s |
4.9 TB/s |
8 TB/s |
|
TDP |
750 W |
??? |
1400 W |
|
Bi-directional Bandwidth |
2.8 TB/s |
2.56 TB/s |
1.8 TB/s bidirectional |
Как видно из сравнения, Maia 200 заметно превосходит решение Amazon по вычислительной мощности и интересно смотрится на фоне топового графического процессора Nvidia. Однако прямое сравнение не совсем корректно: Maia 200 нельзя купить отдельно, Blackwell B300 Ultra оптимизирован для гораздо более ресурсоемких задач, а ПО Nvidia выводит его на совершенно новый уровень по сравнению с любыми другими чипами.
Тем не менее Maia 200 выигрывает по энергоэффективности, что особенно важно на фоне растущей критики влияния ИИ на экологию. Он потребляет почти в два раза меньше энергии, чем Blackwell B300 (750 Вт против 1400 Вт). Более того, Maia 100 в реальности работал на 500 Вт вместо заявленных 700 Вт, так что и Maia 200 может быть ограничен уровнем мощности ниже теоретического максимума.
Чип оптимизирован под FP4 и FP8, то есть в первую очередь ориентирован на инференс, а не на сложные вычисления для обучения моделей. Значительная часть бюджета Microsoft на исследования и разработки этого чипа, по всей видимости, была вложена в иерархию памяти: 272 МБ высокоэффективной SRAM, разделенной на уровни (CSRAM и TSRAM), что позволяет эффективнее распределять нагрузку между HBM и SRAM.
Сравнить улучшения по сравнению с Maia 100 сложно, так как официальные спецификации почти не пересекаются. На данном этапе мы можем сказать лишь то, что Maia 200 будет нагреваться сильнее, чем Maia 100. Судя по всему, его производительность по соотношению «цена/качество» примерно на 30 % выше.
Чип Maia 200 уже развернут в центральном дата-центре Microsoft Azure в США. В будущем планируется его развертывание в центре US West 3 в Финиксе (штат Аризона). По мере поступления новых чипов Microsoft планирует дальнейшее внедрение. Чип будет использоваться в гибридной среде вместе с другими ИИ-ускорителями.
Ускоритель Maia 200, первоначально имевший кодовое название Braga, вызвал большой резонанс из-за значительных задержек в разработке и выпуске. Следующее поколение аппаратуры Microsoft, согласно сообщениям, появившимся в октябре, будет выпускаться уже на Intel Foundry 18A.
Источник
Нажимая кнопку «Отправить», я даю согласие на обработку и хранение персональных данных и принимаю соглашение