Конфигурация рассчитана на Обучение моделей (Training), Дообучение моделей (Fine-tuning) и HPC / Научные расчёты, когда важны высокая плотность ускорителей, стабильная меж-GPU связность и предсказуемая производительность под нагрузкой. Для продуктовых сервисов также подходит под Инференс / Развертывание (Inference) и RAG-системы (Retrieval-Augmented Generation), особенно когда нужен длинный контекст и высокий параллелизм по запросам.
HGX B300 даёт суммарно 2304GB VRAM, то есть 2.3TB, а связка NVLink и NVSwitch рассчитана на интенсивный обмен данными между GPU для обучения и крупных батчей. На платформе предусмотрены OSFP-порты для GPU-сети через ConnectX-8, что удобно для масштабирования в кластер и ускоренной коммуникации между узлами.
Из ограничений по эксплуатации это 8U платформа с высокой плотностью питания и охлаждения, поэтому обычно требуется стойка с подходящим электропитанием и инфраструктурой ЦОД, а также корректная настройка multi-GPU стека под обучение и serving.
Платформа поддерживает 2× Intel Xeon 6 серии 6900 с TDP до 500W, сокеты LGA 7529, а по памяти предусмотрено 24 слота DDR5 RDIMM или MRDIMM с 12-канальной архитектурой на процессор, максимум в гигабайтах в карточке не указан. Для накопителей доступны 8× 2.5" Gen5 NVMe hot-swap и 2× M.2, один PCIe Gen5 x4 и один PCIe Gen5 x2.
Производительность GPU
| Тип точности | Совокупная мощность HGX B300 8-GPU |
| FP8/FP6 Tensor core (training) | 72 PFLOPS |
| FP4 Tensor core (inference) | 144 PFLOPS |
Совместимость с LLM-моделями
| Модель | Тип квантизации | Требуется VRAM | Совместимость | Примечание |
| DeepSeek-R1 685B | Нет | Примерно 689GB | ✅ | Запускается распределённо по 8 GPU, запас VRAM помогает держать длинный контекст и батчи без упора в память. |
Qwen3.5-397B-A17B |
Нет |
Примерно 807GB | ✅ | Комфортный запуск без квантизации, удобно масштабировать по 2–8 GPU для высокого throughput serving и RAG. | | Gpt-oss:120b | Нет | Примерно 196GB | ✅ | Можно держать на 1–2 GPU и запускать несколько инстансов, оставляя большой запас VRAM под KV-cache и QPS. |
| GigaChat3-702B-A36B-preview | Нет | Примерно 720GB | ✅ | Оптимален запуск в распределении по 8 GPU, хорошо подходит для длинных контекстов и стабильного продакшн serving. |
| Mistral-Large-3-675B-Instruct-251 | Нет | Примерно 682GB | ✅ | Рационально распределять по 8 GPU, при этом остаётся запас под контекст и рост batch size в нагрузке. |
| GLM-5 | Нет | Примерно 1.51TB | ✅ | Стабильно работает при распределении по 8 GPU, можно держать длинный контекст и параллельные запросы. |
Совместимость с диффузионными моделями
| Модель | Тип | Совместимость | Примечание |
| Stable Diffusion XL 1.0 | Текст в изображение | ✅ | Высокие разрешения и крупные батчи, удобно параллелить генерацию на нескольких GPU. |
| Flux.2-dev | Текст в изображение | ✅ | Тяжёлая модель, на 8 GPU можно держать high-res и большие очереди без жёстких ограничений по памяти. |
| SD Turbo | Быстрые предпросмотры | ✅ | Максимальный throughput, легко держать высокий параллелизм предпросмотров и серийных генераций. |
| Kandinsky-5.0-T2I-Lite-sft-Diffusers | Текст в изображение | ✅ | Лёгкий пайплайн, можно запускать много параллельных инстансов и батчей на одном узле. |
| Kandinsky-5.0-T2V-Lite-sft-5s-Diffusers | Текст в видео | ✅ | Удобно распараллеливать ролики по GPU для очередей и пакетной генерации в продакшне. |
Технические характеристики
| Видеокарта | 8x Nvidia B300 Blackwell Ultra SXM 288GB HBM3e |
| Процессор | 2× Intel Xeon 6 серии 6900 с TDP до 500W, сокеты LGA 7529 |
| Оперативная память | 24 слота DDR5 RDIMM или MRDIMM с 12-канальной архитектурой на процессор, максимум до 6TB суммарно |
| SSD накопители | 8× 2.5" Gen5 NVMe hot-swap и 2× M.2, один PCIe Gen5 x4 и один PCIe Gen5 x2 |
Если нужна конфигурация на эту платформу под ваши задачи - свяжитесь с менеджером, и мы предложим подходящий вариант под бюджет и требования.
Нажимая кнопку «Отправить», я даю согласие на обработку и хранение персональных данных и принимаю соглашение