Вы просматриваете сервера только с GPU: NVIDIA H200
Сбросьте фильтр, чтобы увидеть все доступные конфигурации.
8x NVIDIA H200
10₽ = 1 кредит.
Хотите дешевле? Покупайте пакетами и получайте бонусы.
192x INTEL(R) XEON(R) PLATINUM 8568Y+
2 TB
30 TB
↑63 / ↓1213 Mbps
Локация
Время работы
8x NVIDIA H200
10₽ = 1 кредит.
Хотите дешевле? Покупайте пакетами и получайте бонусы.
192x INTEL(R) XEON(R) PLATINUM 8568Y+
2 TB
30 TB
↑67 / ↓700 Mbps
Локация
Время работы
Использование серверов с NVIDIA H200
NVIDIA H200 — новый король вычислений в эпоху генеративного AI. Оснащён 141 ГБ сверхбыстрой памяти HBM3e и идеален для инференса и обучения гигантских языковых и мультимодальных моделей.
Конфигурации и цены
Конфигурация | Доступно серверов | Цена от (₽/час) |
---|---|---|
8x NVIDIA H200 | 5 | 8169 |
Для каких задач подходит NVIDIA H200?
- ✓Обучение Mixture-of-Experts модели 1 трлн параметров на узле H200×8 в Megatron-LM
- ✓Предварительное обучение мультимодели видео+текст (VideoMAE) на петабайтном наборе YouTube-360p
- ✓RAG-система с 10 млрд векторных эмбеддингов Faiss, шардированных между 8 GPU
- ✓Файн-тюнинг DeepSeek-V2 67B на отраслевом корпусе с FSDP на H200×8
- ✓Инференс Kimi-6B с RAG и голосовым вводом для русскоязычного чат-бота при нагрузке 5000 RPS
Частые вопросы
Насколько H200 быстрее H100?
H200 показывает почти двукратный прирост скорости инференса по сравнению с H100 благодаря увеличенной пропускной способности памяти — это критично для моделей, не помещающихся в кэш.
Что такое память HBM3e и почему это важно?
HBM3e — память с ультра-высокой пропускной способностью. Она даёт GPU мгновенный доступ к данным, что особенно полезно при работе с LLM-моделями триллионного масштаба.