CUDA 12
CUDA 12.4/12.6 + cuDNN предустановлены. Запустите, подключитесь по SSH, выполните nvidia-smi.
NVIDIA RTX 4090, RTX 5090 и H100 SXM5 GPU-серверы для обучения ИИ, инференса, генерации изображений и видео. CUDA 12 и cuDNN предустановлены, плюс пресеты образов PyTorch / ComfyUI / Ollama — готовы к подключению по SSH. Хосты Threadripper Pro на тарифах H100 обеспечивают полное количество линий PCIe Gen 5. Доступно в 4 офшорных юрисдикциях, без KYC, оплата только криптой в 14 сетях включая Monero.
Одинаковое оборудование NVIDIA во всех юрисдикциях с безлимитным трафиком на каждом тарифе. Цены варьируются в зависимости от юрисдикции — Iceland с наименьшим углеродным следом, Moldova самый дешёвый.
| Тариф | GPU | VRAM | CPU | RAM | NVMe | Трафик | Цена | |
|---|---|---|---|---|---|---|---|---|
| IS-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | Безлимитный | $299/mo | Заказать |
| IS-M Популярное | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | Безлимитный | $479/mo | Заказать |
| IS-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | Безлимитный | $1849/mo | Заказать |
| IS-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | Безлимитный | $3499/mo | Заказать |
| Тариф | GPU | VRAM | CPU | RAM | NVMe | Трафик | Цена | |
|---|---|---|---|---|---|---|---|---|
| MD-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | Безлимитный | $249/mo | Заказать |
| MD-M Популярное | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | Безлимитный | $399/mo | Заказать |
| MD-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | Безлимитный | $1699/mo | Заказать |
| MD-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | Безлимитный | $3199/mo | Заказать |
| Тариф | GPU | VRAM | CPU | RAM | NVMe | Трафик | Цена | |
|---|---|---|---|---|---|---|---|---|
| RO-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | Безлимитный | $269/mo | Заказать |
| RO-M Популярное | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | Безлимитный | $429/mo | Заказать |
| RO-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | Безлимитный | $1749/mo | Заказать |
| RO-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | Безлимитный | $3299/mo | Заказать |
| Тариф | GPU | VRAM | CPU | RAM | NVMe | Трафик | Цена | |
|---|---|---|---|---|---|---|---|---|
| NL-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | Безлимитный | $279/mo | Заказать |
| NL-M Популярное | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | Безлимитный | $449/mo | Заказать |
| NL-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | Безлимитный | $1799/mo | Заказать |
| NL-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | Безлимитный | $3399/mo | Заказать |
GPU-хостинг доступен в 4 юрисдикциях на старте (Iceland, Netherlands, Romania, Moldova). Russia исключена из-за санкций NVIDIA на экспорт; Switzerland и Panama пока ограничены только Linux.
CUDA 12.4/12.6 + cuDNN предустановлены. Запустите, подключитесь по SSH, выполните nvidia-smi.
От оплаты заказа до вывода nvidia-smi менее чем за 60 секунд.
До 4 TB NVMe SSD в паре с DDR5 RAM для быстрого ввода-вывода датасетов.
Полный root SSH, плюс предустановленный JupyterLab на порту 8888 с токен-авторизацией.
Файнтюнинг Llama, Mistral, Qwen, DeepSeek с LoRA / QLoRA / полным FT на H100. Или собственный инференс с vLLM / TGI / Ollama для production-обслуживания моделей.
Stable Diffusion, FLUX.1, SDXL с ComfyUI или Forge. Обучите собственную LoRA, генерируйте пакетно в масштабе или разверните конечную точку инференса.
OpenSora, CogVideoX, Wan-2.1, AnimateDiff. Генерация видео требует серьёзного VRAM — начните с RTX 5090 (32 GB) или H100 (80 GB).
Разверните дообученные модели за собственным API. Предсказуемые расходы, без платы за токен, данные не покидают вашу юрисдикцию. JupyterLab + FastAPI включены.
Отметьте любые из них при заказе — ваш GPU-сервер загрузится с уже установленным, настроенным и запущенным через systemd стеком. Добавьте предзагруженные модели ниже, чтобы пропустить 30–60-минутную загрузку с HuggingFace.
Production-grade LLM serving with continuous batching and paged attention. Exposes an /v1/completions endpoint compatible with the OpenAI SDK.
Self-hosted ChatGPT-style web UI. Pulls Ollama-native quantized weights; easiest path to "talk to my LLM in a browser".
Gradio UI with broad backend support — Transformers, ExLlamaV2, llama.cpp, AWQ, GPTQ. Power-user choice for benchmarking quantizations.
HuggingFace Text Generation Inference — production server with token streaming, tensor parallelism, paged attention.
YAML-config driven finetuning. Supports LoRA, QLoRA, full FT, DPO, ORPO. Pre-cloned to /opt/axolotl with starter configs for Llama / Qwen / Mistral.
2× faster + 70% less VRAM finetuning via custom Triton kernels. Ideal for budget runs on RTX 4090. Pre-installed in /opt/unsloth.
WebUI-driven finetuning platform. SFT / RLHF / DPO / KTO. Good entry point for non-coders who want to finetune on a UI.
Node-graph image-gen interface, ships with FLUX.1-schnell + Kontext workflows. Power-user image generation pipeline.
The mainstream Stable Diffusion WebUI. Stable Diffusion 3.5 + extensions ecosystem. Familiar UI for users coming from civitai.
A1111 fork optimized for FLUX, faster sampling, lower VRAM. Drop-in replacement for users coming from Auto1111.
GUI for training Stable Diffusion / FLUX LoRA, DreamBooth, textual inversion. Trains a custom-style LoRA on RTX 4090 in 30-90 min.
ComfyUI with video-gen workflows preloaded — Wan 2.2 T2V, HunyuanVideo, LTX-Video. Needs 40+ GB VRAM for usable speed at 720p.
Lightweight video workflows — CogVideoX-5B, Wan 2.1 1.3B, LTX-Video. Runs on a single RTX 4090.
OpenAI Whisper Large v3 Turbo with faster-whisper backend behind a /transcribe HTTP API. 8× faster than v3, 99 langs, real-time on any GPU.
Multi-model TTS endpoint serving Kokoro 82M (54 voices, 8 langs) and Sesame CSM-1B (conversational with context). REST + WebSocket streaming.
Always installed. PyTorch 2.5 + CUDA 12.4 + Transformers + diffusers + accelerate + bitsandbytes + xformers + flash-attn. The universal AI dev baseline.
VSCode running in your browser, full Python/IPython/extensions. For users who prefer IDE workflow over notebooks.
Комбинируйте несколько стеков на одном GPU — скрипт развёртывания разрешает конфликты зависимостей и назначает непересекающиеся порты.
Отметьте нужные модели при заказе, и они будут закэшированы в /root/.cache/huggingface до вашего первого входа. 🔒 Gated-модели (Llama, Mistral, Gemma, FLUX-dev, SD 3.5) требуют ваш HuggingFace токен (запрашивается при заказе).
| Модель | HuggingFace | Размер | Мин. VRAM | Мин. уровень GPU | Тип |
|---|---|---|---|---|---|
| Llama 3.3 70B Instruct 🔒 Gated | meta-llama/Llama-3.3-70B-Instruct |
140 GB | 160 GB | GPU-L | LLM |
| Qwen3 32B | Qwen/Qwen3-32B |
64 GB | 80 GB | GPU-L | LLM |
| Qwen3 14B | Qwen/Qwen3-14B |
28 GB | 32 GB | GPU-S | LLM |
| Qwen3 8B | Qwen/Qwen3-8B |
16 GB | 20 GB | GPU-S | LLM |
| DeepSeek-R1 Distill Qwen 32B | deepseek-ai/DeepSeek-R1-Distill-Qwen-32B |
64 GB | 80 GB | GPU-S | LLM |
| DeepSeek-R1 Distill Llama 70B | deepseek-ai/DeepSeek-R1-Distill-Llama-70B |
140 GB | 160 GB | GPU-S | LLM |
| Mistral Small 3.2 24B (multimodal) | mistralai/Mistral-Small-3.2-24B-Instruct-2506 |
48 GB | 60 GB | GPU-S | LLM |
| Gemma 3 27B (multimodal) 🔒 Gated | google/gemma-3-27b-it |
54 GB | 64 GB | GPU-L | LLM |
| Gemma 3 12B (multimodal) 🔒 Gated | google/gemma-3-12b-it |
24 GB | 28 GB | GPU-S | LLM |
| Phi-4 (14B) | microsoft/phi-4 |
28 GB | 32 GB | GPU-S | LLM |
| Phi-4 Mini Instruct (3.8B) | microsoft/Phi-4-mini-instruct |
8 GB | 10 GB | GPU-S | LLM |
| FLUX.1 [dev] 🔒 Gated | black-forest-labs/FLUX.1-dev |
24 GB | 24 GB | GPU-S | Изображение |
| FLUX.1 [schnell] | black-forest-labs/FLUX.1-schnell |
24 GB | 24 GB | GPU-S | Изображение |
| FLUX.1 Kontext [dev] (image editing) 🔒 Gated | black-forest-labs/FLUX.1-Kontext-dev |
24 GB | 24 GB | GPU-S | Изображение |
| Stable Diffusion 3.5 Large 🔒 Gated | stabilityai/stable-diffusion-3.5-large |
16 GB | 18 GB | GPU-S | Изображение |
| Stable Diffusion 3.5 Medium 🔒 Gated | stabilityai/stable-diffusion-3.5-medium |
5 GB | 10 GB | GPU-S | Изображение |
| HiDream-I1 Full | HiDream-ai/HiDream-I1-Full |
34 GB | 40 GB | GPU-S | Изображение |
| Wan 2.2 T2V A14B | Wan-AI/Wan2.2-T2V-A14B |
28 GB | 40 GB | GPU-S | Видео |
| Wan 2.1 T2V 1.3B (low VRAM) | Wan-AI/Wan2.1-T2V-1.3B |
3 GB | 8 GB | GPU-S | Видео |
| HunyuanVideo 1.5 (8.3B) | tencent/HunyuanVideo-1.5 |
17 GB | 24 GB | GPU-S | Видео |
| LTX-Video 0.9.8 13B | Lightricks/LTX-Video |
26 GB | 24 GB | GPU-S | Видео |
| CogVideoX-5B | zai-org/CogVideoX-5b |
10 GB | 16 GB | GPU-S | Видео |
| Whisper Large v3 Turbo | openai/whisper-large-v3-turbo |
2 GB | 4 GB | GPU-S | Аудио |
| Whisper Large v3 | openai/whisper-large-v3 |
3 GB | 6 GB | GPU-S | Аудио |
| Kokoro 82M (TTS) | hexgrad/Kokoro-82M |
1 GB | 2 GB | GPU-S | Аудио |
| Sesame CSM-1B (conversational TTS) | sesame/csm-1b |
2 GB | 6 GB | GPU-S | Аудио |
| Stable Audio Open 1.0 🔒 Gated | stabilityai/stable-audio-open-1.0 |
3 GB | 8 GB | GPU-S | Аудио |
Размеры указаны для FP16-весов. Для RTX 4090 (24 ГБ VRAM) на моделях 70B AWQ-квантизованный вариант загружается параллельно.
Только крипто-оплата, нативный Monero, регистрация по токену, предустановленные AI-стеки, предзагруженные HuggingFace модели, зашифрованные HF-токены, автоматические Let's Encrypt endpoint'ы, безлимитный трафик и 100% возобновляемая энергия в Исландии — прочитайте строку «ServPrivacy» и судите сами.
| Функция | ServPrivacy | Vast.ai | RunPod | Paperspace | Lambda | TensorDock |
|---|---|---|---|---|---|---|
| Только крипто-оплата | ✅ 14 chains | ⚠️ BTC | ⚠️ Gateway | ❌ | ❌ | ⚠️ BTC/ETH/USDT |
| Нативный Monero (XMR) | ✅ | ❌ | ❌ | ❌ | ❌ | ❌ |
| Без KYC, без email | ✅ Token-only | ⚠️ Email + ID for trust | ⚠️ Email + payment | ❌ Full KYC | ❌ Enterprise KYC | ⚠️ Email + light KYC |
| Предустановленные AI-стеки | ✅ 17 templates | ⚠️ Docker BYO | ✅ 100+ | ⚠️ Notebooks only | ⚠️ Lambda Stack only | ⚠️ Docker BYO |
| Предзагрузка моделей при заказе | ✅ 27 models | ❌ | ❌ | ❌ | ❌ | ❌ |
| HuggingFace токен при заказе | ✅ Encrypted, used once | ❌ | ❌ | ❌ | ❌ | ❌ |
| SSH-ключ при заказе | ✅ | ✅ | ✅ | ⚠️ | ✅ | ⚠️ |
| Таймер автовыключения | ✅ 6h-7d | ✅ | ⚠️ Spot only | ❌ | ❌ | ❌ |
| Публичный HTTPS endpoint (Let's Encrypt) | ✅ Auto | ⚠️ Manual | ✅ Pods | ✅ | ❌ | ⚠️ Manual |
| Безлимитный трафик | ✅ | ⚠️ Per host | ⚠️ Capped | ⚠️ Capped | ⚠️ Capped | ⚠️ Per host |
| Дата-центр на возобновляемой энергии | ✅ Iceland 100% geo+hydro | ❌ Variable | ⚠️ US grid | ⚠️ US grid | ⚠️ US grid | ⚠️ Variable |
| Офшорная юрисдикция | ✅ IS / NL / RO / MD | ❌ Distributed P2P | ❌ US-centric | ❌ US | ❌ US-only | ⚠️ Multi-region |
| Режим sandbox dry-run | ✅ ?dry_run=1 | ⚠️ Trial credit | ⚠️ Limited | ⚠️ Free GPU tier | ❌ | ❌ |
| AI-агент / MCP в приоритете | ✅ MCP + REST + x402 | ⚠️ REST | ⚠️ REST | ⚠️ REST | ⚠️ REST | ⚠️ REST |
| Базовый RTX 4090 / мес | $249 | ~$216 spot | ~$396 on-demand | n/a | n/a | ~$252 spot |
Данные для сравнения взяты с публичных страниц цен и регистрации конкурентов за 2026-05. Начальная цена ServPrivacy RTX 4090 = $249/мес, Молдова; «spot»-цены конкурентов — средние тарифы на аналогичное железо.
Полный аппаратный проброс. Вы получаете всю физическую карту NVIDIA с прямым доступом к VRAM — не срез vGPU, не MIG-раздел с разделением по времени. nvidia-smi внутри вашей VM показывает те же показатели, что и bare-metal хост. Полный доступ к драйверам, полный CUDA, полный стек PyTorch / TensorFlow — без резервирований SR-IOV.
Образ по умолчанию: Ubuntu 22.04 + CUDA 12.4 + cuDNN 9 + NVIDIA driver 550. Другие готовые образы: Ubuntu 24.04 + CUDA 12.6, Ubuntu 22 + PyTorch 2.5, Ubuntu 22 + ComfyUI + Flux, Ubuntu 22 + Ollama + Open WebUI. Также доступны чистые Ubuntu / Debian / AlmaLinux / Rocky, если хотите установить собственный стек. Версии драйверов можно менять в любое время при наличии полного root.
Да. Многие наши GPU-клиенты запускают публичные API инференса поверх vLLM / TGI / FastAPI. GPU-серверы поставляются с полным root, предсказуемой ежемесячной тарификацией (без сюрпризов с ценой за токен) и фиксированным юрисдикционным IP. Трафик безлимитный на всех GPU-тарифах — обслуживайте высоконагруженные публичные конечные точки без счётчиков и плат за превышение.
NVIDIA H100, A100 и высокопроизводительные карты RTX (4090 и выше) подпадают под экспортный контроль Министерства торговли США (15 CFR Part 744) и европейские регламенты двойного использования, запрещающие их поставку в российские дата-центры. Мы не разворачиваем их в Russia, чтобы соответствовать требованиям, применяемым к нашей цепочке поставок. Если вам нужен офшорный Linux VPS или Dedicated в Russia — эти продуктовые линейки не затронуты.
Дата-центры Iceland работают на 100% возобновляемой геотермальной и гидроэнергии, а низкая температура окружающей среды ощутимо снижает накладные расходы на охлаждение боксов H100, потребляющих по 700 Вт каждый под длительной нагрузкой. В итоге — GPU-вычисления с наименьшим углеродным следом на офшорном рынке. Премиальная цена покрывает более высокую стоимость дата-центра в Iceland и более чистые источники энергии — для ESG-ориентированных ИИ-команд это единственный достоверный офшорный вариант.
Да — уровень GPU-XL — это 2× H100 SXM5 с интерконнектом NVLink в одном боксе, идеально для FSDP / DeepSpeed Zero-3 / DDP на одной машине. Для многоузлового обучения можно арендовать несколько серверов GPU-XL в одном дата-центре и соединить их через аплинк 10 Gbps. Кластерные узлы 8× H100 пока не предлагаются — свяжитесь с нами, если вашему обучающему запуску нужен больший масштаб.
Выберите юрисдикцию, выберите NVIDIA GPU, оплатите любой из 14 криптовалют. JupyterLab готов менее чем за 60 секунд. Без KYC, без email, без телефона — только токен.
Смотреть тарифы GPU