Главная / GPU AI Hosting
RTX 4090 · RTX 5090 · H100 SXM5 · CUDA 12

Офшорный GPU AI Хостинг

NVIDIA RTX 4090, RTX 5090 и H100 SXM5 GPU-серверы для обучения ИИ, инференса, генерации изображений и видео. CUDA 12 и cuDNN предустановлены, плюс пресеты образов PyTorch / ComfyUI / Ollama — готовы к подключению по SSH. Хосты Threadripper Pro на тарифах H100 обеспечивают полное количество линий PCIe Gen 5. Доступно в 4 офшорных юрисдикциях, без KYC, оплата только криптой в 14 сетях включая Monero.

Без KYC
Только крипто
CUDA 12
NVMe SSD
Полный root
Monero accepted
Все тарифы GPU

Тарифы GPU по локациям

Одинаковое оборудование NVIDIA во всех юрисдикциях с безлимитным трафиком на каждом тарифе. Цены варьируются в зависимости от юрисдикции — Iceland с наименьшим углеродным следом, Moldova самый дешёвый.

Исландия Гавань свободы слова

ТарифGPUVRAMCPURAMNVMeТрафикЦена
IS-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe Безлимитный $299/mo Заказать
IS-M Популярное 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe Безлимитный $479/mo Заказать
IS-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe Безлимитный $1849/mo Заказать
IS-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe Безлимитный $3499/mo Заказать

Молдова Бюджетный офшор

ТарифGPUVRAMCPURAMNVMeТрафикЦена
MD-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe Безлимитный $249/mo Заказать
MD-M Популярное 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe Безлимитный $399/mo Заказать
MD-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe Безлимитный $1699/mo Заказать
MD-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe Безлимитный $3199/mo Заказать

Румыния Против хранения данных

ТарифGPUVRAMCPURAMNVMeТрафикЦена
RO-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe Безлимитный $269/mo Заказать
RO-M Популярное 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe Безлимитный $429/mo Заказать
RO-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe Безлимитный $1749/mo Заказать
RO-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe Безлимитный $3299/mo Заказать

Нидерланды Лучший пиринг

ТарифGPUVRAMCPURAMNVMeТрафикЦена
NL-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe Безлимитный $279/mo Заказать
NL-M Популярное 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe Безлимитный $449/mo Заказать
NL-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe Безлимитный $1799/mo Заказать
NL-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe Безлимитный $3399/mo Заказать

GPU-хостинг доступен в 4 юрисдикциях на старте (Iceland, Netherlands, Romania, Moldova). Russia исключена из-за санкций NVIDIA на экспорт; Switzerland и Panama пока ограничены только Linux.

Включено в каждый GPU-сервер

CUDA 12

CUDA 12.4/12.6 + cuDNN предустановлены. Запустите, подключитесь по SSH, выполните nvidia-smi.

Деплой за 60 секунд

От оплаты заказа до вывода nvidia-smi менее чем за 60 секунд.

NVMe SSD

До 4 TB NVMe SSD в паре с DDR5 RAM для быстрого ввода-вывода датасетов.

SSH + Jupyter

Полный root SSH, плюс предустановленный JupyterLab на порту 8888 с токен-авторизацией.

Варианты использования

What GPU AI Hosting is Used For

Файнтюнинг и инференс LLM

Файнтюнинг Llama, Mistral, Qwen, DeepSeek с LoRA / QLoRA / полным FT на H100. Или собственный инференс с vLLM / TGI / Ollama для production-обслуживания моделей.

Генерация изображений

Stable Diffusion, FLUX.1, SDXL с ComfyUI или Forge. Обучите собственную LoRA, генерируйте пакетно в масштабе или разверните конечную точку инференса.

Генерация ИИ-видео

OpenSora, CogVideoX, Wan-2.1, AnimateDiff. Генерация видео требует серьёзного VRAM — начните с RTX 5090 (32 GB) или H100 (80 GB).

Production-инференс

Разверните дообученные модели за собственным API. Предсказуемые расходы, без платы за токен, данные не покидают вашу юрисдикцию. JupyterLab + FastAPI включены.

Развёртывание в 1 клик

Предустановленные AI-шаблоны

Отметьте любые из них при заказе — ваш GPU-сервер загрузится с уже установленным, настроенным и запущенным через systemd стеком. Добавьте предзагруженные модели ниже, чтобы пропустить 30–60-минутную загрузку с HuggingFace.

LLM инференс

vLLM (OpenAI-compatible)

Production-grade LLM serving with continuous batching and paged attention. Exposes an /v1/completions endpoint compatible with the OpenAI SDK.

LLMOpenAI APIproduction +
LLM инференс

Ollama + Open WebUI

Self-hosted ChatGPT-style web UI. Pulls Ollama-native quantized weights; easiest path to "talk to my LLM in a browser".

LLMchat UIbeginner +
LLM инференс

text-generation-webui (Oobabooga)

Gradio UI with broad backend support — Transformers, ExLlamaV2, llama.cpp, AWQ, GPTQ. Power-user choice for benchmarking quantizations.

LLMmulti-backendpower user +
LLM инференс

HuggingFace TGI

HuggingFace Text Generation Inference — production server with token streaming, tensor parallelism, paged attention.

LLMproductionHuggingFace +
Файнтюнинг

Axolotl (LLM finetuning)

YAML-config driven finetuning. Supports LoRA, QLoRA, full FT, DPO, ORPO. Pre-cloned to /opt/axolotl with starter configs for Llama / Qwen / Mistral.

finetuneLoRAQLoRA +
Файнтюнинг

Unsloth (2× faster finetune)

2× faster + 70% less VRAM finetuning via custom Triton kernels. Ideal for budget runs on RTX 4090. Pre-installed in /opt/unsloth.

finetunefastlow VRAM +
Файнтюнинг

LLaMA-Factory

WebUI-driven finetuning platform. SFT / RLHF / DPO / KTO. Good entry point for non-coders who want to finetune on a UI.

finetuneGUI +
Генерация изображений

ComfyUI + FLUX.1

Node-graph image-gen interface, ships with FLUX.1-schnell + Kontext workflows. Power-user image generation pipeline.

imageFLUXworkflow +
Генерация изображений

Automatic1111 + SD 3.5

The mainstream Stable Diffusion WebUI. Stable Diffusion 3.5 + extensions ecosystem. Familiar UI for users coming from civitai.

imageSD 3.5 +
Генерация изображений

Forge (faster A1111)

A1111 fork optimized for FLUX, faster sampling, lower VRAM. Drop-in replacement for users coming from Auto1111.

imageFLUXfast +
Генерация изображений

Kohya SS (LoRA training)

GUI for training Stable Diffusion / FLUX LoRA, DreamBooth, textual inversion. Trains a custom-style LoRA on RTX 4090 in 30-90 min.

LoRA trainingimageGUI +
AI видео

ComfyUI + Wan 2.2 / HunyuanVideo

ComfyUI with video-gen workflows preloaded — Wan 2.2 T2V, HunyuanVideo, LTX-Video. Needs 40+ GB VRAM for usable speed at 720p.

videoWan 2.2HunyuanVideo +
AI видео

ComfyUI Video Lite (CogVideoX / LTX)

Lightweight video workflows — CogVideoX-5B, Wan 2.1 1.3B, LTX-Video. Runs on a single RTX 4090.

videoCogVideoXlow VRAM +
Аудио

Whisper Large v3 Turbo server

OpenAI Whisper Large v3 Turbo with faster-whisper backend behind a /transcribe HTTP API. 8× faster than v3, 99 langs, real-time on any GPU.

audiospeech-to-textAPI +
Аудио

TTS server (Kokoro + CSM-1B)

Multi-model TTS endpoint serving Kokoro 82M (54 voices, 8 langs) and Sesame CSM-1B (conversational with context). REST + WebSocket streaming.

audiotext-to-speechAPI +
Ноутбуки и разработка

JupyterLab + PyTorch baseline

Always installed. PyTorch 2.5 + CUDA 12.4 + Transformers + diffusers + accelerate + bitsandbytes + xformers + flash-attn. The universal AI dev baseline.

notebookbaselinealways-on +
Ноутбуки и разработка

code-server (VSCode in browser)

VSCode running in your browser, full Python/IPython/extensions. For users who prefer IDE workflow over notebooks.

IDEVSCodedev +

Комбинируйте несколько стеков на одном GPU — скрипт развёртывания разрешает конфликты зависимостей и назначает непересекающиеся порты.

Пропустить загрузку

Предзагруженные open-weight модели

Отметьте нужные модели при заказе, и они будут закэшированы в /root/.cache/huggingface до вашего первого входа. 🔒 Gated-модели (Llama, Mistral, Gemma, FLUX-dev, SD 3.5) требуют ваш HuggingFace токен (запрашивается при заказе).

Модель HuggingFace Размер Мин. VRAM Мин. уровень GPU Тип
Llama 3.3 70B Instruct 🔒 Gated meta-llama/Llama-3.3-70B-Instruct 140 GB 160 GB GPU-L LLM
Qwen3 32B Qwen/Qwen3-32B 64 GB 80 GB GPU-L LLM
Qwen3 14B Qwen/Qwen3-14B 28 GB 32 GB GPU-S LLM
Qwen3 8B Qwen/Qwen3-8B 16 GB 20 GB GPU-S LLM
DeepSeek-R1 Distill Qwen 32B deepseek-ai/DeepSeek-R1-Distill-Qwen-32B 64 GB 80 GB GPU-S LLM
DeepSeek-R1 Distill Llama 70B deepseek-ai/DeepSeek-R1-Distill-Llama-70B 140 GB 160 GB GPU-S LLM
Mistral Small 3.2 24B (multimodal) mistralai/Mistral-Small-3.2-24B-Instruct-2506 48 GB 60 GB GPU-S LLM
Gemma 3 27B (multimodal) 🔒 Gated google/gemma-3-27b-it 54 GB 64 GB GPU-L LLM
Gemma 3 12B (multimodal) 🔒 Gated google/gemma-3-12b-it 24 GB 28 GB GPU-S LLM
Phi-4 (14B) microsoft/phi-4 28 GB 32 GB GPU-S LLM
Phi-4 Mini Instruct (3.8B) microsoft/Phi-4-mini-instruct 8 GB 10 GB GPU-S LLM
FLUX.1 [dev] 🔒 Gated black-forest-labs/FLUX.1-dev 24 GB 24 GB GPU-S Изображение
FLUX.1 [schnell] black-forest-labs/FLUX.1-schnell 24 GB 24 GB GPU-S Изображение
FLUX.1 Kontext [dev] (image editing) 🔒 Gated black-forest-labs/FLUX.1-Kontext-dev 24 GB 24 GB GPU-S Изображение
Stable Diffusion 3.5 Large 🔒 Gated stabilityai/stable-diffusion-3.5-large 16 GB 18 GB GPU-S Изображение
Stable Diffusion 3.5 Medium 🔒 Gated stabilityai/stable-diffusion-3.5-medium 5 GB 10 GB GPU-S Изображение
HiDream-I1 Full HiDream-ai/HiDream-I1-Full 34 GB 40 GB GPU-S Изображение
Wan 2.2 T2V A14B Wan-AI/Wan2.2-T2V-A14B 28 GB 40 GB GPU-S Видео
Wan 2.1 T2V 1.3B (low VRAM) Wan-AI/Wan2.1-T2V-1.3B 3 GB 8 GB GPU-S Видео
HunyuanVideo 1.5 (8.3B) tencent/HunyuanVideo-1.5 17 GB 24 GB GPU-S Видео
LTX-Video 0.9.8 13B Lightricks/LTX-Video 26 GB 24 GB GPU-S Видео
CogVideoX-5B zai-org/CogVideoX-5b 10 GB 16 GB GPU-S Видео
Whisper Large v3 Turbo openai/whisper-large-v3-turbo 2 GB 4 GB GPU-S Аудио
Whisper Large v3 openai/whisper-large-v3 3 GB 6 GB GPU-S Аудио
Kokoro 82M (TTS) hexgrad/Kokoro-82M 1 GB 2 GB GPU-S Аудио
Sesame CSM-1B (conversational TTS) sesame/csm-1b 2 GB 6 GB GPU-S Аудио
Stable Audio Open 1.0 🔒 Gated stabilityai/stable-audio-open-1.0 3 GB 8 GB GPU-S Аудио

Размеры указаны для FP16-весов. Для RTX 4090 (24 ГБ VRAM) на моделях 70B AWQ-квантизованный вариант загружается параллельно.

Сравнение

ServPrivacy vs Vast.ai · RunPod · Paperspace · Lambda Labs · TensorDock

Только крипто-оплата, нативный Monero, регистрация по токену, предустановленные AI-стеки, предзагруженные HuggingFace модели, зашифрованные HF-токены, автоматические Let's Encrypt endpoint'ы, безлимитный трафик и 100% возобновляемая энергия в Исландии — прочитайте строку «ServPrivacy» и судите сами.

Функция ServPrivacy Vast.ai RunPod Paperspace Lambda TensorDock
Только крипто-оплата ✅ 14 chains⚠️ BTC⚠️ Gateway⚠️ BTC/ETH/USDT
Нативный Monero (XMR)
Без KYC, без email ✅ Token-only⚠️ Email + ID for trust⚠️ Email + payment❌ Full KYC❌ Enterprise KYC⚠️ Email + light KYC
Предустановленные AI-стеки ✅ 17 templates⚠️ Docker BYO✅ 100+⚠️ Notebooks only⚠️ Lambda Stack only⚠️ Docker BYO
Предзагрузка моделей при заказе ✅ 27 models
HuggingFace токен при заказе ✅ Encrypted, used once
SSH-ключ при заказе ⚠️⚠️
Таймер автовыключения ✅ 6h-7d⚠️ Spot only
Публичный HTTPS endpoint (Let's Encrypt) ✅ Auto⚠️ Manual✅ Pods⚠️ Manual
Безлимитный трафик ⚠️ Per host⚠️ Capped⚠️ Capped⚠️ Capped⚠️ Per host
Дата-центр на возобновляемой энергии ✅ Iceland 100% geo+hydro❌ Variable⚠️ US grid⚠️ US grid⚠️ US grid⚠️ Variable
Офшорная юрисдикция ✅ IS / NL / RO / MD❌ Distributed P2P❌ US-centric❌ US❌ US-only⚠️ Multi-region
Режим sandbox dry-run ✅ ?dry_run=1⚠️ Trial credit⚠️ Limited⚠️ Free GPU tier
AI-агент / MCP в приоритете ✅ MCP + REST + x402⚠️ REST⚠️ REST⚠️ REST⚠️ REST⚠️ REST
Базовый RTX 4090 / мес $249~$216 spot~$396 on-demandn/an/a~$252 spot

Данные для сравнения взяты с публичных страниц цен и регистрации конкурентов за 2026-05. Начальная цена ServPrivacy RTX 4090 = $249/мес, Молдова; «spot»-цены конкурентов — средние тарифы на аналогичное железо.

FAQ

FAQ по GPU AI Хостингу

01 GPU пробрасывается с полным аппаратным доступом или разделяется / нарезается vGPU?

Полный аппаратный проброс. Вы получаете всю физическую карту NVIDIA с прямым доступом к VRAM — не срез vGPU, не MIG-раздел с разделением по времени. nvidia-smi внутри вашей VM показывает те же показатели, что и bare-metal хост. Полный доступ к драйверам, полный CUDA, полный стек PyTorch / TensorFlow — без резервирований SR-IOV.

02 Какие версии CUDA / драйверов предустановлены?

Образ по умолчанию: Ubuntu 22.04 + CUDA 12.4 + cuDNN 9 + NVIDIA driver 550. Другие готовые образы: Ubuntu 24.04 + CUDA 12.6, Ubuntu 22 + PyTorch 2.5, Ubuntu 22 + ComfyUI + Flux, Ubuntu 22 + Ollama + Open WebUI. Также доступны чистые Ubuntu / Debian / AlmaLinux / Rocky, если хотите установить собственный стек. Версии драйверов можно менять в любое время при наличии полного root.

03 Можно ли запустить production-инференс собственного ИИ-стартапа на этих GPU?

Да. Многие наши GPU-клиенты запускают публичные API инференса поверх vLLM / TGI / FastAPI. GPU-серверы поставляются с полным root, предсказуемой ежемесячной тарификацией (без сюрпризов с ценой за токен) и фиксированным юрисдикционным IP. Трафик безлимитный на всех GPU-тарифах — обслуживайте высоконагруженные публичные конечные точки без счётчиков и плат за превышение.

04 Почему Russia исключена из локаций GPU?

NVIDIA H100, A100 и высокопроизводительные карты RTX (4090 и выше) подпадают под экспортный контроль Министерства торговли США (15 CFR Part 744) и европейские регламенты двойного использования, запрещающие их поставку в российские дата-центры. Мы не разворачиваем их в Russia, чтобы соответствовать требованиям, применяемым к нашей цепочке поставок. Если вам нужен офшорный Linux VPS или Dedicated в Russia — эти продуктовые линейки не затронуты.

05 Почему Iceland позиционируется как премиальная GPU-локация?

Дата-центры Iceland работают на 100% возобновляемой геотермальной и гидроэнергии, а низкая температура окружающей среды ощутимо снижает накладные расходы на охлаждение боксов H100, потребляющих по 700 Вт каждый под длительной нагрузкой. В итоге — GPU-вычисления с наименьшим углеродным следом на офшорном рынке. Премиальная цена покрывает более высокую стоимость дата-центра в Iceland и более чистые источники энергии — для ESG-ориентированных ИИ-команд это единственный достоверный офшорный вариант.

06 Можно ли использовать несколько GPU в распределённом обучении (DDP / FSDP)?

Да — уровень GPU-XL — это 2× H100 SXM5 с интерконнектом NVLink в одном боксе, идеально для FSDP / DeepSpeed Zero-3 / DDP на одной машине. Для многоузлового обучения можно арендовать несколько серверов GPU-XL в одном дата-центре и соединить их через аплинк 10 Gbps. Кластерные узлы 8× H100 пока не предлагаются — свяжитесь с нами, если вашему обучающему запуску нужен больший масштаб.

Разверните свой офшорный GPU-сервер

Выберите юрисдикцию, выберите NVIDIA GPU, оплатите любой из 14 криптовалют. JupyterLab готов менее чем за 60 секунд. Без KYC, без email, без телефона — только токен.

Смотреть тарифы GPU