CUDA 12
CUDA 12.4/12.6 + cuDNN مُثبَّتان مسبقاً. شغِّل الخادم، اتصل عبر SSH، شغِّل nvidia-smi.
خوادم GPU بمعالجات NVIDIA RTX 4090 وRTX 5090 وH100 SXM5 لتدريب الذكاء الاصطناعي والاستدلال وتوليد الصور والفيديو. CUDA 12 وcuDNN مُثبَّتان مسبقاً، إضافةً إلى إعدادات صور PyTorch / ComfyUI / Ollama جاهزة للاتصال عبر SSH. مضيفات Threadripper Pro في مستويات H100 لعدد مسارات PCIe Gen 5 الكامل. متاحة في 4 ولايات قضائية خارجية، بدون KYC، دفع بالعملات المشفرة فقط في 14 شبكة بما فيها Monero.
نفس عتاد NVIDIA عبر جميع الولايات القضائية مع نطاق ترددي غير محدود في كل خطة. تتفاوت الأسعار بحسب الولاية — Iceland هي الخيار الأقل كربوناً، وMoldova الأرخص.
| الخطة | GPU | VRAM | المعالج | الذاكرة | NVMe | النطاق الترددي | السعر | |
|---|---|---|---|---|---|---|---|---|
| IS-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | غير محدود | $299/mo | اطلب |
| IS-M شائع | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | غير محدود | $479/mo | اطلب |
| IS-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | غير محدود | $1849/mo | اطلب |
| IS-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | غير محدود | $3499/mo | اطلب |
| الخطة | GPU | VRAM | المعالج | الذاكرة | NVMe | النطاق الترددي | السعر | |
|---|---|---|---|---|---|---|---|---|
| MD-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | غير محدود | $249/mo | اطلب |
| MD-M شائع | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | غير محدود | $399/mo | اطلب |
| MD-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | غير محدود | $1699/mo | اطلب |
| MD-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | غير محدود | $3199/mo | اطلب |
| الخطة | GPU | VRAM | المعالج | الذاكرة | NVMe | النطاق الترددي | السعر | |
|---|---|---|---|---|---|---|---|---|
| RO-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | غير محدود | $269/mo | اطلب |
| RO-M شائع | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | غير محدود | $429/mo | اطلب |
| RO-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | غير محدود | $1749/mo | اطلب |
| RO-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | غير محدود | $3299/mo | اطلب |
| الخطة | GPU | VRAM | المعالج | الذاكرة | NVMe | النطاق الترددي | السعر | |
|---|---|---|---|---|---|---|---|---|
| NL-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | غير محدود | $279/mo | اطلب |
| NL-M شائع | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | غير محدود | $449/mo | اطلب |
| NL-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | غير محدود | $1799/mo | اطلب |
| NL-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | غير محدود | $3399/mo | اطلب |
استضافة GPU متاحة في 4 ولايات قضائية عند الإطلاق (Iceland، Netherlands، Romania، Moldova). Russia مستثناة بسبب قيود تصدير NVIDIA؛ Switzerland وPanama مقتصرتان على Linux في الوقت الحالي.
CUDA 12.4/12.6 + cuDNN مُثبَّتان مسبقاً. شغِّل الخادم، اتصل عبر SSH، شغِّل nvidia-smi.
من الطلب المدفوع إلى مخرجات nvidia-smi في أقل من 60 ثانية.
حتى 4 TB NVMe SSD مقترناً بـ DDR5 RAM للإدخال/الإخراج السريع لمجموعات البيانات.
SSH بصلاحية جذر كاملة، إضافةً إلى JupyterLab مُرتبط مسبقاً على المنفذ 8888 مع مصادقة الرمز المميز.
ضبط دقيق لـ Llama وMistral وQwen وDeepSeek باستخدام LoRA / QLoRA / الضبط الكامل على H100. أو استدلال مُستضاف ذاتياً باستخدام vLLM / TGI / Ollama لخدمة النماذج في بيئة الإنتاج.
Stable Diffusion وFLUX.1 وSDXL باستخدام ComfyUI أو Forge. درِّب LoRA الخاص بك، أو أنتج دفعات واسعة النطاق، أو استضف نقطة استدلال ذاتياً.
OpenSora وCogVideoX وWan-2.1 وAnimateDiff. يتطلب توليد الفيديو VRAM ضخماً — ابدأ بـ RTX 5090 (32 GB) أو H100 (80 GB).
انشر نماذج مضبوطة دقيقاً خلف واجهة برمجة التطبيقات الخاصة بك. تكاليف متوقعة، لا رسوم لكل رمز، لا بيانات تغادر ولايتك القضائية. JupyterLab + FastAPI مُدرَجان.
اختر أياً من هذه القوالب عند الطلب وسيُشغَّل خادم GPU مع الحزمة مثبتة ومهيأة ومُشغَّلة عبر systemd. أضف نماذج محمّلة مسبقاً أدناه لتخطي تحميل HuggingFace الذي يستغرق 30-60 دقيقة.
Production-grade LLM serving with continuous batching and paged attention. Exposes an /v1/completions endpoint compatible with the OpenAI SDK.
Self-hosted ChatGPT-style web UI. Pulls Ollama-native quantized weights; easiest path to "talk to my LLM in a browser".
Gradio UI with broad backend support — Transformers, ExLlamaV2, llama.cpp, AWQ, GPTQ. Power-user choice for benchmarking quantizations.
HuggingFace Text Generation Inference — production server with token streaming, tensor parallelism, paged attention.
YAML-config driven finetuning. Supports LoRA, QLoRA, full FT, DPO, ORPO. Pre-cloned to /opt/axolotl with starter configs for Llama / Qwen / Mistral.
2× faster + 70% less VRAM finetuning via custom Triton kernels. Ideal for budget runs on RTX 4090. Pre-installed in /opt/unsloth.
WebUI-driven finetuning platform. SFT / RLHF / DPO / KTO. Good entry point for non-coders who want to finetune on a UI.
Node-graph image-gen interface, ships with FLUX.1-schnell + Kontext workflows. Power-user image generation pipeline.
The mainstream Stable Diffusion WebUI. Stable Diffusion 3.5 + extensions ecosystem. Familiar UI for users coming from civitai.
A1111 fork optimized for FLUX, faster sampling, lower VRAM. Drop-in replacement for users coming from Auto1111.
GUI for training Stable Diffusion / FLUX LoRA, DreamBooth, textual inversion. Trains a custom-style LoRA on RTX 4090 in 30-90 min.
ComfyUI with video-gen workflows preloaded — Wan 2.2 T2V, HunyuanVideo, LTX-Video. Needs 40+ GB VRAM for usable speed at 720p.
Lightweight video workflows — CogVideoX-5B, Wan 2.1 1.3B, LTX-Video. Runs on a single RTX 4090.
OpenAI Whisper Large v3 Turbo with faster-whisper backend behind a /transcribe HTTP API. 8× faster than v3, 99 langs, real-time on any GPU.
Multi-model TTS endpoint serving Kokoro 82M (54 voices, 8 langs) and Sesame CSM-1B (conversational with context). REST + WebSocket streaming.
Always installed. PyTorch 2.5 + CUDA 12.4 + Transformers + diffusers + accelerate + bitsandbytes + xformers + flash-attn. The universal AI dev baseline.
VSCode running in your browser, full Python/IPython/extensions. For users who prefer IDE workflow over notebooks.
ادمج حزماً متعددة على نفس GPU — يحل سكريبت النشر تعارضات التبعيات ويخصص منافذ غير متعارضة.
اختر النماذج التي تحتاجها عند الطلب وستكون مخزنة مؤقتاً في /root/.cache/huggingface قبل تسجيل دخولك. 🔒 النماذج المقيّدة (Llama, Mistral, Gemma, FLUX-dev, SD 3.5) تتطلب رمز HuggingFace الخاص بك (يُطلب أيضاً عند الطلب).
| النموذج | HuggingFace | الحجم | الحد الأدنى من VRAM | الحد الأدنى من فئة GPU | النوع |
|---|---|---|---|---|---|
| Llama 3.3 70B Instruct 🔒 مقيّد | meta-llama/Llama-3.3-70B-Instruct |
140 GB | 160 GB | GPU-L | LLM |
| Qwen3 32B | Qwen/Qwen3-32B |
64 GB | 80 GB | GPU-L | LLM |
| Qwen3 14B | Qwen/Qwen3-14B |
28 GB | 32 GB | GPU-S | LLM |
| Qwen3 8B | Qwen/Qwen3-8B |
16 GB | 20 GB | GPU-S | LLM |
| DeepSeek-R1 Distill Qwen 32B | deepseek-ai/DeepSeek-R1-Distill-Qwen-32B |
64 GB | 80 GB | GPU-S | LLM |
| DeepSeek-R1 Distill Llama 70B | deepseek-ai/DeepSeek-R1-Distill-Llama-70B |
140 GB | 160 GB | GPU-S | LLM |
| Mistral Small 3.2 24B (multimodal) | mistralai/Mistral-Small-3.2-24B-Instruct-2506 |
48 GB | 60 GB | GPU-S | LLM |
| Gemma 3 27B (multimodal) 🔒 مقيّد | google/gemma-3-27b-it |
54 GB | 64 GB | GPU-L | LLM |
| Gemma 3 12B (multimodal) 🔒 مقيّد | google/gemma-3-12b-it |
24 GB | 28 GB | GPU-S | LLM |
| Phi-4 (14B) | microsoft/phi-4 |
28 GB | 32 GB | GPU-S | LLM |
| Phi-4 Mini Instruct (3.8B) | microsoft/Phi-4-mini-instruct |
8 GB | 10 GB | GPU-S | LLM |
| FLUX.1 [dev] 🔒 مقيّد | black-forest-labs/FLUX.1-dev |
24 GB | 24 GB | GPU-S | صورة |
| FLUX.1 [schnell] | black-forest-labs/FLUX.1-schnell |
24 GB | 24 GB | GPU-S | صورة |
| FLUX.1 Kontext [dev] (image editing) 🔒 مقيّد | black-forest-labs/FLUX.1-Kontext-dev |
24 GB | 24 GB | GPU-S | صورة |
| Stable Diffusion 3.5 Large 🔒 مقيّد | stabilityai/stable-diffusion-3.5-large |
16 GB | 18 GB | GPU-S | صورة |
| Stable Diffusion 3.5 Medium 🔒 مقيّد | stabilityai/stable-diffusion-3.5-medium |
5 GB | 10 GB | GPU-S | صورة |
| HiDream-I1 Full | HiDream-ai/HiDream-I1-Full |
34 GB | 40 GB | GPU-S | صورة |
| Wan 2.2 T2V A14B | Wan-AI/Wan2.2-T2V-A14B |
28 GB | 40 GB | GPU-S | فيديو |
| Wan 2.1 T2V 1.3B (low VRAM) | Wan-AI/Wan2.1-T2V-1.3B |
3 GB | 8 GB | GPU-S | فيديو |
| HunyuanVideo 1.5 (8.3B) | tencent/HunyuanVideo-1.5 |
17 GB | 24 GB | GPU-S | فيديو |
| LTX-Video 0.9.8 13B | Lightricks/LTX-Video |
26 GB | 24 GB | GPU-S | فيديو |
| CogVideoX-5B | zai-org/CogVideoX-5b |
10 GB | 16 GB | GPU-S | فيديو |
| Whisper Large v3 Turbo | openai/whisper-large-v3-turbo |
2 GB | 4 GB | GPU-S | صوت |
| Whisper Large v3 | openai/whisper-large-v3 |
3 GB | 6 GB | GPU-S | صوت |
| Kokoro 82M (TTS) | hexgrad/Kokoro-82M |
1 GB | 2 GB | GPU-S | صوت |
| Sesame CSM-1B (conversational TTS) | sesame/csm-1b |
2 GB | 6 GB | GPU-S | صوت |
| Stable Audio Open 1.0 🔒 مقيّد | stabilityai/stable-audio-open-1.0 |
3 GB | 8 GB | GPU-S | صوت |
الأحجام تمثل أوزان FP16. لـ RTX 4090 (24 GB VRAM) مع نماذج 70B، يُحمَّل تلقائياً البديل المُضغوط AWQ بالتوازي.
دفع بالعملات المشفرة فقط، دعم Monero الأصلي، تسجيل بالرمز فقط، حزم ذكاء اصطناعي مثبتة مسبقاً، نماذج HuggingFace محمّلة مسبقاً، رموز HF مشفرة، نقاط نهاية Let's Encrypt تلقائية، نطاق ترددي غير محدود وطاقة متجددة 100% في آيسلندا — اقرأ الصف المسمى "ServPrivacy" واحكم بنفسك.
| الميزة | ServPrivacy | Vast.ai | RunPod | Paperspace | Lambda | TensorDock |
|---|---|---|---|---|---|---|
| دفع بالعملات المشفرة فقط | ✅ 14 chains | ⚠️ BTC | ⚠️ Gateway | ❌ | ❌ | ⚠️ BTC/ETH/USDT |
| دعم Monero (XMR) الأصلي | ✅ | ❌ | ❌ | ❌ | ❌ | ❌ |
| بدون KYC، بدون تسجيل بالبريد الإلكتروني | ✅ Token-only | ⚠️ Email + ID for trust | ⚠️ Email + payment | ❌ Full KYC | ❌ Enterprise KYC | ⚠️ Email + light KYC |
| حزم الذكاء الاصطناعي مثبتة مسبقاً | ✅ 17 templates | ⚠️ Docker BYO | ✅ 100+ | ⚠️ Notebooks only | ⚠️ Lambda Stack only | ⚠️ Docker BYO |
| نماذج محمّلة مسبقاً عند الطلب | ✅ 27 models | ❌ | ❌ | ❌ | ❌ | ❌ |
| رمز HuggingFace عند الطلب | ✅ Encrypted, used once | ❌ | ❌ | ❌ | ❌ | ❌ |
| مفتاح SSH عند الطلب | ✅ | ✅ | ✅ | ⚠️ | ✅ | ⚠️ |
| مؤقت الإيقاف التلقائي | ✅ 6h-7d | ✅ | ⚠️ Spot only | ❌ | ❌ | ❌ |
| نقطة نهاية HTTPS عامة (Let's Encrypt) | ✅ Auto | ⚠️ Manual | ✅ Pods | ✅ | ❌ | ⚠️ Manual |
| نطاق ترددي غير محدود | ✅ | ⚠️ Per host | ⚠️ Capped | ⚠️ Capped | ⚠️ Capped | ⚠️ Per host |
| مركز بيانات بطاقة متجددة | ✅ Iceland 100% geo+hydro | ❌ Variable | ⚠️ US grid | ⚠️ US grid | ⚠️ US grid | ⚠️ Variable |
| ولاية قضائية خارجية | ✅ IS / NL / RO / MD | ❌ Distributed P2P | ❌ US-centric | ❌ US | ❌ US-only | ⚠️ Multi-region |
| وضع الاختبار الجاف (Sandbox) | ✅ ?dry_run=1 | ⚠️ Trial credit | ⚠️ Limited | ⚠️ Free GPU tier | ❌ | ❌ |
| أولوية عميل الذكاء الاصطناعي / MCP | ✅ MCP + REST + x402 | ⚠️ REST | ⚠️ REST | ⚠️ REST | ⚠️ REST | ⚠️ REST |
| RTX 4090 الأساسي / شهر | $249 | ~$216 spot | ~$396 on-demand | n/a | n/a | ~$252 spot |
بيانات المقارنة مستقاة من صفحات التسعير العامة للمنافسين لشهر 2026-05 وتدفقات التسجيل. ServPrivacy RTX 4090 المدخل = 249$/شهر مولدوفا؛ أسعار "spot" للمنافسين هي متوسط أسعار الأجهزة المعادلة.
تمرير كامل للعتاد. تحصل على بطاقة NVIDIA المادية بالكامل مع وصول مباشر إلى VRAM — ليس شريحة vGPU، ولا قسم MIG مشترك زمنياً. يُظهر nvidia-smi داخل جهازك الافتراضي نفس الأرقام كالمضيف المعدني الخالص. وصول كامل للتعريف، CUDA كامل، مكدس PyTorch / TensorFlow كامل — لا تحفظات SR-IOV.
الصورة الافتراضية: Ubuntu 22.04 + CUDA 12.4 + cuDNN 9 + NVIDIA driver 550. صور جاهزة أخرى: Ubuntu 24.04 + CUDA 12.6، Ubuntu 22 + PyTorch 2.5، Ubuntu 22 + ComfyUI + Flux، Ubuntu 22 + Ollama + Open WebUI. Ubuntu / Debian / AlmaLinux / Rocky العادي متاح أيضاً إذا أردت تثبيت مكدسك الخاص. يمكنك تبديل إصدارات التعريف في أي وقت بصلاحية جذر كاملة.
نعم. كثير من عملاء GPU لدينا يُشغِّلون واجهات برمجة تطبيقات استدلال عامة فوق vLLM / TGI / FastAPI. تأتي خوادم GPU مع جذر كامل، فوترة شهرية متوقعة (بدون مفاجآت لكل رمز) وعنوان IP ثابت لولاية قضائية محددة. النطاق الترددي غير محدود في كل خطط GPU، فيمكنك خدمة نقاط نهاية عامة ذات حركة مرور عالية دون مراقبة عدادات أو دفع رسوم تجاوز.
H100 وA100 وبطاقات RTX عالية الجودة (4090 وما فوق) من NVIDIA تخضع لضوابط تصدير وزارة التجارة الأمريكية (15 CFR Part 744) ولوائح الاتحاد الأوروبي للاستخدام المزدوج التي تحظر شحنها إلى مراكز البيانات الروسية. لا نوفرها في Russia للامتثال للضوابط المنطبقة على سلسلة التوريد الخاصة بنا. إذا كنت بحاجة إلى Linux VPS خارجي أو مخصص في Russia، فتلك الخطوط غير متأثرة.
تعمل مراكز بيانات Iceland بنسبة 100% من الطاقة المتجددة الحرارية الأرضية والكهرومائية، وتُخفض درجة الحرارة المحيطة الباردة بشكل ملحوظ تكاليف التبريد على خوادم H100 التي تستهلك 700 واط لكل منها تحت حمل مستمر. النتيجة هي أدنى حوسبة GPU خارجية كربوناً في السوق. يغطي السعر المميز التكلفة الأعلى لمراكز البيانات في Iceland ومصادر الطاقة الأنظف — لفرق الذكاء الاصطناعي الواعية بمعايير ESG، هذه هي الإجابة الخارجية الوحيدة الموثوقة.
نعم — مستوى GPU-XL هو 2× H100 SXM5 مع توصيل NVLink داخل جهاز واحد، مثالي لـ FSDP / DeepSpeed Zero-3 / DDP على نفس الجهاز. للتدريب متعدد العقد يمكنك استئجار عدة خوادم GPU-XL في نفس مركز البيانات وتوصيلها عبر الرابط الصاعد 10 Gbps. لا نشحن بعد عقد عقدة 8× H100 — تواصل معنا إذا كانت جلسة التدريب تحتاج إلى نطاق أكبر.
اختر ولايتك القضائية، اختر GPU من NVIDIA، وادفع بأي من 14 عملة مشفرة. JupyterLab مباشر في أقل من 60 ثانية. بدون KYC، بدون بريد إلكتروني، بدون هاتف — فقط رمز مميز.
عرض خطط GPU