الرئيسية / استضافة GPU للذكاء الاصطناعي
RTX 4090 · RTX 5090 · H100 SXM5 · CUDA 12

استضافة GPU للذكاء الاصطناعي في الخارج

خوادم GPU بمعالجات NVIDIA RTX 4090 وRTX 5090 وH100 SXM5 لتدريب الذكاء الاصطناعي والاستدلال وتوليد الصور والفيديو. CUDA 12 وcuDNN مُثبَّتان مسبقاً، إضافةً إلى إعدادات صور PyTorch / ComfyUI / Ollama جاهزة للاتصال عبر SSH. مضيفات Threadripper Pro في مستويات H100 لعدد مسارات PCIe Gen 5 الكامل. متاحة في 4 ولايات قضائية خارجية، بدون KYC، دفع بالعملات المشفرة فقط في 14 شبكة بما فيها Monero.

بدون تحقق من الهوية
عملات مشفرة حصراً
CUDA 12
NVMe SSD
صلاحيات Root كاملة
Monero accepted
جميع خطط GPU

خطط GPU حسب الموقع

نفس عتاد NVIDIA عبر جميع الولايات القضائية مع نطاق ترددي غير محدود في كل خطة. تتفاوت الأسعار بحسب الولاية — Iceland هي الخيار الأقل كربوناً، وMoldova الأرخص.

آيسلندا ملاذ حرية التعبير

الخطةGPUVRAMالمعالجالذاكرةNVMeالنطاق التردديالسعر
IS-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe غير محدود $299/mo اطلب
IS-M شائع 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe غير محدود $479/mo اطلب
IS-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe غير محدود $1849/mo اطلب
IS-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe غير محدود $3499/mo اطلب

مولدوفا استضافة خارجية اقتصادية

الخطةGPUVRAMالمعالجالذاكرةNVMeالنطاق التردديالسعر
MD-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe غير محدود $249/mo اطلب
MD-M شائع 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe غير محدود $399/mo اطلب
MD-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe غير محدود $1699/mo اطلب
MD-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe غير محدود $3199/mo اطلب

رومانيا مناهض للاحتفاظ بالبيانات

الخطةGPUVRAMالمعالجالذاكرةNVMeالنطاق التردديالسعر
RO-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe غير محدود $269/mo اطلب
RO-M شائع 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe غير محدود $429/mo اطلب
RO-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe غير محدود $1749/mo اطلب
RO-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe غير محدود $3299/mo اطلب

هولندا أفضل اتصال شبكي

الخطةGPUVRAMالمعالجالذاكرةNVMeالنطاق التردديالسعر
NL-S 1× NVIDIA RTX 4090 24 GB GDDR6X 12 vCPU 64 GB DDR5 1 TB NVMe غير محدود $279/mo اطلب
NL-M شائع 1× NVIDIA RTX 5090 32 GB GDDR7 16 vCPU 96 GB DDR5 1.5 TB NVMe غير محدود $449/mo اطلب
NL-L 1× NVIDIA H100 SXM5 80 GB HBM3 24 vCPU 192 GB DDR5 2 TB NVMe غير محدود $1799/mo اطلب
NL-XL 2× NVIDIA H100 SXM5 160 GB HBM3 32 vCPU 384 GB DDR5 4 TB NVMe غير محدود $3399/mo اطلب

استضافة GPU متاحة في 4 ولايات قضائية عند الإطلاق (Iceland، Netherlands، Romania، Moldova). Russia مستثناة بسبب قيود تصدير NVIDIA؛ Switzerland وPanama مقتصرتان على Linux في الوقت الحالي.

مُدرَج في كل خادم GPU

CUDA 12

CUDA 12.4/12.6 + cuDNN مُثبَّتان مسبقاً. شغِّل الخادم، اتصل عبر SSH، شغِّل nvidia-smi.

نشر في 60 ثانية

من الطلب المدفوع إلى مخرجات nvidia-smi في أقل من 60 ثانية.

NVMe SSD

حتى 4 TB NVMe SSD مقترناً بـ DDR5 RAM للإدخال/الإخراج السريع لمجموعات البيانات.

SSH + Jupyter

SSH بصلاحية جذر كاملة، إضافةً إلى JupyterLab مُرتبط مسبقاً على المنفذ 8888 مع مصادقة الرمز المميز.

حالات الاستخدام

What GPU AI Hosting is Used For

الضبط الدقيق للنماذج اللغوية الكبيرة والاستدلال

ضبط دقيق لـ Llama وMistral وQwen وDeepSeek باستخدام LoRA / QLoRA / الضبط الكامل على H100. أو استدلال مُستضاف ذاتياً باستخدام vLLM / TGI / Ollama لخدمة النماذج في بيئة الإنتاج.

توليد الصور

Stable Diffusion وFLUX.1 وSDXL باستخدام ComfyUI أو Forge. درِّب LoRA الخاص بك، أو أنتج دفعات واسعة النطاق، أو استضف نقطة استدلال ذاتياً.

توليد الفيديو بالذكاء الاصطناعي

OpenSora وCogVideoX وWan-2.1 وAnimateDiff. يتطلب توليد الفيديو VRAM ضخماً — ابدأ بـ RTX 5090 (32 GB) أو H100 (80 GB).

استدلال الإنتاج

انشر نماذج مضبوطة دقيقاً خلف واجهة برمجة التطبيقات الخاصة بك. تكاليف متوقعة، لا رسوم لكل رمز، لا بيانات تغادر ولايتك القضائية. JupyterLab + FastAPI مُدرَجان.

نشر بنقرة واحدة

قوالب الذكاء الاصطناعي مثبتة مسبقاً

اختر أياً من هذه القوالب عند الطلب وسيُشغَّل خادم GPU مع الحزمة مثبتة ومهيأة ومُشغَّلة عبر systemd. أضف نماذج محمّلة مسبقاً أدناه لتخطي تحميل HuggingFace الذي يستغرق 30-60 دقيقة.

استنتاج LLM

vLLM (OpenAI-compatible)

Production-grade LLM serving with continuous batching and paged attention. Exposes an /v1/completions endpoint compatible with the OpenAI SDK.

LLMOpenAI APIproduction +
استنتاج LLM

Ollama + Open WebUI

Self-hosted ChatGPT-style web UI. Pulls Ollama-native quantized weights; easiest path to "talk to my LLM in a browser".

LLMchat UIbeginner +
استنتاج LLM

text-generation-webui (Oobabooga)

Gradio UI with broad backend support — Transformers, ExLlamaV2, llama.cpp, AWQ, GPTQ. Power-user choice for benchmarking quantizations.

LLMmulti-backendpower user +
استنتاج LLM

HuggingFace TGI

HuggingFace Text Generation Inference — production server with token streaming, tensor parallelism, paged attention.

LLMproductionHuggingFace +
الضبط الدقيق

Axolotl (LLM finetuning)

YAML-config driven finetuning. Supports LoRA, QLoRA, full FT, DPO, ORPO. Pre-cloned to /opt/axolotl with starter configs for Llama / Qwen / Mistral.

finetuneLoRAQLoRA +
الضبط الدقيق

Unsloth (2× faster finetune)

2× faster + 70% less VRAM finetuning via custom Triton kernels. Ideal for budget runs on RTX 4090. Pre-installed in /opt/unsloth.

finetunefastlow VRAM +
الضبط الدقيق

LLaMA-Factory

WebUI-driven finetuning platform. SFT / RLHF / DPO / KTO. Good entry point for non-coders who want to finetune on a UI.

finetuneGUI +
توليد الصور

ComfyUI + FLUX.1

Node-graph image-gen interface, ships with FLUX.1-schnell + Kontext workflows. Power-user image generation pipeline.

imageFLUXworkflow +
توليد الصور

Automatic1111 + SD 3.5

The mainstream Stable Diffusion WebUI. Stable Diffusion 3.5 + extensions ecosystem. Familiar UI for users coming from civitai.

imageSD 3.5 +
توليد الصور

Forge (faster A1111)

A1111 fork optimized for FLUX, faster sampling, lower VRAM. Drop-in replacement for users coming from Auto1111.

imageFLUXfast +
توليد الصور

Kohya SS (LoRA training)

GUI for training Stable Diffusion / FLUX LoRA, DreamBooth, textual inversion. Trains a custom-style LoRA on RTX 4090 in 30-90 min.

LoRA trainingimageGUI +
فيديو الذكاء الاصطناعي

ComfyUI + Wan 2.2 / HunyuanVideo

ComfyUI with video-gen workflows preloaded — Wan 2.2 T2V, HunyuanVideo, LTX-Video. Needs 40+ GB VRAM for usable speed at 720p.

videoWan 2.2HunyuanVideo +
فيديو الذكاء الاصطناعي

ComfyUI Video Lite (CogVideoX / LTX)

Lightweight video workflows — CogVideoX-5B, Wan 2.1 1.3B, LTX-Video. Runs on a single RTX 4090.

videoCogVideoXlow VRAM +
صوت

Whisper Large v3 Turbo server

OpenAI Whisper Large v3 Turbo with faster-whisper backend behind a /transcribe HTTP API. 8× faster than v3, 99 langs, real-time on any GPU.

audiospeech-to-textAPI +
صوت

TTS server (Kokoro + CSM-1B)

Multi-model TTS endpoint serving Kokoro 82M (54 voices, 8 langs) and Sesame CSM-1B (conversational with context). REST + WebSocket streaming.

audiotext-to-speechAPI +
الدفاتر والتطوير

JupyterLab + PyTorch baseline

Always installed. PyTorch 2.5 + CUDA 12.4 + Transformers + diffusers + accelerate + bitsandbytes + xformers + flash-attn. The universal AI dev baseline.

notebookbaselinealways-on +
الدفاتر والتطوير

code-server (VSCode in browser)

VSCode running in your browser, full Python/IPython/extensions. For users who prefer IDE workflow over notebooks.

IDEVSCodedev +

ادمج حزماً متعددة على نفس GPU — يحل سكريبت النشر تعارضات التبعيات ويخصص منافذ غير متعارضة.

تخطَّ التحميل

نماذج مفتوحة الأوزان محمّلة مسبقاً

اختر النماذج التي تحتاجها عند الطلب وستكون مخزنة مؤقتاً في /root/.cache/huggingface قبل تسجيل دخولك. 🔒 النماذج المقيّدة (Llama, Mistral, Gemma, FLUX-dev, SD 3.5) تتطلب رمز HuggingFace الخاص بك (يُطلب أيضاً عند الطلب).

النموذج HuggingFace الحجم الحد الأدنى من VRAM الحد الأدنى من فئة GPU النوع
Llama 3.3 70B Instruct 🔒 مقيّد meta-llama/Llama-3.3-70B-Instruct 140 GB 160 GB GPU-L LLM
Qwen3 32B Qwen/Qwen3-32B 64 GB 80 GB GPU-L LLM
Qwen3 14B Qwen/Qwen3-14B 28 GB 32 GB GPU-S LLM
Qwen3 8B Qwen/Qwen3-8B 16 GB 20 GB GPU-S LLM
DeepSeek-R1 Distill Qwen 32B deepseek-ai/DeepSeek-R1-Distill-Qwen-32B 64 GB 80 GB GPU-S LLM
DeepSeek-R1 Distill Llama 70B deepseek-ai/DeepSeek-R1-Distill-Llama-70B 140 GB 160 GB GPU-S LLM
Mistral Small 3.2 24B (multimodal) mistralai/Mistral-Small-3.2-24B-Instruct-2506 48 GB 60 GB GPU-S LLM
Gemma 3 27B (multimodal) 🔒 مقيّد google/gemma-3-27b-it 54 GB 64 GB GPU-L LLM
Gemma 3 12B (multimodal) 🔒 مقيّد google/gemma-3-12b-it 24 GB 28 GB GPU-S LLM
Phi-4 (14B) microsoft/phi-4 28 GB 32 GB GPU-S LLM
Phi-4 Mini Instruct (3.8B) microsoft/Phi-4-mini-instruct 8 GB 10 GB GPU-S LLM
FLUX.1 [dev] 🔒 مقيّد black-forest-labs/FLUX.1-dev 24 GB 24 GB GPU-S صورة
FLUX.1 [schnell] black-forest-labs/FLUX.1-schnell 24 GB 24 GB GPU-S صورة
FLUX.1 Kontext [dev] (image editing) 🔒 مقيّد black-forest-labs/FLUX.1-Kontext-dev 24 GB 24 GB GPU-S صورة
Stable Diffusion 3.5 Large 🔒 مقيّد stabilityai/stable-diffusion-3.5-large 16 GB 18 GB GPU-S صورة
Stable Diffusion 3.5 Medium 🔒 مقيّد stabilityai/stable-diffusion-3.5-medium 5 GB 10 GB GPU-S صورة
HiDream-I1 Full HiDream-ai/HiDream-I1-Full 34 GB 40 GB GPU-S صورة
Wan 2.2 T2V A14B Wan-AI/Wan2.2-T2V-A14B 28 GB 40 GB GPU-S فيديو
Wan 2.1 T2V 1.3B (low VRAM) Wan-AI/Wan2.1-T2V-1.3B 3 GB 8 GB GPU-S فيديو
HunyuanVideo 1.5 (8.3B) tencent/HunyuanVideo-1.5 17 GB 24 GB GPU-S فيديو
LTX-Video 0.9.8 13B Lightricks/LTX-Video 26 GB 24 GB GPU-S فيديو
CogVideoX-5B zai-org/CogVideoX-5b 10 GB 16 GB GPU-S فيديو
Whisper Large v3 Turbo openai/whisper-large-v3-turbo 2 GB 4 GB GPU-S صوت
Whisper Large v3 openai/whisper-large-v3 3 GB 6 GB GPU-S صوت
Kokoro 82M (TTS) hexgrad/Kokoro-82M 1 GB 2 GB GPU-S صوت
Sesame CSM-1B (conversational TTS) sesame/csm-1b 2 GB 6 GB GPU-S صوت
Stable Audio Open 1.0 🔒 مقيّد stabilityai/stable-audio-open-1.0 3 GB 8 GB GPU-S صوت

الأحجام تمثل أوزان FP16. لـ RTX 4090 (24 GB VRAM) مع نماذج 70B، يُحمَّل تلقائياً البديل المُضغوط AWQ بالتوازي.

كيف نقارن

ServPrivacy مقابل Vast.ai · RunPod · Paperspace · Lambda Labs · TensorDock

دفع بالعملات المشفرة فقط، دعم Monero الأصلي، تسجيل بالرمز فقط، حزم ذكاء اصطناعي مثبتة مسبقاً، نماذج HuggingFace محمّلة مسبقاً، رموز HF مشفرة، نقاط نهاية Let's Encrypt تلقائية، نطاق ترددي غير محدود وطاقة متجددة 100% في آيسلندا — اقرأ الصف المسمى "ServPrivacy" واحكم بنفسك.

الميزة ServPrivacy Vast.ai RunPod Paperspace Lambda TensorDock
دفع بالعملات المشفرة فقط ✅ 14 chains⚠️ BTC⚠️ Gateway⚠️ BTC/ETH/USDT
دعم Monero (XMR) الأصلي
بدون KYC، بدون تسجيل بالبريد الإلكتروني ✅ Token-only⚠️ Email + ID for trust⚠️ Email + payment❌ Full KYC❌ Enterprise KYC⚠️ Email + light KYC
حزم الذكاء الاصطناعي مثبتة مسبقاً ✅ 17 templates⚠️ Docker BYO✅ 100+⚠️ Notebooks only⚠️ Lambda Stack only⚠️ Docker BYO
نماذج محمّلة مسبقاً عند الطلب ✅ 27 models
رمز HuggingFace عند الطلب ✅ Encrypted, used once
مفتاح SSH عند الطلب ⚠️⚠️
مؤقت الإيقاف التلقائي ✅ 6h-7d⚠️ Spot only
نقطة نهاية HTTPS عامة (Let's Encrypt) ✅ Auto⚠️ Manual✅ Pods⚠️ Manual
نطاق ترددي غير محدود ⚠️ Per host⚠️ Capped⚠️ Capped⚠️ Capped⚠️ Per host
مركز بيانات بطاقة متجددة ✅ Iceland 100% geo+hydro❌ Variable⚠️ US grid⚠️ US grid⚠️ US grid⚠️ Variable
ولاية قضائية خارجية ✅ IS / NL / RO / MD❌ Distributed P2P❌ US-centric❌ US❌ US-only⚠️ Multi-region
وضع الاختبار الجاف (Sandbox) ✅ ?dry_run=1⚠️ Trial credit⚠️ Limited⚠️ Free GPU tier
أولوية عميل الذكاء الاصطناعي / MCP ✅ MCP + REST + x402⚠️ REST⚠️ REST⚠️ REST⚠️ REST⚠️ REST
RTX 4090 الأساسي / شهر $249~$216 spot~$396 on-demandn/an/a~$252 spot

بيانات المقارنة مستقاة من صفحات التسعير العامة للمنافسين لشهر 2026-05 وتدفقات التسجيل. ServPrivacy RTX 4090 المدخل = 249$/شهر مولدوفا؛ أسعار "spot" للمنافسين هي متوسط أسعار الأجهزة المعادلة.

الأسئلة الشائعة

الأسئلة الشائعة حول استضافة GPU للذكاء الاصطناعي

01 هل يتم تمرير GPU بوصول كامل للعتاد، أم أنه مشترك / مُقسَّم بـ vGPU؟

تمرير كامل للعتاد. تحصل على بطاقة NVIDIA المادية بالكامل مع وصول مباشر إلى VRAM — ليس شريحة vGPU، ولا قسم MIG مشترك زمنياً. يُظهر nvidia-smi داخل جهازك الافتراضي نفس الأرقام كالمضيف المعدني الخالص. وصول كامل للتعريف، CUDA كامل، مكدس PyTorch / TensorFlow كامل — لا تحفظات SR-IOV.

02 ما إصدارات CUDA / التعريف المُثبَّتة مسبقاً؟

الصورة الافتراضية: Ubuntu 22.04 + CUDA 12.4 + cuDNN 9 + NVIDIA driver 550. صور جاهزة أخرى: Ubuntu 24.04 + CUDA 12.6، Ubuntu 22 + PyTorch 2.5، Ubuntu 22 + ComfyUI + Flux، Ubuntu 22 + Ollama + Open WebUI. Ubuntu / Debian / AlmaLinux / Rocky العادي متاح أيضاً إذا أردت تثبيت مكدسك الخاص. يمكنك تبديل إصدارات التعريف في أي وقت بصلاحية جذر كاملة.

03 هل يمكنني تشغيل استدلال إنتاجي لشركتي الناشئة في مجال الذكاء الاصطناعي على هذه الـ GPU؟

نعم. كثير من عملاء GPU لدينا يُشغِّلون واجهات برمجة تطبيقات استدلال عامة فوق vLLM / TGI / FastAPI. تأتي خوادم GPU مع جذر كامل، فوترة شهرية متوقعة (بدون مفاجآت لكل رمز) وعنوان IP ثابت لولاية قضائية محددة. النطاق الترددي غير محدود في كل خطط GPU، فيمكنك خدمة نقاط نهاية عامة ذات حركة مرور عالية دون مراقبة عدادات أو دفع رسوم تجاوز.

04 لماذا Russia مستثناة من مواقع GPU؟

H100 وA100 وبطاقات RTX عالية الجودة (4090 وما فوق) من NVIDIA تخضع لضوابط تصدير وزارة التجارة الأمريكية (15 CFR Part 744) ولوائح الاتحاد الأوروبي للاستخدام المزدوج التي تحظر شحنها إلى مراكز البيانات الروسية. لا نوفرها في Russia للامتثال للضوابط المنطبقة على سلسلة التوريد الخاصة بنا. إذا كنت بحاجة إلى Linux VPS خارجي أو مخصص في Russia، فتلك الخطوط غير متأثرة.

05 لماذا تُعدّ Iceland موقع GPU المميز؟

تعمل مراكز بيانات Iceland بنسبة 100% من الطاقة المتجددة الحرارية الأرضية والكهرومائية، وتُخفض درجة الحرارة المحيطة الباردة بشكل ملحوظ تكاليف التبريد على خوادم H100 التي تستهلك 700 واط لكل منها تحت حمل مستمر. النتيجة هي أدنى حوسبة GPU خارجية كربوناً في السوق. يغطي السعر المميز التكلفة الأعلى لمراكز البيانات في Iceland ومصادر الطاقة الأنظف — لفرق الذكاء الاصطناعي الواعية بمعايير ESG، هذه هي الإجابة الخارجية الوحيدة الموثوقة.

06 هل يمكنني استخدام عدة GPU في التدريب الموزع (DDP / FSDP)؟

نعم — مستوى GPU-XL هو 2× H100 SXM5 مع توصيل NVLink داخل جهاز واحد، مثالي لـ FSDP / DeepSpeed Zero-3 / DDP على نفس الجهاز. للتدريب متعدد العقد يمكنك استئجار عدة خوادم GPU-XL في نفس مركز البيانات وتوصيلها عبر الرابط الصاعد 10 Gbps. لا نشحن بعد عقد عقدة 8× H100 — تواصل معنا إذا كانت جلسة التدريب تحتاج إلى نطاق أكبر.

انشر خادم GPU الخارجي الخاص بك

اختر ولايتك القضائية، اختر GPU من NVIDIA، وادفع بأي من 14 عملة مشفرة. JupyterLab مباشر في أقل من 60 ثانية. بدون KYC، بدون بريد إلكتروني، بدون هاتف — فقط رمز مميز.

عرض خطط GPU