LLM 微调与推理
在 H100 上使用 LoRA / QLoRA / 全量微调对 Llama、Mistral、Qwen、DeepSeek 进行微调。或使用 vLLM / TGI / Ollama 进行自托管推理,用于生产模型服务。
Iceland 是离岸市场上碳排放最低的 GPU 算力选项。当地数据中心 100% 使用可再生地热与水力发电,寒冷的环境温度显著降低了满载 700W 的 H100 机器的冷却开销。对于需要离岸隐私而不愿使用高污染电力的 ESG 意识 AI 团队,Iceland 是唯一可信的选择。Iceland 还处于欧盟之外,因此 GDPR 对您的训练数据不具备服务器端管辖权。
所有方案均含预装 CUDA 12 + cuDNN、NVMe SSD、DDR5 内存、完全 root 权限、SSH + JupyterLab 和无限带宽。
| 方案 | GPU | VRAM | CPU | 内存 | NVMe | 带宽 | 价格 | |
|---|---|---|---|---|---|---|---|---|
| IS-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | 无限 | $299/mo | 订购 |
| IS-M 热门 | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | 无限 | $479/mo | 订购 |
| IS-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | 无限 | $1849/mo | 订购 |
| IS-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | 无限 | $3499/mo | 订购 |
GPU 服务器在随 VRAM 和张量核心扩展的工作负载上表现突出 — LLM 微调与推理、扩散图像生成、AI 视频及高吞吐模型服务。
在 H100 上使用 LoRA / QLoRA / 全量微调对 Llama、Mistral、Qwen、DeepSeek 进行微调。或使用 vLLM / TGI / Ollama 进行自托管推理,用于生产模型服务。
使用 ComfyUI 或 Forge 运行 Stable Diffusion、FLUX.1、SDXL。训练自己的 LoRA,大规模批量生成,或自托管推理端点。
OpenSora、CogVideoX、Wan-2.1、AnimateDiff。视频生成需要充足 VRAM — 从 RTX 5090(32 GB)或 H100(80 GB)起步。
在您自己的 API 后端部署微调模型。成本可预测,无按 token 计费,数据不离开您的司法管辖区。含 JupyterLab + FastAPI。
RTX 4090(24 GB)、RTX 5090(32 GB)、H100 SXM5(80 GB)、2× H100(160 GB)。
最高 4 TB NVMe SSD,搭配 DDR5 内存,实现快速数据集 I/O。
从付款到 nvidia-smi 输出,60 秒内完成。
完全 root SSH,以及预绑定在 8888 端口、使用令牌认证的 JupyterLab。
是的。冰岛拥有全球最强的言论自由和隐私保护措施。由于不是欧盟成员国,GDPR不适用于服务器端操作。DMCA请求在冰岛法律中没有法律依据。
不会。DMCA是美国法律,在冰岛没有任何管辖权。冰岛法院按照自己的法律框架运作,该框架大力支持言论自由。
不需要。ServPrivacy不要求任何个人信息。无需姓名、电子邮件、电话或身份证件。您使用加密货币支付并获得一个令牌来管理您的服务器。