Finetuning e inferencia de LLM
Finetuning de Llama, Mistral, Qwen, DeepSeek con LoRA / QLoRA / FT completo en H100. O inferencia auto-hospedada con vLLM / TGI / Ollama para serving de modelos en producción.
Servidores NVIDIA GPU offshore en Países Bajos desde $279/mes. Tarjetas RTX 4090, RTX 5090 y H100 SXM5 con passthrough KVM y acceso root completo. CUDA 12 + cuDNN preinstalados, presets de PyTorch / ComfyUI / Ollama listos para conectarse por SSH. Pago solo en cripto, sin KYC, sin email — solo un token de cuenta.
Netherlands ofrece el cómputo GPU de menor latencia en nuestra red gracias al peering en AMS-IX. Si sirves modelos de IA a usuarios europeos (inferencia en menos de 10ms hacia Europa Occidental) o descargas grandes conjuntos de datos desde registros europeos de modelos, esta es la ubicación a elegir. El ancho de banda de AMS-IX también es el más económico por TB en nuestra red.
Todos los planes incluyen CUDA 12 + cuDNN preinstalados, NVMe SSD, RAM DDR5, acceso root completo, SSH + JupyterLab y ancho de banda ilimitado.
| Plan | GPU | VRAM | CPU | RAM | NVMe | Ancho de banda | Precio | |
|---|---|---|---|---|---|---|---|---|
| NL-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | Ilimitado | $279/mo | Pedir |
| NL-M Popular | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | Ilimitado | $449/mo | Pedir |
| NL-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | Ilimitado | $1799/mo | Pedir |
| NL-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | Ilimitado | $3399/mo | Pedir |
Los servidores GPU destacan en cargas de trabajo que escalan con VRAM y tensor cores — finetuning e inferencia de LLM, generación de imágenes por difusión, video con IA y serving de modelos de alto rendimiento.
Finetuning de Llama, Mistral, Qwen, DeepSeek con LoRA / QLoRA / FT completo en H100. O inferencia auto-hospedada con vLLM / TGI / Ollama para serving de modelos en producción.
Stable Diffusion, FLUX.1, SDXL con ComfyUI o Forge. Entrena tu propio LoRA, genera en lote a escala o auto-hospeda un endpoint de inferencia.
OpenSora, CogVideoX, Wan-2.1, AnimateDiff. La generación de video exige mucha VRAM — empieza con RTX 5090 (32 GB) o H100 (80 GB).
Despliega modelos ajustados detrás de tu propia API. Costos predecibles, sin cobros por token, sin datos saliendo de tu jurisdicción. JupyterLab + FastAPI incluidos.
RTX 4090 (24 GB), RTX 5090 (32 GB), H100 SXM5 (80 GB), 2× H100 (160 GB).
Hasta 4 TB NVMe SSD, junto con RAM DDR5 para I/O rápido de conjuntos de datos.
Del pedido pagado al resultado de nvidia-smi en menos de 60 segundos.
SSH con root completo, más JupyterLab preconfigurado en el puerto 8888 con autenticación por token.
Los Países Bajos ofrecen el mejor peering de red en Europa a través de AMS-IX. Latencia inferior a 10ms a la mayor parte de Europa Occidental, excelente capacidad de ancho de banda y un entorno de alojamiento históricamente tolerante.
Los Países Bajos son miembro de la UE, por lo que el GDPR se aplica. Sin embargo, ServPrivacy no recopila datos personales, por lo que el cumplimiento del GDPR está integrado en nuestra arquitectura de cero datos. Sin datos personales no hay riesgo de GDPR.
Extremadamente rápidos. El peering de AMS-IX ofrece latencia inferior a 10ms a Europa Occidental y excelente conectividad global. Nuestros servidores neerlandeses incluyen hasta 10 Gbps de enlace ascendente y ancho de banda ilimitado.
Estrictas leyes de privacidad, energía renovable, fuera de la UE.
Regulación mínima, precios bajos, cooperación internacional mínima.
Los tribunales anularon las leyes de retención de datos. Excelente conectividad con la UE.
Paga con BTC, XMR, ETH, USDT u otras 10 cadenas. SSH + JupyterLab en una GPU NVIDIA real en Países Bajos en menos de 60 segundos.