Finetuning e inferencia de LLM
Finetuning de Llama, Mistral, Qwen, DeepSeek con LoRA / QLoRA / FT completo en H100. O inferencia auto-hospedada con vLLM / TGI / Ollama para serving de modelos en producción.
Servidores NVIDIA GPU offshore en Rumanía desde $269/mes. Tarjetas RTX 4090, RTX 5090 y H100 SXM5 con passthrough KVM y acceso root completo. CUDA 12 + cuDNN preinstalados, presets de PyTorch / ComfyUI / Ollama listos para conectarse por SSH. Pago solo en cripto, sin KYC, sin email — solo un token de cuenta.
Romania combina infraestructura de nivel europeo con el precedente más sólido del Tribunal Constitucional contra la retención de datos en la UE. Los centros de datos aquí tienen peering directo a AMS-IX y DE-CIX con latencia de 25-30 ms hacia Europa Occidental — a precios de Europa del Este. Un punto intermedio ideal cuando quieres bajo costo sin sacrificar postura legal.
Todos los planes incluyen CUDA 12 + cuDNN preinstalados, NVMe SSD, RAM DDR5, acceso root completo, SSH + JupyterLab y ancho de banda ilimitado.
| Plan | GPU | VRAM | CPU | RAM | NVMe | Ancho de banda | Precio | |
|---|---|---|---|---|---|---|---|---|
| RO-S | 1× NVIDIA RTX 4090 | 24 GB GDDR6X | 12 vCPU | 64 GB DDR5 | 1 TB NVMe | Ilimitado | $269/mo | Pedir |
| RO-M Popular | 1× NVIDIA RTX 5090 | 32 GB GDDR7 | 16 vCPU | 96 GB DDR5 | 1.5 TB NVMe | Ilimitado | $429/mo | Pedir |
| RO-L | 1× NVIDIA H100 SXM5 | 80 GB HBM3 | 24 vCPU | 192 GB DDR5 | 2 TB NVMe | Ilimitado | $1749/mo | Pedir |
| RO-XL | 2× NVIDIA H100 SXM5 | 160 GB HBM3 | 32 vCPU | 384 GB DDR5 | 4 TB NVMe | Ilimitado | $3299/mo | Pedir |
Los servidores GPU destacan en cargas de trabajo que escalan con VRAM y tensor cores — finetuning e inferencia de LLM, generación de imágenes por difusión, video con IA y serving de modelos de alto rendimiento.
Finetuning de Llama, Mistral, Qwen, DeepSeek con LoRA / QLoRA / FT completo en H100. O inferencia auto-hospedada con vLLM / TGI / Ollama para serving de modelos en producción.
Stable Diffusion, FLUX.1, SDXL con ComfyUI o Forge. Entrena tu propio LoRA, genera en lote a escala o auto-hospeda un endpoint de inferencia.
OpenSora, CogVideoX, Wan-2.1, AnimateDiff. La generación de video exige mucha VRAM — empieza con RTX 5090 (32 GB) o H100 (80 GB).
Despliega modelos ajustados detrás de tu propia API. Costos predecibles, sin cobros por token, sin datos saliendo de tu jurisdicción. JupyterLab + FastAPI incluidos.
RTX 4090 (24 GB), RTX 5090 (32 GB), H100 SXM5 (80 GB), 2× H100 (160 GB).
Hasta 4 TB NVMe SSD, junto con RAM DDR5 para I/O rápido de conjuntos de datos.
Del pedido pagado al resultado de nvidia-smi en menos de 60 segundos.
SSH con root completo, más JupyterLab preconfigurado en el puerto 8888 con autenticación por token.
Sí. El Tribunal Constitucional de Rumanía ha anulado las leyes de retención de datos en múltiples ocasiones, creando un sólido precedente legal. Los proveedores de alojamiento en Rumanía no están obligados a retener datos de usuarios, lo que la convierte en uno de los miembros de la UE más favorables a la privacidad.
Rumanía combina infraestructura y conectividad de nivel UE con precedentes judiciales contra la retención de datos. Obtienes rendimiento de Europa Occidental a precios de Europa del Este, sin registro obligatorio de datos.
Sí. Rumanía tiene un excelente peering con los principales puntos de intercambio europeos. La latencia a Europa Occidental es típicamente inferior a 30ms, lo que la hace ideal para aplicaciones que exigen alto rendimiento.
Estrictas leyes de privacidad, energía renovable, fuera de la UE.
Regulación mínima, precios bajos, cooperación internacional mínima.
Excelente conectividad, alojamiento tolerante, peering AMS-IX.
Paga con BTC, XMR, ETH, USDT u otras 10 cadenas. SSH + JupyterLab en una GPU NVIDIA real en Rumanía en menos de 60 segundos.