Dockerfile
FROM pytorch/pytorch:2.1.0-cuda11.8-cudnn8-runtime
# Install additional dependencies
RUN pip install wandb tensorboard
# Add your custom requirements
COPY requirements.txt .
RUN pip install -r requirements.txtPython
from torch.cuda.amp import autocast
with autocast():
outputs = model(inputs)专为此构建
主流框架全支持
在您自主选择的硬件上运行 TensorFlow、PyTorch、JAX 等主流机器学习框架。预置镜像开箱即用,无需手动配置。
分布式训练
支持分布式训练,可在单节点或多节点间灵活部署。兼容 DeepSpeed、Horovod、PyTorch DDP 等分布式策略。
精确版本控制
精确锁定您的代码所需的 CUDA 版本和 NVIDIA 驱动程序版本。避免环境不一致导致的训练问题。
高级性能调优
利用硬件计数器进行高级调优,加速 GPU 性能。支持混合精度训练、梯度累积等优化策略。
相关指南
NexGPU 上的 PyTorch 完全指南
TensorFlow GPU 加速训练教程
多节点分布式训练实战
开始构建:AI/ML 框架模板
使用预置模板快速启动您的机器学习工作流。
PyTorch
深度学习框架,灵活易用,社区生态丰富。支持动态计算图和 GPU 加速。
TensorFlow
机器学习端到端平台。从研究到生产,提供完整的 ML 生态系统。
JAX
Google 高性能数值计算库,支持自动微分和 XLA 编译加速。
NVIDIA CUDA Toolkit
GPU 计算开发工具包,包含编译器、调试器和性能分析工具。
在 NexGPU 上构建您的 ML 工作流
无论是学术研究的模型实验,还是企业级的生产训练管线,NexGPU 都能提供灵活、经济、高性能的 GPU 算力支持。