零基础快速上手 AMD GPU 大模型部署
本模块提供在 AMD GPU 上部署大语言模型的完整教程。无论你是初学者还是有经验的开发者,都可以通过本教程快速掌握在 ROCm 平台上部署和运行大模型的方法。
自 ROCm 7.10.0 起,ROCm 已支持像 CUDA 一样在 Python 虚拟环境中无缝安装,这大大降低了 AMD GPU 大模型部署的门槛。
本教程将手把手带你在 Ubuntu 24.04 上完成 ROCm 7.1.0 的安装与验证,包括卸载旧 ROCm 环境、运行官方脚本安装 ROCm、以及使用 rocminfo / rocm-smi / amd-smi 等工具确认 GPU 与驱动状态。建议在开始任何部署教程之前先完成本篇。
- 适合人群:首次在 AMD GPU 上搭建 ROCm 环境的用户
- 难度等级:⭐⭐
- 预计时间:1 小时
LM Studio 是一款用户友好的桌面应用,支持在本地运行大语言模型。本教程将指导你如何在 AMD GPU 上使用 LM Studio 部署和运行大模型。
- 适合人群:零基础用户、希望快速体验大模型的用户
- 难度等级:⭐
- 预计时间:30 分钟
vLLM 是一个高性能的大模型推理和服务框架,支持高效的 PagedAttention 和连续批处理。本教程将指导你如何在 AMD GPU 上使用 vLLM 部署大模型服务。
- 适合人群:需要搭建推理服务的开发者
- 难度等级:⭐⭐
- 预计时间:1 小时
Ollama 是一个快速服务大语言模型和视觉语言模型的框架,具有高效的后端运行时。本教程将指导你如何在 AMD GPU 上使用 Ollama 部署大模型。
- 适合人群:需要高性能推理服务的开发者
- 难度等级:⭐⭐
- 预计时间:1 小时
ATOM 是一个针对 AMD GPU 优化的推理框架。本教程将指导你如何使用 ATOM 在 AMD GPU 上高效运行大模型。
- 适合人群:追求极致性能的开发者
- 难度等级:⭐⭐⭐
- 预计时间:1.5 小时
llama.cpp 是一个轻量且高性能的推理后端,支持 GGUF 等多种模型格式,并已提供针对 ROCm 的优化版本。本教程将介绍如何在 Ubuntu 24.04 + ROCm 7+ 环境下使用预编译二进制与 Docker 两种方式部署 Qwen3 等主流模型。
- 适合人群:希望用命令行 / REST API 自由编排推理流程的开发者
- 难度等级:⭐⭐⭐
- 预计时间:1.5 小时
- AMD GPU(支持 ROCm 的显卡,如 RX 7000 系列、MI 系列等)
- 建议显存 8GB 以上
- 操作系统:Linux (Ubuntu 22.04+) 或 Windows 11
- ROCm 7.10.0 或更高版本
- Python 3.10+
Q: 如何确认我的 AMD GPU 是否支持 ROCm?
请参考 ROCm 官方支持列表 查看支持的 GPU 型号。
Q: 部署时遇到 "HIP error" 怎么办?
- 确认 ROCm 已正确安装
- 检查环境变量是否正确设置
- 尝试重启系统后再次运行