跳到主要内容

支持的操作系统

CSGHub-Lite 支持在多种操作系统和硬件平台上运行。本文档列出了经过测试和验证支持的环境。

操作系统支持

操作系统支持状态架构备注
Ubuntu✅ 支持x86_64, ARM64推荐使用 LTS 版本(如 20.04、22.04、24.04)
Debian✅ 支持x86_64, ARM64推荐使用稳定版
CentOS✅ 支持x86_64, ARM64支持 CentOS 7/8/9 Stream
macOS✅ 支持x86_64, Apple Silicon支持 Intel Mac 和 Apple M 系列芯片
Windows✅ 支持x86_64支持 Windows 10/11,建议使用 PowerShell

硬件加速器支持

CSGHub-Lite 支持多种硬件加速器以提升推理性能:

硬件支持状态备注
Mac mini✅ 支持Apple Silicon 原生支持 Metal 加速
AMD Instinct MI50✅ 支持AMD ROCm 支持
AMD Instinct MI200 / MI250✅ 支持AMD ROCm 支持
NVIDIA GPU 系列✅ 支持支持 CUDA,推荐使用支持 CUDA 的显卡

系统要求

最低配置

  • CPU: 4 核心及以上
  • 内存: 8 GB RAM(运行小模型如 Qwen3-0.6B)
  • 存储: 10 GB 可用磁盘空间
  • 网络: 稳定的网络连接(用于下载模型)

推荐配置

  • CPU: 8 核心及以上
  • 内存: 16 GB RAM 或更多(运行大模型)
  • GPU: NVIDIA GPU(CUDA 支持)或 Apple Silicon Mac
  • 存储: 50 GB 以上可用磁盘空间(存储多个模型)

依赖项

必需依赖

  • llama-server: 推理后端,安装脚本会自动安装

可选依赖

  • Python 3.10+: 用于 SafeTensors 模型转换
  • PyTorch: SafeTensors 转换所需
  • safetensors: SafeTensors 格式支持
  • transformers: 模型转换支持

安装可选依赖:

pip3 install torch safetensors gguf transformers

安装验证

安装完成后,可以通过以下命令验证系统支持:

# 查看版本信息
csghub-lite --version

# 测试运行一个小模型
csghub-lite run Qwen/Qwen3-0.6B-GGUF

常见问题

Windows 上安装失败

确保使用 PowerShell 以管理员身份运行安装脚本。如果遇到执行策略限制,请先运行:

Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser

Linux 上缺少依赖

如果安装脚本未能自动安装 llama-server,请手动安装:

# Ubuntu/Debian
sudo apt-get update
sudo apt-get install -y llama.cpp

# 或从源码编译
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp && make

macOS 上 Apple Silicon 支持问题

确保安装了 Xcode Command Line Tools:

xcode-select --install

GPU 加速不生效

  • NVIDIA GPU: 确保安装了最新的 CUDA 驱动和工具包
  • AMD GPU: 确保安装了 ROCm 支持
  • Apple Silicon: Metal 加速默认启用,无需额外配置

不再支持的系统版本

以下系统版本已停止官方支持:

系统最后支持版本说明
Windows 7/8-不支持,请升级到 Windows 10/11
macOS 10.x-需要 macOS 11 (Big Sur) 或更高版本
Ubuntu 18.04-建议升级到 LTS 版本

反馈与支持

如果您在特定系统上遇到问题,请通过以下方式获取帮助: