跳到主要内容

CLI 命令参考

CSGHub-Lite 提供了丰富的命令行工具,方便用户在终端直接管理和运行大语言模型。模型名称通常遵循 命名空间/模型名称 的格式,例如 Qwen/Qwen3-0.6B-GGUF

基本命令

命令说明
csghub-lite run <model>拉取模型、启动后台服务并开始聊天(全自动)
csghub-lite chat <model>与本地已下载的模型进行聊天对话
csghub-lite ps列出当前正在运行(已加载到内存)的模型及保留时长
csghub-lite stop <model>停止并卸载当前正在运行的模型
csghub-lite serve手动启动该 API 服务器(run 命令会自动处理)
csghub-lite pull <model>从 CSGHub 下载指定的模型文件
csghub-lite list / ls列出所有本地已下载的模型
csghub-lite show <model>显示指定模型的详细信息(格式、大小、具体文件)
csghub-lite rm <model>删除指定的本地模型文件
csghub-lite login设置 CSGHub 平台的访问令牌(用于私有模型)
csghub-lite search <query>在 CSGHub 平台上搜索指定的模型
csghub-lite uninstall彻底移除 csghub-lite、llama-server 及其相关数据
csghub-lite --version查看当前版本信息

配置命令

命令说明
csghub-lite config set <key> <value>设置具体的配置项
csghub-lite config get <key>获取指定配置项的值
csghub-lite config show查看当前所有的配置信息

run vs chat 的区别

  • run — 自动化程度最高。如果本地没有模型,它会自动下载;它还会自动启动后台服务器并进入交互聊天。
  • chat — 专门用于与已下载的模型进行对话。如果您想使用自定义的系统提示词,可以带上 --system 参数。
# 下载、运行并聊天(全自动)
csghub-lite run Qwen/Qwen3-0.6B-GGUF

# 退出聊天后,模型会保留在内存中,下次即刻重新开始
csghub-lite run Qwen/Qwen3-0.6B-GGUF

# 与已下载模型开启带有系统提示词的任务
csghub-lite chat Qwen/Qwen3-0.6B-GGUF --system "你是一个专业的编程助手。"