Skip to content

Latest commit

 

History

History
138 lines (114 loc) · 7.79 KB

model.md

File metadata and controls

138 lines (114 loc) · 7.79 KB

模型加载器配置

我们目前支持以下模型加载器(./llm):

模型加载器 介绍 支持的模型列表
azure 可调用 GitHub Marketplace 中的在线模型 模型列表
dashscope 可调用阿里云百炼平台的在线模型 模型列表
llmtuner 可调用 LLaMA-Factory 支持的模型 模型列表
ollama 使用 Ollama Python SDK 访问 Ollama 接口,需要提前启动模型服务 模型列表
openai 可调用 OpenAI API 格式的接口 any
rwkv-api 使用 RWKV-Runner 提供的 API 服务访问 RWKV 模型 RWKV-any
transformers 使用 transformers 方案加载, 适合通过 P-tuning V2 方式微调的模型 ChatGLM
xfyun 可调用由 星火大模型精调平台 微调的在线模型 模型列表

对于不同的加载器,可能需要额外的依赖,请根据报错提示安装。

不同的模型加载器需要添加/修改的配置如下:

azure

loader: azure # 使用 azure 加载器
model_name: DeepSeek-R1 # 模型名称(可选,默认为 DeepSeek-R1)
token: <your-github-token-goes-here> # GitHub Token(若配置了环境变量,此项不填)
system_prompt: # 系统提示(可选)
auto_system_prompt: false # 自动配置沐雪的系统提示(默认为 false)
user_instructions: '我们来玩一个角色扮演的小游戏吧,现在开始你是一个名为的“沐雪”的AI女孩子,用猫娘的语气和我说话。' # 用户提示(对于 DeepSeek-R1 此类不推荐添加系统提示的模型非常有用,此项内容自动添加至历史上下文中)
auto_user_instructions: true # 自动配置沐雪的用户提示(默认为 false)
max_tokens: 1024 # 模型生成的最大 token 数(可选,默认为 1024)
temperature: 0.75 # 模型生成的温度参数(可选)
top_p: 0.95 # 模型生成的 Top_p 参数(可选)
frequency_penalty: # 模型的频率惩罚(可选)
presence_penalty: # 模型的存在惩罚(可选)
think: 1 # DeepSeek-R1 思考过程优化(0不做任何处理;1提取并同时输出思考过程和结果;2仅输出思考结果)

dashscope

loader: dashscope # 使用 dashscope 加载器
model_name: qwen-max # 模型名称(必须)
api_key: xxxxxx # API 密钥(必须)
max_tokens: 1024 # 模型生成的最大 token 数(可选,默认为 1024)
temperature: 0.7 #  模型生成的温度参数(可选,默认为 0.7)
top_p: 0.95 # 模型生成的 Top_p 参数(可选)
repetition_penalty: 1.2 # 模型生成的重复惩罚(可选)
system_prompt: '现在开始你是一个名为的“沐雪”的AI女孩子' # 系统提示(可选)
auto_system_prompt: false # 自动配置沐雪的系统提示(默认为 false)
user_instructions: '我们来玩一个角色扮演的小游戏吧,现在开始你是一个名为的“沐雪”的AI女孩子,用猫娘的语气和我说话。' # 用户提示(对于 DeepSeek-R1 此类不推荐添加系统提示的模型非常有用。此项仅在 History 为空时生效)
auto_user_instructions: true # 自动配置沐雪的用户提示(默认为 false)
think: 1 # DeepSeek-R1 思考过程优化(0不做任何处理;1提取并同时输出思考过程和结果;2仅输出思考结果)

llmtuner

loader: llmtuner # 使用 llmtuner 加载器
model_path: model/Qwen2.5-7B-Instruct-GPTQ-Int4 # 原始模型路径(必填)
adapter_path: model/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4# # 微调模型路径(可选)
template: qwen # LLaMA-Factory 中模型的模板(必填)
system_prompt: '现在开始你是一个名为的“沐雪”的AI女孩子' # 系统提示(可选)
auto_system_prompt: false # 自动配置沐雪的系统提示(默认为 false)
max_tokens: 1024 # 模型生成的最大 token 数(可选,默认为 1024)
temperature: 0.75 # 模型生成的温度参数(可选)
top_k: 0.95 # 模型生成的 Top_k 参数(可选)

ollama

loader: ollama # 使用 ollama 加载器
model_path: deepseek-r1 # ollama 模型名称(必填)
host: http://localhost:11434 # ollama 客户端端口

openai

loader: openai # 使用 openai 加载器
model_name: text-davinci-003 # OpenAI API 模型名称(可选,默认为 "text-davinci-003")
api_key: xxxxxx # OpenAI API 密钥(必须)
api_base: https://api.openai.com/v1 # 服务器 API 接口地址 (可选,默认 OpenAI 服务)
max_tokens: 1024 # 模型生成的最大 token 数(可选,默认为 1024)
temperature: 0.7 #  模型生成的温度参数(可选,默认为 0.7)
system_prompt: '现在开始你是一个名为的“沐雪”的AI女孩子' # 系统提示(可选)
auto_system_prompt: false # 自动配置沐雪的系统提示(默认为 false)

rwkv-api

loader: rwkv-api # 使用 rwkv-api 加载器
host: http://localhost:8000 # RWKV API 服务器地址
model: Muice # 模型名称(可选)
temperature: 1 #  模型生成的温度参数(可选)
top_p: 0.3 # 模型生成的 Top_p 参数(可选)
max_tokens: 1024 # 模型生成的最大 token 数(可选)
presence_penalty: 0 # 模型的存在惩罚(可选)

transformers

loader: transformers # 使用 rwkv-transformers 加载器
model_path: model/Qwen2.5-7B-Instruct-GPTQ-Int4 # 原始模型路径(必填)
adapter_path: model/Muice-2.7.1-Qwen2.5-7B-Instruct-GPTQ-Int4-8e-4# # 微调模型路径(可选)

xfyun

loader: xfyun # 使用 xfyun 加载器
app_id: xxxxxxx # 服务管控中的 app_id
api_key: 1dxxxxxx # APIKey
api_secret: XXXXX # APISecret
service_id: xqwen257bchat # 服务管控中的 service_id
resource_id: '123456789' # 服务管控中的 resource_id
system_prompt: '现在开始你是一个名为的“沐雪”的AI女孩子' # 系统提示(可选)
auto_system_prompt: false # 自动配置沐雪的系统提示(默认为 false)
max_tokens: 1024 # 模型生成的最大 token 数(可选,默认为 2048)
temperature: 0.75 # 模型生成的温度参数(可选,默认为 0.5)
top_p: 0.95 # 模型生成的 Top_p 参数(可选,默认为 4)

多模态模型加载器配置

本仓库目前仅支持 dashscope 模型加载器调用多模态模型,使用其他的模型加载器可能会导致预料之外的结果。

dashscope

multimodal:
  enable: true # 是否启用多模态
  loader: dashscope # 使用 dashscope 加载器
  model_name: qwen-vl-plus # 多模态模型名称
  api_key: sk-xxxxxxx # 阿里百炼平台密钥(必须)