申明:该功能基于 chatgpt-on-wechat 项目,并根据个大佬的修改进行整合,只在自己 Mac 中跑通过,不代表适用于所有人。
步骤:
1、克隆项目代码
git clone https://github.com/bingkina/ollama-on-wechat
cd chatgpt-on-wechat/
2、安装核心依赖
pip3 install -r requirements.txt
3、拓展依赖 (建议安装):
pip3 install -r requirements-optional.txt
配置文件的模板在根目录的config-template.json
中,需复制该模板创建最终生效的 config.json
文件
cp config-template.json config.json
然后在config.json中填入配置,以下是对默认配置的说明,可根据需要进行自定义修改(注意实际使用时请去掉注释,保证JSON格式的完整):
“channel_type”: “wx”
“model”: “llama3.1:8b”
“ollama_base_url”: “http://127.0.0.1”
“ollama_port”
“proxy”
“hot_reload”
“single_chat_prefix”
“single_chat_reply_prefix
“group_chat_prefix”
“group_name_white_list”
无需修改
llama3.1:8b 为 ollama 中本地模型的名称,刻通过 looama list 进行查询模型名称进行替换
默认情况无需修改
默认情况无需修改
默认情况留空
程序退出后,暂存等于状态,默认关闭
私聊时文本需要包含该前缀才能触发机器人回复
私聊时自动回复的前缀,用于区分真人
群聊时文本需要包含该前缀才能触发机器人回复
开启自动回复的群名称列表
4、更多信息刻查看原项目注释
https://github.com/zhayujie/chatgpt-on-wechat?tab=readme-ov-file#二配置
5、运行
python3 app.py # windows环境下该命令通常为 python app.py
由于使用的是非官方微信接口,可能会被封号,请使用小号进行尝试