ollama 本地模型接入微信

申明:该功能基于 chatgpt-on-wechat 项目,并根据个大佬的修改进行整合,只在自己 Mac 中跑通过,不代表适用于所有人。

步骤:

1、克隆项目代码

git clone https://github.com/bingkina/ollama-on-wechat
cd chatgpt-on-wechat/

2、安装核心依赖

pip3 install -r requirements.txt

3、拓展依赖 (建议安装):

pip3 install -r requirements-optional.txt

配置文件的模板在根目录的config-template.json中,需复制该模板创建最终生效的 config.json 文件

cp config-template.json config.json

然后在config.json中填入配置,以下是对默认配置的说明,可根据需要进行自定义修改(注意实际使用时请去掉注释,保证JSON格式的完整):

“channel_type”: “wx”

“model”: “llama3.1:8b”

“ollama_base_url”: “http://127.0.0.1”

“ollama_port”

“proxy”

“hot_reload”

“single_chat_prefix”

“single_chat_reply_prefix

“group_chat_prefix”

“group_name_white_list”

无需修改

llama3.1:8b 为 ollama 中本地模型的名称,刻通过 looama list 进行查询模型名称进行替换

默认情况无需修改

默认情况无需修改

默认情况留空

程序退出后,暂存等于状态,默认关闭

私聊时文本需要包含该前缀才能触发机器人回复

私聊时自动回复的前缀,用于区分真人

群聊时文本需要包含该前缀才能触发机器人回复

开启自动回复的群名称列表

4、更多信息刻查看原项目注释

https://github.com/zhayujie/chatgpt-on-wechat?tab=readme-ov-file#二配置

5、运行

python3 app.py # windows环境下该命令通常为 python app.py

由于使用的是非官方微信接口,可能会被封号,请使用小号进行尝试


已发布

分类

来自