一、简介
chatgpt-on-wechat(简称CoW)项目是基于大模型的智能对话机器人,支持微信公众号、企业微信应用、飞书、钉钉接入,可选择GPT3.5/GPT4.0/Claude/Gemini/LinkAI/ChatGLM/KIMI/文心一言/讯飞星火/通义千问/LinkAI,能处理文本、语音和图片,通过插件访问操作系统和互联网等外部资源,支持基于自有知识库定制企业AI应用。
开源地址: CoW 基于大模型搭建的聊天机器人
最新版本支持的功能如下:
- ✅ 多端部署: 有多种部署方式可选择且功能完备,目前已支持微信公众号、企业微信应用、飞书、钉钉等部署方式
- ✅ 基础对话: 私聊及群聊的消息智能回复,支持多轮会话上下文记忆,支持 GPT-3.5, GPT-4o-mini, GPT-4o, GPT-4, Claude-3.5, Gemini, 文心一言, 讯飞星火, 通义千问,ChatGLM-4,Kimi(月之暗面), MiniMax
- ✅ 语音能力: 可识别语音消息,通过文字或语音回复,支持 azure, baidu, google, openai(whisper/tts) 等多种语音模型
- ✅ 图像能力: 支持图片生成、图片识别、图生图(如照片修复),可选择 Dall-E-3, stable diffusion, replicate, midjourney, CogView-3, vision模型
- ✅ 丰富插件: 支持个性化插件扩展,已实现多角色切换、文字冒险、敏感词过滤、聊天记录总结、文档总结和对话、联网搜索等插件
- ✅ 知识库: 通过上传知识库文件自定义专属机器人,可作为数字分身、智能客服、私域助手使用,基于 LinkAI 实现
二、部署
支持 Linux、MacOS、Windows 系统(可在Linux服务器上长期运行),同时需安装 Python。
建议Python版本在 3.7.1~3.9.X 之间,推荐3.8版本,3.10及以上版本在 MacOS 可用,其他系统上不确定能否正常运行。
docker 部署不需要关心
运行环境
1. 运行环境
- 克隆项目代码
#如遇到网络问题可选择国内镜像 https://gitee.com/zhayujie/chatgpt-on-wechat
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/
- 安装核心依赖 (必选)
能够使用
itchat
创建机器人,并具有文字交流功能所需的最小依赖集合。
pip3 install -r requirements.txt
- 拓展依赖 (可选,建议安装)
#如果某项依赖安装失败可注释掉对应的行再继续
pip3 install -r requirements-optional.txt
2. 配置
配置文件的模板在根目录的 config-template.json
中,需复制该模板创建最终生效的 config.json
文件
cp config-template.json config.json
然后在 config.json
中填入配置,以下是对默认配置的说明,可根据需要进行自定义修改(注意实际使用时请去掉注释,保证JSON格式的完整)
# config.json文件内容示例
{
"model": "gpt-3.5-turbo", # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
"open_ai_api_key": "YOUR API KEY", # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
"proxy": "", # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
"single_chat_prefix": ["bot", "@bot"], # 私聊时文本需要包含该前缀才能触发机器人回复
"single_chat_reply_prefix": "[bot] ", # 私聊时自动回复的前缀,用于区分真人
"group_chat_prefix": ["@bot"], # 群聊时包含该前缀则会触发机器人回复
"group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], # 开启自动回复的群名称列表
"group_chat_in_one_session": ["ChatGPT测试群"], # 支持会话上下文共享的群名称
"image_create_prefix": ["画", "看", "找"], # 开启图片回复的前缀
"conversation_max_tokens": 1000, # 支持上下文记忆的最多字符数
"speech_recognition": false, # 是否开启语音识别
"group_speech_recognition": false, # 是否开启群组语音识别
"voice_reply_voice": false, # 是否使用语音回复语音
"character_desc": "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。", # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
"subscribe_msg": "感谢您的关注!\n这里是ChatGPT,可以自由对话。\n支持语音对话。\n支持图片输出,画字开头的消息将按要求创作图片。\n支持角色扮演和文字冒险等丰富插件。\n输入{trigger_prefix}#help 查看详细指令。",
"use_linkai": false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
"linkai_api_key": "", # LinkAI Api Key
"linkai_app_code": "" # LinkAI 应用或工作流code
}
3. 运行
a. 后台运行
# 在后台运行程序并通过日志输出二维码
nohup python3 app.py & tail -f nohup.out
- 扫码登录后程序即可运行于服务器后台,此时可通过
ctrl+c
关闭日志,不会影响后台程序的运行。- 使用
ps -ef | grep app.py
命令可查看运行于后台的进程,如果想要重新启动程序可以先kill
掉对应的进程。- 日志关闭后如果想要再次打开只需输入
tail -f nohup.out
。此外,scripts
目录下有一键运行、关闭程序的脚本供使用。
b. docker部署
- 拉取镜像
docker pull zhayujie/chatgpt-on-wechat
- 运行容器
docker run -it -d --name chatgpt-on-wechat --restart=always -e OPEN_AI_API_BASE=https://api.xiyangai.cn/v1 -e OPEN_AI_API_KEY=sk-xxxxx -e MODEL=gpt-4o-mini -e GROUP_NAME_WHITE_LIST='["群名1","群名2"]' zhayujie/chatgpt-on-wechat
其他配置如果更改,加上
-e xxxx=xxx
即可
注:如果使用第三方openai
代理key
,需要替换接口即OPEN_AI_API_BASE
。
- docker-compose.yml 部署
version: '2.0'
services:
chatgpt-on-wechat:
image: zhayujie/chatgpt-on-wechat
container_name: chatgpt-on-wechat
security_opt:
- seccomp:unconfined
environment:
OPEN_AI_API_KEY: 'YOUR API KEY'
MODEL: ''
PROXY: ''
SINGLE_CHAT_PREFIX: '["bot", "@bot"]'
SINGLE_CHAT_REPLY_PREFIX: '"[bot] "'
GROUP_CHAT_PREFIX: '["@bot"]'
GROUP_NAME_WHITE_LIST: '["ChatGPT测试群", "ChatGPT测试群2"]'
IMAGE_CREATE_PREFIX: '["画", "看", "找"]'
CONVERSATION_MAX_TOKENS: 1000
SPEECH_RECOGNITION: 'False'
CHARACTER_DESC: '你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。'
EXPIRES_IN_SECONDS: 3600
USE_GLOBAL_PLUGIN_CONFIG: 'True'
USE_LINKAI: 'False'
LINKAI_API_KEY: ''
LINKAI_APP_CODE: ''
在
docker-compose.yml
所在目录下执行命令:
sudo docker compose up -d
- 插件使用
如果需要在 docker 容器中修改插件配置,可通过挂载的方式完成,将 插件配置文件 重命名为
config.json
,放置于docker-compose.yml
相同目录下
在
docker-compose.yml
中的chatgpt-on-wechat
部分下添加volumes
映射
volumes:
- ./config.json:/app/plugins/config.json
使用命令行挂载
-v /实际地址/config.json:/app/plugins/config.json
- 登录微信
容器正常运行后,执行日志查看命令,即可扫码登录微信:
sudo docker logs -f chatgpt-on-wechat
c. 效果展示
三、关于微信登录
- 此处扫码登录微信,是桌面版微信,最好使用小号登录!
- 对于
IOS系统
无法多开微信,在小号退出手机端微信时,桌面端也会退出,可以使用以下解决方案:
- 首先使用小号扫码登录微信。
- 成功后,断开手机的网络。
- 在设置中切换账号,选择你的大号登录
- 等到无网络提示登录失败时,恢复网络,登录大号。