久远,一个开发中的大模型语音助手。之前代码太臃肿,于是新分支重写,重点放在易用性上,使其成为一个实用的东西。
简约代码则不再使用本地模型,即使要本地化也使用接口方式对接本程序。大模型只对接openai接口,其他厂商模型可以使用oneapi的方式匹配。目前取消了语音输入,原因在于实在不常用。后续再考虑是否加入。使用MCP来扩展助手能力。
目前功能:
- 大模型的记忆存储
- 使用文本输入交流,输出文本和语音
- MCP功能
后续计划:
- 优化TTS
- 优化记忆存储,提升记忆价值
- GUI交互
- 创建并激活conda环境(可选)
conda create -n kuon python=3.10
conda activate kuon- 克隆仓库
git clone https://github.com/yourusername/kuon.git
cd kuon- 安装依赖
pip install -r requirements.txt对话密钥(必需)
# Windows (PowerShell)
$env:OPENAI_API_KEY = "您的OpenAI API密钥"
$env:OPENAI_BASE_URL = "API基础URL"
# Linux/macOS
export OPENAI_API_KEY="您的OpenAI API密钥"
export OPENAI_BASE_URL="API基础URL"- TTS密钥(可选,目前只有阿里TTS,可以只文字交互)
# Windows (PowerShell)
$env:ALIYUN_ACCESS_KEY_ID= ""
# Linux/macOS
export ALIYUN_ACCESS_KEY_ID=""根目录的config.yaml文件:
tts:
enabled: true # 是否启用TTS
engine: "aliyun" # TTS引擎选择,目前支持 "aliyun"
mcp:
enabled: true # 是否默认启用MCP工具
config_path: "mcp_server/temp_mcp_server.json" # MCP服务器配置文件路径 如需使用MCP功能,请参考mcp_server/temp_mcp_server.json配置文件:
{
"mcpServers": {
"general": {
"type": "stdio",
"command": "执行命令",
"args": ["命令参数"],
"env": {
"OPENWEATHERMAP_API_KEY": "额外环境变量"
}
},
"mcp-hotnews-server": {
"type": "sse",
"url": "https://mcp.modelscope.cn/sse/"
}
}
}运行主程序:
python kuon.py程序启动后,直接输入文本与AI交互。输入"exit"或"quit"退出程序。
下图展示了与久远助手的实际交互效果:

目前对话记忆被直接存储在了chat_engines/memory.json文件中,可以根据需求进行删改。
特别是存储了一些奇怪的东西时。