快速开始
欢迎使用蜜语 AI。只需简单四步,即可开启你的本地 AI 角色扮演之旅。
安装 Ollama
前往 Ollama 官网下载并安装适合你系统的版本。
拉取 AI 模型
在终端运行命令下载模型,推荐 qwen2.5:7b。
启动蜜语
双击运行蜜语启动器,浏览器将自动打开界面。
创建角色
点击新建角色,填写人设,开始第一段对话!
系统要求
最低配置
- OS Windows 10 / macOS 11 / Linux
- CPU 4核 Intel/AMD 或 Apple M1
- RAM 8 GB (运行 7B 量化模型)
- Disk 至少 10GB 可用空间
推荐配置
- OS Windows 11 / macOS 13+
- CPU 8核+ 或 Apple M2/M3
- RAM 16 GB+ (更流畅的响应)
- GPU NVIDIA 3060 12G+ (可选)
安装与配置
1. 安装 Ollama 后端
蜜语依赖 Ollama 提供 AI 算力。安装完成后,打开终端(Terminal/CMD)验证安装:
2. 拉取推荐模型
我们推荐使用通义千问 2.5 或 Llama 3 作为基础模型。运行以下命令:
3. 系统参数设置
在蜜语主界面左下角点击「设置」图标,可调整以下参数:
| 参数名 | 说明 | 默认值 | 建议 |
|---|---|---|---|
| API 地址 | Ollama 服务接口地址 | http://localhost:11434 | 保持默认 |
| 上下文长度 | AI 记忆的对话长度 (token) | 4096 | 8192 (若内存充足) |
| 温度 (Temperature) | 回答的随机性/创造性 | 0.7 | 0.7 - 0.9 |
功能详解
🎭 角色管理
点击侧边栏的「+」号即可创建新角色。优秀的 Prompt(提示词)是角色灵魂的核心。
💬 聊天功能
上下文记忆: 系统会自动将最近的 N 条消息发送给 AI 以保持对话连贯性。当对话过长时,最早的记忆会被截断。
📂 会话管理
多会话支持让你可以同时进行多条剧情线,每个会话都保持独立的上下文和记忆。
🛠️ 角色卡制作工具
蜜语内置了符合社区标准的角色卡编辑器。支持导出为 JSON 格式分享给他人。
JSON 结构示例:
常见问题 (FAQ)
原因: Ollama 后台服务未启动或端口被占用。
解决方案: 请确认已安装 Ollama 并运行了应用程序。在浏览器访问 http://localhost:11434,若显示 "Ollama is running" 则正常。
这通常取决于硬件性能。请尝试使用参数量较小的模型(如 qwen2.5:1.5b)或检查是否有后台程序占用大量 CPU/内存。
蜜语使用浏览器本地存储 (IndexedDB)。您可以在「设置」->「高级」中找到「导出全部数据」按钮生成备份文件。
Ollama 默认仅监听本机。需设置环境变量 OLLAMA_HOST=0.0.0.0 重新启动 Ollama 服务。
高级技巧
🧠 思维链 Prompt
在角色设定中加入 Let's think step by step 可以显著提升 AI 处理复杂逻辑的能力。
🌍 世界书 (World Info)
利用知识库功能,将世界观设定(如地名、魔法系统)单独存储,触发关键词时自动注入上下文。
🎨 自定义 CSS
在设置中开启「开发者模式」,可注入自定义 CSS 代码修改聊天气泡颜色和背 图。
🔄 多模型切换
为不同角色指定不同模型。例如:用 DeepSeek-Coder 扮演程序员,用 Llama3 扮演小说家。
⚖️ 免责声明
- 内容生成: 本系统生成的所有内容均由 AI 模型实时计算产生,不代表开发者的立场或观点。
- 数据隐私: 蜜语是纯本地应用,您的聊天记录、角色数据均存储在您的设备浏览器中,我们不会上传至任何云端服务器。
- 使用责任: 用户需自行承担使用本软件产生的风险,请勿利用本工具生成违法、暴力或色情内容。
- 开源协议: 本项目遵循 MIT 开源协议,软件按「原样」提供,不提供任何形式的明示或暗示担保。
版本历史
v1.0.0 Current
2025-11-22
- 🎉 蜜语 AI 聊天系统正式准备让摩多发布。
- ✨ 支持 Ollama 本地模型连接。
- ✨ 包含角色管理、多会话支持、流式响应功能。
- 🎨 推出「霓虹」与「极简」两款主题。
v0.9.0 (Beta)
2025-11-21
- 🐛 我开始和摩多扯皮。
- 🧪 内部测试版发布。