本地优先 · Qwen 驱动 · 开源核心
把你的文档,变成可对话的
本地私有知识库
LocalMind 是一款本地运行的 AI 知识助手:轻量部署、隐私优先,
基于向量检索 + Qwen(通义千问)实现 RAG 智能问答,
让 PDF、文档、笔记不再只是“堆在那里”,而是真正成为你的第二大脑。
完全本地 文档与向量存储在你的机器,不上传云端
LLM 可插拔 默认 Qwen,后续可扩展本地大模型
内置聊天界面预览
/chat · MVP
Me
我已导入本季度的业务复盘材料。
帮我提炼三个最关键的问题,作为管理层会议的讨论重点。
来自:本地文档 · 经营分析材料
AI
根据已导入的复盘内容,建议管理层关注以下 3 个核心问题:
1. 业务结构失衡:增长主要依赖单一渠道,抗风险能力较弱;
2. 项目交付效率偏低:跨团队协作链路存在明显等待与反复;
3. 关键人才负荷过高:组织容量不足已成为瓶颈,影响中期规划。
如需,我可以继续生成会议提纲或汇报材料。
来源:本地知识库 · 6 个相关片段
POST /query → 向量检索关键片段
Qwen → 基于真实数据生成管理洞察
所有内容仅在本地完成处理
经营分析
管理复盘
决策支持
本地知识库
✨ 核心功能特点
LocalMind 目前处于 MVP 阶段,专注在一件事情上:把你的本地文档,变成可检索、可追溯、可对话的知识库。
整体架构简单、透明,方便你在此基础上二次开发或做私有部署。
🔐 纯本地 · 隐私优先
文档与向量全部保存在你的机器上,仅在需要时调用 Qwen 模型。
未来将支持完全离线模型,让“隐私”不仅写在文案里,而是写进架构里。
🧠 RAG 知识问答
使用向量检索从知识库中找出相关片段,再交给大模型生成回答。
相比“纯聊天”,它真正基于你的资料,而不是凭空想象。
🤖 Qwen 驱动
基于阿里云 Model Studio 的 Qwen 系列模型,通过 OpenAI 兼容接口接入。
支持 text-embedding-v1 + qwen-plus,可按需替换模型。
💬 内置 Chat UI
直接访问 /chat 即可体验现代化聊天界面,
支持查看上下文片段、对话历史,前端为纯静态 Vue3,无需构建工具。
🧩 结构简单,二开友好
FastAPI + Chroma + OpenAI SDK,目录结构与接口都非常克制,
适合作为你自己项目的“本地 RAG 内核”。
🧭 Open Core 路线
核心代码开源,未来会提供一键安装、桌面版、多知识库、团队版等增强付费功能,
在“社区”与“产品”之间保持一个健康的平衡。
🧬 它是如何工作的?
从工程视角看,LocalMind 只是做了三件很简单的事情:
解析 → 切片 → 向量 → 检索 → 调用 Qwen。
你可以把它当作一条最小可用的“本地 RAG 管线”。
1 文本导入 / ingest
通过 POST /ingest 接口发送文本内容(未来支持文件上传)。
{"text": "你的文档内容..."}
2 切片 + 向量化
在本地对文本进行简单切片,调用 text-embedding-v1 生成向量,写入 Chroma。
3 检索相关片段
当你提问时,对问题做向量化,从向量库中找出最相关的若干片段。
4 Qwen 生成回答
把“问题 + 检索到的片段”打包喂给 Qwen,让它在你自己的知识基础上生成回复。
🗺 路线图 Roadmap
当前版本只是一个干净的 MVP。后续会逐步演进成“可一键部署的本地知识 OS”,
并在合适的时机提供桌面版本和企业版。
-
✅
Qwen 接入(chat + embedding) · FastAPI 服务 · Chroma 本地向量库
-
✅
内置静态 Chat 页面
/chat · 支持查看上下文片段
-
🟡
PDF / Word / Markdown 文件上传与解析,并自动入库
-
🟡
多知识库管理:按项目 / 客户 / 主题 分不同空间
-
🟡
本地模型支持:通过 Ollama / llama.cpp 等接入离线 LLM
-
🟡
桌面版(Windows / macOS / Linux)一键安装包
-
🟡
企业私有部署版:带管理后台、多用户权限、审计日志等