LocalMind
本地 AI 知识助手 · Local AI Knowledge OS
本地优先 · Qwen 驱动 · 开源核心

把你的文档,变成可对话的
本地私有知识库

LocalMind 是一款本地运行的 AI 知识助手:轻量部署、隐私优先, 基于向量检索 + Qwen(通义千问)实现 RAG 智能问答, 让 PDF、文档、笔记不再只是“堆在那里”,而是真正成为你的第二大脑。

完全本地 文档与向量存储在你的机器,不上传云端 LLM 可插拔 默认 Qwen,后续可扩展本地大模型
内置聊天界面预览 /chat · MVP
Me
我已导入本季度的业务复盘材料。 帮我提炼三个最关键的问题,作为管理层会议的讨论重点。 来自:本地文档 · 经营分析材料
AI
根据已导入的复盘内容,建议管理层关注以下 3 个核心问题:

1. 业务结构失衡:增长主要依赖单一渠道,抗风险能力较弱; 2. 项目交付效率偏低:跨团队协作链路存在明显等待与反复; 3. 关键人才负荷过高:组织容量不足已成为瓶颈,影响中期规划。
如需,我可以继续生成会议提纲或汇报材料。 来源:本地知识库 · 6 个相关片段
POST /query → 向量检索关键片段
Qwen → 基于真实数据生成管理洞察
所有内容仅在本地完成处理
经营分析 管理复盘 决策支持 本地知识库

✨ 核心功能特点

LocalMind 目前处于 MVP 阶段,专注在一件事情上:把你的本地文档,变成可检索、可追溯、可对话的知识库。 整体架构简单、透明,方便你在此基础上二次开发或做私有部署。

🔐 纯本地 · 隐私优先

文档与向量全部保存在你的机器上,仅在需要时调用 Qwen 模型。 未来将支持完全离线模型,让“隐私”不仅写在文案里,而是写进架构里。

🧠 RAG 知识问答

使用向量检索从知识库中找出相关片段,再交给大模型生成回答。 相比“纯聊天”,它真正基于你的资料,而不是凭空想象。

🤖 Qwen 驱动

基于阿里云 Model Studio 的 Qwen 系列模型,通过 OpenAI 兼容接口接入。 支持 text-embedding-v1 + qwen-plus,可按需替换模型。

💬 内置 Chat UI

直接访问 /chat 即可体验现代化聊天界面, 支持查看上下文片段、对话历史,前端为纯静态 Vue3,无需构建工具。

🧩 结构简单,二开友好

FastAPI + Chroma + OpenAI SDK,目录结构与接口都非常克制, 适合作为你自己项目的“本地 RAG 内核”。

🧭 Open Core 路线

核心代码开源,未来会提供一键安装、桌面版、多知识库、团队版等增强付费功能, 在“社区”与“产品”之间保持一个健康的平衡。

🧬 它是如何工作的?

从工程视角看,LocalMind 只是做了三件很简单的事情: 解析 → 切片 → 向量 → 检索 → 调用 Qwen。 你可以把它当作一条最小可用的“本地 RAG 管线”。

1 文本导入 / ingest

通过 POST /ingest 接口发送文本内容(未来支持文件上传)。

{"text": "你的文档内容..."}
2 切片 + 向量化

在本地对文本进行简单切片,调用 text-embedding-v1 生成向量,写入 Chroma。

3 检索相关片段

当你提问时,对问题做向量化,从向量库中找出最相关的若干片段。

4 Qwen 生成回答

把“问题 + 检索到的片段”打包喂给 Qwen,让它在你自己的知识基础上生成回复。

🗺 路线图 Roadmap

当前版本只是一个干净的 MVP。后续会逐步演进成“可一键部署的本地知识 OS”, 并在合适的时机提供桌面版本和企业版。