- 经验
- 209
- 分贝
- 0
- 家园分
- 967
- 在线时间:
- 240 小时
- 最后登录:
- 2026-2-25
- 帖子:
- 161
- 精华:
- 0
- 注册时间:
- 2006-11-29
- UID:
- 134743
注册:2006-11-29 9
|
1. 安装 Ollama(本地跑模型)
官网下载,一路下一步:
https://ollama.com/download/windows
安装完,打开 命令提示符(CMD),输入:
[backcolor=rgba(0, 0, 0, 0)]ollama run qwen:7b
等待自动下载、自动启动。
出现 >>> 就说明模型跑起来了。
7B 模型:16GB 内存可跑。
二、安装 AnythingLLM(最简单的知识库界面)
下载 Windows 版:
https://github.com/Mintplex-Labs/anything-llm/releases
下载后缀是:
AnythingLLM-Setup-x.x.x.exe
安装、打开。
三、1 分钟连接本地大模型
- 打开 AnythingLLM → 点右上角 Settings
- 找到 LLM Provider
选择:Ollama - 模型输入:[backcolor=rgba(0, 0, 0, 0)]qwen:7b
- 保存 → 提示连接成功。
四、创建你的本地知识库(超级简单)
- 左侧 Workspaces → Create Work[color=rgba(255, 255, 255, 0.85)]space
- [color=rgba(255, 255, 255, 0.85)]上传文件:PDF、DOCX、TXT、MD 都行
- 点 Save & Embed
自动分片、向量化、存入本地库
完成后,直接在聊天框提问:
它会根据你上传的文档回答[color=rgba(255, 255, 255, 0.85)],这就是本地知识库。
|
|