通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  中士

注册:2006-11-299
跳转到指定楼层
1#
发表于 2026-2-25 15:55:17 |只看该作者 |倒序浏览
1. 安装 Ollama(本地跑模型)
官网下载,一路下一步:
https://ollama.com/download/windows


安装完,打开 命令提示符(CMD),输入:

[backcolor=rgba(0, 0, 0, 0)]ollama run qwen:7b








等待自动下载、自动启动。
出现 >>>  就说明模型跑起来了。


7B 模型:16GB 内存可跑。




二、安装 AnythingLLM(最简单的知识库界面)
下载 Windows 版:
https://github.com/Mintplex-Labs/anything-llm/releases


下载后缀是:
AnythingLLM-Setup-x.x.x.exe


安装、打开。



三、1 分钟连接本地大模型
  • 打开 AnythingLLM → 点右上角 Settings
  • 找到 LLM Provider
    选择:Ollama
  • 模型输入:[backcolor=rgba(0, 0, 0, 0)]qwen:7b
  • 保存 → 提示连接成功。



四、创建你的本地知识库(超级简单)
  • 左侧 Workspaces → Create Work[color=rgba(255, 255, 255, 0.85)]space
  • [color=rgba(255, 255, 255, 0.85)]上传文件:PDF、DOCX、TXT、MD 都行
  • 点 Save & Embed
    自动分片、向量化、存入本地库

完成后,直接在聊天框提问:

  • “这份报告的结论是什么?”
  • “帮我总结这段内容”

它会根据你上传的文档回答[color=rgba(255, 255, 255, 0.85)],这就是本地知识库。

举报本楼

本帖有 3 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2026-2-25 19:10 , Processed in 0.134182 second(s), 16 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部