搭建环境

更新时间: 2025-12-26 08:46:56

# 安装Ollama

开源免费的大模型运行工具,支持所有主流开源模型

  1. https://ollama.com/download (opens new window)下载Windows版本安装包
  2. 双击安装包,等待安装完成(整个过程10秒左右)
  3. 验证安装是否成功: 按下Win+R键,输入cmd打开命令提示符 输入:ollama --version,如果出现版本信息,说明安装成功
  4. 打开Ollama,修改模型存储的位置,防止模型存在C盘
  5. 在LM Studio搜索框输入qwen3:8b,点击下载
    ::: tips
  • 首选模型:Qwen3-8B 为什么选它?
    中文理解能力顶尖,对产品配置文档、中文术语支持最佳
    80亿参数,性能足够应对日常知识库查询需求
    完全开源免费,支持商用,没有任何限制

  • 备选模型:DeepSeek-R1 适用场景: 技术类文档、代码、配置公式处理能力更强 对于复杂逻辑推理和多步骤问题解答更有优势 :::

# 安装Docker

Docker是用来运行AnythingLLM的基础工具,就像一个“软件容器”,可以让我们不用操心复杂的环境配置。

  1. https://www.docker.com/products/docker-desktop/ (opens new window)下载安装包

  2. 双击安装包开始安装,选择「Use WSL 2 instead of Hyper-V」(如果系统提示需要启用WSL,按照提示完成操作)

  3. 安装完成后,Docker会自动启动,你可以在任务栏右下角看到Docker的鲸鱼图标

  4. 打开Docker,进入配置页面,进入Docker Engine,将配置修改为,这一步是改为国内源

{
  "debug": false,
  "experimental": false,
  "insecure-registries": null,
  "registry-mirrors": [
    "https://docker.m.daocloud.io",
    "https://registry.docker-cn.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn"
  ]
}
1
2
3
4
5
6
7
8
9
10
11

点击Apply重启Docker

注意

如果打开docker的界面出现这个不要慌

解决方法:

  1. 启用适用于 Linux 的 Windows 子系统
    必须先启用“适用于 Linux 的 Windows 子系统”可选功能,然后才能在 Windows 上安装任何 Linux 分发版。 以管理员身份打开 PowerShell (> PowerShell > 右键单击 > 以管理员身份运行) 并输入以下命令:
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart  
1
  1. 打开PowerShell(右键开始菜单选择Windows PowerShell),输入以下命令并回车:
wsl --update
1

# 启动AnythingLLM (可选,体验一下,我们实际不用这个)

AnythingLLM开源免费的知识库管理工具,代码完全公开

  1. 拉取anythingllm镜像(我们不使用这个,当然你想用这个也行) 打开cmd, docker pull mintplexlabs/anythingllm
    拉取完以后启动
docker run -p 3001:3001 -v D:/anythingllm:/app/server/storage -e STORAGE_DIR=/app/server/storage mintplexlabs/anythingllm
1

然后就可以在 localhost:3001访问到了

以后可以直接在docker里直接运行不用复杂的命令行

然后就可以看到成功运行了

# 下载并启动RAGflow

  1. 配置Ollama环境变量
    OLLAMA_HOST=0.0.0.0
  2. 访问Ollama的官方网站去查找自己想要的模型https://ollama.com/search (opens new window)
ollama pull qwen3-embedding:8b  
ollama pull qwen3:8b
1
2

可以换成更好的模型 2. 下载RAGflow
https://github.com/infiniflow/ragflow/blob/main/README_zh.md (opens new window)

git clone https://github.com/infiniflow/ragflow.git  
1
  1. 修改配置
    下载好的ragflow文件夹下有个docker文件夹,里面有个.env配置,修改配置,将这一行的注释取消
RAGFLOW_IMAGE=infiniflow/ragflow:v0.23.0  
1
  1. docker部署并启动
    进入ragflow/docker文件夹下,cmd执行命令
docker compose -f docker-compose.yml up -d
1

提示

如果你遇到 Docker 镜像拉不下来的问题,可以在 docker/.env 文件内根据变量 RAGFLOW_IMAGE 的注释提示选择华为云或者阿里云的相应镜像。

华为云镜像名:swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow 阿里云镜像名:registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow

  1. 服务成功后确认一下服务器状态
docker logs -f docker-ragflow-cpu-1
1

出现以下界面提示说明服务器启动成功:

    / __ \ /   |  / ____// ____// /____  _      __
   / /_/ // /| | / / __ / /_   / // __ \| | /| / /
  / _, _// ___ |/ /_/ // __/  / // /_/ /| |/ |/ /
 /_/ |_|/_/  |_|\____//_/    /_/ \____/ |__/|__/

 * Running on all addresses (0.0.0.0)
1
2
3
4
5
6

# 访问并配置RAGflow

直接在浏览器上访问localhost就可以访问你的RAGflow,第一次进来要注册登录,注册登录一下就好了

  1. 点击头像》模型提供商,添加模型,我们选择Ollama模型 有几点需要注意一下:
  • 模型的类型是embedding还是chat需要选择
  • 模型名称不能随便乱填,可以去命令行里Ollama list看一下有哪些模型,直接复制名字
  • windows下用docker部署的,基础url需要填 http://host.docker.internal:11434,不然添加不上
  • embedding模型和chat模型都需要添加至少一个
  1. 设置默认模型,这里选择就行了

# 上传文件构建知识库

新建一个知识库,点击配置

  • 需要选嵌入模型,在你的电脑承受的范围内选最好的
  • 最大token数调大
  • 内置分块的方法选General
  • 文本分段标识符填一下,然后保存

上传文件然后点击解析

然后新建一个聊天,配置聊天的知识库和模型,就可以正常对话啦,问知识库中的内容没有问题