deepseek-r1本地部署和企业知识库搭建
deepseek-r1本地部署和企业知识库搭建

deepseek-r1本地部署和企业知识库搭建

1.登录Ollama官网,点击下载安装包

亲测需要科学上网才能开始下载。

 

deepseek-r1本地部署和企业知识库搭建插图

得到下面的安装包。

 

deepseek-r1本地部署和企业知识库搭建插图1

安装包下载完毕之后,点击,再点击install,会出现下面这样的安装进程,默认C盘且无法更改安装地址 。

 

deepseek-r1本地部署和企业知识库搭建插图2

安装之后,电脑右下角会出现图标,如果不放心可以在CMD窗口输入ollama查看是否安装成功。

deepseek-r1本地部署和企业知识库搭建插图3

此时键入ollama list还是没有出现任何东西的。

deepseek-r1本地部署和企业知识库搭建插图4

2.接下来需要配置环境变量:

deepseek-r1本地部署和企业知识库搭建插图5

3.回到Ollama官网,点击Models,选择deepseek-r1模型

deepseek-r1本地部署和企业知识库搭建插图6

 

复制下面的指令,并粘贴在CMD窗口

deepseek-r1本地部署和企业知识库搭建插图7

此时黑窗口就会开始下载r1模型

deepseek-r1本地部署和企业知识库搭建插图8

显示success之后,再键入ollama list就会有如下显示:

deepseek-r1本地部署和企业知识库搭建插图9

我这里更推荐下载下面带版本号的蒸馏模型,方便后续搭建知识库的时候引用

deepseek-r1本地部署和企业知识库搭建插图10

初体验:deepseek-r1给我的初感觉像是个刚学会说话的孩子,和chatgpt最大的使用区别就在于会把思考的过程也事无巨细呈现出来,两段式的回复使其更具拟人的色彩。

deepseek-r1本地部署和企业知识库搭建插图11

4.安装和搭建知识库软件

4.1安装Docker

在Docker官网下载安装包

deepseek-r1本地部署和企业知识库搭建插图12

记得添加国内镜像

deepseek-r1本地部署和企业知识库搭建插图13

下载完成docker之后保持docker桌面软件的打开状态。

4.2 下载ragflow

deepseek-r1本地部署和企业知识库搭建插图14

随便找到一个空文件(如 D:\ragflow),打开文件夹然后右键打开git Bash并使用下面的代码,进行git克隆(前提是已经下载并安装好git Bash)

deepseek-r1本地部署和企业知识库搭建插图15

注意:Git拉取代码前,可能需要先配置Git代理

此时会得到下面的项目文件

deepseek-r1本地部署和企业知识库搭建插图16

进入 docker 文件夹,利用提前编译好的 Docker 镜像启动服务器:打开黑窗口

deepseek-r1本地部署和企业知识库搭建插图17

Docker拉取镜像

修改镜像为国内镜像并且选择embedding版本

如果下载是全量的RAGFlow镜像,会带有嵌入模型,可以按图中选择;另外也可以添加自定的嵌入模型,方法同前面的模型提供商设置

修改文件docker/.env/

默认配置为:RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.0-slim

修改为国内镜像(全量镜像):RAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:v0.17.0

deepseek-r1本地部署和企业知识库搭建插图18

使用 docker-compose.yml 启动项目,并在后台运行

注意:首次执行docker compose时可能时间会很长,因为要拉取部署ragflow所依赖的docker镜像,所以耗时比较长

deepseek-r1本地部署和企业知识库搭建插图19

容器启动后的容器实例

deepseek-r1本地部署和企业知识库搭建插图20

服务器启动成功后再次确认服务器状态:这条代码的作用是查看 ragflow-server 容器的日志,并实时更新输出

出现下面的图标,代表服务器启动成功

deepseek-r1本地部署和企业知识库搭建插图21

RAGFlow部署后默认的端口为80,打开浏览器输入地址:  http://localhost 

deepseek-r1本地部署和企业知识库搭建插图22

注册一个账号并登录。

deepseek-r1本地部署和企业知识库搭建插图23

4.3配置模型

在rag界面点击右上角的头像,左侧找到模型提供商

deepseek-r1本地部署和企业知识库搭建插图24

在待添加中选择Ollama或者deepseek,我这里选择的是ollama,根据自己下载的模型名称,添加LLM

deepseek-r1本地部署和企业知识库搭建插图25

点击右上角系统模型设置完成模型设置。

deepseek-r1本地部署和企业知识库搭建插图26

4.4 搭建知识库

回到主界面,点击知识库并创建

deepseek-r1本地部署和企业知识库搭建插图27

这里的解析方法,需要根据自己的使用场景,自己选定,比如general方法支持的文件格式为DOCX、EXCEL、PPT、IMAGE、PDF、TXT、MD、JSON、EML、HTML。此方法将简单的方法应用于块文件:

  • 系统将使用视觉检测模型将连续文本分割成多个片段。
  • 接下来,这些连续的片段被合并成Token数不超过“Token数”的块。

deepseek-r1本地部署和企业知识库搭建插图28

搭建完知识库之后,再次点击进去,准备添加知识库文件,例如,我现在创建一个txt文本,自定义了一个概念,模拟企业级别的概念应用。

deepseek-r1本地部署和企业知识库搭建插图29

4.5测试

点击:聊天->新建助理,设置自己的聊天机器人

deepseek-r1本地部署和企业知识库搭建插图30

有了聊天助理之后,点击新建聊天。

deepseek-r1本地部署和企业知识库搭建插图31

如下,当我问及某概念的时候,它就会从数据库中提取相关信息,用deepseek-r1模型进行回答

deepseek-r1本地部署和企业知识库搭建插图32

4.6 关闭服务器

关闭ragflow服务器

像下面这样,它会关闭 docker-compose.yml 里所有的容器,但不会删除数据卷和网络

deepseek-r1本地部署和企业知识库搭建插图33

4.7重启服务器

重复上面的3个步骤

deepseek-r1本地部署和企业知识库搭建插图34

deepseek-r1本地部署和企业知识库搭建插图35

 

 

浏览量: 1

发表回复