news 2026/4/18 5:27:14

手把手教你用Dify接入本地大模型:AI知识库实战教程!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
手把手教你用Dify接入本地大模型:AI知识库实战教程!

简介

本文详细介绍了如何使用Ollama在本地部署大模型,并通过Dify接入这些本地模型构建知识库。内容涵盖Ollama安装、模型部署、Dify配置中的Base URL设置(特别是Docker环境下的特殊配置),以及如何在知识库中切换使用本地模型。文章解决了Dify与本地模型集成的技术细节,适合希望实现企业级私有知识库的读者。


基于此,本文对上一篇内容做个补充,主要介绍Dify如何接入本地模型。

对于先前已经搭建好的知识库,需要简单调整。

Dify接入本地大模型

如何用Dify接入本地大模型?

需要查看本地是否用Ollama成功部署大模型。

1、 如果你已经在本地部署了大模型。

可以直接在主页->设置->模型供应商中全局配置

配置成功后可看到Ollama

2、如果本地还没有安装模型,

核心步骤如下:

1、下载安装Ollama

官网地址:https://ollama.com/download/windows

点击下载windows 版本,其它版本网上自行检索

2、双击运行

点下一步,无脑安装。

3、检测是否安装成功

windows+R ,输入命令

C:\Users\admin>ollama -v

出现相应的版本号即为安装成功

4、本地部署大模型

考虑到本地机器性能,以接入deepseek-r1为例,用Ollama部署

选取模型规格及参数

接入deepseek-r1:14b,看到发送消息这个对话提示就是安装成了

5、Dify接入本地大模型(重要!!!)

好了,现在用Ollama部署了本地大模型。

这里不在赘述。

到此,我们具备了以下条件:

  • Ollama本地部署deepseek大模型成功.
  • Docker 部署Dify成功

接下来正式操作如何接入本地模型?

关键点:这里需要填写以下内容

  • 基础 URL (Base URL):ollama部署的地址。
  • 模型名称:(必须与本地部署的大模型名字完全一致,个人使用的是deepseek-r1:14b,就配置)
  • 模型类型:对话 (Chat)上下文
  • 长度:4096 (根据显存情况调整)

踩坑!!!:如果你的 Ollama 跑在宿主机上,Dify 跑在 Docker 里,Base URL 千万别填 localhost!

正确姿势:

Mac/Win:http://host.docker.internal:11434Linux: http://172.17.0.1:11434 (Docker 网关 IP)

设置中可视化配置如下:

好了,到这里基本完成Dify本地接入大模型。

知识库配置本地模型

最后,回到知识库本地化模型配置。

详细配置修改如下:

1、点击进入已经建好的知识库

2、点击模型设置,选择本地模型

可以看到已显示本地部署的模型

3、测试验证

如何学习AI大模型?

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!


第一阶段:从大模型系统设计入手,讲解大模型的主要方法;

第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

大模型全套视频教程

200本大模型PDF书籍

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

大模型产品经理资源合集

大模型项目实战合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/13 22:11:43

MNIST-手写数字识别分类案例

import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torch.utils.data import TensorDataset, DataLoader import gzip import pickle from pathlib import Path import numpy as np# 定义数据根目录路径 DATA_PATH Path(…

作者头像 李华
网站建设 2026/4/15 8:00:28

Langchain-Chatchat问答系统灰度期间服务优雅启停

Langchain-Chatchat问答系统灰度期间服务优雅启停 在企业级AI应用逐步从实验走向生产落地的今天,一个看似不起眼但至关重要的工程细节正悄然决定着系统的可靠性——如何在不中断用户体验的前提下完成服务升级?尤其是在部署像 Langchain-Chatchat 这类基于…

作者头像 李华
网站建设 2026/4/18 1:19:54

Langchain-Chatchat结合Argo CD实现GitOps部署

Langchain-Chatchat 结合 Argo CD 实现 GitOps 部署 在企业智能化转型的浪潮中,如何安全、可靠、可追溯地部署基于大语言模型(LLM)的知识管理系统,正成为 DevOps 与 AI 工程化交叉领域的重要课题。传统方式下,本地知识…

作者头像 李华
网站建设 2026/4/17 10:38:26

Austroads:车速管理研究综述:实证依据与指导建议(英) 2025

该报告是 Austroads 为更新《道路安全指南第 3 部分:安全车速》而开展的研究综述,核心是整合车速管理的最新实证与实践经验,为澳大拉西亚地区道路安全政策提供支撑。一、研究背景与目标背景:现有指南需纳入国际前沿方法&#xff0…

作者头像 李华
网站建设 2026/4/15 6:15:40

毫米波雷达:从3D到4D,智能汽车的“全天候眼”是怎么炼成的

本文约7,085字,建议收藏阅读作 者 | aFakeProgramer出 品 | 汽车电子与软件摘要各位技术佬、汽车控们,今天咱们聚焦智能汽车里最“耐造”的传感器——毫米波雷达。它不像激光雷达娇贵,也不似摄像头“看天吃饭”,却是L2到L4级自动驾…

作者头像 李华