news 2026/4/18 0:40:24

【保姆级】Ollama下载安装教程:Windows本地部署大模型(Llama3/Qwen/DeepSeek)全攻略

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【保姆级】Ollama下载安装教程:Windows本地部署大模型(Llama3/Qwen/DeepSeek)全攻略

一、 为什么选择 Ollama?

作为一名折腾过 HuggingFace Transformers、LangChain 的老鸟,我深知本地部署大模型的痛苦:显卡驱动冲突、依赖包版本地狱、动辄几十 GB 的权重文件下载……

Ollama 的出现,简直是降维打击。

它将模型权重、配置和推理引擎打包成一个“Modelfile”,就像 Docker 镜像一样。你不需要写一行 Python 代码,只需要一行命令 ollama run llama3,就能在本地跑起 8B 甚至 70B 的大模型。它支持 CPU/GPU 混合推理,对显存不足的个人电脑极其友好。


二、 Ollama 下载安装教程(Windows 篇)

Ollama 的官方服务器在海外,国内直连下载经常出现速度极慢或连接中断的情况。为了方便大家,这里提供最新版、经过毒霸安全认证的Windows 64位 安装包高速直链

1. 获取安装包

⬇️ Ollama Windows 安装包 (高速镜像)

👉 点击下载 Ollama 最新版安装包 (.exe)

2. 安装步骤

Windows 版的安装非常简单,几乎是“傻瓜式”的,但有一个细节需要注意。

1.双击运行下载好的 ollama.exe。

2.点击 Install。软件默认会安装到 C:\Users\你的用户名\AppData\Local\Programs\Ollama。

  • 注意:目前官方安装包暂不支持在 GUI 界面选择安装路径(这是很多人的槽点),但不用担心,安装并不大,占用空间的是模型文件,我们后面可以通过环境变量修改模型路径。

3.安装完成后,Ollama 会自动在后台静默运行,并在任务栏右下角出现一个小羊驼图标。

3. 验证安装

打开CMD (命令提示符)PowerShell,输入以下命令:

codeBash

ollama --version

如果输出了类似 ollama version is 0.5.x 的版本号,说明安装成功,环境变量也已自动配置好。


三、 快速上手:运行你的第一个大模型

安装好后,我们来跑一个模型试试。目前最火的开源模型非 Meta 的Llama 3和阿里的Qwen (通义千问)莫属。

1. 拉取并运行模型

在终端中输入以下命令即可自动下载并运行:

运行 Llama 3 (8B 版本):

codeBash

ollama run llama3

运行 Qwen 2.5 (适合中文场景):

codeBash

ollama run qwen2.5
  • 说明:第一次运行会自动从镜像站拉取模型文件(通常几 GB),速度取决于你的带宽。下载完成后,会自动进入交互式对话界面。

  • 退出对话:输入 /bye 并回车即可退出。

2. 常用命令速查表

作为开发者,这几个命令必须熟记:

命令描述示例
ollama pull [模型名]仅下载模型但不运行ollama pull llama3
ollama list查看本地已安装的模型列表ollama list
ollama rm [模型名]删除本地模型(释放空间)ollama rm llama3
ollama serve启动 API 服务(默认端口 11434)ollama serve

四、 进阶配置:解决 C 盘爆满问题(核心干货)

这是本篇Ollama 下载安装教程中含金量最高的部分。
默认情况下,Ollama 会把下载的动辄几十 GB 的模型文件存放在 C:\Users\你的用户名\.ollama\models。对于 C 盘只有 100G 的用户来说,拉两个模型 C 盘就红了。

解决方案:通过环境变量更改存储路径。

步骤如下:

  1. 关闭 Ollama:在任务栏右下角右键点击 Ollama 图标,选择 Quit Ollama(必须彻底退出,否则配置不生效)。

  2. 打开环境变量设置:

    • 右键“此电脑” -> 属性 -> 高级系统设置 -> 环境变量。

  3. 新建系统变量:

    • 在“系统变量”区域(不是用户变量),点击“新建”。

    • 变量名:OLLAMA_MODELS

    • 变量值:D:\AI_Models (这里填写你想存放模型的非系统盘路径)。

  4. 重启服务:

    • 重新双击 Ollama 启动程序。

    • 验证:以后下载的模型就会自动存入 D 盘了,再也不用担心 C 盘爆红。


五、 开发者应用:API 调用与 WebUI 集成

Ollama 不仅仅是个聊天工具,它更是一个标准的 API 服务端。

1. 本地 API 调用

Ollama 默认在 localhost:11434 开启服务。你可以用 Python 极其简单地调用它:

codePython

import requests import json url = "http://localhost:11434/api/generate" data = { "model": "llama3", "prompt": "用Python写一个冒泡排序", "stream": False } response = requests.post(url, json=data) print(response.json()['response'])

这段代码意味着你可以把大模型接入到你自己的 ERP、网站或者自动化脚本中。

2. 推荐 WebUI:Open WebUI

如果你不喜欢黑乎乎的命令行,想要类似 ChatGPT 那样的漂亮界面,推荐安装Open WebUI(需要 Docker)。
或者使用更轻量的Chatbox客户端,直接在设置里将 API 地址填为 http://localhost:11434 即可连接。


六、 常见问题排查 (Troubleshooting)

Q1: 下载模型速度极慢,经常超时?
A: 这是网络问题。可以尝试配置系统代理,或者寻找国内的 Ollama 镜像源加速。当然,确保你安装的是本文提供的高速安装包能解决软件本身的更新问题。

Q2: 显存不足,运行大模型卡顿?
A: Ollama 默认是 FP16 精度。你可以尝试下载量化版本(Quantized),比如 4-bit 版本。
命令:ollama run llama3:8b-instruct-q4_0。量化后的模型对显存要求大幅降低,8G 显存就能跑得很欢。

Q3: 能够对外网提供服务吗?
A: 默认 Ollama 绑定的是 127.0.0.1。如果想让局域网其他电脑访问,需要设置环境变量 OLLAMA_HOST 为 0.0.0.0。


七、 总结

Ollama 是目前本地部署 LLM 的最优解,没有之一。它屏蔽了底层复杂的 CUDA 和 PyTorch 依赖,让开发者能专注于应用层的创新。

通过这篇Ollama 下载安装教程,你应该已经成功在 Windows 上跑通了第一个大模型,并解决了模型存储路径的隐患。接下来,无论是做 RAG(知识库检索)、做 Agent(智能体),还是单纯用来写代码,Ollama 都是你得力的助手。

附件下载:
Ollama Windows 官方最新版安装包 (高速直链)https://dubapkg.cmcmcdn.com/cs/257def/ollama.exe


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 9:30:02

OpenAI最新发布,企业级AI智能体的强化微调实践

在2025年QCon AI NYC大会上,OpenAI的Will Hang和Wenjie Zi共同呈现了一场关于企业级AI智能体优化的深度分享。他们重点介绍了Agent RFT(强化微调)这一创新方法,这是一种专门为工具使用型AI智能体设计的强化学习微调技术&#xff0…

作者头像 李华
网站建设 2026/4/18 7:43:00

打工人年底必须知道的知识!十三薪vs年终奖

年底了,打工人们还记得跟公司签订的福利是十三薪还是年终奖吗?这两者差别甚大,今天好好给大家讲讲十三薪跟年终奖的核心区别,发奖励时可千万别发错了!十三薪: 顾名思义就是第13个月的工资,也就是企业在年底…

作者头像 李华
网站建设 2026/4/17 14:48:07

管道漏液跑冒滴漏识别摄像机 筑牢管道防线

一、工业管道的“隐形杀手”:传统漏液监测的三大痛点在工业制造、化工能源、市政管网等领域,管道漏液(跑冒滴漏)是威胁生产安全、加剧资源浪费的“隐形杀手”。据《2024中国工业设备运维白皮书》统计,全国工业企业年均…

作者头像 李华
网站建设 2026/4/18 8:28:12

2025年大模型学习必备指南:零基础到实战专家,一篇文章带你探索进阶之路!大模型学习路线

站在2025年的科技风口,大模型已不再是实验室中的前沿概念,而是渗透到社会生产生活各领域的“基础设施”。无论是电商平台的智能推荐、医疗机构的病理分析辅助,还是影视行业的剧本创意生成,大模型正以惊人的速度重构产业逻辑&#…

作者头像 李华
网站建设 2026/4/18 3:07:57

【AI干货】8大Agent架构大揭秘!从恒温器到数字员工,一篇看懂大模型智能体核心技术,小白程序员也能秒懂的进化史!

在由智能体构成的浩瀚宇宙中,不同的架构决定了它们各自的用途,它们不仅能“回答问题”,还能感知环境、做出决策甚至自主执行任务。无论你是想要构建一个简单的自动化脚本,还是部署一套复杂的企业级自主系统,理解这 **8…

作者头像 李华