1. Ollama 介绍

1.1 Ollama 的核心功能

Ollama 是一款专为本地化运行大型语言模型(LLM)设计的开源工具,通过简化的命令行操作和 API 接口,让用户无需复杂配置即可在个人电脑上部署和运行各类开源大模型

1.1.1 一键部署模型

  • 支持通过 ollama run <模型名>命令直接拉取并运行模型(如 qwen、DeepSeek 等),自动处理模型下载、格式转换和环境适配。
  • 内置模型仓库(Model Hub):提供数百个预量化模型,覆盖 7B 到 70B 参数规模。

1.1.2 本地化运行

  • 完全离线运行,无需网络连接,数据隐私性高。
  • 支持 CPU/GPU 混合计算(通过 Metal、CUDA 或 OpenCL 加速),显存不足时可自动切换到内存运行

1.1.3 开发者友好接口

  • 提供 REST API(默认端口 11434),轻松与第三方应用(如 Chatbox、Dify)集成。
  • 支持 Python/JavaScript 等语言的 SDK,便于二次开发。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
import ollama

# 流式输出

def api_generate(text:str): # print(f'提问:{text}')

stream = ollama.generate(
stream=True,
model='deepseek-r1:7b',
prompt=text,
)

print('-----------------------------------------')
for chunk in stream:
if not chunk['done']:
print(chunk['response'], end='', flush=True)
else:
print('\n')
print('-----------------------------------------')
print(f'总耗时:{chunk['total_duration']}')
print('-----------------------------------------')

if **name** == '**main**': # 流式输出
api_generate(text=f'帮我写一个冒泡排序')

# 非流式输出
content = ollama.chat(model="deepseek-r1:7b",stream=False,messages=[{"role": "user","content": "帮我写一个冒泡排序"}],options={"temperature":0})
print(content)

1.2 Ollama 的技术优势

1.2.1 模型轻量化

  • 采用 GGUF 量化技术(如 Q4、Q5、Q8),在保持模型精度的同时显著降低资源占用:
  • 7B 模型仅需 4-6GB 内存/显存
  • 13B 模型占用 8-10GB
  • 70B 模型需 32GB 以上(需高端显卡)

1.2.2 跨平台兼容性

  • 支持 Windows/macOS/Linux 系统
  • 自动适配 NVIDIA/AMD/Apple Silicon 芯片

1.2.3 灵活扩展性

  • 支持自定义模型(通过 Modelfile 定义参数、提示词模板)
  • 可导入 HuggingFace、PyTorch 等开源模型格式

1.3 Ollama 支持的主流模型

模型类型 代表模型 典型用途
通用对话 Llama3、DeepSeek R1、Mistral 问答、写作、编程
代码生成 CodeLlama、StarCoder 代码补全、算法实现
多模态 LLaVA、Bakllava 图像理解、图文问答
垂直领域 Meditron(医疗)、FinGPT 专业领域知识处理

2. Chatbox 介绍

Chatbox 是一款开源免费的 AI 对话客户端,专为本地或云端大语言模型(LLM)提供可视化交互界面。它支持与 Ollama、OpenAI、Claude 等模型 API 无缝对接,尤其适合需要隐私保护或离线运行 AI 的用户。

2.1 核心功能亮点

2.1.1 零代码可视化操作

  • 提供简洁的聊天式界面,无需编程基础即可与本地模型对话(如 DeepSeek、Llama3)。
  • 支持 Markdown 渲染,代码高亮显示,对话历史自动保存。

2.1.2 多模型兼容性

  • 支持 Ollama 本地 API,也兼容 OpenAI、Anthropic 等云端服务。
  • 可同时管理多个模型账户,一键切换不同 AI 角色。

2.1.3 隐私与安全

  • 数据完全本地存储,对话记录不经过第三方服务器。
  • 支持敏感内容过滤和自定义安全策略(如禁用某些话题)。

2.1.4 高级功能

  • 预设提示词库:内置常用提示词模板(如翻译、写作助手、代码生成等),支持自定义模板。
  • 快捷指令:可设置快捷键快速触发常用操作。
  • 调试模式:开发者可通过调试面板查看 API 请求与响应的原始数据。
  • 系统提示词:自定义系统级提示词,调整 AI 的行为模式。

2.2 与同类工具对比

特性 ChatBox LobeChat Open WebUI
核心定位 轻量本地客户端 多功能跨平台助手 自托管 Web UI(类 ChatGPT 界面)
部署方式 桌面安装 Web/桌面/移动端 需自托管(Docker/本地服务器)
开源/免费 ✅ 开源免费 ✅ 开源免费 ✅ 开源免费
隐私控制 本地存储(无需网络) 可选本地/云端 自托管(完全控制数据)
内置模型支持 ❌ 需自备 API ✅ 多模型直接使用 ❌ 需自备 API 或本地模型
多会话管理 标签页式 文件夹分类 线性对话历史
插件生态 基础插件 ✅ 丰富插件 有限(依赖社区扩展)
团队协作 ❌ 个人 ✅ 团队共享 ❌ 个人或单用户
移动端支持 ❌ 无 ✅ PWA/响应式 Web ✅ 通过浏览器访问
开发者工具 ✅ 调试模式/API 日志 ❌ 普通用户导向 ✅ 高级模型参数配置
自托管复杂度 ❌ 无需托管 ❌ 无需托管 ✅ 需技术部署(适合极客/企业)
特色功能 系统级提示词/快捷键 知识库检索/AI 画图 本地模型集成/高自由度 UI 定制

总结选择建议

  • ChatBox:适合开发者/隐私敏感用户,轻量本地化,快速调试提示词。
  • LobeChat:适合普通用户/团队协作,开箱即用多模型,功能丰富易扩展。
  • Open WebUI:适合自托管需求者/企业,完全控制数据,兼容本地 AI 模型(如 Llama3)。

3. 部署 DeepSeek R1 7B 模型(基于 Ollama)

3.1 安装 Ollama

  • Windows:访问 Ollama 官网,下载对应系统的安装包,双击运行并完成安装。

    验证安装:打开终端(或者 cmd),输入命令 ollama -v,若显示版本号则安装成功。

  • Linux:执行命令一键安装:

    1
    2
    curl -fsSL https://ollama.com/install.sh | sudo bash
    sudo systemctl start ollama

3.2 下载 DeepSeek R1 7B 模型

  • 在终端输入以下命令拉取模型:

    1
    ollama run deepseek-r1:7b
  • 进度查看:终端会显示下载进度条,出现 Success 即表示完成。

3.3 验证模型运行

  • 下载完成后,终端会自动进入交互模式,输入测试问题(如“9.8 和 9.11 哪个更大?”),若模型返回逻辑清晰的回答,则部署成功。

3.4 (可选)自定义配置

  • 修改模型存储路径(避免占用 C 盘):
    Windows:在终端执行 setx OLLAMA_MODELS D:\OllamaModels,重启生效。

4. 安装 Chatbox 实现可视化界面

4.1 下载 Chatbox 客户端

  • 访问 Chatbox 官网,下载对应系统的安装包并完成安装。

4.2 配置 Chatbox 连接 Ollama

  1. 打开 Chatbox,点击“使用自己的 API Key 或本地模型”。
  2. 在模型提供方中选择“Ollama API”。
  3. 填写 API 地址:默认端口(http://localhost:11434)
  4. 在模型选择中勾选 deepseek-r1:7b,点击保存。

4.3 开始对话

  • 返回主界面,输入问题(如“用 Python 写快速排序”),Chatbox 会通过本地模型生成回答。

课后作业

在自己的电脑上面部署 Ollama + DeepSeek + Chatbox。