响应式网站的建设网站变灰
🚀 离线运行 AI,免费使用 OpenAI 级别推理模型
本教程将手把手教你如何在本地部署 DeepThink R1 AI 模型,让你无需联网就能运行强大的 AI 推理任务。无论你是AI 新手还是资深开发者,都可以轻松上手!
📌 目录
-  
DeepThink R1 介绍
 -  
安装 Ollama(AI 运行环境)
 -  
下载并安装 DeepThink R1 模型
 -  
在终端运行 DeepThink R1
 -  
使用 Chatbox 浏览器 UI 交互
 -  
创建你的专属 AI 伙伴
 -  
进阶玩法:离线 AI 编程、自动化工具
 -  
常见问题 & 故障排除
 
1️⃣ DeepThink R1 介绍
DeepThink R1 是一款本地可运行的大语言模型(LLM),在数学推理、代码生成等领域表现强大, 并且可以免费运行在你的电脑上,无需联网。
| 模型版本 | 参数量 | 最低显存需求 | 最低内存需求 | 
|---|---|---|---|
| R1-3B | 3B | 4GB | 8GB | 
| R1-7B | 7B | 8GB | 16GB | 
| R1-14B | 14B | 16GB | 32GB | 
📢 推荐配置
-  
显卡:NVIDIA RTX 3060 及以上(>= 8GB VRAM)
 -  
CPU:AMD Ryzen 7 / Intel i7 及以上
 -  
内存:16GB 及以上
 -  
存储:至少 50GB 可用空间
 
✅ 支持系统
-  
Windows(推荐使用 WSL2)
 -  
Mac(Apple Silicon 原生支持)
 -  
Linux(Ubuntu 20.04+)
 
2️⃣ 安装 Ollama(AI 运行环境)
Ollama 是一个轻量级的大语言模型管理工具,支持 Windows / Mac / Linux。
官网:https://ollama.com/
📥 下载 & 安装 Ollama
-  
Windows(需要 WSL2 Ubuntu)
 
curl -fsSL https://ollama.com/install.sh | sh 
-  
Mac
 
brew install ollama 
-  
Linux
 
curl -fsSL https://ollama.com/install.sh | sh 
安装成功后,输入以下命令查看版本号,确保安装成功:
ollama --version 
3️⃣ 下载并安装 DeepThink R1 模型
DeepThink R1 需要手动下载并添加到 Ollama。
📥 下载 DeepThink R1
ollama pull deepthink:r1 
官网:https://www.deepseek.com/
这个命令会自动下载模型,下载速度取决于网络情况。
下载完成后,运行以下命令查看所有可用模型:
ollama list 
4️⃣ 在终端运行 DeepThink R1
当模型下载完成后,使用以下命令启动:
ollama run deepthink:r1 
然后输入任何问题,比如:> 9.9 和 9.11 哪个更大?
DeepThink R1 会直接给出答案,并展示清晰的推理过程。
📌 退出模型
/bye 
📌 查看本地所有 AI 模型
ollama list 
5️⃣ 使用 Chatbox 浏览器 UI 交互
虽然终端可以运行 DeepThink R1,但使用 浏览器 UI 交互 会更方便。
📥 下载 Chatbox
-  
访问 Chatbox 官网
 -  
下载安装适合你系统的版本(Windows / Mac / Linux)
 
⚙️ 配置 Chatbox
-  
打开 Chatbox
 -  
进入“设置”
 -  
选择“模型”
 -  
选择 Ollama
 -  
确保连接到本地 Ollama
 -  
选择 deepthink:r1 并保存
 
6️⃣ 创建你的专属 AI 伙伴
DeepThink R1 允许你创建一个个性化 AI 助手。
📌 创建 AI 角色
-  
在 Chatbox 进入“我的搭档”
 -  
点击“创建搭档”
 -  
设定 AI 的个性、专长
 -  
保存后,即可使用!
 
你可以设定:
-  
专业 AI 教授
 -  
代码助理
 -  
私人顾问
 -  
本地离线编程助手
 -  
个人知识库 AI
 
7️⃣ 进阶玩法:离线 AI 编程、自动化工具
DeepThink R1 支持离线 AI 编程、自动化任务,你可以: ✅ 本地 AI 编程 ✅ 本地 AI 助手 ✅ AI 文档总结 ✅ 离线 GPT 类模型 ✅ 集成到 VSCode、Python 代码
import requestsresponse = requests.post("http://localhost:11434/api/generate",json={"model": "deepthink:r1", "prompt": "解释鲁迅为什么打周树人"}
)print(response.json()) 
8️⃣ 常见问题 & 故障排除
❌ Ollama 命令无法识别? ✅ 重新安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh 
❌ DeepThink R1 下载速度慢? ✅ 直接从 Hugging Face 下载 .gguf 文件并手动加载
❌ Chatbox 无法连接 Ollama? ✅ 运行:
ollama serve 
然后在 Chatbox 设置 http://localhost:11434

