本地部署 DeepSeek R1 越狱版(DeepSeek-R1-Abliterated)详细教程:从原理到落地实战
本地部署 DeepSeek R1 越狱版(DeepSeek-R1-Abliterated)详细教程:从原理到落地实战
DeepSeek R1 在 2025 年已经成为开源大模型生态的重要组成部分,而社区出现的 DeepSeek-R1-Abliterated(越狱版) 更是因其“无审查、无过滤、强自由度”而受到本地部署爱好者的关注。本文将从 技术背景 → 部署实现 → Web UI → 推荐模型 全面讲解如何在本地高效部署此版本模型。

1. DeepSeek 越狱版技术背景
1.1 为什么需要本地部署 DeepSeek R1 越狱版?
DeepSeek R1 官方版参数量高达 671B,普通消费级电脑根本无法运行,因此市面上流行的均为:
- 7B
- 8B
- 14B
- 32B
- 70B
这些模型都是 蒸馏后的轻量级版本,适用于个人电脑部署与开发环境。
越狱版的意义在于:
- 取消内容审查
- 取消思维限制(更自由推理)
- 适合科研、测试、离线推理等场景
- 100% 运行在本地,无隐私泄露
虽然越狱版不可能比 671B 官方全量模型更强,但在本地部署可运行的范围内,这些蒸馏模型已能满足绝大多数使用需求。
1.2 常见模型规格比较
| 模型版本 | 参数量 | GPU/VRAM 建议 | 特点 |
|---|---|---|---|
| 7B | 7B | 8GB 起 | 最轻量,适合低配设备 |
| 8B | 8B | 10GB 起 | 性能略升,适合日常使用 |
| 14B | 14B | 16GB 起 | 性能均衡,性价比高 |
| 32B | 32B | 30GB 起 | 高精度,适合专业推理 |
| 70B | 70B | ≥48GB | 强大,需要高端显卡或服务器 |
1.3 DeepSeek Abliterated 越狱版开源仓库
- Hugging Face:
https://huggingface.co/huihui-ai - Ollama 70B 模型:
https://ollama.com/huihui_ai/deepseek-r1-abliterated:70b
2. 本地部署 DeepSeek R1 越狱版(Ollama 环境)
2.1 安装 Ollama
从官网下载 Windows 安装包:
https://ollama.com/download/OllamaSetup.exe安装后会自动运行后端服务。
2.2 通过命令下载并运行模型
在 CMD / PowerShell 中输入:
2.2.1 7B 模型
ollama run huihui_ai/deepseek-r1-abliterated:7b2.2.2 8B 模型
ollama run huihui_ai/deepseek-r1-abliterated:8b2.2.3 14B 模型
ollama run huihui_ai/deepseek-r1-abliterated:14b2.2.4 32B 模型
ollama run huihui_ai/deepseek-r1-abliterated:32b2.2.5 70B 模型
ollama run huihui_ai/deepseek-r1-abliterated:70b2.3 本地部署流程图(Mermaid)
flowchart TD
A[安装 Ollama] --> B[打开命令行]
B --> C[选择模型版本]
C --> D[运行 ollama run huihui_ai/deepseek-r1-abliterated:*]
D --> E[模型自动下载]
E --> F[本地推理可用]3. 配置 Web UI(浏览器插件方式)
在本地运行模型后,你可以使用 Page-Assist Web UI 让大模型在浏览器中随时调用。
3.1 Page-Assist 开源仓库
https://github.com/qyhua0/page-assist3.2 浏览器插件下载
Chrome 版
- https://www.freex.cc/download/pageassist-1.5.41-chrome.zip
- https://www.freex.cc/download/jfgfiigpkhlkbnfnbobbkinehhfdhndo.crx
Edge 版
Firefox 版
安装完成即可在浏览器中直接调用本地 DeepSeek 越狱版模型。
4. 可选拓展模型推荐
4.1 Qwen3 Abliterated(千问越狱版)
https://ollama.com/huihui_ai/qwen3-abliterated适合中文任务增强。
4.2 DeepSeek V2.5 235B
https://ollama.com/library/deepseek-v2.5适合需要高精度推理、代码能力增强的场景。
5. 常用 Ollama 命令速查表
| 功能 | 命令 |
|---|---|
| 查看已安装模型 | ollama list |
| 拉取模型 | ollama pull xxx |
| 删除模型 | ollama rm xxx |
| 本地运行模型 | ollama run xxx |
| 后台启动服务 | ollama serve |
| 自定义 Modelfile | Modelfile + ollama create |
6. 总结
DeepSeek R1 Abliterated 越狱版提供了一个 高自由度、本地可控、无审查限制 的大模型环境,非常适合:
- 个人开发者
- NLP 研究者
- AI 应用开发
- 隐私敏感的企业内部使用
- 零网络离线推理场景
借助 Ollama 与 Page-Assist,你可以在 Windows 上快速完成部署,并享受近似 ChatGPT 的本地推理体验。