一、准备工作
- 硬件要求:
版本 参数量 CPU 内存 硬盘 显卡 适用场景 DeepSeek R1 1.5B 1.5B 最低 4 核(推荐多核处理器) 8GB+ 3GB+ 非必需(可选 4GB+ 显存) 低资源设备部署(如树莓派、旧款笔记本)、实时文本生成、嵌入式系统 DeepSeek R1 7B 7B 8 核以上 16GB+ 8GB+ 推荐 8GB+ 显存(如 RTX 3070) 中等复杂度 NLP 任务、本地开发测试、轻量级多轮对话 DeepSeek R1 8B 8B 8 核以上 16GB+ 8GB+ 推荐 8GB+ 显存(如 RTX 3070) 需更高精度的轻量级任务(如代码生成、逻辑推理) DeepSeek R1 14B 14B 12 核以上 32GB+ 15GB+ 16GB+ 显存(如 RTX 4090) 企业级复杂任务、长文本理解与生成 DeepSeek R1 32B 32B 16 核以上 64GB+ 30GB+ 24GB+ 显存(如 A100) 高精度专业领域任务、多模态任务预处理 DeepSeek R1 70B 70B 32 核以上 128GB+ 70GB+ 多卡并行(如 2x A100) 科研机构、高复杂度生成任务 DeepSeek R1 671B 671B 64 核以上(集群) 512GB+ 300GB+ 多节点分布式训练(如 8x A100) 超大规模 AI 研究、通用人工智能(AGI)探索 说明:
- 显卡:对于较小的模型(如 1.5B 和 7B),显卡并非必需,但如果有 GPU 加速需求,建议选择对应显存的显卡。
- 存储:硬盘空间需求主要取决于模型文件大小,实际部署时可能需要更多空间以容纳其他文件。
- 适用场景:不同版本的模型适用于不同复杂度的任务,用户可以根据具体需求选择合适的版本。
- 如果只有集成显卡,可以尝试使用 lm-studio 软件。
- 软件环境:
- 安装 Ollama,这是一个开源的本地化大模型部署工具。
二、部署步骤
1. 安装 Ollama
- 访问 Ollama 官网:https://ollama.com/download,根据系统选择对应版本下载。
- 下载完成后,双击安装程序并按照提示完成安装。安装完成后,Ollama 图标会出现在任务栏或菜单栏。
- 网站顶部菜单点击 Models

2. 下载并安装 DeepSeek R1(以R1 1.5b为例)
- 打开终端(Windows:
Win + R输入cmd,Mac:Command + Space输入Terminal)。 - 输入以下命令安装 DeepSeek R1 模型:
ollama run deepseek-r1:1.5b或者根据硬件选择其他版本,如deepseek-r1:8b、deepseek-r1:14b。 - 如果网络较慢,下载可能需要较长时间。
3. 测试模型
- 安装完成后,在终端输入问题(如“介绍一下你自己”),等待 DeepSeek R1 回复即可。
- 如果需要管理已安装的模型,可以使用以下命令:
- 列出已安装模型:
ollama list。 - 删除模型:
ollama rm {model_name}。
三、优化与注意事项
- 显存优化:Ollama 提供了量化版本,显存需求较低,8G 显存可运行 8B 模型。
- 网络问题:如果下载超时,可重新运行安装命令。
- 多平台支持:Ollama 支持 macOS、Linux 和 Windows 系统。
通过以上步骤,你可以在本地成功部署 DeepSeek R1,享受更高效、安全的使用体验。
© 版权声明
本站不接受任何付费业务,用爱发电,谢谢!


