本地部署DeepSeek R1 DeepSeek V3

AI百科11个月前更新 学习导航
764 0
DeepSeek交流群

以下内容由AI生成,非目标网站最新信息,内容仅供参考,详细信息请登录目标官方网站查看

以下是本地部署DeepSeek R1 的详细步骤:

一、准备工作

  1. 硬件要求
    版本参数量CPU内存硬盘显卡适用场景
    DeepSeek R1 1.5B1.5B最低 4 核(推荐多核处理器)8GB+3GB+非必需(可选 4GB+ 显存)低资源设备部署(如树莓派、旧款笔记本)、实时文本生成、嵌入式系统
    DeepSeek R1 7B7B8 核以上16GB+8GB+推荐 8GB+ 显存(如 RTX 3070)中等复杂度 NLP 任务、本地开发测试、轻量级多轮对话
    DeepSeek R1 8B8B8 核以上16GB+8GB+推荐 8GB+ 显存(如 RTX 3070)需更高精度的轻量级任务(如代码生成、逻辑推理)
    DeepSeek R1 14B14B12 核以上32GB+15GB+16GB+ 显存(如 RTX 4090)企业级复杂任务、长文本理解与生成
    DeepSeek R1 32B32B16 核以上64GB+30GB+24GB+ 显存(如 A100)高精度专业领域任务、多模态任务预处理
    DeepSeek R1 70B70B32 核以上128GB+70GB+多卡并行(如 2x A100)科研机构、高复杂度生成任务
    DeepSeek R1 671B671B64 核以上(集群)512GB+300GB+多节点分布式训练(如 8x A100)超大规模 AI 研究、通用人工智能(AGI)探索

    说明:

    1. 显卡:对于较小的模型(如 1.5B 和 7B),显卡并非必需,但如果有 GPU 加速需求,建议选择对应显存的显卡。
    2. 存储:硬盘空间需求主要取决于模型文件大小,实际部署时可能需要更多空间以容纳其他文件。
    3. 适用场景:不同版本的模型适用于不同复杂度的任务,用户可以根据具体需求选择合适的版本。
    4. 如果只有集成显卡,可以尝试使用 lm-studio 软件。
    5. 软件环境
      • 安装 Ollama,这是一个开源的本地化大模型部署工具。

二、部署步骤

1. 安装 Ollama

  1. 访问 Ollama 官网:https://ollama.com/download,根据系统选择对应版本下载。
  2. 下载完成后,双击安装程序并按照提示完成安装。安装完成后,Ollama 图标会出现在任务栏或菜单栏。
  3. 网站顶部菜单点击  Models
  4. 本地部署DeepSeek R1 DeepSeek V3

2. 下载并安装 DeepSeek R1(以R1 1.5b为例)

  1. 打开终端(Windows:Win + R 输入 cmd,Mac:Command + Space 输入 Terminal)。
  2. 输入以下命令安装 DeepSeek R1 模型:

    ollama run deepseek-r1:1.5b

    或者根据硬件选择其他版本,如 deepseek-r1:8bdeepseek-r1:14b
  3. 如果网络较慢,下载可能需要较长时间。

3. 测试模型

  1. 安装完成后,在终端输入问题(如“介绍一下你自己”),等待 DeepSeek R1 回复即可。
  2. 如果需要管理已安装的模型,可以使用以下命令:
    • 列出已安装模型:ollama list
    • 删除模型:ollama rm {model_name}

三、优化与注意事项

  1. 显存优化:Ollama 提供了量化版本,显存需求较低,8G 显存可运行 8B 模型。
  2. 网络问题:如果下载超时,可重新运行安装命令。
  3. 多平台支持:Ollama 支持 macOS、Linux 和 Windows 系统。
通过以上步骤,你可以在本地成功部署 DeepSeek R1,享受更高效、安全的使用体验。
© 版权声明

相关文章