deepseek 怎么本地部署

AI百科10个月前更新 学习导航
600 0
DeepSeek交流群

以下内容由AI生成,非目标网站最新信息,内容仅供参考,详细信息请登录目标官方网站查看

以下是几种常见的 DeepSeek本地部署方法:

使用 Ollama 部署

  1. 下载安装 Ollama:访问 Ollama 官网(https://ollama.com/),点击“Download”,选择与操作系统相匹配的版本进行安装[^2^]。
  2. 搜索并选择 DeepSeek 模型:打开 Ollama,输入“deepseek”,选择合适的模型版本(如 1.5B、7B、8B 等),并复制相关的命令行。
  3. 运行模型:按下 Win+R 键,输入“cmd”打开命令行窗口,粘贴复制的命令行并运行。
  4. 安装插件(可选):在浏览器中安装 PageAssist 插件,以便更便捷地使用 DeepSeek 模型。

使用 vLLM 部署

  1. 安装 Python 环境:访问 Python 官网(https://www.python.org/),下载并安装 Python 3.8 或更版本。
  2. 下载 DeepSeek 模型:通过 ModelScope 下载模型,运行以下命令:
    pip install modelscope
    modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B --local_dir /path/to/save/model
    /path/to/save/model 替换为本地保存路径。
  3. 安装 vLLM:根据 vLLM 的官方文档进行安装和配置。
  4. 启动推理服务:运行 vLLM 的推理服务,并加载下载好的 DeepSeek 模型。

手动部署

  1. 安装依赖环境:确保安装了 Python 3.7 及以上版本,以及 PyTorch(版本>=1.7.1)、Transformers(版本>=4.0)等依赖库。
  2. 克隆代码仓库:通过 Git 克隆 DeepSeek 的代码仓库:
    git clone https://github.com/your-repository/deepseek.git
    cd deepseek
  3. 创建虚拟环境:创建并激活虚拟环境,避免与其他项目冲突:
    python3 -m venv deepseek-env
    source deepseek-env/bin/activate # Linux 或 macOS
    deepseek-env/Scripts/activate # Windows
  4. 安装依赖库:运行以下命令安装所需的依赖库:
    pip install -r requirements.txt
  5. 下载预训练模型:根据需要下载预训练模型,通常可以通过脚本完成:
    python download_model.py

注意事项

  • 硬件要求:根据模型大小,硬件配置要求有所不同。例如,运行 7B 参数模型至少需要 16GB 内存和 RTX 4060 显卡。
  • 模型版本:本地部署的 DeepSeek 模型通常是蒸馏版,性能和功能可能与端版本略有差异。
  • 存储空间:确保有足够的磁盘空间,如 7B 模型至少需要 15GB 存储空间。

deepseek 网盘资料:https://pan.quark.cn/s/732bbe12387f

© 版权声明

相关文章