使用 Ollama 部署
- 搜索并选择 DeepSeek 模型:打开 Ollama,输入“deepseek”,选择合适的模型版本(如 1.5B、7B、8B 等),并复制相关的命令行。
- 运行模型:按下
Win+R键,输入“cmd”打开命令行窗口,粘贴复制的命令行并运行。 - 安装插件(可选):在浏览器中安装 PageAssist 插件,以便更便捷地使用 DeepSeek 模型。
使用 vLLM 部署
- 下载 DeepSeek 模型:通过 ModelScope 下载模型,运行以下命令:将
/path/to/save/model替换为本地保存路径。 - 安装 vLLM:根据 vLLM 的官方文档进行安装和配置。
- 启动推理服务:运行 vLLM 的推理服务,并加载下载好的 DeepSeek 模型。
手动部署
- 安装依赖环境:确保安装了 Python 3.7 及以上版本,以及 PyTorch(版本>=1.7.1)、Transformers(版本>=4.0)等依赖库。
- 克隆代码仓库:通过 Git 克隆 DeepSeek 的代码仓库:
git clone https://github.com/your-repository/deepseek.git cd deepseek - 创建虚拟环境:创建并激活虚拟环境,避免与其他项目冲突:
python3 -m venv deepseek-env source deepseek-env/bin/activate # Linux 或 macOS deepseek-env/Scripts/activate # Windows - 安装依赖库:运行以下命令安装所需的依赖库:
pip install -r requirements.txt - 下载预训练模型:根据需要下载预训练模型,通常可以通过脚本完成:
python download_model.py
注意事项
- 硬件要求:根据模型大小,硬件配置要求有所不同。例如,运行 7B 参数模型至少需要 16GB 内存和 RTX 4060 显卡。
- 模型版本:本地部署的 DeepSeek 模型通常是蒸馏版,性能和功能可能与云端版本略有差异。
- 存储空间:确保有足够的磁盘空间,如 7B 模型至少需要 15GB 存储空间。
deepseek 网盘资料:https://pan.quark.cn/s/732bbe12387f
© 版权声明
本站不接受任何付费业务,用爱发电,谢谢!


