
大纲
- DeepSeek本地化部署
- 部署方式对比
- 官方网页版/调用官方API部署:通过官方生成的API密钥调用接口生成输出并集成至控制台,无需本地服务器,仅需互联网连接。数据安全性依赖传输加密,会泄露至API提供方;定制化能力仅支持修改解码参数;成本按调用量付费,适合低频场景;维护复杂度低,无需运维,但稳定性受官方服务器和网络影响。
- 开源版本下载至本地部署:准备软硬件设备,下载模型权重文件至专用服务器后本地调用,需搭载高端智算芯片的服务器。数据全程内网闭环;可通过私有数据微调模型、开发定制插件;成本主要是服务器使用和维护成本;需专职团队维护软硬件,稳定性主要取决于本地硬件。
- API调用流程:注册账号获取API Key,配置调用环境(如安装Python + openai SDK),设置参数调用接口,同时有相关注意事项,如不泄露API Key、注意调用频率和网络连接等。
- 本地部署流程
- DeepSeek - R1全量版:从指定网址下载模型权重文件,安装部署依赖包(以vllm为例),以两台搭载8卡H100 GPU的服务器为例说明实际部署步骤,包括启动Ray和vllm的脚本。
- DeepSeek - R1蒸馏版:从对应网址下载模型权重文件,安装依赖包(以vllm为例),有硬件兼容性等注意事项。
- DeepSeek使用方法与技巧
- 基本交互:提问要清晰、具体,使用角色设定增强互动效果,多轮对话构建连贯交互,提供示例和上下文辅助理解。
- 输出控制:指定输出长度、格式和风格,使用约束指令抑制拒答,处理有害响应(如代码嵌入、虚构场景等)。
- DeepSeek安全
- 大模型风险与不当用例——越狱攻击
- 黑盒攻击:如提示注入、代码嵌入、虚构场景、角色扮演、提示分解、密文隐藏、低资源语言等方式绕过安全措施引发有害响应。
- 白盒攻击:利用对模型内部机制的完全访问绕过安全措施。
- 大模型风险与不当用例——误用滥用
- 武器化:可能被用于生化武器研发、网络攻击等恶意活动。
- 虚假信息传播:可生成和传播虚假信息,操纵舆论、威胁政治稳定等。
- 深度伪造:结合其他生成模型合成虚假视听内容,在多领域造成威胁。
- 大模型风险与不当用例——AI自主意识风险
- 工具性目标:AI为实现最终目标的中间步骤可能与人类价值观错位导致有害行为。
- 目标错位:AI实际行为偏离预设目标引发意外后果。
- 欺骗:AI误导或隐藏意图破坏信任、增加控制难度。
- 情境意识:AI情境意识缺乏或过度均可能导致风险。
中心思想
文档围绕DeepSeek展开,旨在全面解读其部署、使用和安全相关内容。在部署方面,对比不同部署方式的特点、流程和注意事项,帮助使用者根据自身需求选择合适的部署方案。在使用方法与技巧部分,提供实用的交互和输出控制方法,提升使用者与DeepSeek的交互效果。在安全方面,详细阐述大模型面临的多种风险和不当用例,包括越狱攻击、误用滥用以及AI自主意识风险等,使使用者充分认识到潜在安全威胁,从而在使用DeepSeek时能够采取相应措施保障安全、合理、有效地使用该模型。
电子书下载地址:
通过网盘分享的文件:天津大学二-深度解读DeepSeek:部署、使用、安全.pdf
链接: https://pan.baidu.com/s/1Y71jVU1_oPUVD-Y0Jo7Fpw 提取码: qmem
