4.7 KiB
4.7 KiB
DeepSeek集成说明
✅ 已完成
已成功集成DeepSeek API,LLM节点现在可以使用DeepSeek模型。
功能特性
1. DeepSeek支持
- 兼容OpenAI API格式
- 支持DeepSeek Chat和DeepSeek Coder模型
- 与OpenAI使用相同的调用接口
- 支持自定义API地址
2. 配置
- 独立的API Key配置
- 独立的Base URL配置
- 可在节点级别选择提供商
配置方法
1. 设置DeepSeek API Key
在 backend/.env 文件中添加:
DEEPSEEK_API_KEY=your-deepseek-api-key-here
DEEPSEEK_BASE_URL=https://api.deepseek.com
或者使用环境变量:
export DEEPSEEK_API_KEY=your-deepseek-api-key-here
export DEEPSEEK_BASE_URL=https://api.deepseek.com
2. 重启后端服务
docker-compose -f docker-compose.dev.yml restart backend
使用方法
1. 在工作流中添加LLM节点
- 打开工作流设计器
- 从节点工具箱拖拽"LLM"节点到画布
- 配置节点参数
2. 配置LLM节点使用DeepSeek
在节点配置面板中设置:
{
"provider": "deepseek",
"prompt": "请处理以下输入:\n{input}",
"model": "deepseek-chat",
"temperature": 0.7,
"max_tokens": 1000
}
参数说明:
provider: 选择deepseekprompt: 提示词模板,支持变量替换model: 模型名称deepseek-chat: DeepSeek Chat模型(通用对话)deepseek-coder: DeepSeek Coder模型(代码生成)
temperature: 温度参数(0-2),默认0.7max_tokens: 最大生成token数,可选
3. 支持的模型
DeepSeek Chat
- 模型名称:
deepseek-chat - 用途:通用对话、文本生成、分析等
- 推荐场景:日常对话、内容创作、数据分析
DeepSeek Coder
- 模型名称:
deepseek-coder - 用途:代码生成、代码解释、代码优化
- 推荐场景:代码生成、代码审查、技术问答
示例工作流
示例1:使用DeepSeek进行文本处理
开始 → LLM节点(DeepSeek) → 结束
LLM节点配置:
{
"provider": "deepseek",
"prompt": "请将以下文本翻译成英文:{input}",
"model": "deepseek-chat",
"temperature": 0.7
}
示例2:使用DeepSeek Coder生成代码
开始 → LLM节点(DeepSeek Coder) → 结束
LLM节点配置:
{
"provider": "deepseek",
"prompt": "请用Python编写一个函数,功能是:{input}",
"model": "deepseek-coder",
"temperature": 0.3
}
示例3:多提供商工作流
开始 → LLM节点(OpenAI) → LLM节点(DeepSeek) → 结束
可以在同一个工作流中使用不同的提供商,实现:
- 成本优化(DeepSeek通常更便宜)
- 结果对比
- 功能互补
提供商选择建议
选择OpenAI的场景
- 需要最新的GPT-4模型
- 需要更强的推理能力
- 预算充足
选择DeepSeek的场景
- 需要高性价比
- 代码生成任务(DeepSeek Coder)
- 中文场景(DeepSeek对中文支持较好)
- 需要更快的响应速度
错误处理
如果DeepSeek API调用失败,节点会返回错误信息:
{
"output": null,
"status": "failed",
"error": "DeepSeek API调用失败: 具体错误信息"
}
常见错误:
- API Key未配置:
DeepSeek API Key未配置,请在环境变量中设置DEEPSEEK_API_KEY - API调用失败:检查网络连接、API Key有效性、余额等
- 模型不存在:检查模型名称是否正确
注意事项
- API费用:DeepSeek通常比OpenAI更便宜,但每次调用仍会产生费用
- API限制:注意DeepSeek的速率限制和配额
- 网络连接:确保服务器可以访问DeepSeek API(https://api.deepseek.com)
- 模型选择:根据任务类型选择合适的模型
- 兼容性:DeepSeek兼容OpenAI API格式,但某些高级功能可能不支持
前端配置
在前端工作流编辑器中,LLM节点配置面板现在包含:
- 提供商选择:下拉菜单选择OpenAI或DeepSeek
- 模型选择:根据选择的提供商显示对应的模型列表
- 提示词输入:多行文本输入框
- 温度调节:滑块控制(0-2)
- 最大Token数:数字输入框(可选)
测试建议
- 配置API Key:在
.env文件中设置DEEPSEEK_API_KEY - 创建测试工作流:添加LLM节点,选择DeepSeek提供商
- 测试不同模型:分别测试
deepseek-chat和deepseek-coder - 对比结果:与OpenAI的结果进行对比
- 检查错误处理:测试API Key错误、网络错误等情况
后续计划
- 支持更多DeepSeek模型
- 支持流式输出(Streaming)
- 添加模型性能对比功能
- 支持自动选择最优提供商
状态: ✅ 已完成 时间: 2024年