201 lines
4.7 KiB
Markdown
201 lines
4.7 KiB
Markdown
|
|
# DeepSeek集成说明
|
|||
|
|
|
|||
|
|
## ✅ 已完成
|
|||
|
|
|
|||
|
|
已成功集成DeepSeek API,LLM节点现在可以使用DeepSeek模型。
|
|||
|
|
|
|||
|
|
## 功能特性
|
|||
|
|
|
|||
|
|
### 1. DeepSeek支持
|
|||
|
|
|
|||
|
|
- 兼容OpenAI API格式
|
|||
|
|
- 支持DeepSeek Chat和DeepSeek Coder模型
|
|||
|
|
- 与OpenAI使用相同的调用接口
|
|||
|
|
- 支持自定义API地址
|
|||
|
|
|
|||
|
|
### 2. 配置
|
|||
|
|
|
|||
|
|
- 独立的API Key配置
|
|||
|
|
- 独立的Base URL配置
|
|||
|
|
- 可在节点级别选择提供商
|
|||
|
|
|
|||
|
|
## 配置方法
|
|||
|
|
|
|||
|
|
### 1. 设置DeepSeek API Key
|
|||
|
|
|
|||
|
|
在 `backend/.env` 文件中添加:
|
|||
|
|
|
|||
|
|
```env
|
|||
|
|
DEEPSEEK_API_KEY=your-deepseek-api-key-here
|
|||
|
|
DEEPSEEK_BASE_URL=https://api.deepseek.com
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
或者使用环境变量:
|
|||
|
|
|
|||
|
|
```bash
|
|||
|
|
export DEEPSEEK_API_KEY=your-deepseek-api-key-here
|
|||
|
|
export DEEPSEEK_BASE_URL=https://api.deepseek.com
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### 2. 重启后端服务
|
|||
|
|
|
|||
|
|
```bash
|
|||
|
|
docker-compose -f docker-compose.dev.yml restart backend
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
## 使用方法
|
|||
|
|
|
|||
|
|
### 1. 在工作流中添加LLM节点
|
|||
|
|
|
|||
|
|
1. 打开工作流设计器
|
|||
|
|
2. 从节点工具箱拖拽"LLM"节点到画布
|
|||
|
|
3. 配置节点参数
|
|||
|
|
|
|||
|
|
### 2. 配置LLM节点使用DeepSeek
|
|||
|
|
|
|||
|
|
在节点配置面板中设置:
|
|||
|
|
|
|||
|
|
```json
|
|||
|
|
{
|
|||
|
|
"provider": "deepseek",
|
|||
|
|
"prompt": "请处理以下输入:\n{input}",
|
|||
|
|
"model": "deepseek-chat",
|
|||
|
|
"temperature": 0.7,
|
|||
|
|
"max_tokens": 1000
|
|||
|
|
}
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
**参数说明**:
|
|||
|
|
- `provider`: 选择 `deepseek`
|
|||
|
|
- `prompt`: 提示词模板,支持变量替换
|
|||
|
|
- `model`: 模型名称
|
|||
|
|
- `deepseek-chat`: DeepSeek Chat模型(通用对话)
|
|||
|
|
- `deepseek-coder`: DeepSeek Coder模型(代码生成)
|
|||
|
|
- `temperature`: 温度参数(0-2),默认0.7
|
|||
|
|
- `max_tokens`: 最大生成token数,可选
|
|||
|
|
|
|||
|
|
### 3. 支持的模型
|
|||
|
|
|
|||
|
|
#### DeepSeek Chat
|
|||
|
|
- 模型名称:`deepseek-chat`
|
|||
|
|
- 用途:通用对话、文本生成、分析等
|
|||
|
|
- 推荐场景:日常对话、内容创作、数据分析
|
|||
|
|
|
|||
|
|
#### DeepSeek Coder
|
|||
|
|
- 模型名称:`deepseek-coder`
|
|||
|
|
- 用途:代码生成、代码解释、代码优化
|
|||
|
|
- 推荐场景:代码生成、代码审查、技术问答
|
|||
|
|
|
|||
|
|
## 示例工作流
|
|||
|
|
|
|||
|
|
### 示例1:使用DeepSeek进行文本处理
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
开始 → LLM节点(DeepSeek) → 结束
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
LLM节点配置:
|
|||
|
|
```json
|
|||
|
|
{
|
|||
|
|
"provider": "deepseek",
|
|||
|
|
"prompt": "请将以下文本翻译成英文:{input}",
|
|||
|
|
"model": "deepseek-chat",
|
|||
|
|
"temperature": 0.7
|
|||
|
|
}
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### 示例2:使用DeepSeek Coder生成代码
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
开始 → LLM节点(DeepSeek Coder) → 结束
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
LLM节点配置:
|
|||
|
|
```json
|
|||
|
|
{
|
|||
|
|
"provider": "deepseek",
|
|||
|
|
"prompt": "请用Python编写一个函数,功能是:{input}",
|
|||
|
|
"model": "deepseek-coder",
|
|||
|
|
"temperature": 0.3
|
|||
|
|
}
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### 示例3:多提供商工作流
|
|||
|
|
|
|||
|
|
```
|
|||
|
|
开始 → LLM节点(OpenAI) → LLM节点(DeepSeek) → 结束
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
可以在同一个工作流中使用不同的提供商,实现:
|
|||
|
|
- 成本优化(DeepSeek通常更便宜)
|
|||
|
|
- 结果对比
|
|||
|
|
- 功能互补
|
|||
|
|
|
|||
|
|
## 提供商选择建议
|
|||
|
|
|
|||
|
|
### 选择OpenAI的场景
|
|||
|
|
- 需要最新的GPT-4模型
|
|||
|
|
- 需要更强的推理能力
|
|||
|
|
- 预算充足
|
|||
|
|
|
|||
|
|
### 选择DeepSeek的场景
|
|||
|
|
- 需要高性价比
|
|||
|
|
- 代码生成任务(DeepSeek Coder)
|
|||
|
|
- 中文场景(DeepSeek对中文支持较好)
|
|||
|
|
- 需要更快的响应速度
|
|||
|
|
|
|||
|
|
## 错误处理
|
|||
|
|
|
|||
|
|
如果DeepSeek API调用失败,节点会返回错误信息:
|
|||
|
|
|
|||
|
|
```json
|
|||
|
|
{
|
|||
|
|
"output": null,
|
|||
|
|
"status": "failed",
|
|||
|
|
"error": "DeepSeek API调用失败: 具体错误信息"
|
|||
|
|
}
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
常见错误:
|
|||
|
|
- **API Key未配置**:`DeepSeek API Key未配置,请在环境变量中设置DEEPSEEK_API_KEY`
|
|||
|
|
- **API调用失败**:检查网络连接、API Key有效性、余额等
|
|||
|
|
- **模型不存在**:检查模型名称是否正确
|
|||
|
|
|
|||
|
|
## 注意事项
|
|||
|
|
|
|||
|
|
1. **API费用**:DeepSeek通常比OpenAI更便宜,但每次调用仍会产生费用
|
|||
|
|
2. **API限制**:注意DeepSeek的速率限制和配额
|
|||
|
|
3. **网络连接**:确保服务器可以访问DeepSeek API(https://api.deepseek.com)
|
|||
|
|
4. **模型选择**:根据任务类型选择合适的模型
|
|||
|
|
5. **兼容性**:DeepSeek兼容OpenAI API格式,但某些高级功能可能不支持
|
|||
|
|
|
|||
|
|
## 前端配置
|
|||
|
|
|
|||
|
|
在前端工作流编辑器中,LLM节点配置面板现在包含:
|
|||
|
|
|
|||
|
|
1. **提供商选择**:下拉菜单选择OpenAI或DeepSeek
|
|||
|
|
2. **模型选择**:根据选择的提供商显示对应的模型列表
|
|||
|
|
3. **提示词输入**:多行文本输入框
|
|||
|
|
4. **温度调节**:滑块控制(0-2)
|
|||
|
|
5. **最大Token数**:数字输入框(可选)
|
|||
|
|
|
|||
|
|
## 测试建议
|
|||
|
|
|
|||
|
|
1. **配置API Key**:在`.env`文件中设置`DEEPSEEK_API_KEY`
|
|||
|
|
2. **创建测试工作流**:添加LLM节点,选择DeepSeek提供商
|
|||
|
|
3. **测试不同模型**:分别测试`deepseek-chat`和`deepseek-coder`
|
|||
|
|
4. **对比结果**:与OpenAI的结果进行对比
|
|||
|
|
5. **检查错误处理**:测试API Key错误、网络错误等情况
|
|||
|
|
|
|||
|
|
## 后续计划
|
|||
|
|
|
|||
|
|
- [ ] 支持更多DeepSeek模型
|
|||
|
|
- [ ] 支持流式输出(Streaming)
|
|||
|
|
- [ ] 添加模型性能对比功能
|
|||
|
|
- [ ] 支持自动选择最优提供商
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
**状态**: ✅ 已完成
|
|||
|
|
**时间**: 2024年
|