Files
aiagent/DeepSeek集成说明.md

201 lines
4.7 KiB
Markdown
Raw Permalink Normal View History

2026-01-19 00:09:36 +08:00
# DeepSeek集成说明
## ✅ 已完成
已成功集成DeepSeek APILLM节点现在可以使用DeepSeek模型。
## 功能特性
### 1. DeepSeek支持
- 兼容OpenAI API格式
- 支持DeepSeek Chat和DeepSeek Coder模型
- 与OpenAI使用相同的调用接口
- 支持自定义API地址
### 2. 配置
- 独立的API Key配置
- 独立的Base URL配置
- 可在节点级别选择提供商
## 配置方法
### 1. 设置DeepSeek API Key
`backend/.env` 文件中添加:
```env
DEEPSEEK_API_KEY=your-deepseek-api-key-here
DEEPSEEK_BASE_URL=https://api.deepseek.com
```
或者使用环境变量:
```bash
export DEEPSEEK_API_KEY=your-deepseek-api-key-here
export DEEPSEEK_BASE_URL=https://api.deepseek.com
```
### 2. 重启后端服务
```bash
docker-compose -f docker-compose.dev.yml restart backend
```
## 使用方法
### 1. 在工作流中添加LLM节点
1. 打开工作流设计器
2. 从节点工具箱拖拽"LLM"节点到画布
3. 配置节点参数
### 2. 配置LLM节点使用DeepSeek
在节点配置面板中设置:
```json
{
"provider": "deepseek",
"prompt": "请处理以下输入:\n{input}",
"model": "deepseek-chat",
"temperature": 0.7,
"max_tokens": 1000
}
```
**参数说明**
- `provider`: 选择 `deepseek`
- `prompt`: 提示词模板,支持变量替换
- `model`: 模型名称
- `deepseek-chat`: DeepSeek Chat模型通用对话
- `deepseek-coder`: DeepSeek Coder模型代码生成
- `temperature`: 温度参数0-2默认0.7
- `max_tokens`: 最大生成token数可选
### 3. 支持的模型
#### DeepSeek Chat
- 模型名称:`deepseek-chat`
- 用途:通用对话、文本生成、分析等
- 推荐场景:日常对话、内容创作、数据分析
#### DeepSeek Coder
- 模型名称:`deepseek-coder`
- 用途:代码生成、代码解释、代码优化
- 推荐场景:代码生成、代码审查、技术问答
## 示例工作流
### 示例1使用DeepSeek进行文本处理
```
开始 → LLM节点(DeepSeek) → 结束
```
LLM节点配置
```json
{
"provider": "deepseek",
"prompt": "请将以下文本翻译成英文:{input}",
"model": "deepseek-chat",
"temperature": 0.7
}
```
### 示例2使用DeepSeek Coder生成代码
```
开始 → LLM节点(DeepSeek Coder) → 结束
```
LLM节点配置
```json
{
"provider": "deepseek",
"prompt": "请用Python编写一个函数功能是{input}",
"model": "deepseek-coder",
"temperature": 0.3
}
```
### 示例3多提供商工作流
```
开始 → LLM节点(OpenAI) → LLM节点(DeepSeek) → 结束
```
可以在同一个工作流中使用不同的提供商,实现:
- 成本优化DeepSeek通常更便宜
- 结果对比
- 功能互补
## 提供商选择建议
### 选择OpenAI的场景
- 需要最新的GPT-4模型
- 需要更强的推理能力
- 预算充足
### 选择DeepSeek的场景
- 需要高性价比
- 代码生成任务DeepSeek Coder
- 中文场景DeepSeek对中文支持较好
- 需要更快的响应速度
## 错误处理
如果DeepSeek API调用失败节点会返回错误信息
```json
{
"output": null,
"status": "failed",
"error": "DeepSeek API调用失败: 具体错误信息"
}
```
常见错误:
- **API Key未配置**`DeepSeek API Key未配置请在环境变量中设置DEEPSEEK_API_KEY`
- **API调用失败**检查网络连接、API Key有效性、余额等
- **模型不存在**:检查模型名称是否正确
## 注意事项
1. **API费用**DeepSeek通常比OpenAI更便宜但每次调用仍会产生费用
2. **API限制**注意DeepSeek的速率限制和配额
3. **网络连接**确保服务器可以访问DeepSeek APIhttps://api.deepseek.com
4. **模型选择**:根据任务类型选择合适的模型
5. **兼容性**DeepSeek兼容OpenAI API格式但某些高级功能可能不支持
## 前端配置
在前端工作流编辑器中LLM节点配置面板现在包含
1. **提供商选择**下拉菜单选择OpenAI或DeepSeek
2. **模型选择**:根据选择的提供商显示对应的模型列表
3. **提示词输入**:多行文本输入框
4. **温度调节**滑块控制0-2
5. **最大Token数**:数字输入框(可选)
## 测试建议
1. **配置API Key**:在`.env`文件中设置`DEEPSEEK_API_KEY`
2. **创建测试工作流**添加LLM节点选择DeepSeek提供商
3. **测试不同模型**:分别测试`deepseek-chat``deepseek-coder`
4. **对比结果**与OpenAI的结果进行对比
5. **检查错误处理**测试API Key错误、网络错误等情况
## 后续计划
- [ ] 支持更多DeepSeek模型
- [ ] 支持流式输出Streaming
- [ ] 添加模型性能对比功能
- [ ] 支持自动选择最优提供商
---
**状态**: ✅ 已完成
**时间**: 2024年