Files
aiagent/DeepSeek集成说明.md
2026-01-19 00:09:36 +08:00

201 lines
4.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# DeepSeek集成说明
## ✅ 已完成
已成功集成DeepSeek APILLM节点现在可以使用DeepSeek模型。
## 功能特性
### 1. DeepSeek支持
- 兼容OpenAI API格式
- 支持DeepSeek Chat和DeepSeek Coder模型
- 与OpenAI使用相同的调用接口
- 支持自定义API地址
### 2. 配置
- 独立的API Key配置
- 独立的Base URL配置
- 可在节点级别选择提供商
## 配置方法
### 1. 设置DeepSeek API Key
`backend/.env` 文件中添加:
```env
DEEPSEEK_API_KEY=your-deepseek-api-key-here
DEEPSEEK_BASE_URL=https://api.deepseek.com
```
或者使用环境变量:
```bash
export DEEPSEEK_API_KEY=your-deepseek-api-key-here
export DEEPSEEK_BASE_URL=https://api.deepseek.com
```
### 2. 重启后端服务
```bash
docker-compose -f docker-compose.dev.yml restart backend
```
## 使用方法
### 1. 在工作流中添加LLM节点
1. 打开工作流设计器
2. 从节点工具箱拖拽"LLM"节点到画布
3. 配置节点参数
### 2. 配置LLM节点使用DeepSeek
在节点配置面板中设置:
```json
{
"provider": "deepseek",
"prompt": "请处理以下输入:\n{input}",
"model": "deepseek-chat",
"temperature": 0.7,
"max_tokens": 1000
}
```
**参数说明**
- `provider`: 选择 `deepseek`
- `prompt`: 提示词模板,支持变量替换
- `model`: 模型名称
- `deepseek-chat`: DeepSeek Chat模型通用对话
- `deepseek-coder`: DeepSeek Coder模型代码生成
- `temperature`: 温度参数0-2默认0.7
- `max_tokens`: 最大生成token数可选
### 3. 支持的模型
#### DeepSeek Chat
- 模型名称:`deepseek-chat`
- 用途:通用对话、文本生成、分析等
- 推荐场景:日常对话、内容创作、数据分析
#### DeepSeek Coder
- 模型名称:`deepseek-coder`
- 用途:代码生成、代码解释、代码优化
- 推荐场景:代码生成、代码审查、技术问答
## 示例工作流
### 示例1使用DeepSeek进行文本处理
```
开始 → LLM节点(DeepSeek) → 结束
```
LLM节点配置
```json
{
"provider": "deepseek",
"prompt": "请将以下文本翻译成英文:{input}",
"model": "deepseek-chat",
"temperature": 0.7
}
```
### 示例2使用DeepSeek Coder生成代码
```
开始 → LLM节点(DeepSeek Coder) → 结束
```
LLM节点配置
```json
{
"provider": "deepseek",
"prompt": "请用Python编写一个函数功能是{input}",
"model": "deepseek-coder",
"temperature": 0.3
}
```
### 示例3多提供商工作流
```
开始 → LLM节点(OpenAI) → LLM节点(DeepSeek) → 结束
```
可以在同一个工作流中使用不同的提供商,实现:
- 成本优化DeepSeek通常更便宜
- 结果对比
- 功能互补
## 提供商选择建议
### 选择OpenAI的场景
- 需要最新的GPT-4模型
- 需要更强的推理能力
- 预算充足
### 选择DeepSeek的场景
- 需要高性价比
- 代码生成任务DeepSeek Coder
- 中文场景DeepSeek对中文支持较好
- 需要更快的响应速度
## 错误处理
如果DeepSeek API调用失败节点会返回错误信息
```json
{
"output": null,
"status": "failed",
"error": "DeepSeek API调用失败: 具体错误信息"
}
```
常见错误:
- **API Key未配置**`DeepSeek API Key未配置请在环境变量中设置DEEPSEEK_API_KEY`
- **API调用失败**检查网络连接、API Key有效性、余额等
- **模型不存在**:检查模型名称是否正确
## 注意事项
1. **API费用**DeepSeek通常比OpenAI更便宜但每次调用仍会产生费用
2. **API限制**注意DeepSeek的速率限制和配额
3. **网络连接**确保服务器可以访问DeepSeek APIhttps://api.deepseek.com
4. **模型选择**:根据任务类型选择合适的模型
5. **兼容性**DeepSeek兼容OpenAI API格式但某些高级功能可能不支持
## 前端配置
在前端工作流编辑器中LLM节点配置面板现在包含
1. **提供商选择**下拉菜单选择OpenAI或DeepSeek
2. **模型选择**:根据选择的提供商显示对应的模型列表
3. **提示词输入**:多行文本输入框
4. **温度调节**滑块控制0-2
5. **最大Token数**:数字输入框(可选)
## 测试建议
1. **配置API Key**:在`.env`文件中设置`DEEPSEEK_API_KEY`
2. **创建测试工作流**添加LLM节点选择DeepSeek提供商
3. **测试不同模型**:分别测试`deepseek-chat``deepseek-coder`
4. **对比结果**与OpenAI的结果进行对比
5. **检查错误处理**测试API Key错误、网络错误等情况
## 后续计划
- [ ] 支持更多DeepSeek模型
- [ ] 支持流式输出Streaming
- [ ] 添加模型性能对比功能
- [ ] 支持自动选择最优提供商
---
**状态**: ✅ 已完成
**时间**: 2024年