Files
aiagent/DeepSeek集成说明.md
2026-01-19 00:09:36 +08:00

4.7 KiB
Raw Permalink Blame History

DeepSeek集成说明

已完成

已成功集成DeepSeek APILLM节点现在可以使用DeepSeek模型。

功能特性

1. DeepSeek支持

  • 兼容OpenAI API格式
  • 支持DeepSeek Chat和DeepSeek Coder模型
  • 与OpenAI使用相同的调用接口
  • 支持自定义API地址

2. 配置

  • 独立的API Key配置
  • 独立的Base URL配置
  • 可在节点级别选择提供商

配置方法

1. 设置DeepSeek API Key

backend/.env 文件中添加:

DEEPSEEK_API_KEY=your-deepseek-api-key-here
DEEPSEEK_BASE_URL=https://api.deepseek.com

或者使用环境变量:

export DEEPSEEK_API_KEY=your-deepseek-api-key-here
export DEEPSEEK_BASE_URL=https://api.deepseek.com

2. 重启后端服务

docker-compose -f docker-compose.dev.yml restart backend

使用方法

1. 在工作流中添加LLM节点

  1. 打开工作流设计器
  2. 从节点工具箱拖拽"LLM"节点到画布
  3. 配置节点参数

2. 配置LLM节点使用DeepSeek

在节点配置面板中设置:

{
  "provider": "deepseek",
  "prompt": "请处理以下输入:\n{input}",
  "model": "deepseek-chat",
  "temperature": 0.7,
  "max_tokens": 1000
}

参数说明

  • provider: 选择 deepseek
  • prompt: 提示词模板,支持变量替换
  • model: 模型名称
    • deepseek-chat: DeepSeek Chat模型通用对话
    • deepseek-coder: DeepSeek Coder模型代码生成
  • temperature: 温度参数0-2默认0.7
  • max_tokens: 最大生成token数可选

3. 支持的模型

DeepSeek Chat

  • 模型名称:deepseek-chat
  • 用途:通用对话、文本生成、分析等
  • 推荐场景:日常对话、内容创作、数据分析

DeepSeek Coder

  • 模型名称:deepseek-coder
  • 用途:代码生成、代码解释、代码优化
  • 推荐场景:代码生成、代码审查、技术问答

示例工作流

示例1使用DeepSeek进行文本处理

开始 → LLM节点(DeepSeek) → 结束

LLM节点配置

{
  "provider": "deepseek",
  "prompt": "请将以下文本翻译成英文:{input}",
  "model": "deepseek-chat",
  "temperature": 0.7
}

示例2使用DeepSeek Coder生成代码

开始 → LLM节点(DeepSeek Coder) → 结束

LLM节点配置

{
  "provider": "deepseek",
  "prompt": "请用Python编写一个函数功能是{input}",
  "model": "deepseek-coder",
  "temperature": 0.3
}

示例3多提供商工作流

开始 → LLM节点(OpenAI) → LLM节点(DeepSeek) → 结束

可以在同一个工作流中使用不同的提供商,实现:

  • 成本优化DeepSeek通常更便宜
  • 结果对比
  • 功能互补

提供商选择建议

选择OpenAI的场景

  • 需要最新的GPT-4模型
  • 需要更强的推理能力
  • 预算充足

选择DeepSeek的场景

  • 需要高性价比
  • 代码生成任务DeepSeek Coder
  • 中文场景DeepSeek对中文支持较好
  • 需要更快的响应速度

错误处理

如果DeepSeek API调用失败节点会返回错误信息

{
  "output": null,
  "status": "failed",
  "error": "DeepSeek API调用失败: 具体错误信息"
}

常见错误:

  • API Key未配置DeepSeek API Key未配置请在环境变量中设置DEEPSEEK_API_KEY
  • API调用失败检查网络连接、API Key有效性、余额等
  • 模型不存在:检查模型名称是否正确

注意事项

  1. API费用DeepSeek通常比OpenAI更便宜但每次调用仍会产生费用
  2. API限制注意DeepSeek的速率限制和配额
  3. 网络连接确保服务器可以访问DeepSeek APIhttps://api.deepseek.com
  4. 模型选择:根据任务类型选择合适的模型
  5. 兼容性DeepSeek兼容OpenAI API格式但某些高级功能可能不支持

前端配置

在前端工作流编辑器中LLM节点配置面板现在包含

  1. 提供商选择下拉菜单选择OpenAI或DeepSeek
  2. 模型选择:根据选择的提供商显示对应的模型列表
  3. 提示词输入:多行文本输入框
  4. 温度调节滑块控制0-2
  5. 最大Token数:数字输入框(可选)

测试建议

  1. 配置API Key:在.env文件中设置DEEPSEEK_API_KEY
  2. 创建测试工作流添加LLM节点选择DeepSeek提供商
  3. 测试不同模型:分别测试deepseek-chatdeepseek-coder
  4. 对比结果与OpenAI的结果进行对比
  5. 检查错误处理测试API Key错误、网络错误等情况

后续计划

  • 支持更多DeepSeek模型
  • 支持流式输出Streaming
  • 添加模型性能对比功能
  • 支持自动选择最优提供商

状态: 已完成 时间: 2024年