首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Qclaw的自定义大模型,为什么还是用不了deepseek v4 pro 的思考模式?

Qclaw的自定义大模型,为什么还是用不了deepseek v4 pro 的思考模式?

提问于 2026-05-16 03:26:53
回答 0关注 0查看 10

遇到的 The reasoning_content in the thinking mode must be passed back to the API. 报错,是 DeepSeek V4 系列模型的一个特定要求导致的,在 QClaw 这类客户端中尤其常见。

简单来说,当 DeepSeek V4 模型在“思考模式”(Thinking Mode)下进行工具调用(比如搜索文件、运行命令)时,你的客户端在后续沟通中,必须把模型上一轮返回的 reasoning_content(思考内容)字段原样传回给 API。

🎯 为什么会报错?

这个错误的根本原因在于,当客户端(QClaw)向 DeepSeek 发起请求时,多轮对话的记录是由客户端维护的。如果客户端在拼接新请求的消息时,忽略了 reasoning_content 这个字段,就会因为参数不完整而触发 400 错误。

还有一个特别容易踩的坑:即使 reasoning_content 的内容是空字符串 "",也不能丢弃,必须原样传回给 API。

🛠️ 三种解决方案

你可以根据自己的情况,选择以下任一方法来解决:

  1. 等待官方更新 (推荐) 最根本的解决方案是等待 QClaw 官方发布新版本,在底层适配 DeepSeek V4 的 reasoning_content 回传逻辑。目前这是一个广泛存在的问题,WorkBuddy 等类似工具也遇到过。
  2. 暂时关闭思考模式 (最快) 如果你需要立即恢复正常使用,可以找到配置文件,手动为 DeepSeek V4 Pro 关闭思考模式。这会跳过模型的思考步骤,也就绕开了这个报错。 Qclaw有计划解决这个bug吗?

回答

和开发者交流更多问题细节吧,去 写回答
相关文章

相似问题

相关问答用户
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档