暂无搜索历史
JetBrains Research 在 2026 年 4 月发了一篇研究文章《Understanding AI’s Impact on Developer W...
腾讯云TDP | 官方产研 (已认证)
所有失去的,都会以另一种方式,回到你身边。
Garry Tan 是 Y Combinator 的 CEO,同时也是 Initialized Capital 的联合创始人。 这份 spec 也带着很强的产...
最近,Milla Jovovich(米拉·乔沃维奇)和开发者联合发布了一个 AI 记忆系统,叫做 MemPalace。
它做的事情很直接: 把 Andrej Karpathy 对 LLM 编码常见问题的观察整理成 Claude Code 的行为约束,落成一份 CLAUDE.md...
::: info适合读者:在用 OpenClaw,或正在设计 OpenClaw / Claude Code 类 Agent 记忆层的开发者:::
如果你已经在用 Codex,装 oh-my-codex 之前最好先把一件事想清楚:
Anthropic 工程团队最近发了一篇文章,题目叫《Effective harnesses for long-running agents》。
如果你已经在用 Claude Code、Codex、OpenClaw 这类 CLI Agent,应该很快就会碰到一个共同问题:
我平时用 Claude Code,会话一长,最容易冒出来的问题其实都和“状态不够直观”有关:
如果你最近一直在折腾 Claude Code、Codex 或 OpenClaw 这类 Agent,很容易遇到一个问题:
不要每次提问时都重新从原始资料里发现知识,先把知识整理进一套持续维护的 wiki。
做 Agent 系统时,最容易混在一起的不是模型和工具,而是“多智能体”这个词本身。
第一个坑,是信息太碎。今天在推文里看到一个 skill,明天在 Reddit 里看到一个 hook,后天又有人发了一个 orchestrator。你知道这些东西...
晚上 11 点,你没有继续盯着 loss 曲线,也没有再手动改超参数,而是把一个 Agent 扔进仓库里,让它自己去做这件事:
前段时间连续写了几篇 Claude Code、Codex 这类 coding agent 的用法和进阶配置,这次补一篇 Claude Code 接国产模型的配置...
很多人把 Claude Code 当成一个终端里的 coding agent,但从这批源码材料看,它更接近一套分层完整的本地 agent 运行时。
如果你在部署大模型时遇到过推理速度慢的问题,那你大概率已经听过 KV Cache。
OpenAI 最近发了一篇工程文章,题目是 Harness engineering: leveraging Codex in an agent-first wo...
观察 、 思考、解决、反思...
暂未填写个人简介
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址