共 7 篇文章
深度拆解:AI Agent Harness 的构造【译】
本文将深入探讨 Anthropic、OpenAI、Perplexity 和 LangChain 究竟在开发什么。我们将聊聊编排循环、工具、记忆、上下文管理,以及那些将"无状态"的大语言模型(LLM)转变为全能智能体(Agent)的底层机制。
你可能已经开发过聊天机器人,甚至可能用一些工具搭建了一个 ReAct 循环(ReAct:Reason + Act,一种让模型在行动前先进行推理的模式)。跑 Demo 的时候看着挺好,但一旦投入生产环境,系统就会开始掉链子:模型会忘记三步前做了什么,工具调用悄悄报错,上下文窗口(Context Window)里塞满了毫无意义的垃圾信息。
问题其实并不在模型本身,而在模型外围的基础设施。
LangChain 证明了这一点:他们仅仅通过改变包裹大语言模型的底层架构——模型没变,参数没变——就让系统在 TerminalBench 2.0(一个衡量 AI 智能体处理命令行任务能力的权威基准测试)上的排名从 30 名开外飙升到了第 5 名。另一项研究则通过让大语言模型自己去优化这套架构,实现了 76.4% 的通过率,甚至超过了人类精心设计的系统。
现在,这套基础设施有了一个正式的名字:AI Agent Harness。
一个基于 TradingAgents 框架打造的股票分析 Skill
TradingAgents-CN-Skill 是基于 TradingAgents 框架的中文股票分析 Skill。用户输入股票截图、文字描述或股票代码,Agent 自动完成 4 位分析师 + 2 轮多空辩论 + 风控三方辩论 + 五级评级,输出完整 PDF 报告。
Superpowers + OpenSpec:AI 编程黄金搭档工作流
AI 编程工具层出不穷,但真正的问题不是"AI 能不能写代码",而是"如何让 AI 按照软件工程的标准流程开发"。2026 年,两个开源项目——Superpowers 和 OpenSpec——形成了一套被业内称为"黄金搭档"的开发范式。
2026后端工程师破局:从微服务拆解到AI智能体编排
2026年的互联网圈,弥漫着一种"结构性焦虑"。
“AI会不会取代程序员?““后端CRUD还有价值吗?"——这些问题的讨论已经进入深水区。答案已经明朗:不是后端消亡,而是后端的战场从"指令式编程"转移到了"意图驱动架构(Intent-Driven Architecture)"。 当大厂完成模型私有化,当RAG(检索增强生成)成为基建,当多智能体(Multi-Agent)协同从实验室走向生产线——那些深谙高并发、分布式、领域驱动设计(DDD)的后端工程师,反而成了最稀缺的AI治理官。
深度解析 OpenViking —— 字节跳动开源的 AI 上下文数据库
在 LLM(大语言模型)应用开发中,如何处理海量的、碎片化的上下文数据是开发者面临的最大挑战。字节跳动火山引擎团队开源了 OpenViking,这是一个专门为 AI Agent 和 RAG 场景设计的上下文数据库。它不仅继承了字节内部支撑抖音、豆包等产品的自研向量检索技术,更针对 AI 原生应用的需求进行了深度优化。
腾讯云 RAG 实践:原子引擎与 OpenViking 协同
当企业知识库遇上 AI Agent 记忆系统,一个管"知识",一个管"记忆",这可能是当前最务实的 AI 应用架构。
TradingAgents-CN Prompt 总结
TradingAgents-CN 是一个基于 LLM 的多智能体股票交易分析框架,其精心设计的 prompt 体系值得深入研究。本文完整记录该项目中的所有 prompt 设计。