Thoughtworks 技术雷达 (Tech Radar) 是一份每半年发布一次的技术报告,涵盖了工具、技术、平台、语言和框架等方面的内容。这一知识成果来自于我们全球团队的经验,重点介绍了您可能想要在项目中探索的内容。
我们分享的每个见解都由一个点(blip)表示。点在最新的雷达报告中可能新增,也可能随着我们建议的改变而移动到不同的环。
环的含义如下:
采纳 (Adopt)。我们认为您应该认真考虑使用的点。
试验 (Trial)。我们认为可以放心使用的点,但还没有达到“采纳”环中那么成熟的程度。
评估 (Assess)。值得关注的点,但除非非常适合您的需求,否则目前可能不需要试用。
暂缓 (Hold)。需要谨慎对待的点。
您可以按象限探索互动版本,也可以下载 PDF 完整阅读雷达报告。想要了解更多关于雷达报告、如何使用或其构建方式的信息,请参阅常见问题解答 (FAQ)。
本期的主题
在技术雷达的每一期中,我们都会讨论并提炼雷达图中出现的新模式。这些模式构成了我们的主题。
基础设施编排助力AI发展
AI 工作负载正在推动各组织对大规模 GPU 阵列进行编排,以支持训练和推理。团队处理的模型规模日益超出单个加速器的容量(即使配备 80GB HBM),这促使他们转向分布式训练和多 GPU 推理。因此,平台团队正在构建复杂的多阶段流水线,并持续调优吞吐量和延迟。在该领域的讨论包括用于集群遥测的 Nvidia DCGM Exporter,以及将作业部署在互连带宽最高位置的 拓扑感知调度。
在 GPU 需求激增之前,Kubernetes 已经是容器编排的事实标准——即便我们也探索了 micro 和 Uncloud 等替代方案,它仍是大规模管理 AI 工作负载的坚实基础。我们正在跟踪新兴的 GPU 感知调度模式——如通过 Kueue 实现队列和配额管理,并结合拓扑感知放置和团体调度(gang scheduling)——以便将多 GPU 作业部署在高速GPU间链路(例如 NVLink/NVSwitch)和连续的数据中心“岛屿”(例如配备 RDMA 的机架或 pod)内。Kubernetes 最近的多 GPU 和 NUMA 感知 API 改进进一步增强了这些能力,提高了跨设备带宽,降低了尾延迟,并提升了有效利用率。
我们预计,随着平台团队竞相支持日益增长的人工智能编码工作流程需求以及MCP推动的智能体崛起,人工智能基础设施将迎来快速创新。我们认为,GPU感知编排正成为基本要求——拓扑结构如今已成为首要的调度考量因素。
MCP 推动的智能体崛起
MCP 与智能体的双重崛起——以及围绕它们构建的不断扩展的协议和工具生态——主导了本期技术雷达。几乎所有主要厂商都在为其工具增加 MCP 支持,这是有道理的:在许多方面,MCP 已成为推动智能体运行并使其高效半自主工作的终极集成协议。这些能力对于提高智能体工作流的生产力至关重要。
我们观察到智能体工作流的持续创新,其中 上下文工程 已被证明对于优化行为和资源消耗至关重要。新协议如 A2A 和 AG-UI 正在减少构建和扩展面向用户的多智能体应用所需的模板代码。在软件开发领域,我们比较了向编码智能体提供上下文的不同方式——从 AGENTS.md 文件到像 将编码智能体锚定到参考应用 的模式。正如 AI 生态系统中常见的,每期技术雷达都带来一波新的创新——上次是 RAG;这次是智能体工作流及支持它们的日益丰富的工具、技术和平台,同时还有一些值得关注的新兴 AI 反模式。
AI 编码工作流
显而易见,AI 正在重塑我们构建和维护软件的方式,并持续主导着我们近期的讨论。随着 AI 在整个软件价值链中战略性地嵌入——从使用 AI 理解遗留代码库 到 面向前向工程的生成式 AI——我们正在学习如何更好地为编码智能体提供知识支持。各团队正在尝试新的实践,例如通过 AGENTS.md 文件定义自定义指令,以及集成 Context7 等 MCP 服务器以获取最新的依赖文档。
同时,业界越来越意识到,AI 必须赋能整个团队,而不仅仅是个人贡献者。像共享指令库 和 自定义命令等技术正逐渐兴起,以确保知识的公平扩散。工具生态也日趋活跃:设计师们正在探索 UX Pilot 和 AI Design Reviewer,而开发者们则借助 v0 和 Bolt 快速进行自助式 UI 原型设计。
我们也在持续讨论规格驱动开发——包括其适用范围、粒度,以及作为增量交付单一事实源的潜力。然而,在这股 AI 热潮中,对 AI 生成代码的盲目信任依然是共同的担忧,这提醒我们:尽管 AI 能加速工程进程,但人类的判断力仍然不可或缺。
新兴 AI 反模式
AI 在各行业的加速应用,既催生了有效的实践,也涌现出一些反模式。我们看到类似 用 GenAI 自助、进行一次性 UI 原型设计 的概念确实具有明显的实用性,但也意识到它们可能将组织引向 AI 加速影子 IT 这种反模式。同样,随着 模型上下文协议(MCP) 的普及,许多团队也容易陷入 天真的 API 到 MCP 转换 这种反模式。
我们还发现 Text to SQL 解决方案的实际效果并未达到最初的预期,而 对 AI 生成代码的自满情绪 依然是一个值得关注的问题。即便是在诸如 规范驱动开发 等新兴实践中,我们也注意到有回归传统软件工程反模式的风险——最明显的是,过度依赖前期规范制定和一次性大规模发布。由于生成式 AI 正以前所未有的速度和规模发展,我们预计新的反模式将迅速涌现。团队应保持警惕,关注那些乍看有效但随着时间推移而失效、反馈迟缓、适应性差或责任不清的模式。
贡献者
技术雷达由Thoughtworks 技术顾问委员会(TAB)创建,成员包括:
Rachel Laycock (CTO) • Martin Fowler (Chief Scientist) • Alessio Ferri • Bharani Subramaniam • Birgitta Böckeler • Bryan Oliver • Camilla Falconi Crispim • Chris Chakrit Riddhagni • Effy Elden • James Lewis • Kief Morris • Ken Mugrage • Maya Ormaza • Nati Rivera • Neal Ford • Ni Wang • Nimisha Asthagiri • Pawan Shah • Selvakumar Natesan • Shangqi Liu • Vanya Seth • Will Amaral
订阅
订阅获取Thoughtworks最新技术雷达的信息,以及双月发布的技术洞见邮件。