大多数人在看到「multi-agent」时会觉得需要搭建架构。


实际上你只是需要让模型同时站在三个不同的位置思考。
角色扮演 prompt 做到的事情,跟 agent swarm 的核心机制高度重叠:强迫模型从不同前提出发、制造内部张力、让结论不是沿着同一条思路滑下去。架构派的做法是把这个过程外显化,拆成独立 agent、独立 context、独立 call。开销大,可控性高,适合需要审计的生产环境。
但 90% 的使用情境不需要审计,需要的是一个不只有一种声音的回答。
这里有个被低估的工程事实:语言模型本来就是在海量角色的文字上训练出来的。角色切换对它来说不是模拟,是激活不同的权重分布。你给它三个角色,它真的会用三种不同的认知结构去处理同一份材料。
复杂度不在工具,在 prompt 有没有把角色的前提说清楚。
说清楚了,一个 prompt 顶一个 swarm。说不清楚,架构再漂亮也是三个 agent 给你同一个答案。
---Prompt Example---
你现在扮演三个角色,针对以下内容分别独立思考,然后互相讨论。
开始前,先用一句话定义:这份材料要解决什么问题、要达成什么具体结果。三个角色都必须基于这个定义出发,不能各自解读目标。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)