Gate 广场|2/27 今日话题: #BTC能否重返7万美元?
🎁 带话题发帖,抽取 5 位锦鲤送出价值 2500 美元的仓位体验券!
Jane Street 被起诉后,持续多日的“10 点砸盘”疑似消失。比特币目前在 67,000 美元附近震荡,这波反弹能否顺势冲回 70,000 美元?
💬 本期热议:
1️⃣ 你认为诉讼与“10 点抛压”消失有关吗?市场操纵阻力是否减弱?
2️⃣ 冲击 $70K 的关键压力区在哪?
3️⃣ 你会在当前价位分批布局,还是等待放量突破再进场?
分享观点,瓜分好礼 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 ( UTC+8 )
大多数人在看到「multi-agent」时会觉得需要搭建架构。
实际上你只是需要让模型同时站在三个不同的位置思考。
角色扮演 prompt 做到的事情,跟 agent swarm 的核心机制高度重叠:强迫模型从不同前提出发、制造内部张力、让结论不是沿着同一条思路滑下去。架构派的做法是把这个过程外显化,拆成独立 agent、独立 context、独立 call。开销大,可控性高,适合需要审计的生产环境。
但 90% 的使用情境不需要审计,需要的是一个不只有一种声音的回答。
这里有个被低估的工程事实:语言模型本来就是在海量角色的文字上训练出来的。角色切换对它来说不是模拟,是激活不同的权重分布。你给它三个角色,它真的会用三种不同的认知结构去处理同一份材料。
复杂度不在工具,在 prompt 有没有把角色的前提说清楚。
说清楚了,一个 prompt 顶一个 swarm。说不清楚,架构再漂亮也是三个 agent 给你同一个答案。
---Prompt Example---
你现在扮演三个角色,针对以下内容分别独立思考,然后互相讨论。
开始前,先用一句话定义:这份材料要解决什么问题、要达成什么具体结果。三个角色都必须基于这个定义出发,不能各自解读目标。