📢 Gate广场 #创作者活动第一期# 火热开启,助力 PUMP 公募上线!
Solana 爆火项目 Pump.Fun($PUMP)现已登陆 Gate 平台开启公开发售!
参与 Gate广场创作者活动,释放内容力量,赢取奖励!
📅 活动时间:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活动总奖池:$500 USDT 等值代币奖励
✅ 活动一:创作广场贴文,赢取优质内容奖励
📅 活动时间:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 参与方式:在 Gate 广场发布与 PUMP 项目相关的原创贴文
内容不少于 100 字
必须带上话题标签: #创作者活动第一期# #PumpFun#
🏆 奖励设置:
一等奖(1名):$100
二等奖(2名):$50
三等奖(10名):$10
📋 评选维度:Gate平台相关性、内容质量、互动量(点赞+评论)等综合指标;参与认购的截图的截图、经验分享优先;
✅ 活动二:发推同步传播,赢传播力奖励
📌 参与方式:在 X(推特)上发布与 PUMP 项目相关内容
内容不少于 100 字
使用标签: #PumpFun # Gate
发布后填写登记表登记回链 👉 https://www.gate.com/questionnaire/6874
🏆 奖励设置:传播影响力前 10 名用户,瓜分 $2
以太坊The Surge愿景:10万TPS扩容之路与挑战
以太坊可能的未来:The Surge
以太坊的路线图最初包含两种扩容策略:分片和Layer2协议。分片让每个节点只需验证和存储一小部分交易,而Layer2协议则在以太坊之上构建网络,利用其安全性的同时将大部分数据和计算保持在主链之外。随着研究的深入,这两条路径最终融合在一起,形成了以Rollup为中心的路线图,这至今仍是以太坊的扩展策略。
以Rollup为中心的路线图提出了一个简单的分工:以太坊L1专注于成为一个强大且去中心化的基础层,而L2则承担帮助生态系统扩展的任务。这种模式在社会中无处不在:法院系统(L1)的存在不是为了追求超高速和高效,而是为了保护合同和财产权,而创业者(L2)则要在这一稳固的基础层之上进行建设,推动人类的进步。
今年,以Rollup为中心的路线图取得了重要成果:随着EIP-4844 blobs的推出,以太坊L1的数据带宽大幅增加,多个以太坊虚拟机(EVM) Rollup已进入第一阶段。每个L2都作为具有自身内部规则和逻辑的"分片"存在,分片实现方式的多样性和多元化如今已成为现实。但这条路也面临着一些独特的挑战。因此,我们现在的任务是完成以Rollup为中心的路线图,并解决这些问题,同时保持以太坊L1所特有的稳健性和去中心化。
The Surge:关键目标
未来以太坊通过L2可以达到10万以上的TPS;
保持L1的去中心化和鲁棒性;
至少一些L2完全继承了以太坊的核心属性(去信任、开放、抗审查);
以太坊应该感觉像一个统一的生态系统,而不是34个不同的区块链。
本章内容
可扩展性三角悖论
可扩展性三角悖论是2017年提出的一个想法,它认为区块链的三个特性之间存在矛盾:去中心化(更具体地说:运行节点的成本低)、可扩展性(处理的交易数量多)和安全性(攻击者需要破坏网络中很大一部分节点才能使单笔交易失败)。
值得注意的是,三角悖论不是一个定理,介绍三角悖论的帖子也没有附带数学证明。它确实给出了一个启发式的数学论点:如果一个去中心化友好的节点(例如消费类笔记本电脑)每秒可以验证N笔交易,并且你有一个每秒处理k*N笔交易的链,那么 (i) 每笔交易只能被1/k个节点看到,这意味着攻击者只需破坏少数节点就能通过一笔恶意交易, 或 (ii) 你的节点将变得强大,而你的链不会去中心化。这篇文章的目的从不是证明打破三角悖论论是不可能的;相反,它旨在表明打破三元悖论是困难的,它需要在某种程度上跳出该论证所隐含的思维框架。
多年来,一些高性能链常声称它们在不从根本上改变架构的情况下就解决了三元悖论,通常是通过运用软件工程技巧来优化节点。这总是具有误导性的,在这些链上运行节点比在以太坊上运行节点要困难得多。本篇文章将探讨为何会如此,以及为什么仅凭L1客户端软件工程本身无法扩展以太坊?
然而,数据可用性采样与SNARKs的结合确实解决了三角悖论:它允许客户端在仅下载少量数据并执行极少量计算的情况下,验证一定数量的数据是可用的,并且一定数量的计算步骤是正确执行的。SNARKs是无需信任的。数据可用性采样具有一种微妙的few-of-N信任模型,但它保留了不可扩容链所具有的基本特性,即即使是51%的攻击也无法强制坏块被网络接受。
解决三难困境的另一种方法是Plasma架构,它使用巧妙的技术,以激励兼容的方式将监视数据可用性的责任推给用户。早在2017-2019年,当我们只有欺诈证明这一手段来扩展计算能力时,Plasma在安全执行方面非常受限,但随着SNARKs(零知识简洁非交互式论证)的普及,Plasma架构对于比以往更广泛的使用场景变得更加可行。
数据可用性采样的进一步进展
我们正在解决什么问题?
2024年3月13日,当Dencun升级上线时,以太坊区块链每12秒的slot有3个约125 kB blob,或每个slot的数据可用带宽约375 kB。假设交易数据直接在链上发布,则ERC20转账约为180字节,因此以太坊上Rollup的最大TPS为:375000 / 12 / 180 = 173.6 TPS
如果我们加上以太坊的calldata(理论最大值:每个slot3000万Gas / 每字节16 gas = 每个slot 1,875,000字节),则变为607 TPS。使用PeerDAS,blob数量可能会增加到8-16,这将为calldata提供463-926 TPS。
这是对以太坊L1的重大提升,但还不够。我们想要更多的可扩展性。我们的中期目标是每个slot 16 MB,如果结合Rollup数据压缩的改进,将带来~58000 TPS。
它是什么?如何运行?
PeerDAS是"1D sampling"的一个相对简单的实现。在以太坊中,每个blob都是一个在253位素数域(prime field)上的4096次多项式(polynomial)。我们广播多项式的shares,其中每个shares包含从总共8192个坐标中相邻的16个坐标上的16个评估值。在这8192个评估值中,任何4096个(根据当前提出的参数:128个可能样本中的任何64个)都可以恢复blob。
PeerDAS的工作原理是让每个客户端侦听少量子网,其中第i个子网广播任何blob的第i个样本,并通过询问全球p2p网络中的对等方(谁将侦听不同的子网)来请求它需要的其他子网上的blob。更保守的版本SubnetDAS仅使用子网机制,而没有额外的询问对等层。当前的提案是让参与权益证明的节点使用SubnetDAS,而其他节点(即客户)使用PeerDAS。
从理论上讲,我们可以将一"1D sampling"规模扩展得相当大:如果我们将blob的最大数量增加到256(目标为128),那么我们就能达到16MB的目标,而数据可用性采样中每个节点16个样本 * 128个blob * 每个blob每个样本512字节 = 每个slot 1 MB的数据带宽。这只是勉强在我们的容忍范围内:这是可行的,但这意味着带宽受限的客户端无法采样。我们可以通过减少blob数量和增加blob大小来对此进行一定程度的优化,但这会使重建成本更高。
因此,我们最终想要更进一步,进行2D采样(2D sampling),这种方法不仅在blob内进行随机抽样,还在blob之间进行随机抽样。利用KZG承诺的线性属性,通过一组新的虚拟blob来扩展一个区块中的blob集,这些虚拟blob冗余地编码了相同的信息。
因此,最终我们想更进一步,进行2D采样,它不仅在blob内,而且在blob之间进行随机采样。KZG承诺的线性属性用于扩展一个区块中的blob集,其中包含对相同信息进行冗余编码的新虚拟blob列表。
至关重要的是,计算承诺的扩展并不需要有blob,因此该方案从根本上来说对分布式区块构建是友好的。实际构建区块的节点只需要拥有blob KZG承诺,并且它们可以依赖数据可用性采样(DAS)来验证数据块的可用性。一维数据可用性采样(1D DAS)本质上也对分布式块构建友好。
还需做什么?又有哪些权衡?
接下来是完成PeerDAS的实施和推出。之后,不断增加PeerDAS上的blob数量,同时仔细观察网络并改进软件以确保安全,这是一个渐进的过程。同时,与此同时,我们希望有更多的学术工作来规范PeerDAS和其他版本的DAS及其与分叉选择规则安全等问题的交互。
在未来更远的阶段,我们需要做更多的工作来确定2D DAS的理想版本,并证明其安全属性。我们还希望最终能够从KZG转向一种量子安全且无需可信设置的替代方案。目前,我们还不清楚有哪些候选方案对分布式区块构建是友好的。即使使用昂贵的"蛮力"技术,即使用递归STARK来生成用于重建行和列的有效性证明,也不足以满足需求,因为虽然从技术上讲,一个STARK的大小为O(log(n) * log(log(n)) 哈希值(使用STIR),但实际上STARK几乎与整个blob一样大。
我认为的长期现实路径是:
请注意,即使我们决定直接在L1层扩展执行,这种选择也是存在的。这是因为如果L1层要处理大量的TPS,L1区块将变得非常大,客户端将希望有一种高效的方法来验证它们的正确性,因此我们将不得不在L1层使用与Rollup(如ZK-EVM和DAS)相同的技术。
如何与路线图的其他部分交互?
如果实现数据压缩,对2D DAS的需求会有所减少,或者至少会延迟,如果Plasma被广泛使用,则需求会进一步减少。DAS也对分布式区块构建协议和机制提出了挑战:虽然DAS理论上对分布式重建友好,但这在实践中需要与包inclusion list提案及其周围的分叉选择机制相结合。
数据压缩
我们在解决什么问题?
Rollup中的每笔交易都会占用大量的链上数据空间:ERC20传输大约需要180字节。即使有理想的数据可用性采样,这也限制了Layer协议的可扩展性。每个slot 16 MB,我们得到:
16000000 / 12 / 180 = 7407 TPS
如果我们不仅能解决分子的问题,还能解决分母的问题,让每个Rollup中的交易在链上占用更少的字节,那会怎样?
它是什么,如何工作?
在我看来,最好的解释是两年前的这张图:
零字节压缩中,用两个字节替换每个长的零字节序列,表示有多少个零字节。更进一步,我们利用了交易的特定属性:
签名聚合:我们从ECDSA签名切换到BLS签名