0%

以太坊基金会第 12 次 AMA 要点:主网 L1 扩展方案、ETH 价值捕获、Rollups、ZK 研究、MEV 各类方案

编译|GaryMa 吴说区块链

原文链接:

https://www.reddit.com/r/ethereum/comments/1f81ntr/ama_we_are_ef_research_pt_12_05_september_2024/

9 月 5 日,以太坊基金会研究团队在 reddit 论坛进行了第 12 次 AMA,社区成员可以在帖子中留言提问,研究团队成员将进行解答。吴说对本次AMA中涉及的相关疑问/技术要点进行摘要编译如下:

  1. 随着 L2 方案的成熟,目前是否有进一步扩展以太坊 L1 的计划?具体有哪些考虑方案?

Justin Drake:

长期可持续且优雅的方案是利用 SNARKs 来拓展 L1 EVM 执行,几乎没有限制。

通过实时 L1 EVM SNARKing,验证者可以验证廉价的 SNARKs,而不是简单地重新执行 EVM 交易。这将使我们能够在不增加验证者负担的情况下,将 gas 限制提高数个数量级。所有繁重的 EVM 执行都将在共识之外由像搜索者、构建者、探索者等实体操作的专用节点完成。用户和共识参与者将变得更加轻松,例如可以在手机或手表上运行他们的节点。

除了通过大幅提高 L1 EVM gas 限制带来的垂直扩展优势外,还可以通过在 EVM 中使用 EVM 预编译来实现任意的水平扩展,从而在 EVM 内部廉价地验证 EVM 执行。这个预编译将允许开发者以编程方式启动新的 L1 EVM 实例,解锁一种超强的执行分片版本,其中分片数量不受限制(而不是限制在 64 或 1024 个分片),并且各个分片都是可编程的 rollup(具有可编程的治理、排序、gas),被称为“native rollups”。

Vitalik:

目前正在积极考虑的主要有两种 L1 扩展策略:

● 实施减少全节点负载的提案(例如 EIP-4444(历史到期)、Verkle 树或基于哈希的二叉树,最终是对 EVM 进行 ZK-SNARK 处理),一旦这些改进就位(或即将到位),就可以提高 gas 限制。短期内最现实的方案是 EIP-4444,因为它不需要共识层的更改,只需对客户端代码进行一些侧面处理,且与 L1 上正在做的其他事情相对独立。

● 进一步改进客户端执行,然后在完成后提高 gas 限制。这里需要改进的关键点是:(i)执行,包括 VM 和预编译,(ii)状态读写,以及(iii)数据带宽。这三个方面都存在已知的低效之处,可以进一步优化。

● 为 EVM 添加加速特定计算形式的功能。我最喜欢的一个想法是将 EVM-MAX 和 SIMD 结合起来,这将为 EVM 提供类似 numpy 的扩展,使得进行大量加密处理的速度大大提升。这样可以降低依赖加密的应用程序的成本,特别有利于隐私协议和 Layer 2 扩展方案。

扩展 L1 执行可以与构建 rollup 并行进行。然而,这两者并不必然冲突:

● 数据可用性几乎可以无限扩展,最终的限制取决于对以太坊的兴趣(即,有多少人真正运行全节点,以及有多少人愿意记录所有数据)。

● 执行总是会受到更多限制,最终的极限是单线程的限制。目前,状态访问是扩展 L1 执行的直接限制。

● 借助 zkEVM 和并行化技术,我仍然认为我们可以将 L1 扩展到当前容量的 10-1000 倍。剩下的部分将由 rollup 来提供,达到“全球规模”。

好消息是,所有这些方面都在进行中——并且由于以 rollup 为中心的路线图,许多团队正在以更加去中心化的方式并行推进这些工作。

  1. 2024 年 ETH 的价值捕获理论是什么?

Dankrad Feist:

以太坊构建了一个金融平台,上面有着非常有价值的链上活动,从中捕捉价值是可能的,但事先并不明晰具体的机制是什么。我仍然认为这将通过某种费用机制来实现。

如果这不是最佳的价值捕获机制,那么还有一些有趣的替代方案,尽管我对这些替代方案持越来越多的怀疑态度,但没有一种是完全不可能的:通过数据可用性费用进行价值捕获,作为生态系统中的主要交易媒介资产,最后是用作抵押品(这是最具风险的)。

Justin Drake:

ETH 是货币。

  1. 以太坊基金会是否认为 ETH 的持续价值捕获属性是重要的?

Dankrad Feist:

“以太坊基金会”对此没有统一意见,作为研究者,我们每个人都有自己的看法。

我个人认为,最好是专注于在以太坊上构建一个能够产生价值的生态系统,我认为价值捕捉最终会自然而然地发生。这并不意味着我不考虑价值捕捉问题,但在价值生成部分尚未完善的情况下,过分关注价值捕捉是一个巨大的错误。

Justin Drake:

我个人认为,ETH 的价值捕获对以太坊的成功至关重要。我相信,除非 ETH 实际上成为互联网的可编程货币,否则以太坊无法成为价值互联网的结算层。货币溢价只会积累到一个特殊的资产上(规模可达到数十万亿美元)。这种货币溢价是必要的,因为它能够:

● 支持数万亿美元的去中心化稳定币(“经济带宽”);

● 提供无可置疑的安全性,甚至能抵御国家级别的威胁(“经济安全”);

● 吸引所有主要经济参与者的关注(“经济显著性”)。

  1. 如果接下来的路线图执行结果是一个多样化的在以太坊 L1 上结算的 rollup 生态系统,大量的 dapp 部署在 L2,用户手续费不到一美分,但 ETH 几乎没有价值捕获,基金会是否会认为这是对以太坊路线图的成功实现?

Dankrad Feist:

再次声明,我不代表以太坊基金会发言,但作为研究人员,我有个人看法。

当我创建一家初创公司时,当然希望能够赚钱,但如果它对我的客户有用,即使我最终一无所获,我仍然会认为这是一种成功。

将这一点转换到以太坊上,我确实认为,如果我们拥有一个多样化的 rollup 生态系统,为世界提供有趣的应用程序,我会认为这是成功的。但如果这个生态系统也让 ETH 这一资产变得更有价值,那将是更大的成功。

我知道许多人认为以 rollup 为中心的路线图会减少以太坊的费用收入和 MEV,最终可能让 rollup 成为寄生性存在。但我认为这不正确。我认为高价值交易仍然会发生在以太坊 L1 上,而 rollup 通过为用户提供充足的交易空间来扩大整个市场。两者的关系是共生的:以太坊为 rollup 提供廉价的数据可用性(我认为这应该是廉价的,以太坊的安全性应对所有人都负担得起),而作为回报,rollup 会使以太坊 L1 成为所有高价值金融活动的自然交汇点。

Justin Drake:

我个人认为,ETH 的价值捕获归结于资金流动和货币溢价。对于资金流动,重要的指标是总费用,而不是每笔交易的费用。正如在这次演讲中所描述的,一个成功的以太坊终局将达到每秒 1000 万笔交易,即使每笔交易费用不到一美分,也能带来数十亿美元的日收入。例如,每笔交易 0.002 美元的费用大约可带来 20 亿美元的日收入。对于货币溢价,关键指标是用作抵押货币的 ETH 百分比,例如用于支持 DeFi。

  1. 如果blobs未能达到目标平均值(3),是否应该降低目标以确保费用价格发现?

Dankrad Feist:

以太坊目前正在为 rollup 创建一个新的市场——数据可用性市场。许多替代方案,如 Celestia、Eigenlayer、Avail 等,都希望从以太坊手中抢夺市场份额。它们无法在安全性上竞争,因此希望通过价格竞争。我们真的要在这个时候人为提高价格,让我们最大的资产之一(安全的 rollup)离开我们的链吗?

即使每个区块有 3 个 blob,这部分收入也无法对以太坊的协议收入产生显著影响。我认为在未来几年里,我们应该尽可能努力扩展这一领域,稍后再考虑如何从中获取费用。

无论如何,我不认为 blob 费用是以太坊的最佳价值捕捉机制。数据可用性市场过于不稳定——虽然以太坊提供了最好的安全性,但很容易找到“足够接近”的替代方案,因此这将永远不会是一个捕获价值的好方式。以太坊 L1 作为生态系统中的自然金融交汇点,将拥有最高价值的交易,我认为这才是 ETH 最佳的价值捕获机制。

Davide Crapis:

不应该。该机制的作用是为拥堵定价,所以如果没有拥堵,价格保持较低是可以的。然而,目前的需求远低于目标,这会影响在拥堵情况下的价格发现。在这种情况下,价格发现是很重要的,我们应该让这个机制更加有效。短期内,类似提高最低费用(但仍保持非常低!)或调整更新速度的变化,可能会有所帮助。

  1. Rollups是否有动机不去去中心化他们的排序器以保留排序器费用?

Vitalik:

实际上我并不认为 rollup 去中心化排序器是最优先的任务。对我来说,短期和中期内更应该专注于以下几点:

● 拥有一个可用的强制包含通道(这使得 L2 继承 L1 的抗审查能力)

● 达到第二阶段(完全无需信任,安全委员会只有在可证明的错误发生时才能介入,例如两个本应等效的证明系统出现分歧,或者某个证明系统接受了同一区块的两个不同的后状态根)

另外,我觉得费用收集和排序器去中心化是相互独立的。如果排序器是中心化的,那么你负责排序并收集费用和 MEV(但需要花费精力搞清楚如何获取 MEV)。如果排序器是去中心化的,那么你通过拍卖排序器插槽获取收入,其平衡状态下的收入等于费用和 MEV 减去获取 MEV 的成本。这两种情况看起来是对称的。

我看到的主要不对称性可能是社会方面的:当排序器是中心化的时,可能更容易通过收集费用和 MEV 而不用将其分给代币持有者(或其他与社区公开达成的分配方式),而去中心化则需要在经济上“做正确的事情”。但我希望 L2 不会因为这个原因而保持中心化,并且我希望社区(包括像 L2beat 这样的组织)能够关注这种情况并警惕类似问题。

  1. 以太坊基金会目前在 zk 研究方面正在追求哪些领域,在哪里可以找到以太坊基金会进行的当前或过去的 zk 研究?我知道你们正在积极研究 VDFs。能否提供一些关于你们如何使用它们的信息?你们使用的是哪些 VDFs?你们是否对现有的 VDFs 做出了任何改进?

Vitalik:

在零知识(ZK)领域,对我而言,两个短期内具有实际意义的重点是:

● 在普通消费者笔记本上,每秒生成数十万次哈希的 ZK 证明,使用尽可能保守的哈希函数。如果我们能做到这一点,我们就可以直接使用二叉哈希树来替代以太坊的状态树,跳过 Verkle 树,从而加速实现量子抗性和状态树的固化。

● “理想”的 ZK-EVM。对我来说,“理想”的 ZK-EVM 有两个关键组成部分:(i)实时性,能够在 <4 秒内证明一个区块;(ii)形式化验证,确保证明系统只接受有效的 EVM 执行。这对于实现一些更有野心的跨 L2 互操作性想法,以及在 L1 上充分发挥 ZK-EVM 的优势是必要的。

Justin Drake:

我对将 L1 EVM 转换为 SNARK 非常兴奋。过去几个月里取得了巨大的进展。今天 Uma(来自 Succinct)分享了新的数据:现在验证所有 L1 EVM 区块的成本大约是每年 100 万美元,且还有显著的优化在推进中。如果到明年这个时候验证所有 L1 EVM 区块的成本降到每年 10 万美元左右,我不会感到惊讶,这要归功于 SNARK ASICs 以及整个技术栈(编译器、算术化、证明系统、证明器算法)的软件优化不断加速。另一个令人兴奋的进展是,以太坊基金会正在加速 zkEVM 的形式化验证。这是由 Alex Hicks 领导的项目,背后有 2000 万美元的预算支持。

在信标链层面,最近的基准测试加速了基于哈希的签名与 SNARK 聚合的时间表。相比于 BLS 签名聚合,在进行多层递归聚合时,基于 SNARK 的聚合具有显著的灵活性,并且是信标链实现后量子安全的关键。

关于 VDF(可验证延迟函数)有两个方面:a) 构建生产级的 VDF 作为加密原语,b) 在应用中使用这一原语。

先从 b) 应用开始。VDF 在以太坊 L1 上的激励使用案例是增强 RANDAO,从而为领导者选举提供不可操纵的随机性。依我看,VDF 是 L1 随机性的终局目标,并且在 Vitalik 的路线图图示中仍是一个“豪华”项目。到目前为止,没有证据表明 RANDAO 被滥用,因此与我多年前进入这一领域时相比,VDF 的研究开发优先级明显降低了。其他 L1 项目,如包含列表、质押上限、L1 SNARK 化更为重要。

除了 L1 领导者选举外,VDF 另一个极好的使用场景是彩票。依我看,这里有一个明显的机会,可以创建一个全球彩票,证明其公平性、世界规模,并且没有抽成。如果你想构建这个项目,请私信我 :) 另一个最近出现的有趣 VDF 应用是,在多提案的情况下,促进区块的同步发布。意外的是,Max Resnick 成为了 VDF 的支持者。

接下来是 a),即 VDF 这一原语本身。结果比我预期的要难得多(多年的工作!),但隧道尽头有曙光。我们现在拥有 MinRoot VDF ASICs,我相信它们可以用于生产级彩票,尽管 256 位 MinRoot 的理论分析中并没有实际攻击。我们现在需要一个团队来进行整合工作,以验证链上 MinRoot SNARK 证明(例如 Nova 或 STARK 证明)。如果是 BN254 MinRoot 这会很容易,但 Pasta 曲线需要一个包装 SNARKs。

  1. MEV 研究的方向是什么?有点困惑,因为有很多提案,比如 ePBS、执行票据、包含列表、BRAID、PEPC、MEV 共享等。对哪个更有兴趣?

s0isp0ke:

我完全理解所有这些首字母缩略词可能会变得有点混乱,我将尝试并简洁地定义你提到的那些:

● ePBS(内置提议者-构建者分离):主要目标是消除需要信任第三方(例如中继者)来调解构建者和提议者之间的互动。目前有一个相关的 EIP,许多工作正在进行中:EIP-7732。

● 执行票据(ETs)和执行拍卖(EAs)是属于更广泛的“验证者-提议者分离”(APS)概念的两个提案。其目标是进一步分离共识角色(如提议、验证),以防止 MEV 造成的负外部性,例如破坏共识的时间博弈。

● 包含列表(ILs)的重点是通过赋予以太坊去中心化的验证者集体权力来强制交易被包含在区块中(并限制构建者),从而提高网络的抗审查能力。我们在这方面取得了相当多的进展,最新的提案 FOCIL(Fork Choice Enforced Inclusion Lists)是一个很好的候选方案。

● BRAID 是 Max Resnick 最近提出的一个新想法:简单来说,它旨在通过多个提议者同时运行平行链,既提高抗审查能力(CR),又“解决 MEV”问题。我最近写了一篇笔记,比较了 FOCIL 和 BRAID 的区别:比较笔记。

● PEPC(协议强制的提议者承诺):PEPC 旨在作为一种内置的协议工具,允许验证者(“提议者”)对他们生成的区块做出有约束力的承诺。这个解释来自 Barnabé 的 PEPC 常见问题解答:PEPC-FAQ。

● MEV 共享:这是 Flashbots 提供的解决方案,用户将交易发送到他们的 RPC 而不是公共内存池,以防止 MEV 提取,并有可能从产生的 MEV 中获得回扣。需要注意的是,这个方案是中心化的(用户需要信任 Flashbots),并且是协议外的。

我最近写了一篇笔记,比较了 FOCIL 和 BRAID,以下是简要总结:

● FOCIL 可以看作是以太坊现有协议的一个附加组件,主要目的是利用多个验证者来增强网络的抗审查能力,同时对当前的区块市场结构影响最小。

● BRAID 的范围更广,不仅旨在提高抗审查能力,还试图通过防止任何一个提议者拥有特权或特殊优势来“解决” MEV 问题。这需要从头构建一个全新的协议,包括新的共识机制,以及执行层(例如排序规则)和市场结构的重大变化。

我觉得要精确回答你的问题很难,因为涉及到“如果它能成功”的前提 。不过,我认为这两种方法都有其价值,且令人欣慰的是,它们并不互斥,且正在并行推进!

Justin Drake:

我很高兴看到 BRAID 受到关注,但目前我坚定地站在 FOCIL + APS 阵营。

我对 BRAID 的主要问题是它引入了“垂直”多区块博弈,这可能导致高度中心化。这相当于可以在连续时隙中进行的多时隙博弈,但发生在“空间维度”而非时间维度。

假设我们在 BRAID 中使用 n=4 的并行提议者。如果一个大型运营商控制了 k>1 个提议者,那么提议者的公平性将崩溃:

● k=2:存在所谓的“风险最后一看”攻击矢量。基本思路是,一个提议者保守行动,按时提出一个包含大量交易的区块以收取交易费,而另一个提议者在验证边界时提交一个包含“最后一看” MEV 的轻量区块,从时间博弈中获利。

● k=4:在这种情况下,问题变得更加严重。一个实体完全控制了整个时隙,可以最大限度地提取所有 MEV。这可能导致高度中心化,因为大型运营商(如 Coinbase 或 Kiln)会偶尔遇到 MEV 的“大奖”,而小型运营商只能获得“MEV 零散收益”。

● k=3:情况同样不妙。大型运营商有动力通过 DoS 攻击第四个他们无法控制的提议者,实质上回到了 k=4 的大奖场景。此外,大型运营商也有动机与第四个提议者合谋,以再次追求 MEV 大奖。

_julianma:

无论是 Mechan-stein(APS + FOCIL + ePBS)还是 BRAID,都是非常令人兴奋的研究方向。然而,FOCIL + ePBS 与 BRAID 处于截然不同的研究和开发阶段。前者已经有了深入的理解,FOCIL 有详细描述,ePBS 也有 EIP 提案;而后者则是一个新颖的概念,仍需要大量研究。我认为 Mechan-stein 和 BRAID 不应该被视为相互竞争的项目,而是作为对区块共同创建的不同探索。

简而言之,我个人对两者都非常感兴趣,并且会继续研究与这两个方向相关的想法。

  1. 以太坊基金会正在做些什么来确保以太坊保持可信中立性,防止政府向验证者施压以审查特定交易(例如涉及受制裁地址或智能合约的交易)?

s0isp0ke:

在过去的一年里,我们(在强健激励小组(RIG)和其他研究人员的合作下)专注于改进以太坊网络的抗审查性(CR),通过不断迭代“包含列表”(Inclusion List,IL)设计。

简而言之,IL 允许去中心化的验证者集体强制将交易包含在构建者的区块中。这有效地减少了对少数复杂实体的依赖,这些实体可能会任意决定哪些交易被包含在以太坊区块中(例如,审查与受制裁地址交互的交易)。

我们在 ethresear.ch 上发布了一些相关帖子,但我在此仅链接我们最新的提案,称为“Fork-choice 强制包含列表(FOCIL)”:FOCIL 提案。该提案依赖多个提议者共同创建一个 IL,其中包括必须包含在区块中的交易,以确保其被验证者视为有效。

_julianma:

以太坊基金会的研究人员正在探索多种方法,以确保可信中立性。

就我个人而言,我对 u/s0isp0ke 描述的包含列表机制非常感兴趣。这些包含列表允许更多人参与区块的构建,从而使多个群体的偏好得以在区块中体现。只要验证者集体能够反映多样化的偏好,即验证者集体去中心化,这些方法就能确保可信中立性。

为了确保验证者集体保持去中心化,一些研究人员正在研究质押经济学。其中一种特别吸引我的是彩虹质押(Rainbow Staking)。简而言之,该观点认为可以存在不同类别的服务提供者,协议不需要所有质押者提供所有服务。这可能允许协议设立一组轻服务提供者,专门负责发现其他人可能未看到或故意排除的交易。总的来说,质押经济学是确保可信中立性的关键,而彩虹质押可能是一个有前途的未来方向。

Justin Drake:

审查有两种类型:

● 强审查:被审查的交易永远不会上链。

● 弱审查:被审查的交易会以通常较小的延迟上链。

强审查通常来自 51% 攻击,这在以太坊上从未发生过。以太坊共识参与者的强大去中心化,以及 51% 攻击后的社会恢复机制,令我认为强审查在以太坊上极不可能发生。

另一方面,弱审查经常发生,尤其是在 MEV 生态系统中(特别是构建者、中继者和提议者)过滤涉及 OFAC 地址的交易。有关审查的指标,请参阅 censorship.pics。大约 15% 的以太坊提议者通过仅连接到实施审查的中继者进行审查。大约 10% 的区块是由审查构建者构建的(在 Beaverbuild 停止审查之后)。大约 50% 的区块是通过审查中继者中继的。

中继审查可以部分通过 ePBS 解决(参见 EIP-7732)。验证者-提议者分离(APS,例如执行拍卖或执行票据)是一个更为极端的解决方案,能够同时消除提议者和中继者的影响。对于构建者审查,计划是使用包含列表,例如 FOCIL。

  1. 我们离修复以太坊过度发行的提案还有多远?是否可以使用类似 Rai 的 PID 控制器来目标一个质押率,而不是使用固定的发行曲线?关于我们在质押率达到 50% 这样一个高度不理想的水平之前,有什么更新吗?

Justin Drake:

我认为,采用一个更智能的发行曲线并在一个软上限(例如所有 ETH 中的 1/4、1/3 或 1/2 被质押)附近逐渐趋近于零,这是显而易见的选择。主要的瓶颈在于社会协调。我们需要一个精明且有动力的人来推动 EIP,从提出到主网部署。这是一个非常高影响力的任务,我预计社区会为此欢呼。

Anders Elowsson:

关于过度发行:

今年已经有几项与此相关的提案。包括调整发行的奖励曲线、经济封顶(目标设定)、封顶发行以及 MVI 的研究文章。FAQ 也详细讨论了这些不同选项及其他几种方案。

目前需要的是在以太坊用户中建立一个支持修复过度发行的运动,同时就减少发行的具体程度进行细致讨论。由于修改发行政策具有敏感性,在推进前如果能建立一些共识会更容易。但如果有此运动,我愿意推动这一进程。

关于PID 控制器:

PID 控制器(以特定质押比例为目标)可以理解为定位于目标的垂直奖励曲线。它会逐步调整收益以避免供应曲线小幅变动导致大变化,但最终平衡点仍会回到供应曲线与垂直奖励曲线的交点。

然而,这种“奖励曲线”有几个缺点:

● 收益过低:控制器可能将收益降到过低,独立质押者由于成本较高,可能被迫退出。

● 收益过高:如果设定的质押目标偏高,可能导致发行超出必要的安全需求,增加不必要的用户成本。

● 攻击风险:高弹性会激励更多的攻击行为。

● 限制 PID 控制器:限制控制器使其变成次优的奖励曲线,不能灵活应对变化。

● 动态方法的机会:结合奖励曲线和动态调整方法可能是更好的解决方案。

关于质押率接近 50% 的时间表:

随着质押的成本(包括风险、硬件、流动性等)相对于回报下降,参与质押的人数会增加,但这一过程难以精确预测。预计质押率会在未来几年内逐渐上升,适度减少发行可以有效减缓这一趋势。

  1. Base L2 正在定期提高他们的 gas 限制,目前已达到目标的 1%,目标是每秒 1 Giga gas。为支持这一目标,需要达到多少目标 blob 数量?我们大约何时能达到这个目标?当然,L2 生态系统不仅仅是 Base,但考虑如果 Base 购买 100% 的 blob 来实现其目标是很有趣的。个人推测,在 OP Stack 采用 zk 之后,Base 可能会转型为 validium 或 volition,不过这只是未经证实的假设。

Vitalik:

目前平均区块大小为 70 kB,平均区块 gas 消耗为 1500 万 gas,因此每字节消耗 214 gas。要达到每秒 1 Ggas,意味着需要每秒 4.67 MB 的数据带宽,这比我们为完整数据可用性(DAS)设定的每秒 1.33 MB 目标高出几倍。如果要让 Base 达到这个目标,有三条路径可供选择:

● 提升数据可用性带宽:将数据可用性(DA)带宽提高到每时隙 16 MB 以上。这需要大量的研究和实践工作,但并非不可能实现。

● Base 采用理想的数据压缩:这应该能将链上数据消耗减少约 7 倍,从而将 Base 的带宽需求降低到每秒约 667 kB,这正好是以太坊数据容量的一半。

● Base 转型为 plasma 架构。

  1. 以太坊基金会的发展方向是什么?比如,要过多少年或多少个月才能用完当前的资金。如果发生这种情况,你打算怎么做?

Justin Drake:

据我个人有限的理解:

● 一份类似的财务报告应该会很快发布。

● 以太坊基金会(EF)每年大约花费 1 亿美元——参见 Aya 的这条推文。

● 按当前价格计算,EF 的主要以太坊钱包持有约 6.5 亿美元。

● EF 有一个可以支撑几年的法币缓冲。(我对这部分的了解最少。正如 Aya 提到的,由于监管原因,ETH 的出售曾暂时停止,因此直到最近才重新补充缓冲资金。)

● 初步估计,EF 有大约 10 年的资金储备。不过,这一储备会随着 ETH 价格的波动而有很大变化。

Vitalik:

目前大致的预算策略是每年花掉我们剩余资金的 15%。这意味着一个默认的路径,EF 永远存在,但随着时间的推移变得越来越小(作为生态系统的一部分)。

  1. 考虑到将会有许多不同的 L2,下一步要做什么来进一步改善 L2 的用户体验和跨 L2 的体验?

Carl Beekhuizen:

Ansgar、Yoav 和我一直在合作创建一个 L2 标准论坛,旨在让 L2 之间在跨 L2 特性上进行协作。想法是,如果某个 L2 想要推出一个功能(例如多维 gas 定价),他们可以将其写成 Rollup 改进提案(RIP),然后其他 L2 团队可以提供反馈,帮助其进行调整,使其对整个行业更有用。之后,其他 L2 也可以推出相同的功能,并确保兼容性。

通过提供一个中立的标准和讨论平台,我们希望只用一种方式发布功能,这样 dapps、钱包和用户只需理解一种模式,这种模式就能在整个 L2 生态系统中运作。

此外,Vitalik 和其他人最近也在推动建立钱包和跨链桥接的标准,这将有助于解决应用层面的碎片化问题。

  1. 人们普遍认为,Pectra 之后的下一个硬分叉将专门用于 Verkle 树。随着zk证明技术的快速发展,把现在的 MPT 改成 snark 有什么好处吗?

Vitalik:

我个人目前倾向于将 Pectra 分叉后的重点转向与状态树无关的事项,特别是包含列表,或 Orbit(仅限洗牌机制,不包括 SSF 部分),以允许拥有远少于 32 ETH 的验证者参与。也许还可以考虑一些 EVM 的改进或简化。这将为我们提供足够的缓冲时间,使我们在之后的分叉中直接采用二叉哈希树作为状态树。

我们看到 Starkware 在 CPU 上证明了每秒超过 60 万次 Poseidon 哈希,但由于 Poseidon 的新颖性,它仍存在争议。话虽如此,也有一些新的方法(例如 GKR)可以为更“传统”的哈希(例如 BLAKE3)提供足够高的性能。因此,对 Poseidon 进行更多的安全分析,或更成熟的 GKR,或者某种第三种选择(如基于格的哈希)都可能帮助我们实现这一目标。

Justin Drake:

我同意这个观点,而且相信很多其他人也同样认同 :) 我倾向于将无状态化的工作转向使用二叉 Merkle 树,而不是 Verkle 树。许多复杂的工作都集中在状态树的转换点,而 Verkle 转换的工作可以重新用于二叉 Merkle 树。

SNARK 证明的速度正在迅速提升。7 月份,一台笔记本的 CPU 每秒证明了 120 万个 Poseidon2 哈希,这打开了更大的可能性窗口。这个基准测试可能已经过时了,尤其是当 GPU 加速被纳入时。Eli Ben-Sasson 在 SBC 提出的初步数据显示,GPU 加速可以带来 5 倍的速度提升,这使得甚至使用 SHA256 二叉树成为可能。

我认为使用 GPU 加速进行无状态化是完全可以接受的,主要有两个原因。首先,无状态化基于诚实少数的假设,也就是说我们只需要全球范围内的少数实体计算无状态 SNARK,这些实体不需要是共识参与者。其次,随着 CPU SNARK 证明速度持续呈指数级加速,GPU 的需求将会逐渐减少。

  1. 如何看待 Max resnicks 批评 L2s 与以太坊 L1 之间的寄生关系越来越严重的言论?为什么 L2s 不能更快地去中心化,我们如何激励他们更快地行动?

Justin Drake:

我在听 Max 最近的 Bankless 播客时,认为他误解了一些关键问题。我和他私下讨论过,所以这篇总结不会让他感到意外。他的核心观点是 L2 被激励去中心化,因为这样会失去排序器费用。他在 Twitter 上也表达了类似观点,尤其提到 Coinbase 通过 Base 每年赚取 2 亿美元的费用。实际上,L2 被激励去去中心化排序以最大化费用,这与 Max 的说法相反。

“排序器费用”这个术语具有误导性。Base 的收入完全来自执行拥堵费,这些费用通过 EIP-1559 风格的 gas 机制确定,类似于 L1,不同的是 Base 的费用被发送到 Coinbase 的钱包,而不是像 L1 那样被销毁。

Coinbase 赚取大量收入是因为 Base 的 gas 需求超过了 gas 目标,这是虚拟机吞吐量的问题,拥堵费用与排序无关。如果 Base 使用去中心化排序器,Coinbase 仍然会获得这些拥堵费。拥堵费源自 Base VM 的 gas 目标,而排序器的作用仅限于通知用户 L2 拥堵费的存在,真正的价值来源是 Base VM 的区块空间供需不匹配。

唯一合理的“排序器费用”指 MEV,因为 MEV 的价值捕捉确实源自排序,但 Coinbase 的 Base 并没有捕捉 MEV。Base 的排序是优先收费拍卖,先到先得。用户通过加密交易发送给 Base 排序器,因此没有 MEV 被 Coinbase 捕捉到。L2 目前也没有捕捉 MEV 的情况,因为这会损害用户的执行质量。

此外,排序器费用对跨 L2 的可组合性有害,因为 MEV 的提取需要专有的排序基础设施,而共享排序在这种情况下不可行。为了最大化可组合性,我们需要共享排序器,而可信中立的排序器才能让 L2 之间达成共识。最终,最可信的排序器是以太坊本身,它不引入新的品牌、代币或安全假设。

去中心化排序器很难实现,需要时间。目前 L2 使用中心化排序器是为了处理三件事:安全性、防止 MEV 提取、和快速用户体验(如低延迟共识或加密经济的预确认)。

日期: 2024-09-09 10:10

返回

上一页:VanEck 首席执行官为以太坊辩护

下一篇:对话 Gyroscope 联创:探索去中心化稳定币的流动性与安全性

空投分类,推荐基于稳定币的空投,空投收益巨高,大资本背书项目安全,分散投入,形成复利效应,复利让我们更有钱