Phase one and done:Eth2 作为数据可用性引擎_MPL:MPLAI

编者注:这篇文章的原标题为“PhaseOneandDone:eth2asadataavailabilityengine”,在发表当时,作者意在为Eth2.0提出一种替代Phase2的路线图,也就是,如果仅用分片来保证数据可得性,这样的系统是否有用,还需要增加哪些部分来使之变得有用。令人惊讶的是,在一年半以前,作者就已经认识到,对zk-rollup这样的系统来说,底层必须保障的是“状态转换的执行和数据可得性必须是原子化地绑定在一起的”,因此底层必须具备执行能力,哪怕是非常简单的无状态执行;而且,为保证用户体验,还缺少的主要部分是数据怎么上分片的手续费支付协议。手续费协议在Phase2的规范中,目前也仍然是缺失的。

顺带说一句,本文作者是CaseyDetrio,他是Ewasm团队的一员,之前也为Phase2提供过很多想法;他也认为,应该以“保证Eth1的合约到了Eth2能够如常执行”为核心来设计Eth2.0。他是被低估的一个开发者。

目前,限制Eth1吞吐量的瓶颈是状态增长。因此,如果我们想要扩展以太坊,从逻辑上来说,1000个具有独立状态的分片能够将吞吐量提高1000倍。

StarkNet主网正式上线Alpha0.8.0版本:金色财经消息,以色列零知识证明研发机构Stark Ware推出的以太坊Rollup扩容方案Stark Net主网正式上线Alpha0.8.0版本。此前报道,Alpha0.8.0版本更新包括:根据计算复杂度定价的费用机制、Layer2以太坊水龙头、向StarkNet的API添加了检索事务执行跟踪的功能、增加Layer1到Layer2的消息取消功能、减少了定序器执行传入Cairo事务流所需的时间等。[2022/3/23 14:13:44]

但是,从Eth1.x的路线来看,Eth1.x想要对两类资源的成本进行重大调整:存储和交易数据。目前,存储的定价过低,而交易数据的定价过高。这会激励dApp开发者在编写合约时更多使用存储而非交易数据,从而导致存储成为吞吐量的瓶颈。针对这一问题提出的解决方案是增加存储的定价,并减少交易数据的定价。经过这些成本调整,开发者将受到激励更多地使用交易数据,而非存储。因此,在不久的将来,我们预期Eth1的吞吐量会受到交易数据的限制,而非存储的限制。

如果我们假设吞吐量受到交易数据的限制,那么为了扩展以太坊,Serenity上的分片不需要有状态。如果吞吐量受到来自无状态合约的交易数据的限制,那么1000个无状态分片就会将吞吐量提高1000倍。

韩国数字资产信托委托NXC及Alpha Asset Management等公司托管加密货币:韩国数字资产信托(KDAC)25日宣布,它已委托Nexon的控股公司NXC、Alpha Asset Management和JC Hyun Systems托管加密货币。(韩联社)[2021/5/25 22:40:55]

这听起来不错,但是需要通过分片来实现,按计划要等到Phase2。与此同时,我们可以将Phase1作为数据可得性引擎。数据可得性引擎一词似乎逐渐流行起来。我们来思考一下它是如何运作的。

以zk-rollup为例,zk-rollup受到数据可得性的限制。Eth1上的zk-rollup合约能否有效地将Eth2作为桥接式可用性保障提供方?如果在执行过程中无法同时保障数据可得性,你就会得到一个类似plasma的zk-rollback系统。这个系统虽然能够大幅提高TPS,但是会引入复杂的权衡关系,需要处理像plasma那样的运营者挑战和退出机制。在可用性挑战中,任何人都可以提供数据来证明可用性,因此目前还不清楚将数据放入桥接的Eth2分片中能不能让事情变得更简单。

AlphaRay:Raydium将为DeFi市场提供流动性共享的低费率产品:3月16日,Solana生态项目Raydium创始人AlphaRay做客抹茶社区,他表示,Raydium是第一个基于Solana公链的自动做市商(AMM),可以进行去中心化的快速交易,共享流动性,赚取收益。

它有些类似Uniswap或者SushiSwap,但区别是Raydium基于高性能的Solana公链,所以交易快速而去成本极其低廉。同时Raydium上的流动性直接互通Serum去中心化交易所的中央买卖盘记录(order book)。这意味着Raydium的用户和流动性池可以访问整个Serum生态系统的订单流和流动性。

“目前DeFi产品普遍面临费率高、流动性分散问题,Raydium正是以此为切入点,提供低费率、共享流动性等功能。另外,随着Solana和Serum生态的不断发展壮大,Raydium协议可为交易用户提供无限的流动性。”AlphaRay说道。[2021/3/16 18:50:45]

现在有了另一个版本的zk-rollup,即,500TPS的zk-rollup,一切都变得简单多了。不再需要指定的运营者,任何人随时都能充当中继者,并生成SNARK证明来更新状态。事实上,数据可得性保障始终伴随着状态更新,也就是说不需要处理像plasma那样的运营者挑战和退出机制。但是这需要执行和数据可得性保障都发生在同一笔交易中,而遗憾的是我们无法使用桥接式可用性引擎做到这点。换言之,桥接对于zk-rollback这样的欺诈证明系统来说足够了,但是对zk-rollup这样的有效性证明系统来说还不够。结论是,为了将Layer2上的有效性证明简单化,Layer1上的可用性引擎需要具备的一项重要功能是,能保证数据可得性与状态转换的执行是原子化地一起发生的。

Vishal:Alpha5快速撮合,聚合深度为风险对冲提供专业的产品和流动性:2月26日20时,Alpha5 CEO Vishal 作客MXC抹茶社区,就Alpha5发表观点。

Vishal表示:“Alpha5是一站式加密资产衍生交易平台,借鉴芝加哥期货商品交易所[隐含订单],可根据期货价格曲线的价差帮助用户找到不同的产品间的套利空间。快速撮合,聚合深度为风险对冲提供专业的产品和流动性,旨在成为加密货币领域的芝加哥交易所,为机构和交易员提供交易平台。”

Alpha5 (A5T)将于3月1日9时登陆MXC抹茶M-Day,开启抽签登记,可通过交易主流币、持仓USDT获得抽签资格。[2021/2/26 17:57:21]

或许我们不应该对这一认识感到惊讶。如果单靠数据可得性就有用的话,就不会有人说Phase1启动只是为了确保一堆非零blob的可用性,也就不会有人抱怨必须要等Eth2进入下一阶段才能真正发挥作用了。我们正在努力将Phase1作为数据可得性引擎,但是它依然无法执行任何操作,因此令人感到失望。

那么,为什么Phase1会与执行相冲突?好吧,假设是有状态执行,则每个分片都要维护一些本地状态。如果验证者需要维护很多本地状态,那么验证者混洗就会复杂得多。反之,如果没有执行,就不用担心本地状态。验证者混洗就会简单得多,我们就可以专注于使用数据blob构建分片,然后更快地启动分片。

现场 | AlphaCoin Fund创始合伙人安乾隆:区块链在金融领域落地应该是全方面多层次的:金色财经现场报道,1月15日上午,由易趣财经、一本区块链、《金融理财》杂志社主办的“破界·融合”区块链与数字金融高峰论坛在北京举办。AlphaCoin Fund创始合伙人安乾隆现场表示,区块链在全球金融领域的落地,应该是全方面,多层次的。由大到小,以国家力量推动产业发展,金融行业与金融机构立足现有基础进行创新,传统巨头加强研究与合作,创新创业繁荣发展。另外,全方位的落地发展要以人才为基础。[2020/1/15]

但是,我们先不假设执行是有状态的。如果我们尝试使用非常简单的无状态虚拟机来执行操作会怎么样?

假设信标链状态中有3个新的验证者字段:code、stateRoot和deployedShardId。这里还有一个函数process_deploy。一旦代码部署完成,验证者必须保证账户余额不低于某个阈值。

现在,我们假设全局状态中已经有了一些带有代码的账户。

接下来,我们尝试将特定数据blob打包到分片上,但是该怎么做?据我所知,对于phase1的分片验证者来说,如何决定将哪些数据blob打包到分片区块中仍是个悬而未决的问题。假设phase1规范中没有详细说明这一点。那么,对于用户来说,如果他们想要将自己的数据blob打包到分片上,就只能通过两种方式:联系验证者,并通过协议外的方式向其付款;自己成为验证者,就可以将数据blob打包到分片上。这两种方式都是下策。

比较好的方法是,将事情摆到台面上,允许验证者通过一个交易协议向当前区块提议者支付费用。作为交换,区块提议者要将验证者的数据blob打包到分片链上。但是,如果信标链区块操作有最小容量要求,这种方法就行不通了。如果没有一个能够让验证者决定数据blob打包优先级的交易协议,那么“将phase1作为数据可得性引擎”的用例将无法实现。不管怎么说,我们先假设,不管分片提议者在“没有执行的数据可得性引擎”模式中如何打包数据blob,都可以在“简单无状态执行的数据可得性引擎”中都同样能做到。

好了,那么假设特定的数据blob可以打包进区块了。每个区块都将执行限制在一笔交易中。我们还未明确交易要用密钥签署,还是不需要签署。假设是后者,且代码实现了自己的签名检查。如果blob能够作为交易成功解码,则以数据和当前状态根作为输入执行目标账户代码。如果执行成功,则返回数据为新的状态根。

我们如何更新验证者账户的stateRoot?我们无法在每个分片区块的BeaconState中更新状态根。但是,信标链的状态中的分片字段,会随着交联而更新。取同一个分片上所有账户的已更新状态根,假设对它们进行哈希运算,得到shard_state_root。shard_state_root似乎与phase1设计中已有的crosslink_data_root差不多。

不可否认的是,不是每挖出一个信标链区块,所有分片状态根都会更新,因此存在一些本地状态。但是,如果账户是全局的,状态根数据就是最小化的。这就与混洗期间验证者之间需要转移部分分片区块的数据差不多。

这里当然忽略了很多细节。我想要表达的是,无状态执行的大部分要求似乎在phase1就能满足。我认为,最大的问题在于,目前尚未明确用户可以通过哪种方式将他们的blob打包上链。或许这只是第一个问题,还有其它严重的问题被我忽略了。我忽略了什么?如果要在phase1上允许用户通过某种方式将blob打包上链,那么最困难的部分是什么?

这个执行模式相比phase2的提议更加简单,一大原因是合约账户是全局的,就像验证者账户一样。这就意味着,合约账户的数量必须设有上限,而且部署代码的成本与成为验证者的成本一样高。但是,如果这能够让我们更快地将执行引入Eth2,我们是否可以接受这种权衡?代码部署后,就无法更改合约存储,因此也可以说,我们这是在尝试不扩展合约存储而为Phase1提供执行功能。这里还有一大重要用例:具备数据可得性的超高吞吐量。

即使有了基础的无状态执行,用户也可以通过将一个合约的状态证明作为交易数据发送到另一个合约,从而实现跨分片合约调用。合约也可以实现自己的类似收据的功能。开发者体验不是很好,因为协议不会提供任何帮助。但是现有的phase2提议似乎缺乏实际的功能来促进跨分片合约交互。因此,就开发者体验而言,基础的phase1无状态执行听起来没有比“简单的”phase2构想糟糕很多。基础的无状态执行也足以实现信标链上的BETH和主链上的ETH之间的双向锚定。

Phase2提议与我们这里的提议的最大区别在于,Phase2的目标是扩展合约的storage。但是存储,以及相应而来的富状态执行,同样似乎就是大多数复杂性的来源,也正是使我们无望在Phase1引入执行的原因。

原文链接:

https://ethresear.ch/t/phase-one-and-done-eth2-as-a-data-availability-engine/5269

作者:?CaseyDetrio

翻译&校对:?闵敏?&阿剑

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金宝趣谈

MEXC对DeFi领域的预判和分析_DEF:Libre DeFi

12月3日,我有幸参与了DeFi的深度玩家何太极在深圳举办的一场线下DeFi交流会。何太极和大家分享了他对DeFi的各种见解和看法,他对DeFi领域的理解和认知值得学习.

[0:31ms0-3:542ms