观点 | 无状态以太坊:二进制状态树实验_ALGO:AlgoVest

作者:?IgorMandrigin

翻译:?阿剑

来源:以太坊爱好者

什么是“无状态以太坊”?

如果您已经了解什么是“无状态以太坊”以及“区块见证数据”,可以跳过这一段。

为执行交易及验证区块,以太坊网络的节点需要了解整条区块链的当前状态——也就是所有账户和合约的余额和存储数据。这些数据一般来说是存储在DB里面的,在需要用于验证时才会加载到一棵默克尔树中。

无状态以太坊客户端的工作思路则稍有区别。顾名思义,无状态客户端就是不使用硬盘DB来执行区块。相反,无状态客户端依赖于“区块见证数据”——就是一段特殊的数据,它会跟相应的区块一起传播;拥有了这段数据,客户端就可以重建出一个默克尔子树,该分支足可用于执行该区块中的所有交易。

你可以在这篇文章中读到关于无状态客户端的更深入的描述:https://blog.ethereum.org/2019/12/30/eth1x-files-state-of-stateless-ethereum/

当然咯,需要传播区块见证数据就意味着无状态客户端的网络要求要比普通节点更高。

-见证数据大小折线图-

现在人们已经提出了很多降低见证数据规模的思路:使用有效性/计算完整性证明、加入更多的压缩手段,等等。其中一种办法是将以太坊的默克尔树从十六进制转为二进制。

这就是本文想要探讨的问题。

数据:到2022年底加密货币用户数量将突破10亿:金色财经报道,据Crypto.com的一份报告显示,2021年全球加密货币人口增加了178%,从1月的1.06亿上升到12月的2.95亿。预计到2022年底,加密货币用户的数量将突破10亿。该报告解释说,2021 年上半年采用加密货币是“显着的”,并补充说增长的主要驱动力是比特币。此外,“各国再也不能忽视公众对加密货币的日益增长的推动。在许多情况下,我们可能期望对加密行业采取更友好的立场。Crypto.com 指出,希望发达国家为加密资产制定明确的法律和税收框架,以萨尔瓦多为例,更多面临高通胀经济和货币贬值的国家可能会采用加密货币作为法定货币。(news.bitcoin)[2022/1/27 9:16:22]

为什么要使用二进制树

默克尔树的一大优良特性是,验证树根值正确与否并不要求你具有整棵树所有的数据。只需把所有省略的非空路径替代为相应的哈希值就可以可。

那么使用十六进制默克尔树有什么不好呢?

设想整棵树都已填满数据。要验证一个区块,我们只需要一小部分默克尔树节点的数据。那么,我们只需把其他路径的数据替代为哈希值就可以了。

但是,每多加入一条哈希值,区块见证数据就会大一些。

如果我们转变为二进制默克尔树,这个问题就可以得到缓解——因为默克尔树上的每个节点都只有两个子节点,所以至多只有一个字节点需要被替换为哈希值。

这样做也许能大幅降低见证数据的规模。

我们再举例说明一下。

假设执行某个区块只会影响一个账户:3B路径下的Acc1。整棵树是全满的。

观点:区块链等新技术基础设施将成为金融科技赋能实体经济的着力点:金融时报今日发表分析文章《数字化转型成趋势 金融科技重在服务实体经济》。文章中表示,当下,金融科技有望与小微企业数字化转型、工业互联网等领域实现深度融合。随着新型基础设施发展风口来临,以人工智能、云计算、区块链等为代表的新技术基础设施和以数据中心、智能计算中心为代表的算力基础设施也将成为金融科技赋能实体经济的着力点。[2020/7/13]

-二进制状态树与十六进制状态树的比较-

如果说二进制状态树看起来有点吓人,那只是因为二进制树我画全了,但没有把十六进制树的所有代之以哈希值的节点都画出来。

来数个数:

为创建出一棵二进制状态树,见证数据需要包含8个哈希值,7个分支节点和1个账户节点。也就是见证数据中有16个元素。

为创建出一棵十六进制状态树,我们只需1个分支节点,1个账户节点,但需要30个哈希值。也就是有32个元素。

所以,假设哈希值和分支节点在区块见证数据中的所占的空间是一样大的,在我们的例子中,使用二进制树所需的见证数据大小只有十六进制下的一半。看起来不错。

那么,理论上就是这样。

我们来看看实际情况是如何。我们直接拿以太坊主网的数据来看看吧。

观点:国家监管法规直接影响BTC价格:4月20日消息,达拉斯联邦储备银行(Federal Reserve Bank of Dallas)最近发布的报告显示,加密货币虽不受任何单一管辖区控制或监管。然而国家法规确实会对加密资产产生重大影响。该报告证实,近年来,随着反、外汇管制、证券发行监管和央行数字货币等领域的新变化,尤其是以比特币为代表的加密货币价格出现了明显的调整。

与此同时,通过分析2017年至2018年期间与监管相关的120条新闻及其每一项监管事件对300种加密货币价格的直接影响,国际商业与金融研究杂志此前发布的研究报告也指出,有关央行数字货币的消息导致比特币价格下跌了1.82%。而近期在中国央行数字货币消息传出后,比特币的价格在4月16日下跌了6%。(AMBCrypto)[2020/4/20]

开始实验

先说最紧要的:我们怎么知道自己构建出来的区块见证数据是有用的呢?

测试方法如下:我们使用区块见证数据来生成一棵默克尔子树,在这棵树上运行相应区块中的所有交易,然后校验结果是否与我们所知的一致。只要交易都能成功执行,等等),我们就可以断定这个见证是足够充分的。

-测试方法:1.执行区块;2.从状态树中抽取出见证数据;3.使用见证数据构造出一棵子树;4.禁用DB访问、使用子树来执行区块(具体可见

github)-

其次,我们需要一些基准数据。因此,我们也使用500万到850万高度的区块、在十六进制默克尔树模式下生成了见证数据,并将见证数据大小的统计数据存在一个超级大的csv文件中。

声音 | 观点:比特币核心开发者对效率提高的关注是新版本更新的一大亮点:来自Bottlepay的Matt Odell和Marty Bent近期在播客节目中对讨论了Bitcoin Core 0.19.0.1版本以及该版本所引入的功能。两人针对Erebus攻击讨论了新特性,Erebus攻击是指黑客在恶意ISP的帮助下隔离一个或多个公共节点,并通过这种隐秘的分区过程进行51%攻击或双花攻击等。Bent称,“该版本在默认情况下增加了两个出站连接……对精简客户端、区块过滤、支付协议、GUI禁用等提供了更多支持。”

根据Odell的说法,最近的更新是为了解决这个关键的问题,并且已经弃用了bloom过滤器。根据BitMEX关于IBD(initial block download)的最新研究,随着时间的推移,整个过程加快了。最新的版本在MacBook Pro上下载仅需不到一天的时间。Odell补充说,比特币核心开发者对提高效率的关注是一个重要的亮点,这可以帮助BTC保持活跃。[2019/12/1]

我们尝试的第一步是执行完一个区块后就组装出一棵十六进制树,然后将它转为二进制树,再从这棵二进制树中提取出见证数据。

这种方法有几个好处:易于实现,而且验证十六进制-二进制的转换也很简单。

不过,我们遇到了两个问题,而且其中一个还不小。

第一个,正如我们上面证明的那样,比起二进制树,十六进制树包含更多的账户节点,如果我们先生成十六进制树再转换,得到的结果就跟在二进制树模式下直接生成所得到的见证数据不一样。

为什么呢?

因为十六进制树数据总是以1/2字节的速度增长,而二进制树总是以1比特的速度增长,因此键的长度可以是奇数位。

动态 | “ICO抛售”带来争议不断 多位业内人士发表观点:据newsbtc消息,许多散户加密货币投资者认为“ICO抛售”加剧了今年的加密寒冬,围绕ICO的争议也一直未停。BitPay首席商务官Sonny Singh表示,代币销售资金数额将再也回不到八个月之前的水平;BTCC的首席执行官李启元(Bobby Lee)也表示,通过ICO发行的代币就只是公司努力和商业模式的体现罢了;CoinList的首席执行官Andy Bromberg最近采访时表示,新型的代币和区块链项目已经出现,越来越多的项目开始利用新的模式、技术和理念来吸引更大的客户群,这只会扩大优质项目和劣质项目之间的差距,一定程度上催化了ICO市场的“干旱期”,但这对于该行业来说是件好事。[2018/10/9]

实际上,见证数据中还包含一些额外的扩展节点,它们还要稍微大一点。不过即便对内容较多的区块,体现在见证数据大小上的差别也非常之小。

关键的是性能。随着树的规模增长,转换的速度会越来越慢。

用更具体的数字来说明一下:在我们的GoogleComputeEngine虚拟机上,处理速度约为每秒0.16个区块,也就是每分钟处理小于10个区块,处理100万个区块要超过3个月!

所以,我们决定采取更复杂的办法,开发出一个原生使用二进制默克尔树的实验性分支。也就是说,我们要把turbo-geth代码库例地所有十六进制状态树全部替换为二进制树,然后区块就是基于二进制树来执行的了。

这种办法的不利之处在于,部分哈希值的校验只能被忽略掉。

但主要的验证机制还是一样的:我们需要能够使用二进制树来执行区块、从见证数据中创建出默克尔子树。

再来谈谈key。

为简化起见,我们对key的编码方式是非常低效的:1bytepernibble;一个key的每一比特就要占用1字节。这样做大大简化了代码层面的改变,但区块见证数据中的”key“部分会是我们使用bitset时候的8倍大。

因此,在进一步分析中,我会假设key的编码方式是最优的。

Hexvs.Bin:结果

我的分析分为两段,总共分析了以太坊主网上的200万个区块。

区块高度500万到650万

我在这个github库里面提供了使用python脚本来重复这一实验的命令行:

https://github.com/mandrigin/ethereum-mainnet-bin-tries-data

首先我们来分析一下数据集。

pythonpercentile.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust

-

一个箱型图,箱体显示上四分位到下四分位之间的数据,左右延伸出去的线条显示上1%到下1%之间的数据

-百分比分析-

现在我们可以生成一些很酷的图表了!

pythonxy-scatter-plot.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust

-XY散点图(横轴为Hex下见证数据大小,纵轴为Bin下见证数据大小)-

可以看出,二进制见证数据的大小总是优于十六进制树下的见证数据。

我们再加入另一个参数,用二进制见证数据大小除以十六进制见证数据大小,看看我们得到了怎样的提升。

pythonsize-improvements-plot.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust

-二进制见证数据的大小/十六进制见证数据的大小-

为更好地理解这张图标,我们也输出了平均值和百分位值。

平均值=0.51

P95=0.58

P99=0.61

在实际场景中这意味着什么?

对于99%的区块,见证数据的大小可以降低至少39%。

对于95%的区块,见证数据的大小可以降低至少42%。

平均来说,见证数据可节省49%。

我们也要考虑见证数据大小的绝对值。为使数据变得可读,我们每1024个区块取滑动平均值。

pythonabsolute-values-plot.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust

-依时间顺序绘制的见证数据大小折线图,纵轴单位为MB-

再来看看最新区块的情况。

区块高度800万到850万

pythonpercentile.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust

-箱型图,箱表示上下四分位以内的数据,线表示上下1%以内的数据-

-800万号到850万号区块的百分位分析-

还有XY散点图。

pythonxy-scatter-plot.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust

还有规模上的节约。

pythonsize-improvements-plot.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust

-XY散点图(横轴为Hex下见证数据大小,纵轴为Bin下见证数据大小)-

平均值=0.53

P95=0.61

P99=0.66

最后,再来看看见证数据的绝对大小。

pythonabsolute-values-plot.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust

-依时间顺序绘制的见证数据大小折线图,纵轴单位为MB-

结论

在使用以太坊主网数据做过测试以后,我们可以看到,切换为二进制树模式可以大幅提升生成见证数据的效率。

另一个结论是,这种提升并没有理论上那么显著。原因可能在于主网区块的实际数据。

也许,通过分析一些例外情况,我们可以知道更多优化见证数据规模的办法。

试着使用别的原始数据来跑跑GitHub中的脚本吧:https://github.com/mandrigin/ethereum-mainnet-bin-tries-data

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金宝趣谈

[0:0ms0-7:830ms