python爬取区块链浏览器上的交易列表数据_DIV:SPA

前言

2022年6月3日端午节安康。

今天主要分享如何利用爬虫爬取区块链浏览器上的交易列表数据。

原因

dune上没有bsc链上的转账明细数据表。FootprintAnalytics上现有的bsc_transactions表transfer_type粒度不够。

环境

python3.7

数据存储:mysql5.7

缓存:redis6.2.6

开发工具:pycharm

思路

所有协议、合约、swap地址转账信息全爬不太实际,对存储要求比较高。所以针对需要分析的协议,专门去爬取对应智能合约转账是个不错的选择。

区块链浏览器肯定是有反爬机制的。所以在代理选择上,要选择国外的代理。国内的代理都访问不到,具体原因你懂的。本文中不涉及代理部分,因为国外的代理厂家之前没有了解过。不过即使是上代理,对代码层面改动也比较小

采用了urllib同步请求+范围内随机时长程序休眠。减少了被风控的概率。但是也降低了爬虫的效率。

后面再研究用scrapy或异步请求

同步:请求发送后,需要接受到返回的消息后,才进行下一次发送。异步:不需要等接收到返回的消息。

实现

Kaiko:Kraken超越Coinbase成为美国最具流动性的山寨币交易所:金色财经报道,根据加密货币研究公司Kaiko的数据,总部位于美国加州的加密货币交易所Kraken已成为美国山寨币交易的首选市场,超过了Coinbase等竞争对手。Kaiko称,Kraken占据了前10名山寨币市场深度的47%。市场深度是指特定市场在不影响该市场资产价格的情况下吸收大量买入或卖出订单的能力。去年价格下跌和FTX崩溃之后,交易所和加密货币的市场深度和流动性受到了负面影响。

根据TheBlock的数据仪表板,除了在替代品市场深度更加强劲之外,Kraken在支持美元存款的交易所中的市场份额去年稳步增长,从2022年8月的8.3%左右上升到今年7月的21.1%。[2023/8/11 16:20:55]

找到需要爬取合约的具体地址:

第一页

http://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8

第二页

https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&p=2

第三页

https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&p=3

清华大学朱旭峰:不能说ChatGPT超越历史上所有的科技:金色财经报道,清华大学公共管理学院院长朱旭峰近日表示,ChatGPT是一个颠覆性的创新,但从人类历史数千年科技的发展对社会影响的层面来讲,目前人工智能的发展还达不到蒸汽机、印刷术的影响水平。他表示,在人类这么长的历史发展过程中,技术的发明对社会肯定是有影响的。但是不能只盯着最近的发明,说它会超越历史上所有的科技,我认为不能这么说。同时新技术会带来安全、隐私、伦理等方面的问题,我们就需要加强治理,加强伦理的监管。(上证报)[2023/5/20 15:15:48]

....

可以知道p=?就代表页数。

然后F12点击“网络”,刷新界面,查看网络请求信息。

主要查看,网页上显示的数据,是哪个文件响应的。以什么方式响应的,请求方法是什么

如何验证呢,就是找一个txn_hash在响应的数据里面按ctrl+f去搜索,搜索到了说明肯定是这个文件返回的。

ConsenSys创始人:以太坊生态系统早已超越比特币生态系统:ConsenSys创始人、以太坊联合创始人Joseph Lubin在接受Bloomberg TV采访时表示,“下一代经济”将比“狭义货币体系”大几个数量级。他认为与互联网类似的以太坊生态系统已经超越比特币。“以太坊生态系统在开发者活动量、每日交易数量、交易价值和代币数量方面早已超越比特币生态系统。”Joseph Lubin还声称以太坊“足够去中心化”。

此前报道,以太坊联合创始人Vitalik Buterin声称,如果比特币继续使用同样的技术,比特币就有被甩在后面的巨大风险。以太坊将从PoW共识机制过渡到PoS机制。(U.Today)[2021/8/5 1:36:10]

查看响应的数据,是html的格式。在python里面,处理html数据,个人常用的是xpath

在python里面安装相关的依赖

pip?install?lxml?‐i?https://pypi.douban.com/simple

同时在浏览器上安装xpath插件,它能更好的帮助我们获到网页中元素的位置

XPathHelper-Chrome网上应用店(google.com)

然后就可以通过插件去定位了,返回的结果是list

**注:**浏览器看到的网页都是浏览器帮我们渲染好的。存在在浏览器中能定位到数据,但是代码中取不到值的情况,这时候可以通过鼠标右键-查看网页源码,然后搜索实现

Raydium Protocol将作为数据发布者加入Pyth Network:3月9日消息,预言机解决方案Pyth Network宣布基于Solana的链上订单簿AMM Raydium Protocol将作为数据发布者(data publisher)加入Pyth Network。

Pyth Network称,Raydium的加密数据将扩大Pyth的市场覆盖范围,并增强该网络现有和未来产品。[2022/3/10 13:47:29]

#?请求和xpath定位具体实现代码:

def?start_spider(page_number):

????url_base?=?'http://bscscan.com

/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&'

????#?请求头

????headers?=?{

????????'User-Agent':?'Mozilla/5.0?(Windows?NT?10.0;?Win64;?x64)?AppleWebKit/537.36?(KHTML,?like?Gecko)?Chrome/92.0.4515.159?Safari/537.36',

Everlend Finance与预言机提供商Pyth Network达成合作:据官方消息,Solana链上跨链贷款协议Everlend Finance宣布与预言机提供商Pyth Network达成合作。在启动时,将支持多种Solana原生资产和wrapped原生以太坊资产,智能合约将由Pyth Network提供支持的的定制喂价提供保护。[2021/7/27 1:16:59]

????????'referer':?'https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8'

????}

????#?需要传入的参数

????data?=?{

????????'p':?page_number

????}

????#?将参数转为Unicode编码格式

????unicode_data?=?urllib.parse.urlencode(data)

????#?拼接网址

????#?http://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8

????url?=?url_base?+?unicode_data

????#?自定义request对象

????request?=?urllib.request.Request(url=url,?headers=headers)

????#?模拟浏览器发送请求

????response?=?urllib.request.urlopen(request)

????#?将返回的数据利用lxml转为

????tree?=?etree.HTML(response.read().decode('utf‐8'))

????#?//div//tbody//td//span/a/text()

????txn_hash_list?=?tree.xpath("//div//tbody//td//span/a/text()")

????#?//div//tbody//td//span/text()

????method_list?=?tree.xpath(

????????"//div//tbody//td//span/text()")

????#?//div//tbody//td//text()

????block_list?=?tree.xpath("//div//tbody//td//text()")

????#?//div//tbody//td/span/@title

????age_list?=?tree.xpath("//div//tbody//td/span/@title")

????#?//div//tbody//td/span/@title

????from_list?=?tree.xpath(

????????"//div//tbody//td/span/@title")

????#?//div//tbody//td/span/text()

????transfer_type_list?=?tree.xpath("//div//tbody//td/span/text()")

????#?//div//tbody//td/span/span//text()

????to_list?=?tree.xpath("//div//tbody//td/span/span//text()")

????#?//div//tbody//td/span/text()

????transfer_free_list?=?tree.xpath(

????????"//div//tbody//td/span/text()")

然后就是利用redis,对txn_hash去重,去重的原因是防止一条数据被爬到了多次

def?add_txn_hash_to_redis(txn_hash):

????red?=?redis.Redis(host='根据你自己的配置',?port=6379,?db=0)

????res?=?red.sadd('txn_hash:txn_set',?get_md5(txn_hash))

????#?如果返回0,这说明插入不成功,表示有重复

????if?res?==?0:

????????return?False

????else:

????????return?True

#?将mmsi进行哈希,用哈希去重更快

def?get_md5(txn_hash):

????md5?=?hashlib.md5()

????md5.update(txn_hash.encode('utf-8'))

????return?md5.hexdigest()

最后一个需要考虑的问题:交易是在增量了,也就是说,当前第二页的数据,很可能过会就到第三页去了。对此我的策略是不管页数的变动。一直往下爬。全量爬完了,再从第一页爬新增加的交易。直到遇到第一次全量爬取的txn_hash

最后就是存入到数据库了。这个没啥好说的。

以上就可以拿到转账列表中的txn_hash,后面还要写一个爬虫深入列表里面,通过txn_hash去爬取详情页面的信息。这个就下个文章再说,代码还没写完。

今天就写到这里。拜拜ヾ(?ω?`)o

来源:Bress

作者:撒酒狂歌

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金宝趣谈

[0:15ms0-7:999ms