千家信息网

怎么用Python抓包工具查看周边拼车情况

发表于:2024-09-30 作者:千家信息网编辑
千家信息网最后更新 2024年09月30日,本篇内容主要讲解"怎么用Python抓包工具查看周边拼车情况",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"怎么用Python抓包工具查看周边拼车情况"吧!
千家信息网最后更新 2024年09月30日怎么用Python抓包工具查看周边拼车情况

本篇内容主要讲解"怎么用Python抓包工具查看周边拼车情况",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"怎么用Python抓包工具查看周边拼车情况"吧!

知己知彼,百战不殆

对于APP类的爬虫,首先想到的就是抓包,macOS下常用的就是Charles和mitmproxy这两款工具了,而mitmproxy由于支持拦截和脚本又深得我爱,用法的话这里就不具体展开介绍了。

启动mitmweb(mitmproxy家那个有页面的兄弟)抓包工具,手机上打开某拼车APP客户端,查看附近订单(已提前认证车主,并切换到车主身份)

对应一下就可以发现,查询附近订单的接口URL就是这个getNearbyBookingRideList,于是我很天真地就拿着这个接口,和抓包数据,就去请求了

结果人家告诉我

{"code":205,"message":"签名错误!"}

因为客户端APP有个签名算法,根据POST给服务器的参数计算的,除非我破了人家APP,然后把算法给找出来,想想还是算了,费神费力(主要是我压根不会)!

这个法子行不通,只能换个法子了

神器在手,天下我有

前面提到mitmproxy有个带web界面的兄弟叫mitmweb,其实还有一个支持脚本的兄弟叫mitmdump,写好脚本

import jsondef response(flow):# 这个别问为啥了,必须这么写   url = 'http://jiaruwoshiurl.com'   if url in flow.request.url:       text = json.loads(flow.response.content)       print(text)

把脚本存为 111.py,然后终端执行命令:

mitmdump -s 111.py -p 8080 剩下要做的就是不断去某拼车APP上划几下,至于数据那块,就交给Dump兄弟就好了

嗯,看到了嘛~想看哪,手指就滑哪,越滑越有!

再接下来就是需要把我们抓到的数据存起来,以备后期使用,这里我用的是Mongodb,虽然也是第一次用,为了方便点,另外写了个插入数据的方法,再在爬虫文件里面调用。

import pymongodef insert_nearbyroute(info):   client = pymongo.MongoClient('127.0.0.1', 27017)   # 连接数据库   db = client.dida   # 选择dida这个数据库   nearbyroute_collection = db.nearby   # 选择集合,不存在的话自动创建(对应mysql的表概念)   nearbyroute_collection.update({:info['id']}, info, True)   # 插入数据,我这里用的是更新语句,意思是如果id已经存在的话,就不执行该条数据的插入动作,可以有效去重

再到我们数据库看看,已经硕果累累了,不够的话就再多滑几下。

数据抓取的思路大概就是这样,因为没时间捣鼓所以就没上APP自动化,其实可以搞个 模拟器+按键精灵,或者appium,就是太懒了怕麻烦,上班的时候划一划就当运动了

数据展示

时间问题,暂时没做数据分析,不过数据挺干净的,也不需要处理啥 关键字Mongodb、Pandas、Pyecharts 拿了周六杭州跨城顺风车数据结合阿里云的DataV做了个简单的飞线图,会动的那种,点击阅读原文可以查看动图。

到此,相信大家对"怎么用Python抓包工具查看周边拼车情况"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

0