前言
通过Python实现对大麦网近期全国演唱会数据进行爬取,通过分析,我们发现大麦网属于Python爬虫策略中“中等型”难度网站,演唱会数据封装在json文件中。因此,我们简单的通过requests、json就可以将数据爬取出来,后期通过pandas进行数据筛选并保存至Excel文件中。
1.目标网站分析
检查一下看xhr中有没有我们需要的数据。
很好,就在xhr中用json封装了数据。
2.构造相应的Request URL
request url中只有一个参数变化,那就是“Page=”这个选项变了,简单了"text-align: center">
for i in range(1,7): url=f'https://search.damai.cn/searchajax.html"color: #ff0000">3.requests爬虫走起直接上代码:
def crawl(url): headers={ 'cookie': 'cna=J7K2Fok5AXECARu7QWn6+cxu; isg=BCcnDiP-NfKV5bF-OctWuXuatl3xrPuOyBVJJfmQLrZn6ESqAX0y3jrhCuj2ANMG; l=eBSmWoPRQeT6Zn3iBO5whurza77O1CAf1sPzaNbMiIncC6BR1AvOCJxQLtyCvptRR8XcGLLB4nU7C5eTae7_7CDmndLHuI50MbkyCef..', 'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36' } response=requests.get(url,headers=headers) json_text=json.loads(response.text) # print(json_text.keys()) rdata=json_text['pageData']['resultData'] # print(rdata) return(rdata)加一个headers,简单做一个防反爬。
4.保存至excel文件
基本思路是将每页数据保存成pandas的DataFrame结构,然后进行拼接,拼接完后再保存到Excel文件中。