千家信息网

python如何爬取热门电影

发表于:2024-11-29 作者:千家信息网编辑
千家信息网最后更新 2024年11月29日,本篇内容主要讲解"python如何爬取热门电影",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"python如何爬取热门电影"吧!代码实现'''爬取电影与地址
千家信息网最后更新 2024年11月29日python如何爬取热门电影

本篇内容主要讲解"python如何爬取热门电影",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"python如何爬取热门电影"吧!

代码实现

'''爬取电影与地址路径操作步骤1,获取到url内容2,css选择其选择内容3,保存自己需要数据'''#导入爬虫需要的包import requestsfrom bs4 import BeautifulSoup#requests与BeautifulSoup用来解析网页的import time#设置访问网页时间,防止自己IP访问多了被限制拒绝访问import reclass Position():    def __init__(self,position_name,position_require,):#构建对象属性        self.position_name=position_name        self.position_require=position_require    def __str__(self):        return '%s%s/n'%(self.position_name,self.position_require)#重载方法将输入变量改成字符串形式class Aiqiyi():    def iqiyi(self,url):        head= {            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"        }  #模拟的服务器头        html = requests.get(url,headers=head)        #headers=hard 让脚本以浏览器的方式去访问,有一些网址禁止以python的反爬机制,这就是其中一个        soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看网页        soupl = soup.select(".qy-list-wrap")  # 查找标签,用css选择器,选择自己需要数据 进行选择页面第一次内容(标签要找到唯一的,找id好,如果没有考虑其他标签如class)        results = []  # 创建一个列表用来存储数据        for e in soupl:            biao = e.select('.qy-mod-li')  # 进行二次筛选            for h in biao:                p=Position(h.select_one('.qy-mod-link-wrap').get_text(strip=True),                       h.select_one('.title-wrap').get_text(strip=True))#调用类转换(继续三次筛选选择自己需要内容)                results.append(p)        return results  # 返回内容    def address(self,url):        #保存网址        head = {            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"        }  # 模拟的服务器头        html = requests.get(url, headers=head)        soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看网页        alist = soup.find('div', class_='qy-list-wrap').find_all("a")  # 查找div块模块下的  a标签        ls=[]        for i in alist:            ls.append(i.get('href'))        return lsif __name__ == '__main__':    time.sleep(2)    #设置2秒访问一次    a=Aiqiyi()    url = "https://list.*****.com/www/1/-------------11-1-1-iqiyi--.html"    with open(file='e:/练习.txt ', mode='a+') as f:  # e:/练习.txt 为我电脑新建的文件,a+为给内容进行添加,但不进行覆盖原内容。         for item in a.iqiyi(url):             line = f'{item.position_name}       {item.position_require}'             f.write(line)  # 采用方法             print("下载完成")    with open(file='e:/地址.txt ', mode='a+') as f:  # e:/练习.txt 为我电脑新建的文件,a+为给内容进行添加,但不进行覆盖原内容。        for item in a.address(url):            line=f'https{item}'            f.write(line)  # 采用方法            print("下载完成")

到此,相信大家对"python如何爬取热门电影"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

0