文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

如何使用python网络爬虫基于selenium爬取斗鱼直播信息

2023-06-29 12:18

关注

这篇文章给大家分享的是有关如何使用python网络爬虫基于selenium爬取斗鱼直播信息的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

一、本文使用的第三方包和工具

python 3.8  

谷歌浏览器

selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同

浏览器驱动(和你的浏览器版本对应)

二、selenium的介绍和浏览器驱动的安装

1.selenium的介绍

    selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。

2.浏览器驱动的安装

   网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可

http://chromedriver.storage.googleapis.com/index.html

下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦

三、代码思路分析

进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的

可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行

然后滑到底部,这里的下一页是我们控制爬取页数的

 注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。

1.解析数据的函数

 #解析数据的函数    def parse(self):        #强制等待两秒,等待页面数据加载完毕        sleep(2)        li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')        #print(len(li_list))        data_list = []        for li in li_list:            dic_data = {}            dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text            dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text            dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text            dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text            data_list.append(dic_data)        return data_list

2.保存数据的函数

 #解析数据的函数    def parse(self):        #强制等待两秒,等待页面数据加载完毕        sleep(2)        li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')        #print(len(li_list))        data_list = []        for li in li_list:            dic_data = {}            dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text            dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text            dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text            dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text            data_list.append(dic_data)        return data_list

(1)保存为txt文本

#保存数据的函数    def save_data(self,data_list,i):        #在当前目录下将数据存为txt文件        with open('./douyu.txt','w',encoding='utf-8') as fp:            for data in data_list:                data = str(data)                fp.write(data+'\n')            print("第%d页保存完成!" % i)

(2)保存为json文件

#保存数据的函数    def save_data(self,data_list,i):        with open('./douyu.json','w',encoding='utf-8') as fp:             #里面有中文,所以注意ensure_ascii=False             data = json.dumps(data_list,ensure_ascii=False)             fp.write(data)             print("第%d页保存完成!" % i)

3.主函数设计

#主函数    def run(self):        #输入要爬取的页数,如果输入负整数,转化成她的绝对值        page_num = abs(int(input("请输入你要爬取的页数:")))        #初始化页数为1        i = 1        #判断输入的数是否为整数        if isinstance(page_num,int):            #实例化浏览器对象            self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')            # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'            self.bro.get(self.url)            while i <= page_num:                #调用解析函数                data_list = self.parse()                #调用保存函数                self.save_data(data_list,i)                try:                    #定位包含“下一页”字段的按钮并点击                    button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')                    button.click()                    i += 1                except:                    break            self.bro.quit()        else:            print("输入格式错误!")

四、完整代码

from selenium import webdriverfrom time import sleepimport json#创建一个类class Douyu():    def __init__(self):        self.url = 'https://www.douyu.com/directory/all'    #解析数据的函数    def parse(self):        #强制等待两秒,等待页面数据加载完毕        sleep(2)        li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')        #print(len(li_list))        data_list = []        for li in li_list:            dic_data = {}            dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text            dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text            dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text            dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text            data_list.append(dic_data)        return data_list    #保存数据的函数    def save_data(self,data_list,i):        #在当前目录下将数据存为txt文件        with open('./douyu.txt','w',encoding='utf-8') as fp:            for data in data_list:                data = str(data)                fp.write(data+'\n')            print("第%d页保存完成!" % i)        # json文件的存法        # with open('./douyu.json','w',encoding='utf-8') as fp:        # 里面有中文,所以注意ensure_ascii=False        #     data = json.dumps(data_list,ensure_ascii=False)        #     fp.write(data)        #     print("第%d页保存完成!" % i)    #主函数    def run(self):        #输入要爬取的页数,如果输入负整数,转化成她的绝对值        page_num = abs(int(input("请输入你要爬取的页数:")))        #初始化页数为1        i = 1        #判断输入的数是否为整数        if isinstance(page_num,int):            #实例化浏览器对象            self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')            # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'             self.bro.get(self.url)            while i <= page_num:                #调用解析函数                data_list = self.parse()                #调用保存函数                self.save_data(data_list,i)                try:                    #定位包含“下一页”字段的按钮并点击                    button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')                    button.click()                    i += 1                except:                    break            self.bro.quit()        else:            print("输入格式错误!")if __name__ == '__main__':    douyu = Douyu()    douyu.run()

感谢各位的阅读!关于“如何使用python网络爬虫基于selenium爬取斗鱼直播信息”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯