python网络爬虫基于selenium爬取斗鱼直播信息
作者:馆主阿牛 发布时间:2023-03-05 09:33:19
一、本文使用的第三方包和工具
python 3.8
谷歌浏览器
selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同
浏览器驱动(和你的浏览器版本对应)
二、selenium的介绍和浏览器驱动的安装
1.selenium的介绍
selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。
2.浏览器驱动的安装
网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可
http://chromedriver.storage.googleapis.com/index.html
下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦
三、代码思路分析
进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的
可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行
然后滑到底部,这里的下一页是我们控制爬取页数的
注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。
1.解析数据的函数
#解析数据的函数
def parse(self):
#强制等待两秒,等待页面数据加载完毕
sleep(2)
li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
#print(len(li_list))
data_list = []
for li in li_list:
dic_data = {}
dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
data_list.append(dic_data)
return data_list
2.保存数据的函数
#解析数据的函数
def parse(self):
#强制等待两秒,等待页面数据加载完毕
sleep(2)
li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
#print(len(li_list))
data_list = []
for li in li_list:
dic_data = {}
dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
data_list.append(dic_data)
return data_list
(1)保存为txt文本
#保存数据的函数
def save_data(self,data_list,i):
#在当前目录下将数据存为txt文件
with open('./douyu.txt','w',encoding='utf-8') as fp:
for data in data_list:
data = str(data)
fp.write(data+'\n')
print("第%d页保存完成!" % i)
(2)保存为json文件
#保存数据的函数
def save_data(self,data_list,i):
with open('./douyu.json','w',encoding='utf-8') as fp:
#里面有中文,所以注意ensure_ascii=False
data = json.dumps(data_list,ensure_ascii=False)
fp.write(data)
print("第%d页保存完成!" % i)
3.主函数设计
#主函数
def run(self):
#输入要爬取的页数,如果输入负整数,转化成她的绝对值
page_num = abs(int(input("请输入你要爬取的页数:")))
#初始化页数为1
i = 1
#判断输入的数是否为整数
if isinstance(page_num,int):
#实例化浏览器对象
self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
# chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
self.bro.get(self.url)
while i <= page_num:
#调用解析函数
data_list = self.parse()
#调用保存函数
self.save_data(data_list,i)
try:
#定位包含“下一页”字段的按钮并点击
button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
button.click()
i += 1
except:
break
self.bro.quit()
else:
print("输入格式错误!")
四、完整代码
from selenium import webdriver
from time import sleep
import json
#创建一个类
class Douyu():
def __init__(self):
self.url = 'https://www.douyu.com/directory/all'
#解析数据的函数
def parse(self):
#强制等待两秒,等待页面数据加载完毕
sleep(2)
li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
#print(len(li_list))
data_list = []
for li in li_list:
dic_data = {}
dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
data_list.append(dic_data)
return data_list
#保存数据的函数
def save_data(self,data_list,i):
#在当前目录下将数据存为txt文件
with open('./douyu.txt','w',encoding='utf-8') as fp:
for data in data_list:
data = str(data)
fp.write(data+'\n')
print("第%d页保存完成!" % i)
# json文件的存法
# with open('./douyu.json','w',encoding='utf-8') as fp:
# 里面有中文,所以注意ensure_ascii=False
# data = json.dumps(data_list,ensure_ascii=False)
# fp.write(data)
# print("第%d页保存完成!" % i)
#主函数
def run(self):
#输入要爬取的页数,如果输入负整数,转化成她的绝对值
page_num = abs(int(input("请输入你要爬取的页数:")))
#初始化页数为1
i = 1
#判断输入的数是否为整数
if isinstance(page_num,int):
#实例化浏览器对象
self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
# chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
self.bro.get(self.url)
while i <= page_num:
#调用解析函数
data_list = self.parse()
#调用保存函数
self.save_data(data_list,i)
try:
#定位包含“下一页”字段的按钮并点击
button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
button.click()
i += 1
except:
break
self.bro.quit()
else:
print("输入格式错误!")
if __name__ == '__main__':
douyu = Douyu()
douyu.run()
来源:https://blog.csdn.net/qq_57421630/article/details/122510369
猜你喜欢
- 今天给大家分享在Python3.74+PyCharm2020.1 x64中安装使用Kivy的教程,具体内容如下所示:我实验环境是Python
- PDO::rollBackPDO::rollBack — 回滚一个事务(PHP 5 >= 5.1.0, PECL pdo >=
- 在绑定属性时,如果我们直接把属性暴露出去,虽然写起来很简单,但是,没办法检查参数,导致可以把成绩随便改:s = Student()s.sco
- 301跳转通常用在网站换域名和为了保持链接统一性所用的。比如你原来的域名www.a.com现在换成www.b.com,用了301跳转后,访问
- 最近一个开发需求中要求用pandas实现该需求:逐行对比两列,选出每行两列中较大的值加到第三列翻了下好像没有类似的函数,所以没办法要自己造轮
- vue的render函数在日常开发中被广泛应用,今天以ElementUI中的table表头重构为引,实际应用一下借助render函数实现表头
- 一、JDBC概述JDBC全称Java Database Connectivity,它是一个独立于特定数据库管理系统、通用的SQL数据库存取和
- 今天突然要做一个竖直滚动 * ,可以设置中奖位置,以及中奖回调,然后再带点常规的滚动动画,还是有点意思,和之前的转盘抽奖有点类似,有兴趣可以
- 介绍 append()语法list.append( element )参数element:任何类型的元素列表「末尾」添加元素nam
- 问题介绍在安装torch之后,命令行(Anaconda Powershell Prompt)运行这三行代码:python # pythoni
- 在运用xmlhttp组件编写程序中,会碰到 "msxml3.dll 错误 ‘800c0005’&nb
- 我参与了IE7的开发过程,看到了在IE浏览器中形形色色使用MSXML的方法。显然有一些东西困扰着开发者:MSXML“混乱”的版本以及如何创建
- 最近一直在研究网页特效,看到qq界面的折叠菜单,于是冒出个想法,自己写一个类似的,上网查了一下,发现已经有不少类似的菜单效果,不管那么多,先
- 一 创建mappingPUT test{ "mappings": { "
- 1. 简介kmean 是无监督学习的一种算法,主要是用来进行聚类分析的,他会在数据集中算出几个点作为簇中心,求这些数据集与这些簇中心的距离,
- 1.锦短情长为什么选择这个标题,借鉴了一封情书里面的情长纸短,还吻你万千。锦短情长都只谓人走茶凉,怎感觉锦短情长?一提起眼泪汪汪,是明月人心
- 介绍RANGE分区基于一个给定的连续区间范围,早期版本RANGE主要是基于整数的分区。在5.7版本中DATE、DATETIME列也可以使用R
- arguments.callee关于callee的解释:callee 是 arguments 对象的一个属性。可以用于引用该函数的函数体内当
- 假如您在安装SQL Server 2005时出现计数器错误,在搜索过所有的方法都不适用的情况下可以采用以下方法:将4个计数器删除:(如果没有
- 在网络上看到的数字人整合动网论坛的方法都非常不全,站长们都是抄人家的,也不说明可不可用,提供下载的文件也不能下载.现在我提供一些信息。一、整