python爬取网易云音乐排行榜实例代码
作者:~阿秋~ 发布时间:2023-07-24 09:26:52
标签:python,网易云,音乐
网易云音乐排行榜歌曲及评论爬取
主要注意问题:selenium 模拟登录、iframe标签定位、页面元素提取。
在利用selenium定位元素并取值的过程中遇到问题。比如xpath正确但无法定位,在进行翻页提取评论的过程中,利用selenium似乎不能提取不同页的数据,比如,明明定位的第三页的评论数据,而只能返回第一页的评论数据。
一、模拟登录
selenium 定位元素模拟人的操作进行登录,直接上代码:
//模拟登录
import pandas as pd
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.chrome.options import Options
from selenium.webdriver import ActionChains
from lxml import etree
import time
from datetime import datetime,timedelta
wyy_url = 'https://music.163.com/'
driver = webdriver.Chrome()
driver.get(wyy_url)
driver.maximize_window() #全屏
time.sleep(2)
driver.find_element_by_xpath("//a[@class = 'link s-fc3']").click()
time.sleep(2)
driver.find_element_by_xpath("//a[@class='u-btn2 other']").click() #选择其他方式登录
#账号、密码登录
driver.find_element_by_xpath("//input[@type='checkbox']").click() #同意条款
time.sleep(0.5)
driver.find_element_by_xpath("//a[@class='u-btn2 u-btn2-2']").click()
#选择手机号密码登录
driver.find_element_by_xpath("//a[@class='f-fr s-fc3 pwdlogin']").click()
time.sleep(1)
driver.find_element_by_id("p").send_keys('xxx') #这里输入你的id
driver.find_element_by_id("pw").send_keys('xxx') #这里输入密码
time.sleep(1)
#点击登录
driver.find_element_by_xpath("//a[@class='j-primary u-btn2 u-btn2-2']").click()
time.sleep(1)
二、排行榜数据爬取
当时尝试直接用selenium定位标签取值,并没有返回有效结果。在后面爬取评论时,也遇到此问题。于是先获取页面内容在进行分析。
// 排行榜
base_url = "https://music.163.com/#/discover/toplist?id="
bang_typical = {'飙升榜':19723756,'新歌榜':3779629,'原创榜':2884035,'热歌榜':3778678}
#选择榜单
bang = input('请输入榜单:')
#构造榜单对应的链接
url = base_url + str(bang_typical[bang])
print('开始分析:-%s' %(bang))
#进入榜单
driver.get(url)
time.sleep(3)
#iframe标签定位,必要的,否则无法定位其他标签
_iframe = driver.find_element_by_xpath("//iframe[@id='g_iframe']") # 找到iframe标签
driver.switch_to.frame(_iframe)
time.sleep(1)
page_text = driver.execute_script("return document.documentElement.outerHTML")
#获取页面
html = etree.HTML(page_text)
trs = html.xpath('//tbody/tr')
rank_list = []
title_list = []
span_list = []
singer_list = []
for tr in trs:
rank = tr.xpath(".//span[@class='num']/text()")[0] #注意xpath获取到的是列表,需提取其元素
title = tr.xpath(".//b/@title")[0]
span = tr.xpath(".//td[@class=' s-fc3']/span[@class='u-dur ']/text()")[0]
singer = tr.xpath(".//div[@class='text']/span/@title")[0]
rank_list.append(rank)
title_list.append(title)
span_list.append(span)
singer_list.append(singer)
#输出榜单结果
df_bang = pd.DataFrame({'排名':rank_list,'歌名':title_list,'时长':span_list,'歌手':singer_list})
三、排行榜评论获取
主要是评论日期的格式转换,评论内容的清洗
// 评论
# 日期清洗函数
def change_time(time):
now = datetime.now()
day_y = datetime.strftime(now - timedelta(1),'%Y-%m-%d') #计算昨天
day = now.strftime('%Y-%m-%d')
year = now.strftime('%Y')
if '年' in time: #非今年
new_time = time.replace('年','-').replace('月','-').replace('日','')
elif '昨天' in time:
new_time = time.replace('昨天',day_y+' ')
elif '前' in time: #前天
minut = int(time[:time.index('分')])
new_time = (now + timedelta(minutes=-minut)).strftime('%Y-%m-%d %H:%M')
elif len(time) == 5: #今天
new_time = day + ' ' + time
else: #最近 **月**日 **:**
y = '2021-'
time = time.replace('月','-').replace('日','')
new_time = y + time
return new_time
#评论清洗
def change_review(r):
if ':' in r:
r_ = r.split(':')[1]
else:
r_ = r
return r_
#评论点赞
def change_likes(l):
if l != []:
l_ = int(l.split('(')[1].split(')')[0])
else:
l_ = 0
return l_
#拉动滚动条至翻页按钮处
driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")
#获取页面信息
num = input('请输入需要爬取的页面总数:') #想要爬取评论的页数,
#这里的思路是先通过翻页将获取到的所有页面的所有内容存至列表,再对列表遍历。
#因为当时直接用selenium 定位返回结果不对,当然你们也可以用selenium直接试试。
html_list=[]
for i in range(int(num)):
page_text = driver.execute_script("return document.documentElement.outerHTML")
html = etree.HTML(page_text)#获取页面
html_list.append(html)
#翻页
driver.find_elements_by_xpath("//div[contains(@class,'u-page')]/a")[-1].click()
time.sleep(4)
WebDriverWait(driver, 300, 0.1).until(EC.presence_of_element_located((By.XPATH, "//div[@class='cmmts j-flag']")))
print(f'第{i+1}页爬取成功')
rev_list=[] #所有评论的列表
dat_list=[] #对应日期的列表
for review_page in html_list:
raw_reviews = review_page.xpath("//div[@class='cmmts j-flag']//div[@class='cnt f-brk']/text()")#提取页面所有评论
raw_reviews_ = [i for i in raw_reviews if ":" in i] #保证长度一致
rv_date = review_page.xpath("//div[@class='cmmts j-flag']//div[@class='cntwrap']/div[@class='rp']/div[@class='time s-fc4']/text()")
review_list = [change_review(r) for r in raw_reviews_]
date_list = [change_time(d) for d in rv_date]
rev_list.extend(review_list)
dat_list.extend(date_list)
print('分析完成')
driver.quit()
运行结果:
1、排行榜:
2、评论:
来源:https://blog.csdn.net/weixin_47176703/article/details/122112778


猜你喜欢
- 限流是项目中经常需要使用到的一种工具,一般用于限制用户的请求的频率,也可以避免瞬间流量过大导致系统崩溃,或者稳定消息处理速率这个文章主要是使
- 1、函数实现# -*- coding: utf-8 -*-def tail(filename, n=10): with open
- <% Function XMLEncode(byVal sText) sText = Replace(sText, "&am
- 借助map实现golang中没有set数据结构,一般是通过map实现,因为map的key值是不能重复的示例type empty struct
- vue-draggable之前项目中需要用到拖动排序,就去网上找资料,本来最开始是想用jquery-ui里的拖动的,后面发现不符合我的预期也
- time()在PHP中是得到一个数字,这个数字表示从1970-01-01到现在共走了多少秒,很奇怪吧 不过这样方便计算, 要找出前一天的时间
- 在事务性语句执行过程中,服务器将会进行额外的处理,在服务器执行时多个事务是并行执行的,为了把他们的记录在一起,需要引入事务缓存的概念。在事务
- REPLACE用第三个表达式替换第一个字符串表达式中出现的所有第二个给定字符串表达式。语法REPLACE ( ''strin
- 开发人员有时候使用类似下面SQL将字符串转换为日期时间类型,乍一看,这样的SQL的写法是没有什么问题的。但是这样的SQL其实有时候就是一个定
- 其实很简单from keras.models import load_modelbase_model = load_model('m
- 前言最近不小心把硬盘给格式化了,由于当时的文件没有备份,所以一下所有的文件都没有了,于是只能采取补救措施,用文件恢复软件恢复了一部分的数据出
- 当我们准备建立一个Web站点时,就必须向域名登记机构申请一个Internet域名,因此,我们通常希望了解自己准备使用的域名是否已经被注册,这
- 0x00 前言大家对HTTP代理应该都非常熟悉,它在很多方面都有着极为广泛的应用。HTTP代理分为正向代理和反向代理两种,后者一般用于将防火
- K最近邻属于一种分类算法,他的解释最容易,近朱者赤,近墨者黑,我们想看一个人是什么样的,看他的朋友是什么样的就可以了。当然其他还牵着到,看哪
- Vuejs 本身就是一个 MVVM 的框架。但是在监听 window 上的 事件 时,往往会显得 力不从心。比如 这次是 window.re
- 一:crypto库安装pycrypto,pycryptodome是crypto第三方库,pycrypto已经停止更新三年了,所以不建议安装这
- 事务的实现redo log保证事务的持久性,undo log用来帮助事务回滚及MVCC的功能。InnoDB存储引擎体系结构redo logW
- 网上讨论的文章已经很多了,这里举一个简单的例子来讨论一下 Composition API 的用法,具体问题才好具体讨论嘛。假如我们要做一个论
- monfs :我想知道javascript是否可以实现这样的功能来改变本地的IP地址,例如我本地设置的IP地址是192.168.0.1,我想
- 有两种方法供参考.一种是实实在在的将图片先用ASPJPEG组件做成想要的尺寸,再读取好处是节省服务器带宽,速度快坏处是处理起来较为麻烦,并网