详解如何用Python写个听小说的爬虫
作者:派森酱 发布时间:2021-09-04 09:56:09
标签:Python,爬虫,小说
在路上发现好多人都喜欢用耳机听小说,同事居然可以一整天的带着一只耳机听小说。小编表示非常的震惊。今天就用 Python 下载听小说 tingchina.com
的音频。
书名和章节列表
随机点开一本书,这个页面可以使用 BeautifulSoup 获取书名和所有单个章节音频的列表。复制浏览器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。
from?bs4?import?BeautifulSoup
import?requests
import?re
import?random
import?os
headers?=?{
????'user-agent':?'Mozilla/5.0?(Windows?NT?10.0;?Win64;?x64)?AppleWebKit/537.36?(KHTML,?like?Gecko)?Chrome/91.0.4472.114?Safari/537.36'
}
def?get_detail_urls(url):
????url_list?=?[]
????response?=?requests.get(url,?headers=headers)
????response.encoding?=?'gbk'
????soup?=?BeautifulSoup(response.text,?'lxml')
????name?=?soup.select('.red12')[0].strong.text
????if?not?os.path.exists(name):
????????os.makedirs(name)
????div_list?=?soup.select('div.list?a')
????for?item?in?div_list:
????????url_list.append({'name':?item.string,?'url':?'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
????return?name,?url_list
音频地址
打开单个章节的链接,在 Elements 面板用章节名称作为搜索词,在底部发现了一个 script,这一部分就是声源的地址。
在 Network 面板可以看到,声源的 url 域名和章节列表的域名是不一样的。在获取下载链接的时候需要注意这一点。
def?get_mp3_path(url):
????response?=?requests.get(url,?headers=headers)
????response.encoding?=?'gbk'
????soup?=?BeautifulSoup(response.text,?'lxml')
????script_text?=?soup.select('script')[-1].string
????fileUrl_search?=?re.search('fileUrl=?"(.*?)";',?script_text,?re.S)
????if?fileUrl_search:
????????return?'https://t3344.tingchina.com'?+?fileUrl_search.group(1)
下载
惊喜总是突如其来,把这个 https://t3344.tingchina.com/xxxx.mp3 放入浏览器中运行居然是 404。
肯定是少了关键性的参数,回到上面 Network 仔细观察 mp3 的 url,发现在 url 后面带了一个 key 的关键字。如下图,这个 key 是来自于 https://img.tingchina.com/play/h5_jsonp.asp?0.5078556568562795 的返回值,可以使用正则表达式将 key 取出来。
def?get_key(url):
????url?=?'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
????headers['referer']?=?url
????response?=?requests.get(url,?headers=headers)
????matched?=?re.search('(key=.*?)";',?response.text,?re.S)
????if?matched:
????????temp?=?matched.group(1)
????????return?temp[len(temp)-42:]
最后的最后在 __main__
中将以上的代码串联起来。
if?__name__?==?"__main__":
????url?=?input("请输入浏览器书页的地址:")
????dir,url_list?=?get_detail_urls()
????for?item?in?url_list:
????????audio_url?=?get_mp3_path(item['url'])
????????key?=?get_key(item['url'])
????????audio_url?=?audio_url?+?'?key='?+?key
????????headers['referer']?=?item['url']
????????r?=?requests.get(audio_url,?headers=headers,stream=True)
????????with?open(os.path.join(dir,?item['name']),'ab')?as?f:
????????????f.write(r.content)
????????????f.flush()
完整代码
from bs4 import BeautifulSoup
import requests
import re
import random
import os
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
}
def get_detail_urls(url):
url_list = []
response = requests.get(url, headers=headers)
response.encoding = 'gbk'
soup = BeautifulSoup(response.text, 'lxml')
name = soup.select('.red12')[0].strong.text
if not os.path.exists(name):
os.makedirs(name)
div_list = soup.select('div.list a')
for item in div_list:
url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
return name, url_list
def get_mp3_path(url):
response = requests.get(url, headers=headers)
response.encoding = 'gbk'
soup = BeautifulSoup(response.text, 'lxml')
script_text = soup.select('script')[-1].string
fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
if fileUrl_search:
return 'https://t3344.tingchina.com' + fileUrl_search.group(1)
def get_key(url):
url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
headers['referer'] = url
response = requests.get(url, headers=headers)
matched = re.search('(key=.*?)";', response.text, re.S)
if matched:
temp = matched.group(1)
return temp[len(temp)-42:]
if __name__ == "__main__":
url = input("请输入浏览器书页的地址:")
dir,url_list = get_detail_urls()
for item in url_list:
audio_url = get_mp3_path(item['url'])
key = get_key(item['url'])
audio_url = audio_url + '?key=' + key
headers['referer'] = item['url']
r = requests.get(audio_url, headers=headers,stream=True)
with open(os.path.join(dir, item['name']),'ab') as f:
f.write(r.content)
f.flush()
来源:https://mp.weixin.qq.com/s/JzzHwQ0G9IoenlmdEXi3hA


猜你喜欢
- 今天交流会上,分享前端的开发经验,有一条虽然很快带过,但是我倒是印象蛮深刻的,就写点小结来分享一下吧。不知道是标准害了大家还是大家害了标准,
- 一、概述单机Mysql8数据库服务器运行过程中突然断电,导致数据库崩溃,无法重启。二、查找原因查看mysql运行错误日志:WIN-SOTMI
- 我们经常使用动态创建 JavaScript 的方式来实现 JavaScript 文件的无阻塞(Non-blocking)、并行下载(Para
- join的写法如果用left join 左边的表一定是驱动表吗?两个表的join包含多个条件的等值匹配,都要写道on还是只把一个写到on,其
- 相信很多人在使用Ajax与后台php页面进行交互的时候都碰到过中文乱码的问题。JSON作为一种轻量级的数据交换格式,备受亲睐,但是用PHP作
- 1.先检查系统是否装有mysqlrpm -qa | grep mysql2.下载mysql的repo源(5.7)wget -i -c htt
- Python os 模块os是“operating system”的缩写,os模块提供各种 Pyth
- python selenium 获取接口数据。selenium没有直接提供查询的函数,但是可以通过webdriver提供的API查询,使用的
- 今天搭了个“发短信”的页面,找朋友测试,没想到一位大侠直接弄了本长篇小说发我手机上……为了我的宝贝手机能继续健康澎湃,给文本区域(texta
- 功能:读取txt文本,然后将目的字符串标红,再将处理过的字符串写入docx中txt文本内容:啊打发发烧鳌太路线点击点击诶的骄傲计划将鳌太标红
- 初级画心学Python,感觉你们的都好复杂,那我来个简单的,我是直接把心形看作是一个正方形+两个半圆:于是这就很简单了,十行代码解决:imp
- 首先创建数据库hncu,建立stud表格。添加数据:create table stud(sno varchar(30) not null p
- 一、前言刚刚学了一些python文件读写的内容,先跑过来整活了。顺便复习一下之前学的东西。import timedoc_local='
- 本文实例讲述了go语言获取系统盘符的方法。分享给大家供大家参考。具体如下:涉及golang调用winapi获取系统盘符的技巧。代码如下://
- [前言]:搭往公司的班车,遇到其他部门的同事,他问了很多关于我的工作的问题,由此引发这篇文章。这些问题,我也经常被其他人问到,其中既有我们亲
- 这几年比较火的一个漏洞就是jinjia2之类的模板引擎的注入,通过注入模板引擎的一些特定的指令格式,比如 {{1+1}} 而返回了 2 得知
- 本文实例为大家分享了python批量梯度下降算法的具体代码,供大家参考,具体内容如下问题:将拥有两个自变量的二阶函数绘制到空间坐标系中,并通
- 前言总结一下最近看的关于opencv图像几何变换的一些笔记. 这是原图: 1.平移import cv2import numpy as npi
- --查看当前的存放位置 select database_id,name,physical_name AS CurrentLocation,s
- 安装laravel框架命令行cd进入指定目录下,执行composer create-project --prefer-dist larave