python数据解析BeautifulSoup爬取三国演义章节示例
作者:小缘喵~ 发布时间:2021-03-21 13:27:27
标签:数据解析,BeautifulSoup,三国演义
数据解析
数据解析就是将爬取到的整个页面中的局部的内容进行提取。python中常用的数据解析方式有以下三种:
bs4(python中独有的)
xpath(推荐,通用型强)
正则
数据解析原理概述:
首先我们知道需要解析(提取)的内容都会在标签之间或者标签对应的属性中进行存储
所以我们需进行指定标签的定位
然后将标签或者标签对应的属性中存储的数据值进行提取(解析)
Beautiful Soup
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。其只能运用在python语言中
bs4数据解析原理
实例化一个BeautifulSoup对象,并且将页面源码数据加载到该对象中。而将页面源码数据加载到该对象中有两种方式,一种是将本地得html文档加载,另一种是将互联网上获取的页面源码加载通过
调用BeautifulSoup对象中相关的属性或者方法进行标签定位和数据提取
要使用bs4首先需要先下载对应的包
pip install bs4
pip install -i https://mirrors.aliyun.com/pypi/simple/ lxml
Beautiful Soup用法
提取整个标签数据
进行标签定位常用的几个方法如下
soup
.标签名 返回的是html中第一次出现的标签
soup.find
(标签名) 返回第一次出现的这个标签
soup.find_all
(标签名)) 返回符合要求的所有标签
soup.select
(标签名) 返回符合要求的所有标签
from bs4 import BeautifulSoup #导包
html = """
<html lang="en">
<head>
<meta charset="utf-8">
<meta name="theme-color" content="#ffffff">
<base href="./" rel="external nofollow" ><link rel="stylesheet" href="styles.30d0912c1ece284d8d9a.css" rel="external nofollow" >
</head>
<body>
<div>
<p>百里守约</p>
</div>
<div class="song">
<p>前程似锦</p>
</div>
<div class="song">
<p>前程似锦2</p>
</div>
<div class="ming"> #后面改了名字
<p>以梦为马</p>
</div>
<div class="tang">
<ul>
<li><a href='http://123.com' title='qing'>清明时节</a></li>
<li><a href='http://ws.com' title='qing'>秦时明月</a></li>
<li><a href='http://xzc.com' title='qing'>汉时关</a></li>
</ul>
</div>
<flink-root></flink-root>
<script type="text/javascript" src="runtime.0dcf16aad31edd73d8e8.js"></script><script type="text/javascript" src="es2015-polyfills.923637a8e6d276e6f6df.js" nomodule></script><script type="text/javascript" src="polyfills.bb2456cce5322b484b77.js"></script><script type="text/javascript" src="main.8128365baee3dc30e607.js"></script>
</body>
</html>
"""
#实例化一个BeautifulSoup对象,并且将本地的源码数据加载到该对象中。且使用html.parser进行数据解析
soup = BeautifulSoup(html,'html.parser')
print(soup.meta) #输出<meta charset="utf-8">
print(soup.p) #输出<p>百里守约</p>
#find
print(soup.find('div')) #输出<div><p>百里守约</p></div>
#这里有多个div标签,根据属性定位,因为class为关键字,所以这里加_
print(soup.find('div',class_="song")) #<p>前程似锦</p>
#find_all
print(soup.find_all('p')) #[<p>百里守约</p>, <p>前程似锦</p>, <p>前程似锦2</p>, <p>以梦为马</p>]
print(soup.select('.tang')) #将这个选择器中的所有内容提取
print(soup.select('.tang > ul > li > a')[1]) #返回ul中的li中的所有a标签中的第二个a标签 <a href="http://ws.com" rel="external nofollow" title="qing">秦时明月</a>
提取标签中的内容和标签的属性值
#获取标签中的内容
print(soup.p.text) #输出百里守约
print(soup.find('div',class_="ming").text) #以梦为马
print(soup.find('div',class_="song"))
print(soup.select('.tang a')[0].text) #清明时节
#获取标签中的属性值,如a标签中的href值
print(soup.select('.tang a')[0]['href']) #http://123.com
案例—爬取三国演义章节及对应的内容
网站如下,网站数据的获取不是通过ajax发送的请求
import requests
from bs4 import BeautifulSoup
url = 'https://so.gushiwen.org/guwen/book_46653FD803893E4F7F702BCF1F7CCE17.aspx'
headers={
'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Mobile Safari/537.36'
}
pag_content = requests.get(url,headers,timeout=4).text
#print(pag_content)
#提取每章节内容的链接
soup = BeautifulSoup(pag_content,'html.parser')
a_text = soup.select('.bookcont a') #将其下面的所有a标签提取出来
for i in a_text:
#获取a标签中的href属性的值
detail_url = i['href']
#请求详细内容的url的内容
detail_content = requests.get(detail_url,headers,timeout=4).text
soup = BeautifulSoup(detail_content,'html.parser')
#提取class标签
class_content = soup.find('div',class_='contson')
#print(class_content) #该标签中有很多p标签,返回整个class_content标签
#print(class_content.text) #获取其所有的内容
with open('三国演义.txt','a',encoding='utf-8') as f:
f.write(i.text+'\r')
f.write(class_content.text+'\r')
print(f'爬取{i.text}ok')
print('全部ok')
来源:https://blog.csdn.net/qq_44159028/article/details/120508994


猜你喜欢
- Variant变量一般会将其代表的数据子类型自动转换成合适的数据类型,但有时候,自动转换也会造成一些数据类型不匹配的错误.这时,可使用转换函
- 很多时候我们的redis的IP地址一般都是默认的127.0.0.1代表只能接受本机的访问,因此我们其他机器上想要访问这个redis的时候,就
- mysql创建用户并授权:格式:grant 权限 on 数据库名.表名 to 用户@登录主机 identified by "用户密
- 目的封装轮播图组件,直接使用,具体内容如下大致步骤准备my-carousel组件基础布局,全局注册准备home-banner组件,使用my-
- 正文开始if name == "main":可以看成是python程序的入口,就像java中的main()方法,但不完全
- mysqladmin是MySQL官方提供的shell命令行工具,它的参数都需要在shell
- 前言 不知道从什么时候开始有了写博客的想法,奈何自己的知识储备还很薄弱,迟迟无法下笔。这是我的第一篇博客,算是记录一下自己学习前
- 本文实例为大家分享了python编写实现抽奖器的具体代码,供大家参考,具体内容如下# coding=utf-8import sysimpor
- 前言夏天是用来告别的季节,因为毕业总在七月。那么七月之前的季节是用来干嘛的呢?当然是用来做毕业设计的啦今天还是写一些从简单到难的毕业设计或者
- 今天在百度知道看php相关资料时发现一个网友问一个wordpress安装提示错误的一个问题,说他在安装wordpress安装包时遇到这样一个
- 如果你有一批IP地址想要获得这些IP具体的信息,比如归属国家,城市等,最好的办法当时是调用现有的api接口来获取,我在之前就写过一篇文章,是
- 简单的说延迟复制就是设置一个固定的延迟时间,比如1个小时,让从库落后主库一个小时。MySQL延时复制库作用存在即合理,延迟复制可以用来解决以
- 本文实例讲述了Python实现模拟分割大文件及多线程处理的方法。分享给大家供大家参考,具体如下:#!/usr/bin/env python#
- 我就废话不多说了,大家还是直接看代码吧~from docx import Documentfrom docx import RTimport
- 起步线上部署时因设置了 settings.DEBUG = False 会导致静态文件都是 404 的情况。主要原因是应为关闭DEBUG模式后
- 在一个项目中,制作呃echart图表的时候,遇到一个需求,需要从后端接口获取数据----售票员的姓名和业绩所以需要在订单表中,获取不同售票员
- Selenium一、简介selenium是一个用于Web应用自动化程序测试的工具,测试直接运行在浏览器中,就像真正的用户在操作一样selen
- "神经衰弱"翻牌游戏考察玩家的记忆力,游戏的开头会短时间给你看一小部分牌的图案,当玩家翻开两张相同图案牌的时候,会消除,
- isnull()Null 值指出变量不包含有效数据。Null 与 Empty 不同,后者指出变量未经初始化。Null 与零长度字符串 (&q
- 我们有时请求服务器时,无论get或post请求,会出现403错误,这是因为服务器拒绝了你的访问,这时我们可以通过模拟浏览器的头部信息进行访问