Python爬虫框架Scrapy基本用法入门教程
作者:喷跑的豆子 发布时间:2021-08-17 19:50:45
标签:Python,爬虫框架,Scrapy
本文实例讲述了Python爬虫框架Scrapy基本用法。分享给大家供大家参考,具体如下:
Xpath
<html>
<head>
<title>标题</title>
</head>
<body>
<h2>二级标题</h2>
<p>爬虫1</p>
<p>爬虫2</p>
</body>
</html>
在上述html代码中,我要获取h2的内容,我们可以使用以下代码进行获取:
info = response.xpath("/html/body/h2/text()")
可以看出/html/body/h2为内容的层次结构,text()
则是获取h2标签的内容。//p
获取所有p标签。获取带具体属性的标签://标签[@属性="属性值"]
<div class="hide"></div>
获取class为hide的div标签
div[@class="hide"]
再比如,我们在谷歌Chrome浏览器上的Console界面使用$x['//h2']
命令获取页面中的h2元素信息:
xmlfeed模板
创建一个xmlfeed模板的爬虫
scrapy genspider -t xmlfeed abc iqianyue.com
核心代码:
from scrapy.spiders import XMLFeedSpider
class AbcSpider(XMLFeedSpider):
name = 'abc'
start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/test.xml']
iterator = 'iternodes' # 迭代器,默认为iternodes,是一个基于正则表达式的高性能迭代器。除了iternodes,还有“html”和“xml”
itertag = 'person' # 设置从哪个节点(标签)开始迭代
# parse_node会在节点与提供的标签名相符时自动调用
def parse_node(self, response, selector):
i = {}
xpath = "/person/email/text()"
info = selector.xpath(xpath).extract()
print(info)
return i
csvfeed模板
创建一个csvfeed模板的爬虫
scrapy genspider -t csvfeed csvspider iqianyue.com
核心代码
from scrapy.spiders import CSVFeedSpider
class CsvspiderSpider(CSVFeedSpider):
name = 'csvspider'
allowed_domains = ['iqianyue.com']
start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/mydata.csv']
# headers 主要存放csv文件中包含的用于提取字段的信息列表
headers = ['name', 'sex', 'addr', 'email']
# delimiter 字段之间的间隔
delimiter = ','
def parse_row(self, response, row):
i = {}
name = row["name"]
sex = row["sex"]
addr = row["addr"]
email = row["email"]
print(name,sex,addr,email)
#i['url'] = row['url']
#i['name'] = row['name']
#i['description'] = row['description']
return i
crawlfeed模板
创建一个crawlfeed模板的爬虫
scrapy genspider -t crawlfeed crawlspider sohu.com
核心代码
class CrawlspiderSpider(CrawlSpider):
name = 'crawlspider'
allowed_domains = ['sohu.com']
start_urls = ['http://sohu.com/']
rules = (
Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
)
def parse_item(self, response):
i = {}
#i['domain_id'] = response.xpath('//input[@id="sid"]/@value').extract()
#i['name'] = response.xpath('//div[@id="name"]').extract()
#i['description'] = response.xpath('//div[@id="description"]').extract()
return i
上面代码rules部分中的LinkExtractor为连接提取器。
LinkExtractor中对应的参数及含义
参数名 | 参数含义 |
---|---|
allow | 提取符合正则表达式的链接 |
deny | 不提取符合正则表达式的链接 |
restrict_xpaths | 使用XPath表达式与allow共同作用提取同时符合对应XPath表达式和对应正则表达式的链接 |
allow_domains | 允许提取的域名,比如我们想只提取某个域名下的链接时会用到 |
deny_domains | 进制提取的域名 |
希望本文所述对大家Python程序设计有所帮助。
来源:https://blog.csdn.net/y472360651/article/details/75194626


猜你喜欢
- 1、善用拖放技术 我们在使用Dreamweaver编辑网页的时候,经常需要插入一些图象什么的,假设要插入的图象很多,按照常规方法来操作就显得
- 从Android 3.0开始除了我们重点讲解的Fragment外,Action Bar也是一个重要的内容,Action Bar主要是用于代替
- 安装MySQL,留作笔记,不知是否能够安装成功,试试吧。1、 进入mysql官网 地址<下载完毕,接下来就是安装了2、安装找到安装包,
- 阅读上一篇:css基础教程属性篇 本篇主要介绍css对边框(border)的属性控制和链接(link)的伪类选择器.边框(border):
- df.groupby() 之后按照特定顺序输出,方便后续作图,或者跟其他df对比作图。## 构造 pd.DataFramepatient_i
- 1. 前言python除了丰富的第三方库外,本身也提供了一些内在的方法和底层的一些属性,大家比较常用的如dict、list、set、min、
- 1.安 * azel,从github上下载linux版的.sh文件,然后安装2.从GitHub上下载最新的TensorFlow源码3.进入Te
- 摘要:现代网站和web应用程序趋向于依赖客户端的大量的javascript来提供丰富的交互。特别是通过不刷新页面的异步请求来返回数据或从服务
- 前言python学习之路任重而道远,要想学完说容易也容易,说难也难。很多人说python最好学了,但扪心自问,你会用python做什么了?刚
- 匹配文本并在其上一行追加文本问题描述Python匹配文本并在其上一行追加文本test.txtabcde1.读进列表后覆盖原文件 d
- 说到转置操作,顺便提及矩阵与数组的区别:矩阵:数学里的概念,其元素只能是数值,这也是区别于数组的根本所在数组:计算机中的概念,代表一种数据组
- 本文实例分析了Python二分法搜索算法。分享给大家供大家参考。具体分析如下:今天看书时,书上提到二分法虽然道理简单,大家一听就明白但是真正
- 分析我们都知道一个可迭代对象可以通过iter()可以返回一个迭代器。如果想要一个对象称为可迭代对象,即可以使用for,那么必须实现__ite
- “输入框( Input )应当符合逻辑地划分为小组,这样大脑就可以很好的处理大堆区域间的关系。”– 《HTML权威指南》Web 应用程序总是
- CSS命名规范一.文件命名规范全局样式:global.css;框架布局:layout.css;字体样式:font.css;链接样式:link
- 一.实现思路本文讲解如何使用python实现一个简单的模板引擎, 支持传入变量, 使用if判断和for循环语句, 最终能达到下面这样的效果:
- 在opencv中,特征检测、描述、匹配都有集成的函数。vector<DMatch> bestMatches;用来存储得到的匹配点
- 创建触发器。创建触发器语法如下:CREATE TRIGGER trigger_name trigger_time trigger_event
- 1、 引言小 * 丝:鱼哥,新年快乐!小鱼:无事不登三宝殿,有啥事,你直说吧…小 * 丝:别说的这么直接,这大过年的&
- python标准库syssys模块包括了一组非常实用的服务,内含很多函数方法和变量,用来处理Python运行时配置以及资源,从而可以与前当程