Scrapy使用的基本流程与实例讲解
作者:回忆不说话 发布时间:2022-08-15 17:51:19
前面已经介绍过如何创建scrapy的项目,和对项目中的文件功能的基本介绍。
这次,就来谈谈使用的基本流程:
(1)首先第一点,打开终端,找到自己想要把scrapy工程创建的路径。这里,我是建立在桌面上的。打开终端,输入:cd Desktop
就进入了桌面文件存储位置。
(2)创建scrapy工程。终端输入:scrapy startproject image
终端输入:cd image
继续输入:scrapy genspider imageSpider pic.netbian.com
(3)在pycharm中打开刚才桌面的文件,进入settings.py
设置爬虫规则。可以将规则直接注释掉,或者改为False
。
(4) 回到爬虫文件。
更改start_url
,将爬虫默认的第一个网址更改为需要爬取的网站网址即可。
(5)下面就可以爬取数据了,这里选择了下载图片。
爬取完数据之后,要在存储数据的items.py
文件中传输给管道
接下来在爬虫文件中引入管道模型。
from ..items import ImageItem
在爬虫文件中的parse函数中使用在items.py文件中创建的数据模型。
item = ImageItem()
注意点:
有时候在终端输出的时候,如果返回内容是scrapy.selector
,如果对象类型是scrapy.selector
,那么这个对象可以被继续迭代,也可以用xpath继续寻找里面的内容。
如果终端遇到这个问题:
# ValueError:Missing scheme in request url:h
那么就需要使用extract()
将xpath对象转化成列表对象。而列表对象,可以继续被迭代,但是不可以使用xpath
来寻找里面的对象。
在下载之前还需要在settings.py文件中,对图片下载的路径和存储位置进行设置。
下面附代码如下。仅有爬虫文件的代码:
# -*- coding: utf-8 -*-
import scrapy
from ..items import ImageItem
class ImagespiderSpider(scrapy.Spider):
name = 'imageSpider'
allowed_domains = ['pic.netbian.com']
start_urls = ['http://pic.netbian.com/4kmeinv/']
def parse(self, response):
img_list = response.xpath('//ul[@class="clearfix"]/li/a/img/@src')
# 找到了很多src属性值,现在进行遍历,分别使用每一个
for img in img_list:
# 使用在items.py中创建的数据模型item
item = ImageItem()
print('--------------------')
img = img.extract()
# 拼接图片的url,得到完整的下载地址
src = 'http://pic.netbian.com' +img
# 将得到的数据放入到模型中
# 因为是下载地址,所以要用列表包起来,否则会报错。
item['src'] = [src]
yield item
next_url = response.xpath('//div[@class="page"]/a[text()="下一页"]/@href').extract()
print('*****************************************************************')
if len(next_url)!=0:
url = 'http://pic.netbian.com'+next_url[0]
# 将url传给scrapy.Request 得到的结果继续用self.parse进行处理
yield scrapy.Request(url=url,callback=self.parse)
来源:https://blog.csdn.net/qq_39138295/article/details/81365941


猜你喜欢
- python中通过pip安装库文件时出现“EnvironmentError: [WinError 5] 拒绝访问”我遇到的问题:电脑上已经有
- 例如:性别 gender 男 女 保密基本语法:enum(数据值 1,数据值 2...);数据值列表在 255 个以内,使用 1 个字节来存
- 本文介绍了几种常用的python下载文件的方法,具体使用到了htttplib2,urllib等包,希望对大家有帮忙。1.简单文件下载使用ht
- 原因是:It looks like you need to flush stdout periodically (e.g. sys.stdo
- Haar特征哈尔特征使用检测窗口中指定位置的相邻矩形,计算每一个矩形的像素和并取其差值。然后用这些差值来对图像的子区域进行分类。haar特征
- 记一次从web到内网的渗透拓扑图环境介绍现在有三台机器,分别为target1,target2,target3,里面分别有三个flag,每个f
- 本文实例分析了MySQL索引用法。分享给大家供大家参考,具体如下:MYSQL描述:一个文章库,里面有两个表:category和article
- Radiobutton(单选按钮)组件用于实现多选一的问题。Radiobutton 组件可以包含文本或图像,每一个按钮都可以与一个 Pyth
- 在写论文时,如果是菜鸟级别,可能不会花太多时间去学latex,直接用word去写,但是这有一个问题,当我们用其他工具画完实验彩色图时,放到w
- 在我们使用查询语句的时候,经常要返回前几条或者中间某几行数据,这个时候怎么办呢?不用担心, mysql已经为我们提供了这样一个功
- 一、工厂模式(Factory Pattern)工厂模式(Factory Pattern),提供了一种实例化(创建)对象的最佳方式。在工厂模式
- 本文实例为大家分享了python3实现名片管理系统的具体代码,供大家参考,具体内容如下系统主要是:1.新增名片 2.显示全部 3.查询名片
- 其实很简单from keras.models import load_modelbase_model = load_model('m
- 开始一个组件,毫无目的的写代码是一个不好的习惯,要经历 分析 => 抽象 => 实现 => 应用 四个阶段。组件DEMO地
- '************************************* 'asp计算随机数&nb
- 前两天,编辑建议我去当当和卓越申请个用户,在网站上放上我的书的链接,这样还可以拿到一些反点儿,于是我兴冲冲地跑到几个网站上去看,却只在卓越(
- 本文实例讲述了JS简单模拟触发按钮点击功能的方法。分享给大家供大家参考,具体如下:<html> <head&g
- panic和recover使用Go语言不支持传统的 try…catch…finally 这种异常
- 当数据库的数据量读写频繁的时候,我们就要考虑把数据库的读写分开,以提高数据库的使用效率,(当然还有其他用处比如,备份数据),这个时候我们就要
- TensorFlow是Google公司2015年11月开源的第二代深度学习框架,是第一代框架DistBelief的改进版本. TensorF