python3使用scrapy生成csv文件代码示例
作者:不论如何未来很美好 发布时间:2021-03-21 04:36:24
标签:python,爬虫,scrapy
去腾讯招聘网的信息,这个小项目有人做过,本着一个新手学习的目的,所以自己也来做着玩玩,大家可以参考一下。
这里使用的是调用cmdline命令来生成csv文件,而不是importcsv模块。
from scrapy import cmdline
cmdline.execute("scrapy crawl field -o info.csv -t csv".split())
这段代码我保存在一个自建的.py文件中,然后在主文件中调用这个模块,这样就不用每次在cmd中敲命令了,大家可以使用这种方法我觉得很方便的。
进入正题(获取腾讯招聘网的信息http://hr.tencent.com/position.php):
保存的csv文件内容:
我们需要获取的数据首先应该使用scrapy的items容器记录下来:
import scrapy
class GetItem(scrapy.Item):
name = scrapy.Field() #招聘单位
genre = scrapy.Field() #招聘类型
number = scrapy.Field() #招聘人数
place = scrapy.Field() #招聘地点
time = scrapy.Field() #招聘时间
以上为我们等一下需要获取的信息
然后我们新建spider文件来编写爬去网站的代码:
# _*_ coding:utf-8 _*_
import scrapy
from scrapy.http import Request
from time import sleep
import os
import sys
sys.path.append("D:\PYscrapy\get_Field") #我使用这种路径添加的方式来调用GetItem函数和main函数
from get_Field.items import GetItem
import main #main函数开头就说了两行调用程序的代码,你也可以在cmd中使用scrapy crawl field -o info.csv -t csv来调用。主要是方便
class Tencentzhaopin(scrapy.Spider):
name = "field" #这个程序要执行的唯一标识名 可以自己设置
start_urls = ["http://hr.tencent.com/position.php?&start=0#a"] #首页网址
url = "http://hr.tencent.com/" #由于有翻页操作所以我们设置翻页前缀,等一下获取后缀
count = 0
names = [] #这五个列表记录我们获取的信息
genres = []
numbers = []
places = []
times = []
filename = "data.txt" #保存的文件名
if os.path.exists(filename) == True: #判断这个文件是否已经存在文件夹中,有就移除掉。
os.remove(filename)
def parse(self,response):
self.count += 1 #设置我们需要爬去多少页,不设置的话会有几百页需要爬取
name = response.xpath('//table//td[@class="l square"]//a//text()').extract()
#通过xpath方法获取我们需要的内容,再使用extract()抽取器获取到
for i in name: #利用循环将每一次的内容存入我们上面设置的列表中去,方便后面存入csv文件(下面4个类似)
self.names.append(i)
genre = response.xpath('//table//tr[not(@class="h")]//td[2][not(@align="center")]//text()').extract()
for i in genre:
self.genres.append(i)
number = response.xpath('//table//tr[not(@class="h")]//td[3][not(@align="center")]//text()').extract()
for i in number:
self.numbers.append(i)
place = response.xpath('//table//tr[not(@class="h")]//td[4][not(@align="center")]//text()').extract()
for i in place:
self.places.append(i)
time = response.xpath('//table//tr[not(@class="h")]//td[5][not(@align="center")]//text()').extract()
for i in time:
self.times.append(i)
new_url = response.xpath('//*[@id="next"]//@href').extract()
#前面我们说过需要翻页操作,所以这里是获取到翻页的后缀
new_url = self.url+new_url[0] #再与前缀结合,获取到一个完整的下一页链接
sleep(0.5) #我们设置一个翻页的时间,太快了不好。。。。(我是这样想的)
#下面就是信息存入items容器
for i in range(len(self.genres)): #for循环列表的长度,获取到所有信息
info = GetItem() #实例一个类info用来保存数据
info["name"] = self.names[i] #将每一个属性列表中的每一个数据保存依次保存到info中去
info["genre"] = self.genres[i]
info["number"] = self.numbers[i]
info["place"] = self.places[i]
info["time"] = self.times[i]
yield info #这个yield注意了,嗯,这就很舒服了
#我们将每一次保存的数据返回,但是返回了我们还需要程序继续执行,所以使用yield函数返回后继续执行
if self.count<=20:
yield Request(url=new_url,callback=self.parse)
#如果满足20页以内,我们callback返回下一页的链接继续到parse这个默认函数,
以上是spider中的代码。
其实实现这个代码不难,唯一有一点小疑惑的地方可能就是第一个yield的使用,一开始我是使用调用一个新的函数,然后在里面实现值的返回,但是麻烦还有一点小问题,所以这里我们就是用这种简单的方式就行了,yield将每次循环的数据返回,返回后再继续执行循环。
来源:http://blog.csdn.net/qq_36523839/article/details/72730626#comments


猜你喜欢
- 本文实例为大家分享了使用RNN进行文本分类,python代码实现,供大家参考,具体内容如下1、本博客项目由来是oxford 的nlp 深度学
- Python基础语法-容器容器型数据类型是指可以包含多个多种数据类型数据的数据类型。1.列表(list)1.1 列表基本概念列表是Pytho
- 和网友们讨论了数组取交集的方法,下面是两个实现arr1=["1","5","6"
- 所以呢,在引用js文档的时候,要设置被引用的文档是什么编码的。 如:一个utf-8的页面引用一个gb2312的js文档,那么就要这么写 &l
- 在学习Django过程中在views.py进行逻辑处理时接触到了两种视图的书写风格,FBV和CBVFBV 指 function based
- 多条ROC曲线绘制函数def multi_models_roc(names, sampling_methods, colors, X_tes
- SQLServer数据导出到excel有很多种方法,比如dts、ssis、还可以用sql语句调用openrowset。我们这里开拓思路,用C
- 基于python+OpenCV的车牌号码识别,供大家参考,具体内容如下车牌识别行业已具备一定的市场规模,在电子警察、公路卡口、停车场、商业管
- 查询重写插件从MySQL 5.7.6开始,MySQL Server支持查询重写插件,可以在服务器执行之前检查并可能修改服务器接收的语句。以下
- 安装的方式很常规,直接使用pip安装就行了。pip install fpdf将需要使用的三方模块导入进来from fpdf import F
- 最近在学习Golang语言,中间遇到一个前辈指点,有一个学习原则:Learning By Doing。跟我之前学习Java的经验高度契合。在
- Oracle存储过程基本语法 存储过程 1 CREATE OR REPLACE PROCEDURE 存储过程名 2 IS 3 BEGIN 4
- 以下所有代码全是在<head>...</head>之间,具体内容有:1,<title>…</tit
- Python算术运算符以下假设变量a为10,变量b为20:运算符描述实例+加 - 两个对象相加a + b 输出结果 30-减 - 得到负数或
- microtime() 函数返回当前 Unix 时间戳的微秒数。用于检测程序执行时间的函数,也是PHP内置的时间函数之一,在PHP中可以用于
- 人一旦习惯了某些东西就很难去改,以及各种各样的原因,新的浏览器越来越多,而老的总淘汰不了。增长总是快于消亡导致了浏览器兼容是成了谈不完的话题
- 1.多边形的绘制案例# 多边形的绘制案例import turtledef main():turtle.color("green&q
- <html> <head> <title> IE9 亲测JS各种去空格大全 </title>
- ??,本文中,使用到的工具有:Pycharm,Anaconda,MySQL 5.5,spyder(Anaconda)什么是 PyMySQL?
- 为什么要用numpy Python中提供了list容器,可以当作数组使用。但列表中的元素可以是任何对象,