python使用tornado实现简单爬虫
作者:WangF0 发布时间:2022-07-07 12:03:08
标签:python,tornado,爬虫
本文实例为大家分享了python使用tornado实现简单爬虫的具体代码,供大家参考,具体内容如下
代码在官方文档的示例代码中有,但是作为一个tornado新手来说阅读起来还是有点困难的,于是我在代码中添加了注释,方便理解,代码如下:
# coding=utf-8
#!/usr/bin/env python
import time
from datetime import timedelta
try:
from HTMLParser import HTMLParser
from urlparse import urljoin, urldefrag
except ImportError:
from html.parser import HTMLParser
from urllib.parse import urljoin, urldefrag
from tornado import httpclient, gen, ioloop, queues
# 设置要爬取的网址
base_url = 'http://www.baidu.com'
# 设置worker数量
concurrency = 10
# 此代码会获取base_url下的所有其他url
@gen.coroutine
def get_links_from_url(url):
try:
# 通过异步向url发起请求
response = yield httpclient.AsyncHTTPClient().fetch(url)
print('fetched %s' % url)
# 响应如果是字节类型 进行解码
html = response.body if isinstance(response.body, str) \
else response.body.decode(errors='ignore')
# 构建url列表
urls = [urljoin(url, remove_fragment(new_url))
for new_url in get_links(html)]
except Exception as e:
print('Exception: %s %s' % (e, url))
# 报错返回空列表
raise gen.Return([])
# 返回url列表
raise gen.Return(urls)
def remove_fragment(url):
#去除锚点
pure_url, frag = urldefrag(url)
return pure_url
def get_links(html):
#从html页面里提取url
class URLSeeker(HTMLParser):
def __init__(self):
HTMLParser.__init__(self)
self.urls = []
def handle_starttag(self, tag, attrs):
href = dict(attrs).get('href')
if href and tag == 'a':
self.urls.append(href)
url_seeker = URLSeeker()
url_seeker.feed(html)
return url_seeker.urls
@gen.coroutine
def main():
# 创建队列
q = queues.Queue()
# 记录开始时间戳
start = time.time()
# 构建两个集合
fetching, fetched = set(), set()
@gen.coroutine
def fetch_url():
# 从队列中取出数据
current_url = yield q.get()
try:
# 如果取出的数据在队列中已经存在 返回
if current_url in fetching:
return
print('fetching %s' % current_url)
# 如果不存在添加到集合当中
fetching.add(current_url)
# 从新放入的链接中继续获取链接
urls = yield get_links_from_url(current_url)
# 将已经请求玩的url放入第二个集合
fetched.add(current_url)
for new_url in urls:
# Only follow links beneath the base URL
# 如果链接是以传入的url开始则放入队列
if new_url.startswith(base_url):
yield q.put(new_url)
finally:
# 队列内数据减一
q.task_done()
@gen.coroutine
def worker():
while True:
# 保证程序持续运行
yield fetch_url()
# 将第一个url放入队列
q.put(base_url)
# Start workers, then wait for the work queue to be empty.
for _ in range(concurrency):
# 启动对应数量的worker
worker()
# 等待队列数据处理完成
yield q.join(timeout=timedelta(seconds=300))
# 如果两个集合不相等抛出异常
assert fetching == fetched
# 打印执行时间
print('Done in %d seconds, fetched %s URLs.' % (
time.time() - start, len(fetched)))
if __name__ == '__main__':
io_loop = ioloop.IOLoop.current()
io_loop.run_sync(main)
来源:https://blog.csdn.net/wf134/article/details/79900407
0
投稿
猜你喜欢
- 本文实例讲述了python实现简单的计时器功能函数。分享给大家供大家参考。具体如下:此函数通过python实现了一个简单的计时器动能:
- 解读model.named_parameters()与model.parameters()model.named_parameters()迭
- 前言目前学习python几个月了,由于自己比较喜欢跑马拉松,已经跑过了很多场比赛,前些天就写了个简单的爬虫爬取了网上三千多场马拉松比赛的报名
- TensorFlow的日志级别分为以下三种:TF_CPP_MIN_LOG_LEVEL = 1 //默认设置,为显示所有信息TF_CPP_MI
- 这篇博客将介绍Canny边缘检测的概念,并利用cv2.Canny()实现边缘检测;Canny边缘检测是一种流行的边缘检测算法。它是由约翰F开
- 在ASP.net页面中,我们编写JavaScript脚本附加有注释时,这些注释也往往会随JavaScript脚本一起送到客户端。
- 一、前言实现名片管理系统,首先要创建两个python file ,分别是cards_main.py和cards_tool.py,前一个是主代
- 在使用TensorFlow训练神经网络时,首先面临的问题是:网络的输入此篇文章,教大家将自己的数据集制作成TFRecord格式,feed进网
- 从一个通道的图片进行卷积生成新的单通道图的过程很容易理解,对于多个通道卷积后生成多个通道的图理解起来有点抽象。本文以通俗易懂的方式讲述卷积,
- 现在的域名提供已经取消免费的url转发功能,而且我们一般主要用的是带www的域名,以前不带www的域名一般是做url转发跳转到带www的域名
- 在php中实现验证码还是很方便的,关键点在于掌握php gd库与session的用法。纵观网上php 生成验证码的例子,无不是php gd库
- 人工智能和区块链诞生至今已经有了十几年,当这些技术出现时,人们都说他们会改变世界,但至今为止,这两项技术对现实的影响依然有限。从技术上看人工
- 代码如下webfig1.pyfrom flask import Flaskfrom flask import render_template
- 字典的本质就是 hash 表,hash 表就是通过 key 找到其 value ,平均情况下你只需要花费 O(1) 的时间复杂度即可以完成对
- 1.软件环境Windows10 教育版64位Python 3.6.32.问题描述我们在定义一个函数或者是调用一个函数的时候,总是希望能够知道
- python如何处理“&#”开头加数字的html字符,比如:风水这类数据。用python
- 目录1图像叠加2图像融合3按位操作1图像叠加可以通过OpenCV函数cv.add()或简单地通过numpy操作添加两个图像,res = im
- 迄今为止,导出/导入工具集仍是跨多个平台转移数据所需劳动强度最小的首选实用工具,尽管人们常常抱怨它速度太慢。导入只是将每条记录从导出转储文件
- MySQL是关系型数据库中的明星,MongoDB是文档型数据库中的翘楚。下面通过一个设计实例对比一下二者:假设我们正在维护一个手机产品库,里
- 打开网页,然后将javascript:document.body.contentEditable='true';