python爬虫基础之简易网页搜集器
作者:世界的隐喻 发布时间:2023-08-25 14:05:17
简易网页搜集器
前面我们已经学会了简单爬取浏览器页面的爬虫。但事实上我们的需求当然不是爬取搜狗首页或是B站首页这么简单,再不济,我们都希望可以爬取某个特定的有信息的页面。
不知道在学会了爬取之后,你有没有跟我一样试着去爬取一些搜索页面,比如说百度。像这样的页面
注意我红笔划的部分,这是我打开的网页。现在我希望能爬取这一页的数据,按我们前面学的代码,应该是这样写的:
import requests
if __name__ == "__main__":
# 指定URL
url = "https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=2&tn=93923645_hao_pg&wd=%E5%A5%A5%E7%89%B9%E6%9B%BC&rsv_spt=1&oq=%25E7%2588%25AC%25E5%258F%2596%25E7%2599%25BE%25E5%25BA%25A6%25E9%25A6%2596%25E9%25A1%25B5&rsv_pq=b233dcfd0002d2d8&rsv_t=ccdbEuqbJfqtjnkFvevj%2BfxQ0Sj2UP88ixXHTNUNsmTa9yWEWTUEgxTta9r%2Fj3mXxDs%2BT1SU&rqlang=cn&rsv_dl=tb&rsv_enter=1&rsv_sug3=8&rsv_sug1=5&rsv_sug7=100&rsv_sug2=0&rsv_btype=t&inputT=1424&rsv_sug4=1424"
# 发送请求
response = requests.get(url)
# 获取数据
page_text = response.text
# 存储
with open("./奥特曼.html", "w", encoding = "utf-8") as fp:
fp.write(page_text)
print("爬取成功!!!")
然而打开我们保存的文件,发现结果跟我们想的不太一样
我们发现我们保存的文件是一个空白的页面,这是为什么呢?
其实上我们把网址改成搜狗的可能或更直观一些(不知道为什么我这边的搜狗总是打不开,所以就用百度做例子,可以自己写写有关搜狗搜索的代码),同样的代码改成搜狗的网址结果是这样的
我们发现其中有句话是 “ 网络中存在异常访问 ”,那么这句话是什么意思呢?
这句话的意思就是说,搜狗或是百度注意到发送请求的是爬虫程序,而不是人工操作。
那么这其中的原理又是什么呢?
简单来说,就是程序访问和我们使用浏览器访问是有区别的,被请求的服务器都是靠 user-agent 来判断访问者的身份,如果是浏览器就接受请求,否则就拒绝。这就是一个很常见的反爬机制。
那是不是我们就没有办法呢?
非也~所谓魔高一尺,道高一丈。既然要识别 user-agent ,那么我们就让爬虫模拟 user-agent 好了。
在 python 中模拟输入数据或是 user-agent ,我们一般用字典
就这样子写:
header = {
"user-agent": "" # user-agent 的值 是一个长字符串
}
那么 user-agent 的值又是怎么得到的呢?
1. 打开任意网页,右键点击,选择“检查”
2. 选择“ Network ”(谷歌浏览器)(如果是中文,就选择 “网络” 这一项)
3. 如果发现点开是空白的,像这样,那就刷新网页
刷新后是这样的:
然后随机选择红笔圈起来的一项,我们会看到这样的东西,然后在里面找到“user-agent”,把它的值复制下来就行了
有了 “user-agent”, 我们在重新写我们的爬取网页的代码,就可以了
import requests
if __name__ == "__main__":
# 指定URL
url = "https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=2&tn=93923645_hao_pg&wd=%E5%A5%A5%E7%89%B9%E6%9B%BC&rsv_spt=1&oq=%25E7%2588%25AC%25E5%258F%2596%25E7%2599%25BE%25E5%25BA%25A6%25E9%25A6%2596%25E9%25A1%25B5&rsv_pq=b233dcfd0002d2d8&rsv_t=ccdbEuqbJfqtjnkFvevj%2BfxQ0Sj2UP88ixXHTNUNsmTa9yWEWTUEgxTta9r%2Fj3mXxDs%2BT1SU&rqlang=cn&rsv_dl=tb&rsv_enter=1&rsv_sug3=8&rsv_sug1=5&rsv_sug7=100&rsv_sug2=0&rsv_btype=t&inputT=1424&rsv_sug4=1424"
# 模拟 “user-agent”,即 UA伪装
header = {
"user-agent" : "" # 复制的 user-agent 的值
}
# 发送请求
response = requests.get(url, headers = header)
# 获取数据
page_text = response.text
# 存储
with open("./奥特曼(UA伪装).html", "w", encoding = "utf-8") as fp:
fp.write(page_text)
print("爬取成功!!!")
再次运行,然后打开文件
这次成功了,说明我们的爬虫程序完美地骗过了服务器
来源:https://blog.csdn.net/ShiJieDeYinYu/article/details/115713287


猜你喜欢
- numpy的sum函数可接受的参数是:sum(a, axis=None, dtype=None, out=None, keepdims=np
- NumPy什么是NumPyNumPy是 Python 语言的一个扩展程序库,支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函
- 提到分发请求,相信大多数人首先会想到Nginx,Nginx作为一种多功能服务器,不仅提供了反向代理隐藏主机ip的能力,还拥有简单的缓存加速功
- 合并两个数组 - concat()源代码:<!DOCTYPE html><html><body><
- 1 发送文本信息'''加密发送文本邮件'''def sendEmail(from_addr,
- 可以通过 reflect.DeepEqual 比较两个 slice/struct/map 是否相等:package main import
- Django url pathDjango 路由在 urls.py 配置path('浏览器地址栏表示URL', '处
- 本文实例讲述了Python实现判断一个整数是否为回文数算法。分享给大家供大家参考,具体如下:第一个思路是先将整数转换为字符串,再将字符串翻转
- 最近使用Python 3.5写了一个GUI小程序,于是想将该写好的程序发布成一个exe文件,供自己单独使用。至于通过安装的方式使用该程序,我
- 在利用DL解决图像问题时,影响训练效率最大的有时候是GPU,有时候也可能是CPU和你的磁盘。很多设计不当的任务,在训练神经网络的时候,大部分
- REST_FRAMEWORK 配置对使用 rest_framework 框架的项目来说,可以使用框架的设置来对api的访问频率进行限制RES
- 如下所示:import json# 使用三引号将浏览器复制出来的requests headers参数赋值给一个变量headers = &qu
- 定义函数:CREATE FUNCTION [dbo].[GetAge] ( @BirthDay nvarchar(2
- 1、获取文件的创建、修改、访问时间# -*- encoding=utf-8 -*-import osimport timedef get_f
- example: for item in warehouse_list: warehouse_id =
- python 对excel的 读入 与 改写(对比xlwt、openpyxl、xlrd)xlwt不支持写xlsx文件。openpyxl不支持
- Mysql 二进制安装方法下载mysqlhttps://dev.mysql.com/downloads/mysql/1.解压包tar xf
- 最近,有读者微信上私聊我,想让我写一篇视频批量转换成音频的文章,我答应了,周末宅家里把这个小工具做出来了。 这样,对于有些视频学习
- Python3异步asyncio问题官方文档:https://docs.python.org/zh-cn/3/library/asyncio
- 前言因为工作的需要,最近看了看Python的应用,从入门级的九九乘法表开始,结果发现Python3.x和Python2.x真的是有太大的不同