网络编程
位置:首页>> 网络编程>> Python编程>> Python爬取 * 页中图片的完整实例

Python爬取 * 页中图片的完整实例

作者:割韭菜的喵酱  发布时间:2023-11-12 20:29:27 

标签:python,爬虫,网页

* 页爬取是爬虫学习中的一个难点。本文将以知名插画网站pixiv为例,简要介绍 * 页爬取的方法。

写在前面

本代码的功能是输入画师的pixiv id,下载画师的所有插画。由于本人水平所限,所以代码不能实现自动登录pixiv,需要在运行时手动输入网站的cookie值。

重点:请求头的构造,json文件网址的查找,json中信息的提取

分析

创建文件夹

根据画师的id创建文件夹(相关路径需要自行调整)。


def makefolder(id): # 根据画师的id创建对应的文件夹
try:
folder = os.path.join('E:\pixivimages', id)
os.mkdir(folder)
return folder
except(FileExistsError):
print('the folder exists!')
exit()

获取作者所有图片的id

访问url:https://pixiv.net/ajax/user/画师id/profile/all(这个json可以在画师主页url:https://www.pixiv.net/users/画师id 的开发者面板中找到,如图:)

Python爬取 * 页中图片的完整实例

json内容:

Python爬取 * 页中图片的完整实例

将json文档转化为python的字典,提取对应元素即可获取所有的插画id。


def getAuthorAllPicID(id, cookie): # 获取画师所有图片的id
url = 'https://pixiv.net/ajax/user/' + id + '/profile/all' # 访问存有画师所有作品
headers = {
'User-Agent': user_agent,
'Cookie': cookie,
'Referer': 'https://www.pixiv.net/artworks/'
# referer不能缺少,否则会403
}
res = requests.get(url, headers=headers, proxies=proxies)
if res.status_code == 200:
resdict = json.loads(res.content)['body']['illusts'] # 将json转化为python的字典后提取元素
return [key for key in resdict] # 返回所有图片id
else:
print("Can not get the author's picture ids!")
exit()

获取图片的真实url并下载

访问url:https://www.pixiv.net/ajax/illust/图片id?lang=zh,可以看到储存有图片真实地址的json:(这个json可以在图片url:https://www.pixiv.net/artworks/图片id 的开发者面板中找到)

Python爬取 * 页中图片的完整实例

用同样的方法提取json中有用的元素:


def getPictures(folder, IDlist, cookie): # 访问图片储存的真实网址
for picid in IDlist:
url1 = 'https://www.pixiv.net/artworks/{}'.format(picid) # 注意这里referer必不可少,否则会报403
headers = {
'User-Agent': user_agent,
'Cookie': cookie,
'Referer': url1
}
url = 'https://www.pixiv.net/ajax/illust/' + str(picid) + '?lang = zh' #访问储存图片网址的json
res = requests.get(url, headers=headers, proxies=proxies)
if res.status_code == 200:
data = json.loads(res.content)
picurl = data['body']['urls']['original'] # 在字典中找到储存图片的路径与标题
title = data['body']['title']
title = changeTitle(title) # 调整标题
print(title)
print(picurl)
download(folder, picurl, title, headers)
else:
print("Can not get the urls of the pictures!")
exit()

def changeTitle(title): # 为了防止
global i
title = re.sub('[*:]', "", title) # 如果图片中有下列符号,可能会导致图片无法成功下载
# 注意可能还会有许多不能用于文件命名的符号,如果找到对应符号要将其添加到正则表达式中
if title == '無題': # pixiv中有许多名为'無題'(日文)的图片,需要对它们加以区分以防止覆盖
title = title + str(i)
i = i + 1
return title

def download(folder, picurl, title, headers): # 将图片下载到文件夹中
img = requests.get(picurl, headers=headers, proxies=proxies)
if img.status_code == 200:
with open(folder + '\\' + title + '.jpg', 'wb') as file: # 保存图片
print("downloading:" + title)
file.write(img.content)
else:
print("download pictures error!")

完整代码


import requests
from fake_useragent import UserAgent
import json
import re
import os

global i
i = 0
ua = UserAgent() # 生成假的浏览器请求头,防止被封ip
user_agent = ua.random # 随机选择一个浏览器
proxies = {'http': 'http://127.0.0.1:51837', 'https': 'http://127.0.0.1:51837'} # 代理,根据自己实际情况调整,注意在请求时一定不要忘记代理!!

def makefolder(id): # 根据画师的id创建对应的文件夹
try:
folder = os.path.join('E:\pixivimages', id)
os.mkdir(folder)
return folder
except(FileExistsError):
print('the folder exists!')
exit()

def getAuthorAllPicID(id, cookie): # 获取画师所有图片的id
url = 'https://pixiv.net/ajax/user/' + id + '/profile/all' # 访问存有画师所有作品
headers = {
'User-Agent': user_agent,
'Cookie': cookie,
'Referer': 'https://www.pixiv.net/artworks/'
}
res = requests.get(url, headers=headers, proxies=proxies)
if res.status_code == 200:
resdict = json.loads(res.content)['body']['illusts'] # 将json转化为python的字典后提取元素
return [key for key in resdict] # 返回所有图片id
else:
print("Can not get the author's picture ids!")
exit()

def getPictures(folder, IDlist, cookie): # 访问图片储存的真实网址
for picid in IDlist:
url1 = 'https://www.pixiv.net/artworks/{}'.format(picid) # 注意这里referer必不可少,否则会报403
headers = {
'User-Agent': user_agent,
'Cookie': cookie,
'Referer': url1
}
url = 'https://www.pixiv.net/ajax/illust/' + str(picid) + '?lang = zh' #访问储存图片网址的json
res = requests.get(url, headers=headers, proxies=proxies)
if res.status_code == 200:
data = json.loads(res.content)
picurl = data['body']['urls']['original'] # 在字典中找到储存图片的路径与标题
title = data['body']['title']
title = changeTitle(title) # 调整标题
print(title)
print(picurl)
download(folder, picurl, title, headers)
else:
print("Can not get the urls of the pictures!")
exit()

def changeTitle(title): # 为了防止
global i
title = re.sub('[*:]', "", title) # 如果图片中有下列符号,可能会导致图片无法成功下载
# 注意可能还会有许多不能用于文件命名的符号,如果找到对应符号要将其添加到正则表达式中
if title == '無題': # pixiv中有许多名为'無題'(日文)的图片,需要对它们加以区分以防止覆盖
title = title + str(i)
i = i + 1
return title

def download(folder, picurl, title, headers): # 将图片下载到文件夹中
img = requests.get(picurl, headers=headers, proxies=proxies)
if img.status_code == 200:
with open(folder + '\\' + title + '.jpg', 'wb') as file: # 保存图片
print("downloading:" + title)
file.write(img.content)
else:
print("download pictures error!")

def main():
global i
id = input('input the id of the artist:')
cookie = input('input your cookie:') # 半自动爬虫,需要自己事先登录pixiv以获取cookie
folder = makefolder(id)
IDlist = getAuthorAllPicID(id, cookie)
getPictures(folder, IDlist, cookie)

if __name__ == '__main__':
main()

效果

Python爬取 * 页中图片的完整实例

总结

来源:https://blog.csdn.net/m0_51908955/article/details/114459226

0
投稿

猜你喜欢

  • 去过新浪或者搜狐吗?虽然我们都不愿意看广告,但是它们做广告的技术我们却应该学到手,这不,又一种很流行的做法儿,做成那种两边对称的对联式的广告
  • 这篇文章主要介绍了Python input函数使用实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋
  • SQL Server创建临时表:创建临时表       方法一: &n
  • 什么是存储过程呢?定义:将常用的或很复杂的工作,预先用SQL语句写好并用一个指定的名称存储起来, 那么以后要叫数据库提供与已定义好的存储过程
  • 简单的2048小游戏不多说,直接上图,这里并未实现GUI之类的,需要的话,可自行实现:接下来就是代码模块,其中的2048游戏原来网络上有很多
  • CREATE OR REPLACE PROCEDURE PROCSENDEMAIL(P_TXT       &
  • 数据标准化(归一化)处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之
  • AdobeAdobe公司的标识1982年,40多岁的程序员约翰·沃诺克(John Warnock)和查尔斯·杰斯克(Charles Gesc
  • 我们用Select的onchange事件时,常会遇到这样一个问题,那就是连续选相同一项时,不触发onchange事件.select的onch
  • 需求背景假设我们想设计一个定时任务,比如每天定时的用python来测试服务是否在正常运行,但是又不希望每天登录到系统后台去查看服务状态。这里
  • 今天在开发一个手机短信通讯录的前端界面时,界面中使用了checkbox,来做为各项的选择控件,但是操作时,除了点差子。由于逻辑需要,需要预先
  • 在项目中,尤其是pc端的时候,我们在用户登录后会给前端返回一个标识,来判断用户是否登录,这个标识大多数都是用户的id   
  • 第1章 argparse简介1.1 解析argparse 模块是 Python 内置的一个用于命令项选项与参数解析的模块
  • 假设你的变量叫做 MyArray,我们可作如下处理:Dim strDim strDelimiterstrDelimite
  • 本文实例讲述了django实现分页的方法。分享给大家供大家参考。具体如下:Python代码如下:#!/usr/bin/env python#
  • 无限循环如果条件判断语句永远为 true,循环将会无限的执行下去。如下实例#!/usr/bin/python# -*- coding: UT
  • 废话不多说,直接上代码吧!# -*- coding: utf-8 -*-import cv2import numpy as np# ----
  • 在自己的网站主页上增加社会化分享按钮,是有效提高自己网站流量的一种方法。今天我在无争围棋网上增加了社会化按钮,根据我个人的习惯,我选择了豆瓣
  • 前段时间自学了python,作为新手就想着自己写个东西能练习一下,了解到python编写爬虫脚本非常方便,且最近又学习了MongoDB相关的
  • 有时我们不希望某个类天生就非常庞大,一次性包含许多职责。那么我们就可以使用装饰着模式。 装饰着模式可以动态地给某个对象添加一些额外的职责,从
手机版 网络编程 asp之家 www.aspxhome.com