python自动从arxiv下载paper的示例代码
作者:dangxusheng 发布时间:2021-11-21 04:30:27
标签:python,paper,arxiv
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2020/02/11 21:44
# @Author : dangxusheng
# @Email : dangxusheng163@163.com
# @File : download_by_href.py
'''
自动从arxiv.org 下载文献
'''
import os
import os.path as osp
import requests
from lxml import etree
from pprint import pprint
import re
import time
import glob
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.87 Safari/537.36",
"Host": 'arxiv.org'
}
HREF_CN = 'http://cn.arxiv.org/pdf/'
HREF_SRC = 'http://cn.arxiv.org/pdf/'
SAVE_PATH = '/media/dangxs/E/Paper/download_at_20200730'
os.makedirs(SAVE_PATH, exist_ok=True)
FAIL_URLS = []
FAIL_URLS_TXT = f'{SAVE_PATH}/fail_urls.txt'
def download(url, title):
pattern = r'[\\/:*?"\'<>|\r\n]+'
new_title = re.sub(pattern, " ", title)
print(f'new title: {new_title}')
save_filepath = '%s/%s.pdf' % (SAVE_PATH, new_title)
if osp.exists(save_filepath) and osp.getsize(save_filepath) > 50 * 1024:
print(f'this pdf is be existed.')
return True
try:
with open(save_filepath, 'wb') as file:
# 分字节下载
r = requests.get(url, stream=True, timeout=None)
for i in r.iter_content(2048):
file.write(i)
if osp.getsize(save_filepath) >= 10 * 1024:
print('%s 下载成功.' % title)
return True
except Exception as e:
print(e)
return False
# 从arxiv.org 去下载
def search(start_size=0, title_keywords='Facial Expression'):
# 访问地址: https://arxiv.org/find/grp_eess,grp_stat,grp_cs,grp_econ,grp_math/1/ti:+Face/0/1/0/past,2018,2019/0/1?skip=200&query_id=1c582e6c8afc6146&client_host=cn.arxiv.org
req_url = 'https://arxiv.org/search/advanced'
req_data = {
'advanced': 1,
'terms-0-operator': 'AND',
'terms-0-term': title_keywords,
'terms-0-field': 'title',
'classification-computer_science': 'y',
'classification-physics_archives': 'all',
'classification-include_cross_list': 'include',
'date-filter_by': 'date_range', # date_range | specific_year
# 'date-year': DOWN_YEAR,
'date-year': '',
'date-from_date': '2015',
'date-to_date': '2020',
'date-date_type': 'announced_date_first', # submitted_date | submitted_date_first | announced_date_first
'abstracts': 'show',
'size': 50,
'order': '-announced_date_first',
'start': start_size,
}
res = requests.get(req_url, params=req_data, headers=headers)
html = res.content.decode()
html = etree.HTML(html)
total_text = html.xpath('//h1[@class="title is-clearfix"]/text()')
total_text = ''.join(total_text).replace('\n', '').lstrip(' ').strip(' ')
# i.e. : Showing 1–50 of 355 results
num = re.findall('\d+', total_text)
# Sorry, your query returned no results
if len(num) == 0: return [], 0
total = int(num[-1]) # 查询总条数
paper_list = html.xpath('//ol[@class="breathe-horizontal"]/li')
info_list = []
for p in paper_list:
title = p.xpath('./p[@class="title is-5 mathjax"]//text()')
title = ''.join(title).replace('\n', '').lstrip(' ').strip(' ')
href = p.xpath('./div/p/a/@href')[0]
info_list.append({'title': title, 'href': href})
return info_list, total
# 去指定页面下载
def search_special():
res = requests.get('https://gitee.com/weberyoung/the-gan-zoo?_from=gitee_search')
html = res.content.decode()
html = etree.HTML(html)
paper_list = html.xpath('//div[@class="file_content markdown-body"]//li')
info_list = []
for p in paper_list:
title = p.xpath('.//text()')
title = ''.join(title).replace('\n', '').lstrip(' ').strip(' ')
href = p.xpath('./a/@href')[0]
info_list.append({'title': title, 'href': href})
pprint(info_list)
return info_list
if __name__ == '__main__':
page_idx = 0
total = 1000
keywords = 'Facial Action Unit'
while page_idx <= total // 50:
paper_list, total = search(page_idx * 50, keywords)
print(f'total: {total}')
if total == 0:
print('no found .')
exit(0)
for p in paper_list:
title = p['title']
href = HREF_CN + p['href'].split('/')[-1] + '.pdf'
print(href)
if not download(href, title):
print('从国内镜像下载失败,从源地址开始下载 >>>>')
# 使用国际URL再下载一次
href = HREF_SRC + p['href'].split('/')[-1] + '.pdf'
if not download(href, title):
FAIL_URLS.append(p)
page_idx += 1
# 下载最后的部分
last_1 = total - page_idx * 50
paper_list, total = search(last_1, keywords)
for p in paper_list:
title = p['title']
href = HREF_CN + p['href'].split('/')[-1] + '.pdf'
if not download(href, title):
FAIL_URLS.append(p)
time.sleep(1)
pprint(FAIL_URLS)
with open(FAIL_URLS_TXT, 'a+') as f:
for item in FAIL_URLS:
href = item['href']
title = item['title']
f.write(href + '\n')
print('done.')
来源:https://www.cnblogs.com/dxscode/p/13406238.html


猜你喜欢
- drop PROCEDURE if exists my_procedure; create PROCEDURE my_procedure()
- 今天看YUI的视频教程,YUI的工程师介绍的一款在线的图片压缩工具,也许你用过,也许没有,不过我这里强烈推荐大家用一下,我用smush.it
- PHP fprintf() 函数实例把一些文本写入到名为 "test.txt" 的文本文件:<?php $numb
- 便携文档格式 (PDF) 是由 Adobe 开发的格式,主要用于呈现可打印的文档,其中包含有 pixel-perfect 格式,嵌入字体以及
- 前言终于能够挤出一点时间来总结最近学到的一些技术知识点了,博主这两周被居家隔离-集中隔离-居家隔离来回折腾,现在终于是得到解放能够空出的时间
- 最近在改一个页面,原来的编码是gb2312,为了国际化,改成utf-8,开始时浏览还是正常。因为电脑偶感小恙,于是恢复了系统,这才发现改后的
- 一、错误代码:摘要和详细的url获取不到import asynciofrom bs4 import BeautifulSoupimport
- 目录前言场景分析总结前言前几天,有位朋友微信联系我,告知一个生产数据库,在机器宕机恢复后,实例启动失败,而且该实例没有做任何的高可用、容灾、
- 子类在多继承中使用MRO机制在Python中,当定义一个类时,可以指定它的父类。一个子类继承了其所有父类的属性和方法,并且可以添加自己特有的
- 公共的抽象基类import numpy as npfrom abc import ABCMeta, abstractmethodclass
- 快速测试创建项目与appdjango-admin startproject mysitedjango-admin startapp app1
- 一、基础介绍Go 是静态(编译型)语言,是区别于解释型语言的弱类型语言(静态:类型固定,强类型:不同类型不允许直接运算)例如 python
- 本文讲解如何用java实现把数据库的数据写入到txt中 并实现类似下载软件的样子在网页中弹出下载.package datatest;impo
- 不知道有多少人是被这个头图骗进来的:)事情的起因是这样的,上周有同学问小编,看着小编的示例代码敲代码,感觉自己也会写了,如果不看的话,七七八
- 简介:倒计时秒杀组件在电商网站中层出不穷 不过思路万变不离其踪,我自己根据其他资料设计了一个vue版的核心思路:1、时间不能是本
- 想学习Python的人都会有一个困惑,那就是Python目前有两个版本Python2和Python3,Python2与Python3有何区别
- 代码如下:Create trigger tri_wk_CSVHead_History on wk_CSVHead_History --声明
- 引言做接口测试中,对于一般性的单业务接口测试很多工具可供选择,但是对于一些相关业务相关性的关联接口测试就比较麻烦,使用工具比如jmeter、
- 1.申明一个数组 var a[2] int 或者 a:=[2]int{1,2}2.数组索引数组就是索引的来建立如下图我们再来一个测试3.go
- icech: 在制作网页的时候,常常要遇到制作虚线表格的问题,下面的文章就能解决这个问题。方法一:作一个1X2的图。半黑半白,再利用表格作成