Python3.6实现根据电影名称(支持电视剧名称),获取下载链接的方法
作者:zhizunyu2009 发布时间:2023-06-15 21:26:42
标签:Python3.6,电影,下载链接
本文实例讲述了Python3.6实现根据电影名称(支持电视剧名称),获取下载链接的方法。分享给大家供大家参考,具体如下:
做个笔记
(python 3.6,django 2.0)
def get_url(outer_order_id):
refundId = get_refundId(outer_order_id)
host_url = 'http://test.shequ.com/order/agreeRefund?'
reason_list = ['商品已售完','重复订单','没有骑手接单','联系不上顾客','顾客需要重新下单']
reason = random.choice(reason_list)
api_data = {
'reason':reason,
'refundId':refundId,
'sendType':0
}
url = host_url + parse.urlencode(api_data)
return url
print(get_url('3086123456'))
http://test.shequ.com/order/agreeRefund?reason=%E9%87%8D%E5%A4%8D%E8%AE%A2%E5%8D%95&refundId=1170611&sendType=0
# -*- coding: utf-8 -*-
import urllib
from bs4 import BeautifulSoup
import re
#访问url,返回html页面
def get_html(url):
req = urllib.request.Request(url)
req.add_header('User-Agent','Mozilla/5.0')
response = urllib.request.urlopen(url)
html = response.read()
return html
def get_movie_url(movie_name):#根据电影名称,生成搜索结果的URL
host_url = 'http://s.dydytt.net/plus/search.php?kwtype=0&keyword='
movie_sign = urllib.parse.quote(movie_name.encode('GBK'))
search_url = host_url + movie_sign
return search_url
#从搜索结果页面,提取电影的详情页面链接,存入列表返回
def get_movie_list(url):
m_list = []
html = get_html(url)
soup = BeautifulSoup(html,'html.parser')
fixed_html = soup.prettify()
a_urls = soup.find_all('a')
host = "http://www.ygdy8.com"
for a_url in a_urls:
m_url = a_url.get('href')
m_url = str(m_url)
if re.search(r'\d{8}',m_url) and (host not in m_url):
m_list.append(host + m_url)
return m_list
#从电影详情页面中获取电影标题
def get_movie_title(html):
soup=BeautifulSoup(html,'html.parser')
fixed_html=soup.prettify()
title=soup.find('h1')
title=title.string
return title
#从电影详情页面中获取此页面所有的的下载链接
def get_movie_download_url(html):
soup = BeautifulSoup(html,'html.parser')
fixed_html = soup.prettify()
td = soup.find_all('td',attrs={'style':'WORD-WRAP: break-word'})
down_urls = []
for t in td:
down_urls.append(t.a.get('href'))
return down_urls
#传入电影列表,获取每个电影的下载地址
def get_movie(movie_list):
movie_dict = {}
for i in range(0,len(movie_list)):
html = get_html(movie_list[i])
html = html.decode('GBK','ignore') #忽略编码错误
m_title = get_movie_title(html)
if u'游戏' not in m_title: #过滤游戏
if u'动画' not in m_title: #过滤动画片
m_url_list = get_movie_download_url(html)
for m_url in m_url_list:
movie_dict[m_url] = m_title
return movie_dict
用django展现在页面效果如下:
另一个网站的
# -*- coding: utf-8 -*-
from xpinyin import Pinyin
from bs4 import BeautifulSoup
from urllib import request,error
import time,re
import ssl
ssl._create_default_https_context = ssl._create_unverified_context #关闭https协议验证证书
def get_html(url): #访问url,返回html页面,如果url错误,则返回状态码,一般是404
req = request.Request(url)
req.add_header('User-Agent','Mozilla/5.0')
try:
response = request.urlopen(url)
html = response.read()
return html
except error.HTTPError as e:
return e.code
def get_m_html(movie_name):#根据电影名称,返回正确的电影html
pin = Pinyin()
pinyin_movie_name = pin.get_pinyin(movie_name,"")#不使用分隔符,默认是-
movie_type = {
"Sciencefiction":"科幻片",
"Horror" :"恐怖片",
"Drama" :"剧情片",
"Action" :"动作片",
"Comedy" :"喜剧片",
"Love" :"爱情片",
"War" :"战争片"
}
host = "https://www.kankanwu.com"
for k,v in movie_type.items():
movie_url = host + "/" + k + "/" + pinyin_movie_name + "/"
html = get_html(movie_url)
if isinstance(html,int):
time.sleep(10)
else:
return html
def get_dload_url(html): #从电影html页面中获取下载地址
movie_dict = {}
soup = BeautifulSoup(html,'lxml')
fixed_html = soup.prettify()
a_urls = soup.find_all(href=re.compile("thunder"))#找到含有thunder链接的href
for url in a_urls:
m_title = url.get('title')
m_url = url.get('href')
movie_dict[m_title] = m_url
return movie_dict
希望本文所述对大家Python程序设计有所帮助。
来源:https://blog.csdn.net/zhizunyu2009/article/details/78729851
0
投稿
猜你喜欢
- 1、在全局settings文件中配置```MEDIA_URL = '/media/'MEDIA_ROOT = os.path
- 在mysql安装目录的bin下, 运行mysql --install MYSQL5查看服务中, 会多一个MYSQL5的服务XAMPP的控制面
- 我就废话不多说了,大家还是直接看代码吧~import tensorflow as tfimport syswith tf.variable_
- 前言:看本教程,必须先仔细看前言的内容,否则会进入误区!最近在做个性休闲服装内网站的设计课程,过程中发现,个性元素的应用成为最难的问题,第一
- 1. 检查HTML元素是否有拼写错误、是否忘记结束标记 即使是老手也经常会弄错div的嵌套关系。可以用dreamweaver的验证功能检查一
- “博客就像一本书”这话其实几个月前深圳FB时就有扯到,这也不是什么新概念,也许本身就应该是这样。打个比方,当你拿到一本未看过的书时,理论上你
- 请问鼠标移过去就出现二级菜单代码怎么写啊 <head><style type="tex
- 前面我们讲了 TCP 编程,我们知道 TCP 可以建立可靠连接,并且通信双方都可以以流的形式发送数据。本文我们再来介绍另一个常用的协议–UD
- 在pytorch中一般只对叶节点进行梯度计算,也就是下图中的d,e节点,而对非叶节点,也即是c,b节点则没有显式地去保留其中间计算过程中的梯
- 但是如果在utf-8编码下,一个汉字是占3个字符长度的,比如字符串$str=”你好啊!!”; 如果你用strlen函数来判断,长度是11,正
- 一、若出现404错误,自动跳转到所在目录的首页;二、若当前页本身是目录首页,则自动跳转至上一级目录的默认首页。自定义404页面代码如下:&l
- 文章出处:https://blog.csdn.net/sdksdk0/article/details/80933444作者:朱培
- 本文实例讲述了php遍历CSV类。分享给大家供大家参考。具体如下:<?phpclass CSVIterator implements
- python处理按钮消息的实例详解  
- 1.合并1.1 结构合并将两个结构相同的数据合并1.1.1 concat函数函数配置:concat([dataFrame1, dataFra
- 最近在做文章页盖楼显示的项目,数据来源是跟贴系统生成的UTF8格式的JSON数据。文章页的HTML编码格式是GB2312,在javascri
- 我遇到的情况是:把数据按一定的时间段提出。比如提出每天6:00-8:00的每个数据,可以这样做:# -*-coding: utf-8 -*-
- 通过使用turtle绘画象棋棋盘,供大家参考,具体内容如下# 绘制象棋棋盘import turtlet = turtle.Pen()t.wi
- 模仿IE自动完成功能,支持Firefox.支持方向键操作运行代码框<!DOCTYPE HTML PUBLIC "-//W3C
- 本文实例讲述了Python实现基于KNN算法的笔迹识别功能。分享给大家供大家参考,具体如下:需要用到:Numpy库Pandas库手写识别数据