python requests.post带head和body的实例
作者:差不多的人生 发布时间:2022-07-12 01:22:59
标签:python,requests,post,head,body
如下所示:
# coding = utf-8
import requests
import json
host = "http://47.XX.XX.XX:30000"
endpoint=r"/api/v1/carXX/addCarXX"
url = ''.join([host,endpoint])
headers = \
{
"X-Member-Id": "23832170000",
"X-Region": "1100000",
"X-Channel": "01",
"Content-Type": "application/json;charset=UTF-8"
}
body = \
{
"designerId": "1111",
"itemQuantity": 1,
"sku": "000100000"
}
r = requests.post(url,headers=headers,data=json.dumps(body))
#r = requests.post(url,headers=headers,json=body)
print r.text
print r.url
来源:https://blog.csdn.net/a2853963242/article/details/80420368


猜你喜欢
- 当我们修改一份代码的时候,也许会碰到修改后的代码还不如修改之前的代码能够满足自己的需求,那么这个时候我们就需要对代码进行回滚,下面我们来看一
- 四、XML应用分类 总的说来的XML的应用可分为四类: (1)应用于客户需要与不同的数据源进行交互时。数据可能来自不同的数据库,他们都有各自
- 有一张错误上报表,下面只将与本文相关的字段罗列如下:上报人(ReportPerson)、上报错误ID(ErrorID)、上报时间(Repor
- 本文实例讲述了python sqlite的Row对象操作。分享给大家供大家参考,具体如下:一 代码import sqlite3conn=sq
- numpy中有一个掩码数组的概念,需要通过子模块numpy.ma来创建,基本的创建方式如下>>> import numpy
- 前言在我们抓取网页内容的时候,通常是抓取一整个页面的内容,而我们仅仅只是需要该网页中的部分内容,那该如何去提取呢?本章就带你学习xpath插
- 听说有个面试题是: 如何快速向mysql中插入1000w条数据?我私下试了一下, 发现插入10000条数据用了0.9s, 插入10w条数据用
- 前言Python用做数据处理还是相当不错的,如果你想要做爬虫,Python是很好的选择,它有很多已经写好的类包,只要调用,即可完成很多复杂的
- 很多程序绕过这个问题,往往人工来决定在何处截断,太麻烦了。 实现内容:截断一段含有HTML代码的文本,但是不会出现围堵标记没有封闭的问题。
- 要使数据库具备更强的抵御侵犯的能力,你要采取几步措施。有些措施只是良好的服务器管理的一部分,如拥有SQL Server最新的补丁,其他则包括
- 有时候,预先不知道函数需要接受多少个实参,好在Python允许函数从调用语句中调用语句中收集任意数量的实参。在参数前加上*号。来看一个制作披
- PHP信息函数包含的一些函数概念总结如下。PHP信息函数之getenv适用版本:PHP3, PHP4函数功能:取得环境变量数值。函数语法:s
- 本文实例为大家分享了python获取本机所有IP地址的具体代码,供大家参考,具体内容如下import socket# 查看当前主机名prin
- 目录2048游戏输出项目先决条件创建main.py解释:1.Board:2.game:总结2048游戏输出项目先决条件前提条件如下:1. P
- 如下所示:x = file('1.txt','r')print x.tell() #显示当前光标位置x.se
- 本文介绍了node.js用fs.rename强制重命名或移动文件夹的方法,首先介绍了rename的用法,具体如下:【重命名文件夹】// re
- 在settings.py中将默认内容覆盖成DATABASES = {'default': {
- 新下载了一个Pycharm,建了个小demo,期间产生了一个sqlite3文件,由于是第一次打开,就弹出选择打开方式的对话框,手一块直接点了
- 最近在学web自动化,记录一下学习过程。此处我选用python3.6+selenium3.0,均用最新版本,以适应未来需求。环境:windo
- 最近在学爬虫时发现许多网站都有自己的反爬虫机制,这让我们没法直接对想要的数据进行爬取,于是了解这种反爬虫机制就会帮助我们找到解决方法。常见的