首页 >

Python爬取Json数据的示例

后端开发|Python教程Python爬取Json数据的示例
Python爬取Json数据,Python,Json数据
后端开发-Python教程
Python教学栏目介绍爬取Json数据实例
下金理财源码,ubuntu登录界面在哪,爬虫做职业调查,php多人访问,seo.jinhyeoklzw
本文中以爬取其中的AI流转率数据为例。
08分目录源码,ubuntu远程屏幕共享,python 非阻塞爬虫,php mtqq,seo416lzw
该地址返回的响应内容为Json类型,其中红框标记的项即为AI流转率值:
大富翁源码c,vscode 语法 着色,如何找到下载好的ubuntu,重复安装Tomcat,sqlite实现递归查询,wap上传插件,什么是前端响应式框架,企业微信爬虫软件,php 实验,seo_yoon,礼品定制网站源码,pos机网页模板,html静态模板免费下载,lcd12864串口程序lzw
Python爬取Json数据的示例

实现代码如下:

import requestsimport jsonimport csv # 爬虫地址url = 'https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315' # 携带cookie进行访问headers = {'Host':'databank.yushanfang.com','Referer':'https://databank.yushanfang.com/','Connection':'keep-alive','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36','Cookie':'_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg=\"=19\"; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP',} rows = []for n in range(20, 31):  row = []  row.append(n)  for m in range (21, 32):    if m < n + 1:      row.append("")    else:            # 格式化请求地址,更换请求参数      reqUrl = url.format(n, m)            # 打印本次请求地址      print(url)            # 发送请求,获取响应结果      response = requests.get(url=reqUrl, headers=headers, verify=False)      text = response.text            # 打印本次请求响应内容      print(text)            # 将响应内容转换为Json对象      jsonobj = json.loads(text)            # 从Json对象获取想要的内容      toCntPercent = jsonobj['data']['interCrowdInfo'][1]['toCntPercent']            # 生成行数据      row.append(str(toCntPercent)+"%")        # 保存行数据      rows.append(row)  # 生成Excel表头header = ['AI流转率', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31'] # 将表头数据和爬虫数据导出到Excel文件with open('D:\\res\\pachong\\tmall.csv', 'w', encoding='gb18030') as f :  f_csv = csv.writer(f)  f_csv.writerow(header)  f_csv.writerows(rows)
import csvimport jsonimport sslimport urllib.request # 爬虫地址url = 'https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315' # 不校验证书ssl._create_default_https_context = ssl._create_unverified_context # 携带cookie进行访问headers = {'Host':'databank.yushanfang.com','Referer':'https://databank.yushanfang.com/','Connection':'keep-alive','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36','Cookie':'_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg=\"=19\"; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP',} rows = []n = 20while n <31:  row = []  row.append(n)    m =21  while m <32:        if m < n + 1:      row.append("")    else:            # 格式化请求地址,更换请求参数      reqUrl = url.format(n, m)            # 打印本次请求地址      print(reqUrl)            # 发送请求,获取响应结果      request = urllib.request.Request(url=reqUrl, headers=headers)      response = urllib.request.urlopen(request)      text = response.read().decode('utf8')            # 打印本次请求响应内容      print(text)            # 将响应内容转换为Json对象      jsonobj = json.loads(text)            # 从Json对象获取想要的内容      toCntPercent = jsonobj['data']['interCrowdInfo'][1]['toCntPercent']            # 生成行数据      row.append(str(toCntPercent) + "%")          m = m+1      rows.append(row)      n = n+1  # 生成Excel表头header = ['AI流转率', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31'] # 将表头数据和爬虫数据导出到Excel文件with open('D:\\res\\pachong\\tmall.csv', 'w', encoding='gb18030') as f :  f_csv = csv.writer(f)  f_csv.writerow(header)  f_csv.writerows(rows)

导出内容如下:

Python爬取Json数据的示例

到此这篇关于使用Python爬取Json数据的文章就介绍到这了。


Python爬取Json数据的示例
  • 有关$.ajax()方法中如何从服务器获取json数据
  • 有关$.ajax()方法中如何从服务器获取json数据 | 有关$.ajax()方法中如何从服务器获取json数据 ...

    Python爬取Json数据的示例
  • jQuery对JSON数据进行排序输出办法【jquery】
  • jQuery对JSON数据进行排序输出办法【jquery】 | jQuery对JSON数据进行排序输出办法【jquery】 ...

    Python爬取Json数据的示例
  • jquery序列化form表单使用ajax提交后处理返回的json数据【jquery】
  • jquery序列化form表单使用ajax提交后处理返回的json数据【jquery】 | jquery序列化form表单使用ajax提交后处理返回的json数据【jquery】 ...