当前位置: 首页 > news >正文

使用网络爬虫简单爬取页面信息

这里展示的代码是将从网页获取的数据并转换为csv文件的示例。

import csv
import requests
import jsondef get_direction(id):headers2 = {"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"}param = {'id': f'{id}'}url2 = "https://onquadro.cs.put.poznan.pl/api/Tetrad/GetListOfTetrads"response2 = requests.get(url2, params=param, headers=headers2)data = response2.json()direction_value = data[0]['direction']return direction_value#向url请求数据并获取响应数据
headers={
"user-agent":
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
}
url="https://onquadro.cs.put.poznan.pl/api/Quadruplex/GetQuadruplexes"
response=requests.get(url,headers=headers)#将响应数据转换为python对象
datas = json.loads(response.text)# 定义 CSV 文件的列名
fieldnames = ["id", "pdbId", "pdbDeposition", "assemblyId", "molecule", "experiment","sequence", "ion", "ion_charge", "typeOfStrands", "type", "onzmClass","numberOfTetrads", "loopTopology", "tetradCombination", "direction"
]# 打开 CSV 文件并写入数据
with open('output.csv', 'w', newline='') as csvfile:writer = csv.DictWriter(csvfile, fieldnames=fieldnames)# 写入表头writer.writeheader()# 遍历数据并写入每一行for item in datas:item['direction']=get_direction(item['id'])writer.writerow(item)print("数据已成功写入 CSV 文件 'output.csv'")

由于我要获取的数据存在于多个url(一个涵盖所有条数据的url以及每条数据单独属性的url),所以在将url1(涵盖所有条数据的url)中获取到的响应数据写入的过程中去单独获取了属于该条数据在url2中的属性值并同时写入。


http://www.mrgr.cn/news/57128.html

相关文章:

  • 10.23六级翻译
  • Kubernetes:(一)基本概念
  • 006 详解类型、变量与对象 上
  • 论当前的云计算
  • 树莓派4B快速部署Samba服务
  • 算法-二叉树的最大路径和
  • 力扣 简单 70.爬楼梯
  • 排序(Sort)
  • 设计模式学习
  • 电脑便签,Windows桌面待办事项便利贴哪个适合职场办公?
  • 基于信号分解和多种深度学习结合的上证指数预测模型
  • 实验4 线性回归
  • 基于FFT + CNN -Transformer时域、频域特征融合的电能质量扰动识别模型
  • NotesGPT:开源 AI 语音笔记工具,实现自动多语言转录、总结和任务生成
  • 基于ADC方法的系统效能评估代码实现
  • solidworks许可证将于30天过期或者提示产品激活
  • 【vue】树的初始化展开
  • AD如何制作原理图的模版、原理图模板绘制修改以及如何导入原理图模版
  • MySQL 索引
  • Linux下的基本指令