任务背景:
调用API接口数据,抽取我们所需类型的数据,并写入指定mysql数据库。
先从宏观上看这个任务,并对任务进行分解:
step1:需要学习python下的通过url读取数据的方式;
step2:数据解析,也是核心部分,数据格式从python角度去理解,是字典?列表?还是各种嵌套?
step3:连接mysql数据库,将数据写入。
从功能上看,该数据获取程序可以分为3个方法,即step1对应方法request_data(),step2对应方法parse_data(),step3对应data_to_db()。
第一轮,暂不考虑异常,只考虑正常状态下的功能实现。
1、先看request_data():
import requests def request_data(url): req = requests.get(url, timeout=30) # 请求连接 req_jason = req.json() # 获取数据 return req_jason
入参:url地址;return:获取到的数据。
2、然后看parse_data():
不同的API接口下的数据格式各不相同,需要先理清,打开之后密密麻麻一大串,有的可能连完整的一轮数据间隔在哪都不知道,这时候可以巧用符号{ [ , ] }辅助判断。
梳理之后,发现本接口下的数据格式为,最外层为字典,我们所需的数据在第一个key“data”下,data对应的value为列表,列表中的每个元素为字典,字典中的部分键值
即为我们需要的内容。这样,就明确了我们的数据结构为字典套列表,列表再套字典的格式,最后一层的字典还存在一键多值(比如“weather”)的情况。
当然,还有懒人方法,就是百度json在线解析格式化。
摘取部分数据如下:{"data":[{"timestamp_utc":"2020-08-31T08:00:00","weather":{"icon":"c02d","code":802,
wind_dir":336,"clouds_hi":0,"precip":0.0625},{"timestamp_utc":"2020-08-31T08:00:00","weather":{"icon":"c02d","code":802,},
wind_dir":336,"clouds_hi":0,"precip":0.0625],"city_name":"Dianbu","lon":117.58,"timezone":"Asia\/Shanghai","lat":31.95,"country_code":"CN"}
def parse_data(req_jason): data_trunk = req_jason['data']# 获取data键值下的列表 time_now = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S") #获取当前时刻 for i in range(len(data_trunk)): data_unit = data_trunk[i] # 依次获取列表下第i个元素即字典 del data_unit['weather'] # 删除该字典中不需要的一键多值的key和value,不删除的话会影响后续的dataframe转换,但是,如果该键值需要的话,需要采取其他处理方式 df = pd.DataFrame([data_unit]) # 将删除键值后的字典转为datafrme list_need = ['timestamp_utc', 'wind_dir', 'precip','clouds_hi'] # 列出我们需要的列 df_need = df[list_need] # 保留df中需要的列 10 df_need.insert(0, 'update_time', time_now) #表格中还需额外增加获取数据的当前时间,并且需要放在dataframe的第一列
备注:数据插入数据库,有两种方式,一种是采用insert的sql语句,采用字典的形式插入,另一种是采用dataframe的方式,采用pandas中的to_sql方法。本案例选择了后者,所以在数据解析时,将字典数据转成dataframe格式。
入参:获取到的数据;return值:无
运行以后,发现这样的程序存在一些问题:就是这个for循环括起来的过多,导致写数据库时是一条条写入而不是一整块写入,会影响程序效率,所以需要对程序进行如下修改:
def parse_data(req_jason): data_trunk = req_jason['data']# 获取data键值下的列表 time_now = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S") #获取当前时刻 for i in range(len(data_trunk)): data_unit = data_trunk[i] # 依次获取列表下第i个元素即字典 del data_unit['weather'] # 删除该字典中不需要的一键多值的key和value,不删除的话会影响后续的dataframe转换,但是,如果该键值需要的话,需要采取其他处理方式 df = pd.DataFrame(data_trunk) # 将删除键值后的整个列表套字典转为datafrme list_need = ['timestamp_utc', 'wind_dir', 'precip','clouds_hi'] # 列出我们需要的列 df_need = df[list_need] # 保留df中需要的列 df_need.insert(0, 'update_time', time_now) #表格中还需额外增加获取数据的当前时间,并且需要放在dataframe的第一列
也就是从第7行之后跳出循环;
如果觉得for循环影响整体美观,也可以用map代替,将代码第4/5/6行改为如下代码,不过性能上来说可能还是for循环更好,具体对比可看其他博主的测试,或者自己测试下运行时间。
map(data_trunk.pop, ['weather'])
3. 最后就是data_to_sql():
def data_to_sql(df): table = 'request_data_api' engine = create_engine("mysql+pymysql://" + 'root' + ":" + '123' + "@" + 'localhost' + ":" + '3306' + "/" + 'test' + "") df.to_sql(name=table, con=engine, if_exists='append', index=False, index_label=False)
入参:dataframe类型数据。
当当当,正常部分已完成,就下来就需要想象各种异常以及处理对策。
第二轮,想象各种异常以及异常的记录与处理对策。
1.读取url后,获取不到数据 → 休息几秒,尝试再次重连获取
2.连接数据库异常 → 数据库可能关闭,尝试重新ping,
3.写入数据库的内容为空 → 记录异常,放弃入库
第三轮,让程序定时跑起来。
方法一:在代码中采用apscheduler下的cron功能(trigger='cron‘,类似linux下的crontab)实现定时运行(当然,apscheduler还有另一种trigger=‘interval'模式);
方法二:在linux下的crontab增加定时任务。
具体可以看别的帖子。
以上就是python 调用API接口 获取和解析 Json数据的详细内容,更多关于python 解析数据的资料请关注其它相关文章!
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。