-
當前位置:首頁 > 創(chuàng)意學院 > 營銷推廣 > 專題列表 > 正文
python 數據接口包(python數據接口設計)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于python 數據接口包的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內容,有小程序、在線網頁版、PC客戶端和批量生成器
本文目錄:
python怎么做接口測試工具
之前使用過urllib和urllib2做接口測試,在做的途中,感覺使用urllib2直接進行的get,post 請求并沒有那么好用。作為測試人員,所需要的測試工具應當以方便為第一要務,測試的耗時只要是真正的無人值守,耗時不是太久的都可以接受。所以,本人又嘗試了一個新的包:requests。
Requests 是用Python語言編寫,基于 urllib,采用 Apache2 Licensed 開源協議的 HTTP 庫。它比 urllib 更加方便,可以節(jié)約我們大量的工作,完全滿足 HTTP 測試需求。Requests 的哲學是以 PEP 20 的習語為中心開發(fā)的,所以它比 urllib 更加 Pythoner。更重要的一點是它支持 Python3 !推薦一篇文章,上面有該包的詳細說明 傳送門,以下只會寫到我用到的部分,所以更多的了解需要自己去搜資料
好了,我們開始吧!!
接口測試中重要的部分:
1.get和post方法
2.用到的參數
3.請求頭
4.cookie
5.日志輸出
6.如何調試你的程序--借助fiddler
按照以上的順序,我將一一說明我的搞法,因為編碼能力有限,所以可能看著很low
一、get和post
requests包很好的實現了post和get方法,示例:
1 import requests2 response_get = requests.get(url, data, headers, cookies)3 response_post = requests.post(url, data, headers, cookies)
其他的訪問方式如put,head等等,用法幾乎都是如此,因為沒用到,所以省略
現在一般的接口返回值有頁面和json倆種,按照需求,可以分別使用response.text或者response.content獲取,text獲取的是unicode類型的返回值,而content返回值是str類型,所以我一般使用content來獲取返回值,因為這樣獲取的返回值可以直接使用正則或者in的方式來驗證返回值結果是否正確。
我自己為了實現接口的自動訪問,所以又在requests上面加了一層封裝,就像下面這樣:
1 def main_get(list_result, cookies): 2 """ 3 用于模擬get請求,返回結果 4 :param list_result:空列表,用于存儲結果 5 :param cookies: 登陸后的cookie 6 :return:訪問結果 7 """ 8 # List_interface_get寫在接口文件里,文件是py格式,然而它本身是字典類型 9 for key in List_interface_get:10 try:11 f1 = requests.get(key, cookies=cookies)12 if f1:13 print f1.content14 print List_interface_get[key]+'接口訪問成功'15 split_line()16 list_result.append(f1.content+'||'+key)17 # print f1.read()18 except AssertionError:19 print 'One Error in get'20 pass21 return list_result22 23 24 def main_post(result_list, url_list, param_list, payload_list, note_list, cookies):25 """26 模擬post請求27 :param result_list: 結果字典28 :param url_list: 接口字典29 :param param_list: 入參字典30 :param payload_list: header字典31 :param notelist: 描述字典32 :param cookies: 登錄獲取的cookie33 :return:填充完成的結果列表34 """35 36 # post這塊寫的比較low,最好自己搞一個數據結構把它搞定37 for key in range(1, 9):38 a = requests.post(url=url_list[key], data=param_list[key], headers=payload_list[key], cookies=cookies)39 try:40 if a.content:41 print a.content42 print note_list[key]+'接口訪問成功'43 split_line()44 result_list.append(a.content+'||'+url_list[key])45 except AssertionError:46 print 'One Error in post'47 pass48 return result_list
二、用到的參數以及請求頭
我用的方法是把這些都存放于一個py文件中,當然也可以使用excel或者xml文件,甚至于使用DB。項目緊急,湊合了一下,這里的數據結構主要為了符合上面封裝的函數,直接上代碼看吧
1 BaseURL = 'https://******.com' # 測試環(huán)境 2 # 使用什么數據結構不重要,關鍵看實現方法中怎么解析你的測試數據 3 List_interface_get = { 4 BaseURL+'/api/****/****/****?****=1&****=375': '描述' 5 } 6 # 以下是用于post的接口 7 List_interface_post = { 8 1: BaseURL+'/api/****/****/****/****' 9 }10 # 以下是用于post的數據11 List_post_param = {12 1: 'new=222222&old=111111'13 }14 # 以下是post接口的描述,它是干嘛的15 List_post_note = {16 1: '修改密碼'17 }18 # 以下是post用到的請求頭19 List_post_header= {20 1: {'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8'}21 }
三、cookie
一款產品的接口測試中必定會使用登錄狀態(tài),需要使用cookie實現,之前寫過使用cookiejar獲取cookie,requests中獲取cookie的方法更為簡單,不過首先你得知道是哪個接口set了cookie,不過一般是登錄啦。登錄接口訪問之后set了cookie,那好,就去調用登錄接口,然后拿到搞回來的cookie:
# 只需要這樣??!login = requests.post(login_url, data=login_data, headers=login_header)
cookie = login.cookies
這個cookie就是登錄狀態(tài)了,拿著隨便用,需要登錄的就直接cookies=cookies
四、日志輸出
這里注意看第二步中接口數據,有接口描述,也有接口是啥,第一步中又把content做成返回值了,具體拼接方式自己想吧,東西全有了,想寫啥寫啥,還可以加上獲取本地時間的api獲取接口運行時間,log文件該長啥樣是門學問,這里就不獻丑了。
五、借用fiddler調試你的腳本
requests允許使用代理訪問,這有啥用,真有!fiddler是一款截包改包的工具,而且通過擴展可以進行請求間的比對,這樣讓你的程序訪問的請求和真正正確的請求作對比,為啥我的程序訪問出錯?是不是缺了請求頭?參數是不是丟了?cookie是不是少了?很容易看出來。寫法如下:
proxies = { "http": "http://127.0.0.1:8888", "https": "http://127.0.0.1:8888"}
requests.post(url, proxies=proxies)
這樣就可以走代理了,除fiddler以外還有charles和burp suite可以使用,具體看個人喜好吧。
在財經領域使用大數據分析技術主要運用的是pandas嗎
大數據分析進階之python財經數據抓取Python常用數據分析包:
Pandas:數據分析
Nltk:自然語言處理
Scikit:人工智能和機器學習
Numpy/scipy:矢量數據和科學計算
Sympy:符號計算
Gpu:并行超速運算
Opencv:圖像視頻處理
TVTK/mayavi:可視化
財經數據接口包
Pandas
Python Data Analysis Library 或 是基于NumPy 的一種工具,是python的一個數據分析包。
Pandas最初被作為金融數據分析工具而開發(fā)出來,因此,pandas為時間序列分析提供了很好的支持。
Pandas的名稱來自于面板數據(panel data)和python數據分析(data analysis)。
Pandas返回的數據格式都是pandas DataFrame類型,非常便于用pandas/NumPy/Matplotlib進行數據分析和可視化。
使用pandas自帶財經數據接口,能夠獲取雅虎財經、世界銀行等財經數據。
TuShare
TuShare是一個免費、開源的python財經數據接口包。
主要實現對股票等金融數據從數據采集、清洗加工到數據存儲的過程,能夠為金融分析人員提供快速、整潔和多樣的便于分析的數據,為他們在數據來源方面極大地減輕了工作量,使他們更加專注于策略和模型的研究與實現上。

TuShare返回的絕大部分的數據格式都是pandas DataFrame類型,非常便于用pandas/NumPy/Matplotlib進行數據分析和可視化。
使用TuShare自帶財經數據接口,能夠獲取新浪財經的證券、宏觀等財經數據。
使用TuShare自帶財經數據接口,能夠獲取即時新浪財經數據、新浪股吧數據、個股信息地雷數據等數據。
接口簡單易懂,返回的數據格式規(guī)整,非常便于處理分析!
數據挖掘實驗室
持續(xù)追蹤大數據和數據新聞前沿,通過自然語言處理、機器學習、R等大數據處理手段和D3、Echarts等數據可視化方法,玩轉大數據驅動新聞。
tushare的接口怎么樣使用?
Tushare簡介Tushare金融大數據開放社區(qū),免費提供各類金融數據和區(qū)塊鏈數據,助力智能投資與創(chuàng)新型投資。網址:https://tushare.pro/register?reg=527754
注:推廣一下分享鏈接,幫我攢點積分,你好我也好 ^_^ 。
python環(huán)境安裝
強烈建議使用Anaconda,Anaconda的安裝見:https://tushare.pro/document/1?doc_id=29
python的IDE我使用vscode,在Anaconda主界面中直接打開vscode,它會幫你設置好環(huán)境,簡單方便。
tushare庫安裝
打開vscode的[查看]->[終端],輸入 pip install tushare 即可安裝tushare。輸入 pip install tushare --upgrade 即可更新tushare。缺少或者更新其他python庫,參照這個方法即可。
環(huán)境安裝好后,就可以開工了。直接上代碼,這份代碼從Tushare下載股票列表數據,保存為csv文件,同時保存在mssql數據庫中。
注意:在to_sql中的schema參數為數據庫名,需要帶上該數據庫的角色,我使用sa登錄,數據庫隸屬于dbo。使用to_sql不需要創(chuàng)建表,pandas會自動幫你創(chuàng)建好,也不需要自己寫插入數據的代碼,還是很方便的。如果你在表中增加了主鍵或者唯一索引,有重復數據時批量入庫會失敗。tushare本身是有少量重復數據的。采用逐行入庫的方式速度會比較慢,需要根據業(yè)務自己衡量選擇。
#!/usr/bin/python3
# coding:utf-8
# -*- coding: utf-8 -*-
import time
import datetime
import random
import tushare
import pandas
import pymssql
import sqlalchemy
#需修改的參數
stock_list_file = 'stock_list.csv' #股票列表文件csv
#tushare token
tushare_token='你自己的token'
#數據庫參數
db_host = '127.0.0.1'
db_user = 'sa'
db_password = 'pwd'
db_db = 'quantum'
db_charset = 'utf8'
db_url = 'mssql+pymssql://sa:pwd@127.0.0.1:1433/quantum'
#股票列表
def get_stock_basic() :
print('開始下載股票列表數據')
#獲取tushare
pro = tushare.pro_api()
#下載
data = pro.stock_basic(fields='ts_code,symbol,name,fullname,list_status,list_date,delist_date')
#保存到csv文件
data.to_csv(stock_list_file)
#入庫
engine = sqlalchemy.create_engine(db_url)
try:
#先一次性入庫,異常后逐條入庫
pandas.io.sql.to_sql(data, 'stock_basic', engine, schema='quantum.dbo', if_exists='append', index=False)
except :
#逐行入庫
print('批量入庫異常,開始逐條入庫.')
for indexs in data.index :
line = data.iloc[indexs:indexs+1, :]
try:
pandas.io.sql.to_sql(line, 'stock_basic', engine, schema='quantum.dbo', if_exists='append', index=False, chunksize=1)
except:
print('股票列表數據入庫異常:')
print(line)
finally:
pass
finally:
pass
print('完成下載股票列表數據')
return 1
#全量下載所有股票列表數據
if __name__ == '__main__':
print('開始...')
#初始化tushare
tushare.set_token(tushare_token)
print('獲取股票列表')
get_stock_basic()
print('結束')
用Python能做哪些事情?
Python作為一門膠水語言,其實能做的事非常多,下面我簡單介紹一下,分為八個方面,主要內容如下:
數據處理
Python提供了大量用于數據處理和科學計算的庫,像numpy,scipy,pandas等,對于矩陣計算、線性代數等,numpy可以快速計算并得到結果,pandas內置的DataFrame類型可以快速處理各種常見的文件,像CSV,Excel,JSon等,是數據分析的利器,在數據處理中經常使用:
可視化
Python數據可視化庫也非常豐富,除了經常使用的matplotlib外,還有許多其他可視化庫,像seaborn,pyecharts等,繪制的圖形種類更豐富,更漂亮,代碼量也更少,非常容易學習,對于日常作圖制表來說,是一個非常不錯的選擇:
機器學習
現在機器學習正火,其實Python里面也有現成的機器學習模塊可供學習—scikit-learn,對于常見的機器學習算法,像分類、回歸、聚類、降維等,這個模塊都有現成的代碼可直接使用,非常方便,對于想入門機器學習的朋友來說,這是一個非常不錯的選擇:
神經網絡
神經網絡起源應該比較早了,目前在圖像領域應用比較廣泛,Python也有現成的神經網絡模塊可供使用,比較有名的就是谷歌開源的tensorflow,可以快速構建神經網絡模型,并支持GPU計算,對于科研人員來說,是一個非常不錯的選擇,當然,除此之外,還有更高級的theano,keras等,使用也非常方便:
財經金融
對于想快速獲取股票財經數據的朋友來說,Python也有現成的模塊可供使用—tushare,一個免費、開源的財經數據接口包,可以快速獲取國內股票數據,而且自動整合了數據爬取、清洗到加工的過程,使用起來非常不錯,對于金融分析人員來說,是一個非常不錯的工具:
爬蟲
Python非常適合做網頁爬蟲,像常見的urllib,bs4,requests,lxml等模塊,對于爬取大部分網頁來說非常容易,請求解析于一身,可以快速獲取到我們需要的數據,當然,為了提高開發(fā)效率,避免重復造輪子,Python也提供了一個非常受歡迎的爬蟲框架—scrapy,可定制性更高,用戶只需要添加少量代碼,便可快速啟動爬蟲:
游戲開發(fā)
對于游戲開發(fā)來說,Python也有一個專門的平臺—pygame,專門用于游戲開發(fā),對于開發(fā)小型游戲來說,這是一個非常不錯的選擇,擺脫了低級語言的束縛,代碼量更少也更易學習,對于游戲感興趣的朋友來說,這是一個非常不錯的選擇:
視頻下載
對于視頻下載來說,Python也有一個下載利器—you-get,可以免費快速的下載優(yōu)酷、B站、美拍等網站視頻,不需要登錄,一鍵you-get就可以下載視頻到本地,還支持在線播放功能,除此之外,還可以下載圖片、音頻等文件,是一個非常實用的工具:
目前,就分享這8個方便吧,比較實用也比較有趣,當然,還有許多其他方面的,像Web開發(fā)、桌面GUI、測試、運維、樹莓派等,網上也有相關資料可供參考,感興趣的朋友可以自己搜一下,希望以上分享的內容能對你有所幫助吧
以上就是關于python 數據接口包相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內容。
推薦閱讀:
如何統(tǒng)計詞頻(如何統(tǒng)計詞頻python)
python機器人編程教程(python機器人編程教程 PDF)