色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在Python中創建API的具體操作

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-11-18 08:58 ? 次閱讀

設想這么一種情況:

你構建了一個非常好的機器學習模型,比方說它可以預測某種交易中是否存在欺詐嫌疑。現在,你的一個朋友正在為某家銀行開發Android APP,他希望能把你的模型集成到他們的產品里,因為你的模型太實用了,性能也格外出色。

但是,那個Android APP是用JAVA寫的,你的模型是用Python寫的。怎么辦?難道你還要花時間花精力用JAVA重新寫一個?

這時候,你就需要一種秘密武器——API。在實踐中,上述情況是把機器學習模型轉換成API的常見需求之一,這一點非常重要,因為現在各行各業都在尋找可以把技術用于生產、經營的數據科學家。本文將介紹創建API的具體操作,具體來說,它主要涵蓋以下內容:

什么是API

Flask基礎入門

構建機器學習模型

保存機器學習模型:序列化和反序列化

用Flask為模型創建API

在Postman中測試API

什么是API

簡單來說,一個API其實就是兩個軟件之間的(假定)契約,如果面向終端用戶的軟件能以預定義的格式提供輸入,另一個軟件就能擴展其功能,并向面向終端用戶的軟件提供輸出結果。——Analytics Vidhya

從本質上講,API非常類似Web應用程序,但前者往往以標準數據交換格式返回數據(如JSON、XML等)。一旦開發人員拿到了所需的輸出,他們就能按照各種需求對它進行設計。現在有很多流行的機器學習API,比如IBM Watson就有以下功能:

機器翻譯:將一種語言的文本輸入翻譯為最終用戶的目標語言,支持英語、葡萄牙語、西班牙語和法語。

Message Resonance:分析草稿內容,并對它被一個特定的目標受眾接受的可能性進行評分。

Q&A:直接根據選定和收集到數據正文或“語料庫”中的主要數據來源,解釋和回答用戶問題。

User Modeling:使用語言分析從一個人的通信方式中提取一組個性和社會特征。

Google Vision API也是一個很好的例子,它主要面向計算機視覺任務。

基本上,大多數云服務提供商都會提供一系列大型、綜合性的API,而以小規模機器學習為重點的企業則提供即用型API。它們都滿足了那些沒有太多機器學習專業知識背景的開發人員/企業的需求,方便他們在流程和產品套件中部署機器學習技術。

在Web開發中,一些比較流行的機器學習API有DialogFlow、Microsoft的Cognitive Toolkit、TensorFlow.js等。

Flask基礎入門

要入門Flask,首先我們得知道什么是Web服務。Web服務是API的一種形式,它假定API通過服務器托管,并且可以被調用。Web API/Web Service——這些術語通常可以互換使用。

Flask是一個用Python編寫的輕量級Web服務框架,當然,它不是Python中的唯一框架,同類競品還有Django、Falcon、Hug等。但本文只介紹如何用Flask創建API。

如果你下載了Anaconda版,里面就已經包含了Flask。如果你想用pip:

pip install flask

你會發現它非常小,這也是它深受Python開發人員喜愛的一個原因。而另一個原因就是Flask框架附帶內置的輕量級Web服務器,需要的配置少,而且可以用Python代碼直接控制。

下面的代碼很好地展示了Flask的簡約性。它創建一個簡單的Web-API,在接收到特定URL時會生成一個特定的輸出。

from flask importFlask

app = Flask(__name__)

@app.route("/")

def hello():

return"Welcome to machine learning model APIs!"

if __name__ == '__main__':

app.run(debug=True)

運行后,你可以在終端瀏覽器中輸入這個網址,然后觀察結果。

一些要點

Jupyter Notebook非常適合處理有關Python、R和markdown的東西。但一旦涉及構建web服務器,它就會出現很多奇怪的bug。所以建議大家最好在Sublime等文本編輯器里編寫Flask代碼,并從終端/命令提示符運行代碼。

千萬不要把文件命名為flask.py。

默認情況下,運行Flask的端口號是5000。有時服務器能在這個端口上正常啟動,但有時,如果你是在Web瀏覽器或任何API客戶端(如Postman)中用URL啟動,它可能會報錯,比如下圖:

根據Flask的提示,這時服務器已經在端口5000上成功啟動了,但是當在瀏覽器中用URL啟動時,它沒有輸出任何內容。因此,這可能是端口號沖突了。在這種情況下,我們可以把默認端口號5000改成所需的端口號,只需輸入app.run(debug=True,port=12345)。

輸入以上代碼后,Flask服務器將如下所示:

現在我們來看看輸入的代碼:

創建Flask實例后,Python會自動生成一個name變量。如果這個文件是作為腳本直接用Python運行的,那么這個變量將為“main”;如果是導入文件,那么“name” 的值將是你導入文件的名稱。例如,如果你有test.py和run.py,并且將test.py導入run.py,那么test.py的“name”值就會是test(app = Flask(test))。

關于上面hello()的定義,可以用@app.route("/")。同時,裝飾器route()可以告訴Flask什么URL可以觸發定義好的hello()。

hello()的作用是在使用API時生成輸出。在這種情況下,在Web瀏覽器轉到localhost:5000/會產生預期的輸出(假設是默認端口)。

如果我們想為機器學習模型創建API,下面是一些需要牢記的東西。

構建機器學習模型

在這里,我們以最常規的Scikit-learn模型為例,介紹一下怎么用Flask學習Scikit-learn模型。首先,我們來回顧一下Scikit-learn的常用模塊:

聚類

回歸

分類

降維

模型選擇

預處理

對于一般數據,我們在進行發送和接收時會涉及將對象轉化為便于傳輸的格式的操作,它們也被稱為對象的序列化(serialization)和反序列化(deserialization)。模型和數據很不一樣,但Scikit-learn剛好支持對訓練模型的序列化和反序列化,這就為我們節省了重新訓練模型的時間。通過使用scikit-learn中的模型序列化副本,我們可以編寫Flask API。

同時,Scikit-learn模型的一個要求是數據必需采用數字格式,這就是為什么我們需要把數據集里的分類特征轉成數字特征0和1。事實上,除了分類,Scikit-learn的sklearn.preprocessing模塊還提供諸如LabelEncoder、OneHotEncoder等編碼方法。

此外,對于數據集里的缺失值,Scikit-learn不能自動填充,而是需要我們自己手動處理,然后再輸入模型。缺失值和上面提到的特征編碼其實都是數據預處理的重要步驟,它們對構建性能良好的機器學習模型非常重要。

為了方便演示,這里我們以Kaggle上最受歡迎的數據集——泰坦尼克為例進行講解。這個數據集主要是個分類問題,我們的任務是根據表格數據預測乘客的生存概率。為了進一步簡化,我們只用四個變量:age(年齡)、sex(性別)、embarked(登船港口:C=Cherbourg, Q=Queenstown, S=Southampton)和survived。其中survived是個類別標簽

# Import dependencies

import pandas as pd

import numpy as np

# Load the dataset in a dataframe object and include only four features as mentioned

url = "http://s3.amazonaws.com/assets.datacamp.com/course/Kaggle/train.csv"

df = pd.read_csv(url)

include = ['Age', 'Sex', 'Embarked', 'Survived'] # Only four features

df_ = df[include]

“Sex”和“Embarked”是非數字的分類特征,我們需要對它們進行編碼;“age”這個特征有不少缺失值,這點可以匯總統計后用中位數或平均數來填充;Scikit-learn不能識別NaN,所以我們還要為此編寫一個輔助函數:

categoricals = []

for col, col_type in df_.dtypes.iteritems():

if col_type == 'O':

categoricals.append(col)

else:

df_[col].fillna(0, inplace=True)

上面的代碼是為數據集填補缺失值。這里需要注意一點,缺失值對模型性能其實很重要,尤其是當空值過多時,我們用單個值填充要非常謹慎,不然很可能會導致很大的偏差。在這個數據集里,因為有缺失值的列是age,所以我們不應該用0填充NaN。

至于把非數字特征轉成數字行駛,你可以用One Hot Encoding,也可以用Pandas提供的get_dummies():

df_ohe = pd.get_dummies(df_, columns=categoricals, dummy_na=True)

現在我們已經完成了預處理,可以準備訓練機器學習模型了:選擇Logistic回歸分類器。

from sklearn.linear_model importLogisticRegression

dependent_variable = 'Survived'

x = df_ohe[df_ohe.columns.difference([dependent_variable])]

y = df_ohe[dependent_variable]

lr = LogisticRegression()

lr.fit(x, y)

LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,

intercept_scaling=1, max_iter=100, multi_class='ovr', n_jobs=1,

penalty='l2', random_state=None, solver='liblinear', tol=0.0001,

verbose=0, warm_start=False)

有了模型,之后就是保存模型。從技術上講這里我們應該對模型做序列化,在Python里,這個操作被稱為Pickling。

保存機器學習模型:序列化和反序列化

調用sklearn的joblib:

from sklearn.externals import joblib

joblib.dump(lr, 'model.pkl')

['model.pkl']

Logistic回歸模型現在保持不變,我們可以用一行代碼把它加載到內存中,而把模型加載回工作區的操作就是反序列化。

lr = joblib.load('model.pkl')

用Flask為模型創建API

要用Flask為模型創建服務器,我們要做兩件事:

當APP啟動時把已經存在的模型加載到內存中。

創建一個API斷電,它接受輸入變量,將它們轉換為適當的格式,并返回預測。

更具體地說,你對API的輸入將如下所示:

[

{"Age": 85, "Sex": "male", "Embarked": "S"},

{"Age": 24, "Sex": '"female"', "Embarked": "C"},

{"Age": 3, "Sex": "male", "Embarked": "C"},

{"Age": 21, "Sex": "male", "Embarked": "S"}

]

與此同時,API的輸出會是:

{"prediction": [0, 1, 1, 0]}

其中0表示遇難,1表示幸存。這里輸入格式是JSON,它是最廣泛使用的數據交換格式之一。

要做到上述效果,我們需要先編寫一個函數predict(),它的目標如前所述:

當APP啟動時把已經存在的模型加載到內存中。

創建一個API斷電,它接受輸入變量,將它們轉換為適當的格式,并返回預測。

我們已經演示了如何加載已有模型,之后是根據接收的輸入預測人員生存狀態:

from flask importFlask, jsonify

app = Flask(__name__)

@app.route('/predict', methods=['POST'])

def predict():

json_ = request.json

query_df = pd.DataFrame(json_)

query = pd.get_dummies(query_df)

prediction = lr.predict(query)

return jsonify({'prediction': list(prediction)})

雖然看起來挺簡單,但你可能會在這個步驟遇到一個小問題。

為了讓你編寫的函數能正常運行,傳入請求中必需包含這四個分類變量的所有可能值,這些值可能是實時的,也可能不是。如果傳入請求里出現必要值缺失,那么根據當前方法定義的predict()生成的數據列會比分類器里少,模型就會報錯。

要解決這個問題,我們需要在模型訓練期間把列保留下來,把任何Python對象序列化為.pkl文件。

model_columns = list(x.columns)

joblib.dump(model_columns, 'model_columns.pkl')

['model_columns.pkl']

由于已經保留了列列表,所以你可以在預測時處理缺失值(記得在APP啟動前加載模型):

@app.route('/predict', methods=['POST']) # Your API endpoint URL would consist /predict

def predict():

if lr:

try:

json_ = request.json

query = pd.get_dummies(pd.DataFrame(json_))

query = query.reindex(columns=model_columns, fill_value=0)

prediction = list(lr.predict(query))

return jsonify({'prediction': prediction})

except:

return jsonify({'trace': traceback.format_exc()})

else:

print ('Train the model first')

return ('No model here to use')

你已經在“/ predict”API中包含了所有必需元素,現在你只需要編寫主類:

if __name__ == '__main__':

try:

port = int(sys.argv[1]) # This is for a command-line argument

except:

port = 12345# If you don't provide any port then the port will be set to 12345

lr = joblib.load(model_file_name) # Load "model.pkl"

print ('Model loaded')

model_columns = joblib.load(model_columns_file_name) # Load "model_columns.pkl"

print ('Model columns loaded')

app.run(port=port, debug=True)

現在,這個API就全部完成可以托管了。

當然,如果你想把Logistic回歸模型代碼和Flask API代碼分離為單獨的.py文件,這其實是一種很好的編程習慣。那么你的model.py代碼應該如下所示:

# Import dependencies

import pandas as pd

import numpy as np

# Load the dataset in a dataframe object and include only four features as mentioned

url = "http://s3.amazonaws.com/assets.datacamp.com/course/Kaggle/train.csv"

df = pd.read_csv(url)

include = ['Age', 'Sex', 'Embarked', 'Survived'] # Only four features

df_ = df[include]

# Data Preprocessing

categoricals = []

for col, col_type in df_.dtypes.iteritems():

if col_type == 'O':

categoricals.append(col)

else:

df_[col].fillna(0, inplace=True)

df_ohe = pd.get_dummies(df_, columns=categoricals, dummy_na=True)

# Logistic Regression classifier

from sklearn.linear_model importLogisticRegression

dependent_variable = 'Survived'

x = df_ohe[df_ohe.columns.difference([dependent_variable])]

y = df_ohe[dependent_variable]

lr = LogisticRegression()

lr.fit(x, y)

# Save your model

from sklearn.externals import joblib

joblib.dump(lr, 'model.pkl')

print("Model dumped!")

# Load the model that you just saved

lr = joblib.load('model.pkl')

# Saving the data columns from training

model_columns = list(x.columns)

joblib.dump(model_columns, 'model_columns.pkl')

print("Models columns dumped!")

而api.py則是:

# Dependencies

from flask importFlask, request, jsonify

from sklearn.externals import joblib

import traceback

import pandas as pd

import numpy as np

# Your API definition

app = Flask(__name__)

@app.route('/predict', methods=['POST'])

def predict():

if lr:

try:

json_ = request.json

print(json_)

query = pd.get_dummies(pd.DataFrame(json_))

query = query.reindex(columns=model_columns, fill_value=0)

prediction = list(lr.predict(query))

return jsonify({'prediction': str(prediction)})

except:

return jsonify({'trace': traceback.format_exc()})

else:

print ('Train the model first')

return ('No model here to use')

if __name__ == '__main__':

try:

port = int(sys.argv[1]) # This is for a command-line input

except:

port = 12345# If you don't provide any port the port will be set to 12345

lr = joblib.load("model.pkl") # Load "model.pkl"

print ('Model loaded')

model_columns = joblib.load("model_columns.pkl") # Load "model_columns.pkl"

print ('Model columns loaded')

app.run(port=port, debug=True)

現在,你可以在名為Postman的API客戶端中測試此API 。只要確保model.py與api.py在同一個目錄下,并確保兩者都已在測試前編譯好了,如下圖所示:

如果所有文件都已成功編譯,目錄結構應該如下圖所示:

注:IPYNB文件是可選的。

在Postman中測試API

Postman是測試API最好用的工具之一。如果你下載了最新版本,它的界面應該如下所示:

成功啟動Flask服務器后,你需要在Postman中輸入包含正確端口號的正確URL:

恭喜!你剛剛構建了第一個機器學習API。這是個可以根據泰坦尼克號乘客age、sex和embarked信息預測他們生存狀態的API,現在,你的朋友就能用前端代碼調用它,輸出神奇的結果。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8406

    瀏覽量

    132562
  • python
    +關注

    關注

    56

    文章

    4792

    瀏覽量

    84627

原文標題:如何在Python中把機器學習模型轉成API

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    CortexR52內核Cache的具體操作

    本節內容主要講述CortexR52內核Cache的具體操作包括使緩存無效(invalidate)操作,清除(clean)緩存。有的時候客戶可能需要對cache做一些清理,比如invalidate
    的頭像 發表于 07-15 10:32 ?1259次閱讀
    CortexR52內核Cache的<b class='flag-5'>具體操作</b>

    Cortex R52內核Cache的具體操作(2)

    本節內容主要講述CortexR52內核Cache的具體操作包括使緩存無效(invalidate)操作,清除(clean)緩存。有的時候客戶可能需要對cache做一些清理,比如invalidate
    的頭像 發表于 07-15 15:44 ?1365次閱讀
    Cortex R52內核Cache的<b class='flag-5'>具體操作</b>(2)

    求ATmega168看門狗復位的具體操作過程?

    ATmega168看門狗復位的具體操作過程
    發表于 11-18 07:17

    看門狗定時器的具體操作

    看門狗定時器(WatchDog Timer)在出現程序跑飛卡死的時候用來強制復位處理器或控制器。具體操作是:通常程序正常循環會在一定周期內進行“喂狗”,若程序執行一個錯誤代碼或者程序卡死,將不
    發表于 11-10 07:15

    移植Miracl庫的具體操作步驟

    上一篇文章我們為大家介紹了嵌入式設備中支持國密算法的幾種方法。本篇我們詳細的介紹一下第一種方法:移植Miracl庫的具體操作步驟。第一步 獲取源碼MIRACL密碼庫是開源軟件,可以直接到官網下
    發表于 12-21 06:57

    AssistiveTouch的輔助功能鎖定屏幕如何具體操作

    ?和小編一起來看看吧!具體操作方法AssistiveTouch 使您可以使用 iPhone 或 iPad 觸摸屏上的簡單菜單選項模擬身體動作、手勢和按鈕按下。這包括鎖定屏幕和重新啟動設備。要啟用它,首先,打開 iPhone 或 iPad 上的設置。“設置”
    發表于 12-31 07:04

    使用CH340來下載燒錄或調試的具體操作步驟有哪些

    CH340是什么?有何特點?使用CH340來下載燒錄或調試的具體操作步驟有哪些?
    發表于 02-24 07:05

    Protel在線教程:如何在PCB給PCB補淚滴的具體操作

    Protel在線教程:如何在PCB給PCB補淚滴的具體操作 仔細看這里,我們將學會做給PCB補淚滴的具體操作 
    發表于 04-22 09:02 ?8053次閱讀
    Protel在線教程:如何在PCB<b class='flag-5'>中</b>給PCB補淚滴的<b class='flag-5'>具體操作</b>

    Protel在線教程:PCB給PCB做覆銅的具體操作

    Protel在線教程:PCB給PCB做覆銅的具體操作
    發表于 04-22 09:03 ?4046次閱讀
    Protel在線教程:<b class='flag-5'>在</b>PCB<b class='flag-5'>中</b>給PCB做覆銅的<b class='flag-5'>具體操作</b>

    視覺圖像系統,ROI如何做顯示處理以及具體操作步驟

    處理以及具體操作步驟。 如何確保ROI感興趣的區域,我們選定的測量范圍之內呢?大致有4個以下步驟: 1)基于標準圖像目標的特征,確定參考坐標系; 2)標準圖像設置檢測ROI; 3
    的頭像 發表于 01-27 09:39 ?1w次閱讀
    視覺圖像系統<b class='flag-5'>中</b>,ROI如何做顯示處理以及<b class='flag-5'>具體操作</b>步驟

    Allegro打過孔的具體操作步驟

    Allegro有一個非常好用的打過孔功能,可以信號線旁邊快速打孔,提升了工作效率,避免手動打過孔的煩惱,具體操作步驟如下(本文使用的是Allegro17.4,其他低階版本使用方法大致相同):點擊
    的頭像 發表于 10-17 09:38 ?4761次閱讀

    PCB電鍍工藝流程及具體操作方法

    線路板的電鍍工藝,大約可以分類:酸性光亮銅電鍍、電鍍鎳/金、電鍍錫,文章介紹的是關于在線路板加工過程是,電鍍工藝的技術以及工藝流程,以及具體操作方法.
    發表于 02-07 15:27 ?7450次閱讀

    差分探頭的使用具體操作步驟

    品致差分探頭是一種專業用于電路測量的精密測試設備,其獨特的差分設計能夠有效消除噪聲干擾,提高信號測量的精確度。下面PRBTEK將為大家介紹品致差分探頭的具體操作方法。
    的頭像 發表于 04-03 11:18 ?4590次閱讀
    差分探頭的使用<b class='flag-5'>具體操作</b>步驟

    三坐標測量儀的具體操作步驟

    正確使用蔡司三坐標測量儀可以延長儀器的使用壽命,下面看看三本精密儀器的三坐標測量儀的具體操作步驟:一、規劃檢測方案首先是要查看零件圖紙,了解測量的要求和方法,規劃檢測方案或調出檢測程序。二、注意操作
    的頭像 發表于 06-08 15:24 ?4152次閱讀
    三坐標測量儀的<b class='flag-5'>具體操作</b>步驟

    威綸通觸摸屏遠程上下載程序需要什么工具?具體操作步驟是什么?

    威綸通觸摸屏遠程上下載程序需要什么工具?具體操作步驟是什么?
    的頭像 發表于 01-17 15:34 ?4641次閱讀
    威綸通觸摸屏遠程上下載程序需要什么工具?<b class='flag-5'>具體操作</b>步驟是什么?
    主站蜘蛛池模板: 海量激情文学| 色姐妹久久综合在线av| 动漫H片在线播放免费高清| 亚洲AV噜噜88| 欧美黄色一级| 九九热最新视频| 丰满老熟女白浆直流| 116美女写真成人午夜视频| 双性诱受灌满哭求饶BL| 美女挑战50厘米长的黑人| 国产午夜福利片| 成人免费精品视频| 91久久精一区二区三区大全| 新香蕉少妇视频网站| 秋霞电影网午夜鲁丝片| 久久这里只有热精品18| 国产真实强被迫伦姧女在线观看| pkf女尸studiosxnxx| 最近免费中文字幕大全免费| 亚洲福利视频导航| 日日日操操操| 全球真实小U女视频合集| 伦理片在线线手机版韩国免费6| 好好的曰com久久| 国产精品久久久久久久久久免费| qvod小电影| 99国产这里只有精品视频| 伊人色综合久久天天| 亚洲欧洲日韩国产一区二区三区| 色四房播播| 日韩一区二区三区四区区区 | 邻居的阿2中文字版电影| 国产欧美日韩国产高清| 国产成人免费在线| 俄罗斯19girl video9| 草草色| qvod 在线电影| av av在线| yw193.c国产在线观看| WWW国产精品内射熟女| cctv论坛|