資料科學家在建立機器學習模型後,必須將其部署到生產中。要在不同的基礎架構上執行它,使用容器並通過 REST API 公開模型是部署機器學習模型的常用方法。本文演示了如何在 Podman 容器中使用 Connexion 推出使用 REST API 的 TensorFlow 機器學習模型。
首先,使用以下命令安裝 Podman:
sudo dnf -y install podman
接下來,為容器建立一個新資料夾並切換到該目錄。
mkdir deployment_container && cd deployment_container
下一步是為機器學習模型建立 REST API。這個 github 倉庫包含一個預訓練模型,以及能讓 REST API 工作的設定。
使用以下命令在 deployment_container
目錄中克隆它:
git clone https://github.com/svenboesiger/titanic_tf_ml_model.git
prediction.py 能進行 Tensorflow 預測,而 20x20x20 神經網路的權重位於資料夾 ml_model/ 中。
swagger.yaml 使用 Swagger規範 定義 Connexion 庫的 API。此檔案包含讓你的伺服器提供輸入引數驗證、輸出響應資料驗證、URL 端點定義所需的所有資訊。
額外地,Connexion 還將給你提供一個簡單但有用的單頁 Web 應用,它演示了如何使用 Javascript 呼叫 API 和更新 DOM。
swagger: "2.0"info: description: This is the swagger file that goes with our server code version: "1.0.0" title: Tensorflow Podman Articleconsumes: - "application/json"produces: - "application/json"basePath: "/"paths: /survival_probability: post: operationId: "prediction.post" tags: - "Prediction" summary: "The prediction data structure provided by the server application" description: "Retrieve the chance of surviving the titanic disaster" parameters: - in: body name: passenger required: true schema: $ref: '#/definitions/PredictionPost' responses: '201': description: 'Survival probability of an individual Titanic passenger'definitions: PredictionPost: type: object
server.py 定義了啟動 Connexion 伺服器的入口點。
import connexionapp = connexion.App(__name__, specification_dir='./')app.add_api('swagger.yaml')if __name__ == '__main__': app.run(debug=True)
requirements.txt 定義了執行程式所需的 python 包。
connexiontensorflowpandas
為了讓 Podman 構建映像,請在上面的準備步驟中建立的 deployment_container
目錄中建立一個名為 Dockerfile
的新檔案:
FROM fedora:28# File Author / MaintainerMAINTAINER Sven Boesiger <[email protected]># Update the sourcesRUN dnf -y update --refresh# Install additional dependenciesRUN dnf -y install libstdc++RUN dnf -y autoremove# Copy the application folder inside the containerADD /titanic_tf_ml_model /titanic_tf_ml_model# Get pip to download and install requirements:RUN pip3 install -r /titanic_tf_ml_model/requirements.txt# Expose portsEXPOSE 5000# Set the default directory where CMD will executeWORKDIR /titanic_tf_ml_model# Set the default command to execute# when creating a new containerCMD python3 server.py
接下來,使用以下命令構建容器映象:
podman build -t ml_deployment .
隨著容器映象的構建和準備就緒,你可以使用以下命令在本地執行它:
podman run -p 5000:5000 ml_deployment
在 Web 瀏覽器中輸入 http://0.0.0.0:5000/ui 存取 Swagger/Connexion UI 並測試模型:
當然,你現在也可以在應用中通過 REST API 存取模型。