Qualcomm® AI Hub

Qualcomm® AI Hub Workbench 可協助在裝置上針對視覺、音訊、語音及多模態使用案例,進行機器學習模型的最佳化、驗證與部署。

使用 Qualcomm® AI Hub Workbench,您可以:

  • 將訓練好的模型從 PyTorchONNX 等框架轉換為在 Qualcomm® 設備上優化的性能。

  • 在設備上分析模型以獲取詳細的指標,包括運行時間、加載時間和計算單元利用率。

  • 通過在設備上進行推理來驗證數值正確性。

  • 使用 Qualcomm® AI Engine DirectTensorFlow LiteONNX Runtime 輕鬆部署模型。

Qualcomm® AI Hub Models 是我們的預先最佳化模型集合,用來協助我們了解在 Qualcomm® 裝置上執行各種模型的效能特性。我們每隔幾週會使用 Qualcomm® AI Hub Workbench 在 Qualcomm® 裝置上進行編譯、效能分析及推論。如果您正在尋找一個入門模型,請務必查看它們!

Qualcomm® AI Hub Apps 是我們的範例應用程式集合,用於協助將 Qualcomm® AI Hub Models 部署至裝置端。若要設定您所需的執行環境以符合效能指標,並部署從 Qualcomm® AI Hub Workbench 取得的模型資產,您可以參考 Qualcomm® AI Hub Apps。

它是如何運作的?

Qualcomm® AI Hub Workbench 會自動處理模型從來源框架到裝置執行環境的轉換,並套用硬體感知的最佳化,同時執行實體效能與數值驗證。系統會自動在雲端配置裝置,以進行裝置端的效能分析與推論。下圖顯示使用 Qualcomm® AI Hub 分析模型的步驟。

_images/How-It-Works.png

要使用 Qualcomm® AI Hub Workbench,您需要具備以下條件:

  • 一個訓練好的模型,可以是 PyTorchTorchScriptONNXTensorFlow Lite 格式。

  • 對部署目標的工作知識。這可以是特定設備(例如,Samsung Galaxy S23 Ultra)或一系列設備。

以下三個步驟可用於將訓練好的模型部署到 Qualcomm® 設備:

步驟 1:優化設備上的執行

Qualcomm® AI Hub Workbench 包含一系列託管的編譯器工具,可將已訓練的模型針對選定的目標平台進行最佳化。接著會執行硬體感知的最佳化,以確保充分利用目標硬體。模型可以針對 Qualcomm® AI Engine DirectTensorFlow LiteONNX Runtime 進行部署最佳化,所有格式轉換皆由系統自動處理。

步驟 2:執行設備上的推理

系統可以在實體設備上運行編譯的模型,以收集指標,例如模型層到計算單元的映射、推理延遲和峰值內存使用量。這些工具還可以使用您的輸入數據運行模型,以驗證數值正確性。所有分析均在雲端自動配置的實體硬件上進行。

步驟 3:部署

模型結果會顯示在 Qualcomm® AI Hub Workbench 上,提供深入洞察以了解模型效能並找出進一步改進的機會。經過最佳化的模型可部署至多種平台。請查看 Qualcomm® AI Hub Apps,以針對特定使用案例逐步了解此流程。

索引