heliaAOT

超高速ニューラル推論

heliaAOTは、LiteRTモデルを高度に最適化されたスタンドアロンC推論モジュールに変換する先行コンパイラで、Ambiqの超低消費電力SoC向けにカスタマイズされています。このコンパイラは、実行時のオーバーヘッドがなく、コンパクトで効率的、かつ人間が読めるCコードを生成し、エッジでのAIを高速かつ電力効率よく実現します。

heliaAOT ハイライト

01

メモリ割り当ての推測をゼロに

自動テンソル・メモリ・プランニングは、過剰な割り当てを排除し、無駄のない効率的な配備のために未使用のコードを取り除きます。

02

最大10倍のコードサイズ

マイクロコントローラ用の標準的なTensorFlow Liteと比較して、Apollo SoCのフラッシュ・フットプリントを劇的に削減。

03

深い最適化とカスタマイズ

レイヤフュージョン、テンソルの並べ替え、インテリジェントなメモリ配置などの高度な技術により、演算子、サブグラフ、フルグラフレベルで推論パイプラインを微調整。

04

シームレスな統合

Zephyr RTOSモジュールとして、またはAmbiqのneuralSPOT AI開発キット(ADK)のプラグインとして簡単に統合でき、ワークフローを合理化できます。

妥協のないパフォーマンス

heliaRTレベルの推論スピードを小さなパッケージで-heliaAOTはMLPerf Tinyモデルのメモリフットプリントを最大2.6倍削減します。

デザイン・リソース

ビデオライブラリー

ダウンロードの準備