
相互接続されたテクノロジーが支配する時代において、人工知能(AI)とエッジでのコンピューティング、つまり接続されたデバイスを統合することは、スマートデバイスをどのように認識し、相互作用させるかに革命をもたらしている。この統合は、しばしばローカルデバイスAIまたはエッジAIコンピューティングと呼ばれ、クラウドから独立してデータを効率的に収集・処理するためのフレームワークとしてますます普及している。IoTとスマートデバイスの普及は、今後10年間で151億台から346億台に増加すると推定されており1、エッジAIはこれらのデバイスのパワーとインテリジェンスを強化することが期待されている。
ここでは、エッジAIの利点、課題、あらゆる場所でインテリジェントなデバイスを実現するための有望な展望など、エッジAIの複雑さを探る。
エッジAIとは何か?
AIアプローチでは、開発者はAIアルゴリズムとモデルをセンサーやIoTデバイスなどのローカルデバイス上に直接展開し、ローカルデバイスはローカルでデータを収集・処理する。このオンデバイス・インテリジェンスと機械学習(ML)機能の融合は、新たなユースケースとアプリケーションを解放する可能性の新たな根拠を提供する。
ローカルデバイスでのコンピューティングの利点
従来のクラウドベースのアプローチからの脱却は、インテリジェンスをデータソースに近づけ、多くの利点をもたらす。
プライバシーとデータセキュリティの強化
ローカルデバイスにAIを実装することで、ユーザーは自分のデータをより自由にコントロールできるようになる。機密情報をローカルで処理することで、プライバシーに関する懸念が緩和され、外部ネットワークにデータが流出する可能性が低くなります。AIをローカル・デバイスに移行することで、顧客の個人を特定できる情報(PII)の安全性を維持する責任を負う組織は、より保護されます。
デバイス上では、このデータはクラウド・サービス・プロバイダーやその他のサード・パーティーのサーバーに公開されないため、データ保護に関する国内および国際的な規制へのコンプライアンスが向上します。このアプローチは、データ漏洩や不正アクセスに関連するリスクを軽減し、高度なセキュリティを必要とするアプリケーションに堅牢なソリューションを提供します。
処理の高速化
クラウドベースのAIの利点には、大きなコストがかかる。オープンAIがChatGPTを構築したシステムであるGPT-3のような言語モデルは、処理に膨大な計算能力を必要とする。オープンAIはChatGPTのローンチ後、需要の急増に対応するため、キューイングシステムやクエリのスローダウンといったトラフィック管理戦略を発動しなければならなかった2。この事件は、計算能力がボトルネックとなり、AIモデルの進歩を制限していることを浮き彫りにしている。
ローカル・デバイスAIはレイテンシーを大幅に削減し、処理時間の短縮につながる。アプリケーションは迅速な応答時間の恩恵を受け、特に自律走行車やスマートホームデバイスのような重要なシナリオにおいて、リアルタイムの意思決定を可能にする。また、分散化された処理は、デバイスがデータをクラウドに送信して処理され、応答を待つ必要がある場合よりも少ないレイテンシでリアルタイムに洞察が生成されることを意味します。

ユーザー・エクスペリエンスの向上
待ち時間の短縮と処理速度の向上により、シームレスで応答性の高いユーザー体験を提供。リアルタイムのフィードバックが可能になり、ユーザーの満足度とエンゲージメントが向上する。エッジAIは、集中型サーバーに依存することなく、ユーザーデータをローカルで処理・分析し、パーソナライズされた体験を生み出すことができる3。
これは、ショッピングリスト、フィットネスアプリ���食事の推奨などのケースに対して、パーソナライズされた推奨やコンテンツ配信など、より応答性の高いテーラーメイドのサービスにつながる。このようなパーソナライズされたAIは、より効果的にユーザーを魅了し、彼らの興味に共鳴するコンテンツや体験とのエンゲージメントを高めることができる。
クラウドへの依存度の低減
クラウドはデータの収集と処理に大きな力を発揮する一方で、ハッキングや停電などの脅威の影響を受けやすく、インターネットへのアクセスが限られている地域では利用できない可能性がある4。エッジAIデバイスでクラウドへの依存を減らすことは、その性能を高めるだけでなく、外部からの脅威に対する安全性を促進する。これはまた、インターネット接続が制限されたシナリオにおける耐障害性を向上させ、特に遠隔地や断続的なネットワークアクセスがある環境でのアプリケーションにとって重要である。
ローカルデバイスにおけるAIの課題
エッジAIの可能性を制限する障壁がいくつか存在する。ハードウェアの制限、メモリ要件、電力制限など である。AIモデル、特にディープラーニング・モデルは、多くの場合、かなりのメモリリソースを必要とする。ローカル・デバイスは処理能力に制約があることが多く、リソース集約的なAIアルゴリズムを実装する上で課題となる。また、AIの計算は電力を大量に消費するため、ローカル・デバイスのバッテリー寿命にも影響する。
モバイル・デバイスは、コンピューティング・リソース、メモリ、ストレージ、消費電力の面で制約が多い。その結果、オンデバイス・モデルはサーバー・モデルよりもはるかに小型化する必要があり、その分性能が低下する可能性がある5。 機能性とリソース消費のバランスを取ることは、AI対応デバイスを設計する上での重要な課題である。
ローカルデバイスにおけるAIの展望
このような課題にもかかわらず、ハードウェア設計と最適化技術の進歩は着実に障害を克服しつつある。エッジ・コンピューティングやエネルギー効率の高いプロセッサーなどの技術は、より効率的なローカル・デバイスAIの実装に道を開いている6。
ローカルIoT接続デバイス上のAIとコンピューティングの利点は、プライバシー、セキュリティ、スピード、ユーザーエクスペリエンスの向上を提供し、技術的展望を再形成している。課題は存在するものの、継続的な研究とイノベーションがこれらの障害を克服しつつある。ローカルデバイスへのAI導入の見通しは有望であり、日常生活にシームレスに統合されたインテリジェントデバイスの新時代を可能にする。
Ambiqの貢献
Ambiqは2010年以来、超低消費電力半導体ソリューションにより、スマートデバイスがエッジでAIなどの複雑な推論タスクを実行できるよう支援してきました。画期的なサブスレッショルド電力最適化技術(SPOT)プラットフォームは、スマートデバイスメーカーが高度で消費電力の高い機能を開発する際に直面する電力制約を解決するのに役立ってきました。その結果、開発者は、1回の充電で数日、数週間、数カ月にわたって使用できるバッテリー寿命と、スムーズなパフォーマンスを期待できます。Ambiqのアプリケーションをもっと見る。
情報源
1 エッジAI|2023年10月7日
2 AI開発のボトルネックになりつつある演算能力。それをクリアする方法がここにある。 | 2023年3月17日
3 オンデバイスAIでパーソナルになる|2023年10月11日
4 クラウド・コンピューティングにおけるプライバシーの課題|2022年12月
5 なぜオンデバイス機械学習なのか|2024年
6 スコット・ハンソン(Ambiq創業者兼CTO)に聞く|2024年1月4日