
相互接続されたテクノロジーが主流の時代において、人工知能(AI)とコンピューティングをローカルのモノのインターネット(IoT)に統合することで、接続されたデバイスは、スマートデバイスを認識して操作する方法に革命をもたらしています。この統合は、ローカルデバイスAIまたはエンドポイントAIコンピューティングと呼ばれ、クラウドに依存せずにデータを効率的に収集・処理するためのフレームワークとしてますます普及してきています。
IoTとスマートデバイスの導入は、今後10年間で151億から346億に増加すると予測されており1、エンドポイントAIはこれらのデバイスのパワーとインテリジェンスを向上させることが期待されています。
ここでは、エッジAIの利点、課題、あらゆる場所でインテリジェントなデバイスを実現するための有望な展望など、エッジAIの複雑さについて探っていきます。
エッジAIとは?
AIアプローチでは、開発者はAIアルゴリズムとモデルをセンサーやIoTデバイスなどのローカルデバイス上に直接展開し、ローカルでデータを収集して処理します。このオンデバイス・インテリジェンスと機械学習(ML)機能の融合により、新しいユースケースとアプリケーションの新たな可能性が広がります。
ローカルデバイスでのコンピューティングの利点
従来のクラウドベースのアプローチからの脱却は、インテリジェンスをデータソースに近づけ、多くの利点をもたらします。
プライバシーとデータセキュリティの強化
ローカルデバイスにAIを実装することで、ユーザーは自分のデータをより詳細にコントロールできるようになります。機密情報をローカルで処理することで、プライバシーに関する懸念が軽減され、外部ネットワークへのデータ流出の可能性が低下します。AIをローカルデバイスに移行することで、顧客の個人情報(PII)の安全性を維持する責任がある組織は、より適切に保護されます。
デバイス上では、このデータはクラウドサービス・プロバイダやその他のサードパーティのサーバーに公開されないため、データ保護に関する国内および国際規制へのコンプライアンスが向上します。このアプローチにより、データ漏洩や不正アクセスに関連するリスクが軽減され、高度なセキュリティを必要とするアプリケーションに堅牢なソリューションが提供されます。
処理の高速化
クラウドベースのAIの恩恵を受けるためには、大きなコストがかかります。OpenAIがChatGPTを構築したシステムであるGPT-3のような言語モデルは、処理に膨大な計算能力を必要とします。OpenAIはChatGPTのリリース後の需要の急増に対応するために、キューイングシステムやクエリの速度低下などのトラフィック管理戦略を稼働しなければなりませんでした
ローカルデバイスAIはレイテンシを大幅に削減し、処理時間の高速化につながります。アプリケーションは迅速な応答時間の恩恵を受け、特に自律走行車やスマートホームデバイスなどの重要なシナリオにおいて、リアルタイムの意思決定が可能になります。また、分散処理は、デバイスがデータをクラウドに送信して処理され、応答を待機する必要がある場合よりも少ないレイテンシでリアルタイムに洞察が生成されることを意味します。

ユーザーエクスペリエンスの向上
レイテンシの低減と処理速度の向上により、シームレスで応答性の高いユーザーエクスペリエンスが実現します。リアルタイムのフィードバックが可能になり、ユーザーの満足度とエンゲージメントが向上します。エッジAIは、中央サーバーに依存せずに、ユーザーデータをローカルで処理・分析し、パーソナライズされたエクスペリエンスを生み出すことができます3。
これにより、ショッピングリスト、フィットネスアプリ、食事の推奨などのパーソナライズされた推奨やコンテンツ配信など、より応答性の高いテーラーメイドのサービスにつながる。このようなパーソナライズされた推奨や、コンテンツ配信など、より応答性が高く、カスタマイズされたサービスが実現します。このようなパーソナライズされたAIは、より効果的にユーザーを魅了し、ユーザーの興味関心に共鳴するコンテンツやエクスペリエンスへのエンゲージメントを高めることができます。
クラウドへの依存の低減
クラウドはデータの収集と処理に大きな力を発揮する一方で、ハッキングや機能停止などの脅威の影響を受けやすく、インターネットへのアクセスが制限されている地域では利用できない場合があります4。エッジAIデバイスを使用してクラウドへの依存度を低減することは、パフォーマンスを向上させるだけでなく、外部からの脅威に対するセキュリティも促進されます。これにより、インターネット接続が制限されている状況での回復力も向上し、遠隔地やネットワークアクセスが断続的な環境でのアプリケーションにとっては特に重要です。
ローカルデバイスにおけるAIの課題
エッジAIの可能性を制限する障壁がいくつかあります。ハードウェアの制限、メモリ要件、電力制限など です。AIモデル、特にディープラーニングモデルは、多くの場合、大量のメモリリソースを必要とします。ローカルデバイスは処理能力に制約のあることが多く、リソースを大量に消費するAIアルゴリズムを実装する上で課題となります。AIの計算は、電力も大量に消費するため、ローカルデバイスのバッテリー寿命にも影響する。
モバイルデバイスは、コンピューティングリソース、メモリ、ストレージ、電力消費の面でより制約があります。その結果、オンデバイスモデルはサーバーモデルよりもはるかに小型化する必要があり、その分性能が低下する可能性があります5。 機能性とリソース消費のバランスを取ることは、AI対応デバイスを設計する上で重要な課題です。
ローカルデバイスにおけるAIの展望
これらの課題にもかかわらず、ハードウェア設計と最適化技術の進歩により、障壁は着実に克服されつつあります。エッジコンピューティングやエネルギー効率の高いプロセッサなどの技術により、より効率的なローカルデバイスへのAI実装に道が開かれています6。
ローカルIoT接続デバイス上のAIとコンピューティングの利点が、テクノロジーの展望を再構築し、プライバシー、セキュリティ、スピード、ユーザーエクスペリエンスの向上を提供しています。課題がある一方で、継続的な研究とイノベーションがこれらの障害を克服しています。ローカルデバイスへのAI導入の見通しは有望であり、インテリジェントデバイスが日常生活にシームレスに統合される新しい時代の到来を実現します。
Ambiqの貢献
Ambiqは2010年以来、超低消費電力半導体ソリューションにより、スマートデバイスがエッジでAIなどの複雑な推論タスクを実行できるよう支援してきました。画期的なサブスレッショルド電力最適化技術(SPOT)プラットフォームは、スマートデバイスメーカーが高度で電力を大量に消費する機能を開発する際に直面する電力制約の解決に貢献しています。その結果、開発者は1回の充電で数日、数週間、または数カ月にわたって使用できるバッテリー寿命でスムーズなパフォーマンスを期待することができます。Ambiqの他のアプリケーションもご覧ください。
Sources:
1 Edge AI|October 7, 2023
2 Compute power is becoming a bolloneck for developing AI. Here’s how you clear it. | March 17, 2023
3 Getting personal with on-device AI|October 11, 2023
4 Challenges of Privacy in Cloud Computing|December 2022
5 Why On-Device Machine Learning|2024
6 Interview With Scott Hanson – Founder and CtO at Ambiq|January 4, 2024