エッジAI

by Canonical on 26 March 2024

オープンソースで何を、なぜ、どのように実現するか

エッジAIがデバイスとデータセンターの関係を大きく変える中、組織には常に最新のイノベーションの導入が求められます。AI搭載のヘルスケア機器から自動運転車まで、エッジデバイス上のAI(人工知能)はさまざまな分野で活躍します。これを踏まえて今回のブログ記事では、エッジAIプロジェクトを開始する際の検討事項、利点、課題、オープンソースの役割について考察します。

エッジAIとは

エッジにおけるAI、またはエッジAIとは、人工知能とエッジコンピューティングの組み合わせを指します。エッジAIの目的は、接続されたエッジデバイス上で機械学習モデルを実行することです。これにより、デバイスは常にクラウドに接続してデータを処理しなくても、スマートに意思決定を下すことができます。機械学習モデルがデータセンターではなくユーザーの近くで実行されることから、これはエッジと呼ばれます。

ワークフローの最適化、ビジネスプロセスの自動化、新たなイノベーションの追求など、業界が新しい用途や機会を見いだすにつれ、エッジAIの導入が拡大しています。自動運転車、ウェアラブルデバイス、産業用の組立ライン、スマート家電などは、エッジAIの機能を活用し、ここぞというときにリアルタイムで情報をユーザーに提供するテクノロジーです。

エッジAIの利点

アルゴリズムは、テキスト、音声、画像などのさまざまな入力を理解することができます。これは、実世界の問題を抱えるエンドユーザーがいる場所で特に有用です。こうしたAIアプリケーションを集中型のクラウドや企業データセンターにデプロイするのは、レイテンシ、帯域幅、プライバシー問題などの点で、非現実的あるいは不可能です。

エッジAIの重要な利点は次のとおりです。

  • リアルタイムの情報:データがユーザーの近くでリアルタイムに分析されるため、エッジAIではリアルタイム処理が可能になり、活動を完了してインサイトを引き出すために必要な時間が短縮されます。
  • コスト削減:収集したエッジでデータを処理できる場合もあるため、すべてのデータをデータセンターへ送信して機械学習アルゴリズムのトレーニングをする必要はありません。これにより、データの保存とモデルのトレーニングにかかるコストが削減されます。同時に、エッジAIを利用してエッジデバイスのオンとオフの時間を最適化し、消費電力を低減できる場合もあり、これもコスト削減につながります。
  • 高可用性:モデルのトレーニングと実行を分散することにより、データセンター内で問題が発生しても各エッジデバイスはモデルを利用できます。
  • プライバシー:エッジAIでは、データを人間に公表することなくリアルタイムで分析できるため、対象の外観、音声、身元に関するプライバシーが向上します。たとえば監視カメラの映像を人間が見る必要はありません。機械学習モデルが用途やニーズに応じてアラートを発信します。
  • 持続可能性:エッジAIを使用してエッジデバイスの消費電力を低減すれば、コストが最小限に抑えられるだけでなく、持続可能性にも貢献できます。エッジAIがあれば、必要なとき以外、デバイスを使わずに済みます。

産業分野の用途

企業は業種を問わず、エッジAIモデルを次々に開発して導入し、さまざまな用途に対応しています。エッジAIが提供できる価値について理解を深めるために、産業分野でエッジAIがどのように使用されているかを詳しく検討しましょう。

産業メーカーは、多数のデバイスを使用することが多い大規模な施設で課題に直面しています。Armが2023年春に実施した調査では、エッジコンピューティングと機械学習が、今後数年間で製造業に最も大きな影響を及ぼすテクノロジーのトップ5に入りました。多くの場合、エッジAIは既存の製造工場のアップデートに関連します。  用途は、生産スケジューリング、品質検査、資産の維持管理に留まりません。その主な目的は、製品の組み立てや品質管理などの自動化タスクの効率と速度を向上させることです。

製造業におけるエッジAIの代表的な用途には以下があります。

  • 品質検査プロセスの一環としての欠陥のリアルタイム検出。製品画像の分析にディープニューラルネットワークを使用します。多くの場合、これにより予測型のメンテナンスも可能になり、メーカーは潜在的な問題に予め対処することでコンポーネントを事後的に修正する必要性を最小限に抑えることができます。
  • 産業用ロボットの低レイテンシ動作に基づく、リアルタイムの生産組立タスクの実行。
  • 拡張現実(AR)や複合現実(MR)デバイスに基づく、現場作業に関する技術者の遠隔サポート。

低レイテンシは、産業分野におけるエッジAI導入の最大の理由です。しかし、セキュリティおよびプライバシー向上の恩恵を受けることもあります。たとえば3DプリンターでエッジAIを使用すれば、集中型のクラウドインフラストラクチャを通じて知的財産を保護できます。

エッジAIのベストプラクティス

他の種類のAIプロジェクトと比較して、エッジAIの運用には一連の固有の課題が伴います。エッジAIの価値を最大限に引き出し、よくある失敗を防ぐには、以下のベストプラクティスに従うことをおすすめします。

  • エッジデバイス:エッジAIの中心にあるのは、最終的にモデルを実行することになるデバイスです。これらのデバイスは、いずれも異なるアーキテクチャ、機能、依存関係を有します。ハードウェアの機能がAIモデルの要件を満たし、オペレーティングシステムなどのソフトウェアがエッジデバイス上で認定されていることを確認してください。
  • セキュリティ:データセンターとエッジデバイスのどちらにも、組織のセキュリティを侵害しかねない要素があります。トレーニングに使用されるデータ、MLモデルの開発やデプロイに使用されるMLインフラストラクチャ、エッジデバイスのオペレーティングシステムなどが、組織はすべての要素を保護する必要があります。セキュアなパッケージ、エッジデバイスからのOSのセキュアブート、デバイス上のフルディスク暗号化など、適切なセキュリティ機能の利用してください。
  • 機械学習の規模:機械学習モデルの規模は事例によって異なります。実行するエンドデバイスに適合するよう、開発者はモデルの規模を最適化し、モデルを正常にデプロイできることを判断する必要があります。
  • ネットワーク接続:機械学習のライフサイクルは反復的なプロセスであるため、モデルを定期的に更新する必要があります。そのため、ネットワーク接続はデータ収集プロセスとモデルのデプロイ機能の両方に影響を与えます。組織は、デプロイするモデルの構築やAI戦略の策定の前に、信頼性の高いネットワーク接続を確認し、確保する必要があります。
  • レイテンシ:組織は多くの場合、エッジAIをリアルタイム処理に使用するため、レイテンシは最小限に抑える必要があります。たとえば小売業者では不正行為の検出と同時にアラートを発信する必要があります。支払いを確認するまで数分間もレジで待つよう顧客に求めることはできません。用途によっては、ツールやモデルの更新頻度を選択する際にレイテンシを考慮する必要があります。
  • 拡張性:  規模は多くの場合、情報を移動し処理するためのクラウドの帯域幅に制約されます。それは高コストにつながります。より広範な拡張性を確保するには、データ収集と一部のデータ処理をエッジで実行する必要があります。
  • リモート管理:組織には多数のデバイスや遠隔地の拠点があることが多いため、それらすべてに合わせて拡張すると、管理に関連する新たな課題が生じます。こうした課題に対処するために、容易なリモートプロビジョニングと自動更新のためのメカニズムを導入します。

オープンソースによるエッジAI

オープンソースはAI革命の主役であり、オープンソースソリューションは、上記のベストプラクティスの多くに効果的に対応します。エッジデバイスに関しては、オープンソーステクノロジーを使用することで、デバイスと機械学習モデルの両方についてセキュリティ、堅牢性、信頼性を確保できます。組織は、幅広いツールやテクノロジーから柔軟に選択し、コミュニティのサポートを受け、大きな投資なしに短期間で導入できます。オープンソースツールは、エッジデバイス上で実行されるオペレーティングシステムから、トレーニングに使用されるMLOpsプラットフォームや機械学習モデルのデプロイに使用されるフレームワークに至るまで、スタックのすべてのレイヤーにわたって利用できます。

Canonicalが提供するエッジAI

Canonicalは、組織のエッジAIプロジェクトに必要となる可能性があるすべてのオープンソースソフトウェアを含む包括的なAIスタックを提供しています。

Canonicalは、モデルのトレーニングを可能にするエンドツーエンドのMLOpsソリューションを提供します。Charmed Kubeflowはソリューションの基盤であり、モデルレジストリ用のMLflowやデータストリーミング用のSparkなど、主要なオープンソースツールとシームレスに統合されます。これにより、あらゆるクラウドプラットフォームやKubernetesディストリビューション上でモデルを開発できる柔軟性が得られ、ユーザー管理や使用されるパッケージのセキュリティメンテナンス、マネージドサービスなどの機能が提供されます。

デバイスのオペレーティングシステムは重要な役割を果たします。Ubuntu Coreは、オープンソースUbuntuオペレーティングシステムのIoTデバイス専用のディストリビューションです。セキュアブートやフルディスク暗号化などの機能を備え、デバイスのセキュリティを確保します。  特定のユースケースでは、MicroCloudなどの小規模なクラウドを運用すると、無人のエッジクラスターで機械学習を活用できるようになります。

モデルをsnapとしてパッケージングすると、実運用時のメンテナンスや更新が容易になります。snapには、OTA更新、障害発生時の自動ロールバック、ノータッチのデプロイなど、さまざまな利点があります。また、モデルの機械学習のライフサイクル管理やリモート管理については、専用Snap Storeが最適なソリューションとなります。

エッジAIの基本

MLOpsツールキットでは、Canonicalのソリューションをさらに検討し、機械学習ツールキットを構築する際に考慮すべき要素を理解できます。このツールキットには以下が含まれます。

  • すでに市場でテスト/検証済みのハードウェアとソフトウェア
  • データ処理とモデル構築に対応するオープンソースの機械学習ツール
  • オーケストレーションのためのコンテナソリューション
  • クラウドコンピューティングと複数の選択肢
  • 企業内で展開可能な実運用グレードのソリューション

MLOpsツールキットはこちらからダウンロードしてください。
CanonicalのエッジAIソリューションの詳細については、お問い合わせください

参考資料

ニュースレターのサインアップ

Ubuntuニュースレターの配信登録

お客様が購読登録を行われる場合、以下の条件に同意されたことになります。Canonicalのプライバシーに関するお知らせ個人情報保護ポリシー

関連記事

オンプレミスAI:知っておくべきこと

組織ではデジタル戦略の再構築が進行し、AIを中心に据えた多くのプロジェクトがいつでも実稼働できる状態にあります。企業は多くの場合、ハードウェアの負担を最小限に抑えるためにAIプロジェクトをパブリッククラウド上で開始します。しかし、規模の拡大につれて、コスト、デジタル主権、コンプライアンス要件などの理由から、ワークロードをオンプレミスに移行しようとすることがよくあります。自社のインフラストラクチャでのAI運用には明らかにメリットがあるものの、インフラストラクチャとMLOpsの担当者はいくつかの課題を検討する必要があります。 MLOpsは、AIのワークロードを反復可能かつ再現可能な形で実行する上で重要です。Charmed KubeflowなどのMLOpsプラットフォームは、K […]

MLOpsツールキットについて

ハードウェアからアプリケーションまで、機械学習ツールキットの構築において考慮すべき要素を解説 AIは将来が有望な分野ですが、その活用は簡単ではありません。企業各社は適切なアーキテクチャの構築、既存プロジェクトの拡大、最適なハードウェアの選択などに苦労しています。オープンソースは広く採用され、企業の多くの課題に対応します。ただし、セキュリティやツール統合の問題も忘れてはなりません。多くの企業は第一歩を踏み出すためのツールキットを求めています。 MLOpsツールキット本書では、機械学習の運用を開始し、規模を拡大したい企業のためのツールキットを紹介します。まずハードウェアレイヤーからアプリケーションレイヤーまでスタック全体を概説します。次にソリューションを構築する際に検討すべき […]

PostgreSQLをAIに活用

AIを扱うことはデータを扱うこと。数値データから動画や画像まで、業界や用途を問わず、AIプロジェクトは何らかの形でデータに依存します。問題は、そのデータをどうやって効率的に保管し、モデルを構築する際に使用するかです。解決策の1つは、実績があり、愛好者の多いデータベースであるPostgreSQLです。近年の開発により、AIをサポートする有力な選択肢になっています。 PostgreSQLを選ぶべき理由 PostgreSQLはオープンソースで高機能のデータベースシステムです。外部キー、サブクエリ、トリガーのほか、さまざまなユーザー定義型や関数をサポートしています。近年はデータベース分野で人気を高め、2023年には年間最優秀データベース管理システム(DBMS)に選出されました。 […]


© 2024 Canonical Ltd. Ubuntu および Canonical は、Canonical Ltd の登録商標です。