オンプレミスAI:知っておくべきこと

by Canonical on 12 March 2024

組織ではデジタル戦略の再構築が進行し、AIを中心に据えた多くのプロジェクトがいつでも実稼働できる状態にあります。企業は多くの場合、ハードウェアの負担を最小限に抑えるためにAIプロジェクトをパブリッククラウド上で開始します。しかし、規模の拡大につれて、コスト、デジタル主権、コンプライアンス要件などの理由から、ワークロードをオンプレミスに移行しようとすることがよくあります。自社のインフラストラクチャでのAI運用には明らかにメリットがあるものの、インフラストラクチャとMLOpsの担当者はいくつかの課題を検討する必要があります。

MLOpsは、AIのワークロードを反復可能かつ再現可能な形で実行する上で重要です。Charmed KubeflowなどのMLOpsプラットフォームは、Kubernetes上で動作するクラウドネイティブアプリケーションです。このようなアーキテクチャをオンプレミスで構築すれば、組織はAIアプリケーションを容易にデプロイ、管理、拡張できます。

オンプレミスAIの長所

AI戦略を構築する際には、費用対効果、管理能力、セキュリティとコンプライアンス、パフォーマンスなどの要素を考慮する必要があります。AIプロジェクトをオンプレミスで実行すれば、このような優先課題にどう役立つのかを検討しましょう。

既存インフラストラクチャ上のAI

AIプロジェクト用にまったく新しいデータセンターを建設するのは時間のかかる膨大な作業ですが、必ずしも必要というわけではありません。十分に活用していない既存のインフラストラクチャがすでにある場合は、それを使える可能性があります。オンプレミスの既存のインフラストラクチャでAIを運用することは、新しいプロジェクトや実験を速やかに開始し、さまざまな用途の投資効果を評価し、既存のハードウェアからさらなる価値を引き出す絶好の方法です。

オンプレミスでMLワークロードを保護

多くの組織ではすでに内部ポリシーが明確に定義されており、新しいAIプロジェクトもそれに従う必要があります。オンプレミスのインフラストラクチャを使用すれば、こうしたポリシーを遵守しやすくなる上、コンプライアンスのあるセキュアなMLOpsプラットフォームの基盤の上に、反復可能で再現可能なMLパイプラインを構築できます。特に規制の厳しい業界では、AIをオンプレミスで運用すればコンプライアンスとセキュリティの点検が短時間で済み、セキュリティ問題よりモデルの構築に集中できます。

費用対効果に優れたソリューション

最近のパブリッククラウドは機械学習ワークロードに対応する各種のインスタンスを提供していますが、自社のインフラストラクチャからすべてのデータを移動するには多大なコストがかかります。データをすでに保存している場所でAIプロジェクトを実行すれば、この課題は生じません。これは、組織がAIワークロードをオンプレミスで構築することを選ぶ理由の1つです。

オンプレミスAIの短所

AIプロジェクトの構築と拡張には処理能力が必要です。大きな処理能力を必要とする組織には、すでにプロジェクト開始前から大きな投資が必要です。オンプレミスのインフラストラクチャには、多額の初期費用に加え、デプロイ後のインフラストラクチャの運用コストもかかります。オンプレミスの場合、企業が利用できるトレーニング済みのモデルや既製のサービスも多くありません。

対照的に、パブリッククラウドは容易に導入可能で、多額の投資を必要としません。パブリッククラウドにはAmazon BedRockのようなトレーニング済みモデルの大きなライブラリがあるため、組織は時間を大幅に節約できます。とはいえパブリッククラウドは多くの場合、長期的にはそれほど費用対効果に優れていません。

AIプロジェクトなど、新しい戦略的取り組みには新しい課題が伴います。AIプロジェクトをオンプレミスで実行するかどうかを決める際には、多くの要因を検討し、それが自社にとって適切かどうかを判断してください。

AIをオンプレミスで運用する必要があるのはどのような場合か

  • 処理性能:AIプロジェクトに多大な処理能力が必要であることは事実であり、しかもそのレベルは上がるばかりです。処理ニーズを満たすだけのリソースを有し、拡張の余地もある場合のみ、オンプレミスAI戦略を選ぶべきでしょう。
  • 業界規制:自社ハードウェア上でデータを完全に管理できれば、業界規制への準拠が容易になります。医療や金融サービスなど規制の厳しい業界の場合は、オンプレミスAIが適している可能性が高くなります。
  • プライバシー:これは、あらゆるAIプロジェクトにおいて重要な役割を果たすデータプライバシー全般にも当てはまります。オンプレミスのインフラストラクチャは、データとMLモデルを最大限に管理したい組織にとって魅力的な選択肢です。
  • 初期投資:最適なインフラストラクチャの選択肢は、初期投資の予算に大きく依存します。ハードウェアの初期費用を出すのが難しい場合は(オンプレミスで使用されていない既存のインフラストラクチャを利用できる場合を除く)、パブリッククラウドの方が適切かもしれません。
  • カスタマイズ可能なソリューション:既製のソリューション、それとも自社の要件に合わせてAIのデプロイをカスタマイズできるプラットフォームのどちらをご希望ですか?柔軟性を重視するならオンプレミスを選ぶべきです。

オンプレミスAI向けのオープンソースソリューション

オープンソースはAI革命の主役です。機械学習の分野で幅広く採用されるオープンソースソリューションが増加しています。次に挙げる主要ツールのいくつかを使用すれば、完全にオープンソースのMLOpsプラットフォームをオンプレミスで構築できます。

  • OpenStack:GPUなどの主要なパフォーマンスアクセラレーションデバイスとの円滑な統合を実現する、機能を完備したクラウドプラットフォームです。
  • Kubernetesコンテナオーケストレーションツールとして使用できます。
  • Kubeflow機械学習モデルを開発し、デプロイするためのMLOpsプラットフォームです。
  • MLflowモデルレジストリ用の機械学習プラットフォームです。

オープンソースツールには数多くの利点がありますが、適切なバージョンを選択することが重要です。ツールのセキュリティを確保し、シームレスに統合するには、Canonicalが提供しているような企業環境向けの正式なディストリビューションが必要です。

オープンソースによるハイブリッド戦略

Ciscoの2022年ハイブリッドクラウドグローバルトレンドレポートによると、IT部門の意思決定者の82%がハイブリッド型のIT戦略を採用しています。近年、組織がどれだけAI戦略に注力しているかを考えれば、新しいプロジェクトの多くがハイブリッドクラウド環境で実行されることは容易に予想できます。Canonicalがサポートし、エンドツーエンドソリューションに組み込んでいるようなオープンソースツール(上記のツールなど)では、組織が選択したクラウド上でAIプロジェクトを構築し、拡張することが可能です。ユーザーは、パブリッククラウド上で開始してハードウェアの負担を最小限に抑えた上で、ハイブリッドクラウド戦略を策定し、時間対効果とコスト効率を確保することができます。

参考資料

ニュースレターのサインアップ

Ubuntuニュースレターの配信登録

お客様が購読登録を行われる場合、以下の条件に同意されたことになります。Canonicalのプライバシーに関するお知らせ個人情報保護ポリシー

関連記事

Firefighting Supportを発表

新しいサービスでCanonicalの専門家が高度なクラウドサポートを提供 Canonicalのマネージドソリューションチームは、自社でインフラストラクチャの管理を行い、トラブルシューティングの必要があるときのみ専門家の対応を求める組織のために、新しいサービス「Firefighting Support」を発表しました。 Firefighting Supportでは、フルマネージドサービスを止めた、または厳しいセキュリティ規制によってサードパーティーに環境へのアクセスを許可できないお客様に対して、マネージドサービスレベルのサポートを提供します。このサービスはノードごとの年間料金で提供され、次のような内容です。 自己管理インフラストラクチャへの移行に理想的 現在の市場では、マネ […]

データを中心としたAIの進化:MAASとNVIDIAスマートNICの組み合わせ

Canonicalは数年前から、製品へのNVIDIAスマートNICのサポートの実装に取り組んでいます。その一環であるCanonicalのMetal-as-a-Service(MAAS)は、ベアメタルサーバー上でスマートNICの管理と制御を可能にするものです。NVIDIAのBlueFieldスマートNICは、データ速度が非常に高く、高度なソフトウェア定義のデータ中心型インフラストラクチャサービスを提供するネットワークインターフェイスカードです。BlueFieldスマートNICは、専用の高性能ネットワークASIC(特定アプリケーション向け集積回路)と強力な汎用CPU、RAMを搭載しています。そしてネットワーク機能の高速化、ハードウェアの負荷軽減、隔離により、革新的なネットワー […]

Dell Technologies Forum TokyoにCanonicalが出展

Dell Technologies Forum TokyoにCanonicalが出展!10月3日にお会いしましょう Canonicalは、10月3日に東京で開催されるDell Technologies Forumに出展することを大変楽しみにしています。この業界をリードするイベントでは、デジタルの未来を形作る最新の技術について、業界リーダーやテクノロジー愛好者が一堂に会します。 【開催概要】■ 日時: 2024年10月3日(木) 10:00 – 18:40■ 会場: グランドプリンスホテル新高輪 国際館パミール■ 事前登録サイト(英語): Dell Technologies Forum 登録ページ■ 参加費: 無料(事前登録制) 最新ソリューションを体感 Canonical […]