オンプレミスAI:知っておくべきこと

by Canonical on 12 March 2024

組織ではデジタル戦略の再構築が進行し、AIを中心に据えた多くのプロジェクトがいつでも実稼働できる状態にあります。企業は多くの場合、ハードウェアの負担を最小限に抑えるためにAIプロジェクトをパブリッククラウド上で開始します。しかし、規模の拡大につれて、コスト、デジタル主権、コンプライアンス要件などの理由から、ワークロードをオンプレミスに移行しようとすることがよくあります。自社のインフラストラクチャでのAI運用には明らかにメリットがあるものの、インフラストラクチャとMLOpsの担当者はいくつかの課題を検討する必要があります。

MLOpsは、AIのワークロードを反復可能かつ再現可能な形で実行する上で重要です。Charmed KubeflowなどのMLOpsプラットフォームは、Kubernetes上で動作するクラウドネイティブアプリケーションです。このようなアーキテクチャをオンプレミスで構築すれば、組織はAIアプリケーションを容易にデプロイ、管理、拡張できます。

オンプレミスAIの長所

AI戦略を構築する際には、費用対効果、管理能力、セキュリティとコンプライアンス、パフォーマンスなどの要素を考慮する必要があります。AIプロジェクトをオンプレミスで実行すれば、このような優先課題にどう役立つのかを検討しましょう。

既存インフラストラクチャ上のAI

AIプロジェクト用にまったく新しいデータセンターを建設するのは時間のかかる膨大な作業ですが、必ずしも必要というわけではありません。十分に活用していない既存のインフラストラクチャがすでにある場合は、それを使える可能性があります。オンプレミスの既存のインフラストラクチャでAIを運用することは、新しいプロジェクトや実験を速やかに開始し、さまざまな用途の投資効果を評価し、既存のハードウェアからさらなる価値を引き出す絶好の方法です。

オンプレミスでMLワークロードを保護

多くの組織ではすでに内部ポリシーが明確に定義されており、新しいAIプロジェクトもそれに従う必要があります。オンプレミスのインフラストラクチャを使用すれば、こうしたポリシーを遵守しやすくなる上、コンプライアンスのあるセキュアなMLOpsプラットフォームの基盤の上に、反復可能で再現可能なMLパイプラインを構築できます。特に規制の厳しい業界では、AIをオンプレミスで運用すればコンプライアンスとセキュリティの点検が短時間で済み、セキュリティ問題よりモデルの構築に集中できます。

費用対効果に優れたソリューション

最近のパブリッククラウドは機械学習ワークロードに対応する各種のインスタンスを提供していますが、自社のインフラストラクチャからすべてのデータを移動するには多大なコストがかかります。データをすでに保存している場所でAIプロジェクトを実行すれば、この課題は生じません。これは、組織がAIワークロードをオンプレミスで構築することを選ぶ理由の1つです。

オンプレミスAIの短所

AIプロジェクトの構築と拡張には処理能力が必要です。大きな処理能力を必要とする組織には、すでにプロジェクト開始前から大きな投資が必要です。オンプレミスのインフラストラクチャには、多額の初期費用に加え、デプロイ後のインフラストラクチャの運用コストもかかります。オンプレミスの場合、企業が利用できるトレーニング済みのモデルや既製のサービスも多くありません。

対照的に、パブリッククラウドは容易に導入可能で、多額の投資を必要としません。パブリッククラウドにはAmazon BedRockのようなトレーニング済みモデルの大きなライブラリがあるため、組織は時間を大幅に節約できます。とはいえパブリッククラウドは多くの場合、長期的にはそれほど費用対効果に優れていません。

AIプロジェクトなど、新しい戦略的取り組みには新しい課題が伴います。AIプロジェクトをオンプレミスで実行するかどうかを決める際には、多くの要因を検討し、それが自社にとって適切かどうかを判断してください。

AIをオンプレミスで運用する必要があるのはどのような場合か

  • 処理性能:AIプロジェクトに多大な処理能力が必要であることは事実であり、しかもそのレベルは上がるばかりです。処理ニーズを満たすだけのリソースを有し、拡張の余地もある場合のみ、オンプレミスAI戦略を選ぶべきでしょう。
  • 業界規制:自社ハードウェア上でデータを完全に管理できれば、業界規制への準拠が容易になります。医療や金融サービスなど規制の厳しい業界の場合は、オンプレミスAIが適している可能性が高くなります。
  • プライバシー:これは、あらゆるAIプロジェクトにおいて重要な役割を果たすデータプライバシー全般にも当てはまります。オンプレミスのインフラストラクチャは、データとMLモデルを最大限に管理したい組織にとって魅力的な選択肢です。
  • 初期投資:最適なインフラストラクチャの選択肢は、初期投資の予算に大きく依存します。ハードウェアの初期費用を出すのが難しい場合は(オンプレミスで使用されていない既存のインフラストラクチャを利用できる場合を除く)、パブリッククラウドの方が適切かもしれません。
  • カスタマイズ可能なソリューション:既製のソリューション、それとも自社の要件に合わせてAIのデプロイをカスタマイズできるプラットフォームのどちらをご希望ですか?柔軟性を重視するならオンプレミスを選ぶべきです。

オンプレミスAI向けのオープンソースソリューション

オープンソースはAI革命の主役です。機械学習の分野で幅広く採用されるオープンソースソリューションが増加しています。次に挙げる主要ツールのいくつかを使用すれば、完全にオープンソースのMLOpsプラットフォームをオンプレミスで構築できます。

  • OpenStack:GPUなどの主要なパフォーマンスアクセラレーションデバイスとの円滑な統合を実現する、機能を完備したクラウドプラットフォームです。
  • Kubernetesコンテナオーケストレーションツールとして使用できます。
  • Kubeflow機械学習モデルを開発し、デプロイするためのMLOpsプラットフォームです。
  • MLflowモデルレジストリ用の機械学習プラットフォームです。

オープンソースツールには数多くの利点がありますが、適切なバージョンを選択することが重要です。ツールのセキュリティを確保し、シームレスに統合するには、Canonicalが提供しているような企業環境向けの正式なディストリビューションが必要です。

オープンソースによるハイブリッド戦略

Ciscoの2022年ハイブリッドクラウドグローバルトレンドレポートによると、IT部門の意思決定者の82%がハイブリッド型のIT戦略を採用しています。近年、組織がどれだけAI戦略に注力しているかを考えれば、新しいプロジェクトの多くがハイブリッドクラウド環境で実行されることは容易に予想できます。Canonicalがサポートし、エンドツーエンドソリューションに組み込んでいるようなオープンソースツール(上記のツールなど)では、組織が選択したクラウド上でAIプロジェクトを構築し、拡張することが可能です。ユーザーは、パブリッククラウド上で開始してハードウェアの負担を最小限に抑えた上で、ハイブリッドクラウド戦略を策定し、時間対効果とコスト効率を確保することができます。

参考資料

ニュースレターのサインアップ

Ubuntuニュースレターの配信登録

お客様が購読登録を行われる場合、以下の条件に同意されたことになります。Canonicalのプライバシーに関するお知らせ個人情報保護ポリシー

関連記事

機械学習のセキュリティリスクの概要

データはあらゆる機械学習(ML)プロジェクトの要であり、悪人もそれを知っています。技術者の間でAIが常に話題になるとともに、MLシステムは攻撃の標的としても注目を集めています。Identity Theft Resource Center(ID窃盗リソースセンター)の報告によれば、2023年にはデータ漏えいが72%も増加しており、MLプロジェクトが恰好の攻撃経路とならないよう適切な対策を施すことは極めて重要です。このブログ記事では、機械学習のセキュリティリスクについて説明し、主要な脅威と課題に言及します。しかし、悲観的な話だけでなくベストプラクティスにも目を向け、オープンソースの役割も含め、可能なソリューションを探求します。 機械学習の攻撃対象領域 あらゆるテクノロジーには […]

日本最大の “AWS を学ぶイベント”AWS Summit Japan登録開始!

Canonical @AWS Summit Japan 2024 Canonicalの招待コードを添えて登録ください! https://aws.amazon.com/jp/summits/japan/招待コード: SPC9461572 毎年 延べ 30,000 人が参加する、日本最大の “AWS を学ぶイベント” AWS Summit Japan が 6月 20 日(木)、21 日(金)の二日間に渡り開催されます。AWS Summit は、クラウドコンピューティングコミュニティが一堂に会して、アマゾン ウェブ サービス (AWS) に関して学習し、ベストプラクティスの共有や情報交換ができる、クラウドでイノベーションを起こすことに興味がある全ての皆様のためのイベントです。基 […]

CentOSのサポート終了(EOL)– Cephストレージへの影響は?

暗闇から光の中へ、新たな前進 2020年に、CentOS ProjectはCentOS Streamのみに注力することを発表しました。つまりCentOS 7がRed Hat Enterprise Linuxと共通性を持つ最後のリリースです。2024年6月30日のCentOS 7のサポート終了(EOL)により、OSのセキュリティ更新、パッチ、新機能のリリースがなくなります。 このバージョンのCentOSにCephをデプロイすると、将来の困難は見えています。EOLの課題を切り抜ける方法はいくつかありますが、それぞれに短所があります。 リスク 何もしなければ、デプロイメントが古くなるにつれてCephの新しいバージョンにアップグレードする道がなくなり、新しい機能を得られなくなりま […]