CanonicalとNVIDIA AI EnterpriseがAIアプリケーション開発をさらに高速化

by Canonical on 24 November 2023

Ubuntu KVMのサポートがNVIDIA AI Enterpriseに対応

Canonicalは、NVIDIAとのコラボレーションを拡大し、本日から一般提供を開始するNVIDIA AI Enterprise 4.0Ubuntu KVM Hypervisorのサポートを加えました。UbuntuでGPU仮想化を使用している組織は、新しいNVIDIA AI Enterpriseライセンスにスムーズに移行が可能です。

NVIDIA AI Enterprise 4.0

NVIDIA AI Enterprise 4.0はワークステーション、データセンター、クラウドデプロイメント全体でサポートされるようになりました。以下のような更新があります。

  • NVIDIA NeMo:生成AIモデルの構築、カスタマイズ、デプロイ
  • 生成AIの利用を加速する2つの新しいAIワークフロー
  • 効率的なNVIDIA Triton管理サービスで大規模なデプロイメントを自動化
  • エンタープライズレベルのサポート

NVIDIA AI Enterpriseは、AIアプリケーションの開発とデプロイのためのエンドツーエンドの安全なクラウドネイティブソフトウェアプラットフォームを提供し、組織が運用効率を高めながら新たな課題を解決できるよう支援します。新しいNVIDIA Triton管理サービスは、モデルのデプロイメントを合理化して効率的に管理します。NeMoは複雑な大規模言語モデルの構築、カスタマイズ、デプロイメントを可能にし、企業が生成AIを導入するための簡単で費用効果が高く、迅速な方法を提供します。

Ubuntu KVMNVIDIA Enterprise 4.0

UbuntuでNVIDIAのフレームワークやワークフローを幅広く活用しているデータサイエンティストや開発者は、単一のプラットフォームで最新世代のNVIDIA GPUを使用し、AIアプリケーションを短時間で開発できるようになりました。Ubuntu KVMでGPU仮想化をサポートすることで、組織は既存のオンプレミスまたはクラウドのインフラストラクチャを利用して同じモデルを迅速にデプロイし、AIワークロードを実行できます。

図:Ubuntu KVMとNVIDIA AI Enterprise 4.0

GPU仮想化は、複数の仮想マシン(VM)で1つのGPUを共有する重要なツールです。GPU仮想化はGPUリソースの使用率を上げるだけでなく、大幅にコストを削減し、IT予算全体に影響を与えます。NVIDIAの仮想GPU(vGPU)ソリューションは従来からUbuntu KVMでサポートされていました。CanonicalとNVIDIAは、パフォーマンスへの影響を最小限に抑えながらNVIDIA AI Enterprise ContainerとVMへのGPUパススルーを可能にするNVIDIAの仮想化ソリューションの検証を完了しました。お客様やユーザーは新しいNVIDIA AI Enterpriseライセンスサーバーを指定すれば、中断なく使用を継続できます。

NVIDIA AI EnterpriseをUbuntu KVMと組み合わせて使用することにより、企業は複数のマルチクラウドやハイブリッドクラウドにわたってデプロイメントを拡張できます。

セキュリティとサポート ディープラーニングスタック全体に対応

Ubuntuは大多数のAI開発者にとって第一候補のオープンソースオペレーティングシステムです。Canonicalは、最適化された安全なオペレーティングシステムを通じてNVIDIAの革新を支援できることを誇りに思います。NVIDIAのお客様は、NVIDIA AI Enterprise 4.0を通じてオペレーティングシステム以外にも及ぶCanonicalのセキュリティ保証に自動的にアクセスし、NVIDIAコンテナ内のオープンソースコンテンツのセキュリティを確保安全性を維持することができます。NVIDIA AI Enterpriseにより、最新AI技術の導入を計画している組織はNVIDIAからエンタープライズレベルのサポートを受けられます。さらに、KubernetesやKubeflowなどの人気の高いアップストリームプロジェクトを含め、オープンソースインフラストラクチャソフトウェアについてCanonicalからサポートを受けることもできます。

これらのソリューションについて、CanonicalのAI/MLプリンシパルであるMaciej Mazurは次のように述べています。「NVIDIA AI EnterpriseとUbuntu KVMの認定により、NVIDIAの最新のLLM(大規模言語モデル)をトレーニングするためのコンテナと、Canonicalのインフラストラクチャソフトウェアに対するエンタープライズレベルのサポートという、エンドツーエンドのソリューションに必要なすべての要素をお客様に提供します。

始めるのは簡単(そして無料)。必要に応じてCanonicalの専門家がお手伝いいたしますのでご安心ください。

NVIDIA AI EnterpriseCanonicalのオープンソースソリューションを使い始める

お問い合わせ

ニュースレターのサインアップ

Ubuntuニュースレターの配信登録

お客様が購読登録を行われる場合、以下の条件に同意されたことになります。Canonicalのプライバシーに関するお知らせ個人情報保護ポリシー

関連記事

CanonicalがUbuntu 14.04 LTS以降の長期サポートを12年間に延長

Canonicalは本日、Ubuntu ProアドオンとしてLegacy Supportの一般提供を発表しました。これによりUbuntu LTSリリースのセキュリティ更新とサポート期間が12年間に延長されます。アドオンの対象はUbuntu 14.04 LTS以降です。 長期サポートのUbuntuリリースには、mainリポジトリに対する5年間のセキュリティメンテナンスが標準で付属します。Ubuntu Proは、mainリポジトリとuniverseリポジトリの両方に10年間のメンテナンスを提供し、企業にもエンドユーザーにも安全なオープンソースソフトウェアを幅広く提供します。このサブスクリプションは電話およびチケットによるサポートも含みます。Ubuntu Proの有償契約者のお […]

エッジAI

オープンソースで何を、なぜ、どのように実現するか エッジAIがデバイスとデータセンターの関係を大きく変える中、組織には常に最新のイノベーションの導入が求められます。AI搭載のヘルスケア機器から自動運転車まで、エッジデバイス上のAI(人工知能)はさまざまな分野で活躍します。これを踏まえて今回のブログ記事では、エッジAIプロジェクトを開始する際の検討事項、利点、課題、オープンソースの役割について考察します。 エッジAIとは エッジにおけるAI、またはエッジAIとは、人工知能とエッジコンピューティングの組み合わせを指します。エッジAIの目的は、接続されたエッジデバイス上で機械学習モデルを実行することです。これにより、デバイスは常にクラウドに接続してデータを処理しなくても、スマー […]

オンプレミスAI:知っておくべきこと

組織ではデジタル戦略の再構築が進行し、AIを中心に据えた多くのプロジェクトがいつでも実稼働できる状態にあります。企業は多くの場合、ハードウェアの負担を最小限に抑えるためにAIプロジェクトをパブリッククラウド上で開始します。しかし、規模の拡大につれて、コスト、デジタル主権、コンプライアンス要件などの理由から、ワークロードをオンプレミスに移行しようとすることがよくあります。自社のインフラストラクチャでのAI運用には明らかにメリットがあるものの、インフラストラクチャとMLOpsの担当者はいくつかの課題を検討する必要があります。 MLOpsは、AIのワークロードを反復可能かつ再現可能な形で実行する上で重要です。Charmed KubeflowなどのMLOpsプラットフォームは、K […]


© 2024 Canonical Ltd. Ubuntu および Canonical は、Canonical Ltd の登録商標です。