オープンソースAIでモデルを実運用環境へ
安全でサポート付きのCanonical MLOpsを使用すれば、企業グレードのAIプロジェクトを構築できます。UbuntuワークステーションでCharmed KubeflowまたはCharmed MLFlowを使用して開発し、スタックの随所に装備されたオープンソースツールでスピーディーに拡張します。
お問い合わせMLOpsガイドを読む
企業AIにCanonicalを選ぶ理由
- AI導入を加速する信頼性の高いエキスパート
- ベンダー1社でAIスタックをサポート
- ハイブリッド、マルチクラウドなど、どこでもワークロードを実行
- ライフサイクル管理と自動化をシンプルに実行
- ノードごとのシンプルなサブスクリプション
どんな環境でもAI (人工知能) プロジェクトを開発
MLOps(機械学習運用)でPoCの先へ
MLOpsとは、機械学習(Machine Learning)とオペレーション(Operations)を合わせた造語であり、ワークフローの各プロセスを簡素化し、機械学習とディープラーニングの導入を自動化する一連の作業を意味します。
MLOpsは、モデルの大規模なデプロイとメンテナンスを大規模な実運用環境で高い信頼性と効率性で実行します。
MLOpsガイドMLOpsツールキット
オープンソースのMLOpsツール
Charmed Kubeflow
自動化されたツールでモデルを開発およびデプロイします。Charmed Kubeflowは大規模なAI運用を目的としたエンドツーエンドのMLOpsプラットフォームです。Canonical MLOpsの基盤として、他のビッグデータツールや機械学習ツールをシームレスに統合します。
Charmed MLflow
実験を追跡し、モデルカタログ全体を把握しましょう。Charmed MLFlowは、機械学習のワークロードを管理するオープンソースのプラットフォームであり、他のMLOpsツールと統合して機械学習ライフサイクルのさまざまな機能に対応します。
Charmed Spark
クラウドでもデータセンターでも、とにかくSpark®を実行する最善の方法。Kubernetesで動作し、Apache Sparkのフルサポートディストリビューションを含みます。
Charmed OpenSearch
Charmed OpenSearchは、任意の検索/分析機能の運用を簡素化します。さらにOpenSearchが総合的なベクトルデータベースとなり、ナレッジベースとしてAIシステムをサポートします。
NVIDIAとCanonicalがあらゆる環境でAIを加速します
NVIDIAとCanonicalは、あらゆるパブリッククラウド、オンプレミス、IoT機器でAIハードウェアアクセラレーションを提供できるよう協力しています。
- 機械学習向けに最適化されたNVIDIA DGXサーバーはUbuntuを搭載しており、Canonicalによるサポートが含まれています
- ハードウェアアクセラレーションのためのNVIDIA Kubernetesエクステンションは、CanonicalのKubernetesディストリビューションで有効化されています
- NVIDIA TegraとDrivePX2にはエッジAI向けUbuntuが搭載されています
「企業はますますディープラーニングやAIの導入の加速を求めています。Ubuntuを当社のDGXシステムで使用することに加え、当社はCanonicalと協力してNVIDIA GPU上のKubernetesを、マルチクラウドディープラーニングのトレーニングや推論ワークロードに対する拡張性と移植性の高いソリューションとして提供しています。」
Duncan Poole
NVIDIAプラットフォームアライアンス担当ディレクター、
IoTとエッジAI
クラウドでトレーニング、エッジで動作。
カメラ、音楽システム、自動車のほか、ファイアウォールやCPEもスマート化が進んでいます。自然言語処理から画像認識まで、また、リアルタイムでの高速自律ナビゲーションからネットワーク侵入の検出まで、Ubuntuは、開発、トレーニング、推論にわたってシームレスな運用フレームワークを提供します。
お問い合わせ