AI(人工知能)/ML(機械学習)をワークステーションから本番環境まで
Ubuntuは、開発者ワークステーションから、ラック、クラウド、スマートコネクテッドIoTによるエッジまで、お客様のAIの構想を支援するプラットフォームです。
CanonicalのKubeflowは、Kubernetes上で実行される標準化されたワークフローで、JupyterHubやTensorflowなど人気の機械学習向けツールをサポートします。
Kubeflowをインストールして開始するエキスパートに問い合わせるUbuntuでAIモデルを開発する
ハイエンドのUbuntuワークステーションでのAIモデルの開発。ハードウェアアクセラレーションを用いたベアメタルKubernetesのラックやパブリッククラウド上でのトレーニング。エッジやIoTへのデプロイ。そのすべてがCanonicalの提供するUbuntuで可能です
CanonicalのAIおよび機械学習ソリューションの特長...
プライベートクラウドとHPCのアーキテクチャ
AIおよび機械学習ワークロードのGPGPUアクセラレーションでは、基盤となるハードウェアとホストOSを慎重に設定する必要があります。CanonicalのUbuntuは、パブリッククラウドGPGPUインスタンスの先進的なプラットフォームです。またCanonicalでは対応するプライベートクラウドに関する専門的知識も提供しています。
Canonical OpenStackを使ってGPGPUクラスターを構築し、複数のテナントと共有できます。そのうえでKubernetesを運用することで、HPC(ハイパフォーマンスコンピューティング)と高スループットのAI/MLデータ分析が可能になります。
KaggleでAIの学習を開始する
Kaggleコンペティションは、AIの学習を開始してスキルを高めるのに最適な方法です。初心者の場合は、以下の過去のコンペティションから開始することをお勧めします:
効果的な意思決定
膨大な量のデータに対するディープラーニングにより、より迅速に効果的な意思決定が可能になります。時間の経過とともに、機械のアルゴリズムは重要なデータとそうではないデータを区別するように学習します。AIから引き出された知見により、プロセスの最適化が可能になります。
運用予測によるSLA(サービス品質保証)の向上
ハードウェアからソフトウェア資産まで、データセンターのインフラストラクチャからのリアルタイムのテレメトリーデータを使用することで、コンポーネントの障害や再構成が必要なタイミングの予測にAIを活用できます。それにより、すぐれたサービス可用性メトリックの維持が可能になります。
Kubernetes上のAIを、あらゆる環境で
GoogleとCanonicalは、オンプレミスおよびクラウド上でのトレーニング向けの標準化された機械学習ソリューションであるKubeflowにおいて協力しています。Ubuntuを活用することで、AI/MLワークロードの完璧なマルチクラウドでの移植性が持つ利点を享受できます。
ワークステーションAI
NVIDIA、MicroK8s、Kubeflowを搭載したDell、Lenovo、HPのUbuntu認定ワークステーション
- データサイエンスの加速
- 最小クラスのフットプリント
- ノートPCからワークステーションまで
- GPGPUのオプション
- AIの開発とテスト
ベアメタルAI
NVIDIA GPGPUアクセラレーションによるベアメタルでのKubernetes
- 最高レベルのパフォーマンス
- ローカルデータを使用したオンプレミス
- ハードウェアの推奨
- フルマネージドオプション
Google Cloud AI
NVIDIA GPGPUアクセラレーションによるUbuntuでのGKE
- 事実上無限の拡張性
- 移行可能なワークロード
- 最速レベルのクラウド機械学習
Canonical Cloud AI
NVIDIA GPGPUアクセラレーションによるOpenstackでのKubernetes上のKubeflow
- OpenStackが持つ利点の最大化
- ローカルデータを使用したオンプレミス
- ハードウェアの推奨
- フルマネージドオプション
Kubeflow
Kubeflowは、構成可能、移行可能、そして拡張可能な機械学習スタックの構築を支援します。Kubeflowを使用し、特にNVIDIAのGPGPUを活用することで、AIツールやフレームワークの導入プロセスを加速できます。
Kubeflowを使用せずに本番対応の機械学習スタックの構築を行う場合は、コンポーネントやソリューションの混在、それらの接続や管理など、膨大なインフラストラクチャと開発作業が必要になります。このような複雑な状況は機械学習の導入にとって障壁となり、お客様が期待する成果の実現が大幅に遅れてしまいます。その結果、何らかの生産的なものを立ち上げる必要が生じ、一からやり直すことになるのです。
Kubeflowは、スタックをすばやく構築し運用できるテクノロジーやコンポーネントをまとめることで、こうした問題を解決します。ロードマップを加速し、コミュニティや企業のサポートを享受できます。
Kubeflowを自分でインストールする
Canonicalは開発者や運用者を支援するために継続的なベストプラクティスの革新と開発を行っています。
KubeflowをKubernetesにデプロイ
-
Kubernetesのインストール
KubeflowはKubernetes上で動作します。Canonical KubernetesがKubeflowの最適な基盤です。
Kubernetesを独自にインストールするには、Kubernetesのインストールのページにアクセスし、インストールガイドに従ってください。
-
MicroK8sのインストール
MicroK8sをインストールするbashスクリプトを入手します
wget https://res.cloudinary.com/canonical/image/fetch/q_auto,f_auto/https://assets.ubuntu.com/v1/b783a95d-install-kubeflow-pre-micro.sh -O install-kubeflow-pre-micro.sh
スクリプトを実行できるようにパーミッションを設定します
chmod a+x install-kubeflow-pre-micro.sh
スクリプトをルートとして実行します
sudo ./install-kubeflow-pre-micro.sh
-
環境変数の設定
export KUBECONFIG=/snap/microk8s/current/client.config
export GITHUB_TOKEN=${YOUR_GITHUB_TOKEN}
-
Kubeflowのインストール
MicroK8sをインストールするbashスクリプトを入力します
wget https://res.cloudinary.com/canonical/image/fetch/q_auto,f_auto/https://assets.ubuntu.com/v1/58a9e137-install-kubeflow.sh -O install-kubeflow.sh
スクリプトを実行できるようにパーミッションを設定します
chmod a+x install-kubeflow.sh
スクリプトをルートとして実行します
sudo ./install-kubeflow.sh
利用開始へ向けたコンサルティングと、業務に集中するためのマネージドオペレーション
機械学習を幅広く理解するためにワークショップを活用していください。開発者ステーションからデータセンター、パブリッククラウドへの完全なパイプラインを構築します。Canonicalは大手企業との協力によりお客様に幅広い選択肢を提供します。まず当社の標準ベアメタルKubernetesサービスパッケージ(DiscovererまたはDiscoverer Plus)から開始し、次にAIアドオンを選択することでKubernetesのAIを有効に活用できます。
AI/MLアドオン
40,000ドル
専門のAI/MLワークショップおよび準備状況評価
TensorflowやJupyterHubを含むKubeflowに特化したオプションの1日ワークショップです。オンプレミス/オフプレミスでのAI/MLの運用に必要なすべての内容が含まれています。
- オンサイトまたはリモートのオプション
- K8sとKubeflowのハンズオン
- フルパイプラインビュー
Canonicalとデータサイエンス分野のパートナーがAI評価をワークショップの一部として提供し、MLやAIのアプローチに対してお客様の既存のデータと分析の準備状況評価をお手伝いします。
- AIのライフサイクルの理解
- 予備データおよびプロセスのディスカバリ
- 開発能力の評価
- ML分析のデプロイと運用
- 初期AI戦略の完了
NVIDIAとCanonicalがあらゆる環境でAIを加速します
NVIDIAとCanonicalは、あらゆるパブリッククラウド、オンプレミス、IoT機器でAIハードウェアアクセラレーションを提供できるよう協力しています。
- 機械学習向けに最適化されたNVIDIA DGXサーバーはUbuntuを搭載しており、Canonicalによるサポートが含まれています
- ハードウェアアクセラレーションのためのNVIDIA Kubernetesエクステンションは、CanonicalのKubernetesディストリビューションで有効化されています
- NVIDIA TegraとDrivePX2にはエッジAI向けUbuntuが搭載されています
企業はますますディープラーニングやAIの導入の加速を求めています。Ubuntuを当社のDGXシステムで使用することに加え、当社はCanonicalと協力してNVIDIA GPU上のKubernetesを、マルチクラウドディープラーニングのトレーニングや推論ワークロードに対する拡張性と移植性の高いソリューションとして提供しています。
NVIDIAプラットフォームアライアンス担当ディレクター、Duncan Poole
IoTとエッジAI
クラウドでトレーニング、エッジで動作。
カメラ、音楽システム、自動車のほか、ファイアウォールやCPEもスマート化が進んでいます。自然言語処理から画像認識まで、また、リアルタイムでの高速自律ナビゲーションからネットワーク侵入の検出まで、Ubuntuは、開発、トレーニング、推論にわたってシームレスな運用フレームワークを提供します。