ニュース

Red Hat、AI/MLプラットフォーム「Red Hat OpenShift AI」の最新版を発表

 米Red Hatは現地時間12日、Red Hat OpenShift AIの最新バージョン(2.15)を発表した。Red Hat OpenShift AIは、Red Hat OpenShift上に構築されたAIおよび機械学習(ML)プラットフォームで、企業がハイブリッドクラウド全体でAI対応アプリケーションを大規模に作成および提供できるようにするもの。

 Red Hat OpenShift AI 2.15は、より高度な柔軟性、チューニング、追跡機能を提供するように設計されており、これによって、企業のAI/MLイノベーションと運用の一貫性が加速し、より規則性が高く強固なセキュリティ体制を、パブリッククラウド、データセンターからエッジ環境全体に至るまで、大規模に提供できるとしている。

 最新版は、包括的なモデル・ライフサイクルの基盤として機能しながら、スケーラビリティ、パフォーマンス、運用効率を大幅に向上させる。そのため、IT企業が強力なAIプラットフォームのメリットを活用しながら、それぞれのビジネスニーズに応じた環境で構築、デプロイ、実行する能力を維持できるようにする。

 Red Hat OpenShift AI 2.15は、企業がAIワークロードの新たなニーズに応えると同時に、現在のビジネスを支えるミッションクリティカルなクラウドネイティブアプリケーションにも対処することを目的として設計されている。

 Red Hat OpenShift AI 2.15で提供される機能のうち、モデルレジストリは、現在テクノロジープレビューとして提供されており、登録されたモデルを表示および管理する中心的な場所となる。レジストリは、予測型生成AIモデル、メタデータ、モデルアーティファクトの共有、バージョン管理、デプロイ、追跡するための構造化および組織化された方法を提供する。

 データドリフト検出は、デプロイされたMLモデルの入力データ分布の変化を監視する。この機能により、データサイエンティストは、モデルの干渉に使用されるライブデータが、モデルのトレーニングに使用されたデータから大幅に逸脱した際に検出できる。ドリフト検出は、入力データを継続的に監視し、モデルを実際のデータと一致させて、長期にわたり予測精度を維持することで、モデルの信頼性を検証するのに役立つ。

 バイアス検出ツールは、モデルが公正で偏りがないかどうかを監視するのに役立つ。このツールは、トレーニングデータに基づいてモデルに偏りがないか洞察するだけでなく、実際のデプロイ中にモデルが公正であるかを監視するのにも役立つ。バイアス検出ツールは、責任あるAI開発とデプロイのための多様なツールキットを提供する、TrustyAIオープンソースコミュニティから組み込まれている。

 LoRAによる効率的な微調整では、低ランクアダプター(LoRA)を使用して、Llama 3などのLLMのより効率的な微調整を可能にする。これにより、企業はコストとリソース消費を削減しながら、AIワークロードを拡張できる。クラウドネイティブ環境内でモデルのトレーニングと微調整を最適化することで、このソリューションはパフォーマンスと柔軟性の両方を強化し、AI導入をよりアクセスしやすくスケーラブルなものにする。

 NVIDIA NIMのサポートは、生成AIアプリケーションの提供を促進する、使いやすいインターフェイスのマイクロサービスのセットとなる。NVIDIA AI Enterpriseソフトウェアプラットフォームの一部であるNIMとの統合によって、APIを通じて、オンプレミスまたはクラウドでスケーラブルな推論を提供する幅広いAIモデルをサポートすると同時に、生成AIの導入をスピードアップする。

 AMD GPUのサポートにより、モデル開発にAMD GPUを使用するためのAMD ROCmワークベンチイメージにアクセスできるようになる。この新機能により、AMD GPUを活用したサービング、トレーニング、そしてチューニングに使用できるイメージにもアクセスできる。このサポートにより、企業はGPUによって計算集約型のアクティビティのパフォーマンスを向上させるための追加オプションを利用できる。

 Red Hat OpenShift AI 2.15には、KServe用のvLLMサービングランタイムなど、生成AIモデルサービングに関する新機能も追加されている。この新機能により、大規模言語モデル (LLM) 向けの人気の高いオープンソースモデル提供ランタイムがプラットフォームにもたらされる。vLLMの柔軟性と性能は、現在サポートされているプラットフォームのランタイムに対する優れた追加要素であり、ユーザーはビジネス要件に応じて独自のカスタムオプションを追加することもできる。

 また、Red Hat OpenShift AIの最新バージョンには、KServeモデルカーのサポートとしてコンテナ化されたモデルバージョンを保存・共有するためのオプションである、Open Container Initiative(OCI)リポジトリが追加されている。さらに、KServeにおけるエンドポイントのプライベート/パブリックルート選択により、企業は必要に応じて内部エンドポイントに特別に誘導することで、モデルのセキュリティ体制を強化できる。

 さらに、Red Hat OpenShift AI 2.15は、データサイエンス・パイプラインと実験のトラッキングが強化されており、データサイエンティストは論理構造にグループ化されたパイプラインの実行を、より簡単に管理、比較、分析できるようになる。また、このプラットフォームはRay Tuneのハイパーパラメータチューニングや、予測モデルや生成AIモデルをより効率的にトレーニングするため精度を向上させた高度な最適化アルゴリズムが追加されている。現在、Rayクラスタ用のベースコンテナイメージがRed Hat OpenShift AIの最新バージョンに含まれるようになり、トレーニングおよびチューニングジョブをクラスタ内の分散ワークロードにまたがってスケジューリングすることでジョブを高速化し、ノードの使用率を最大化できる。