ニュース

Red Hat、統合AIプラットフォーム「Red Hat AI Enterprise」を発表

 米Red Hatは現地時間2月27日、ハイブリッドクラウド全体にわたってAIモデル、エージェント、アプリケーションをデプロイおよび管理する統合AIプラットフォーム「Red Hat AI Enterprise」を発表した。Red Hat AI Enterpriseは、Red Hat AI Inference Server、Red Hat OpenShift AI、Red Hat Enterprise Linux AIといったRed HatのAI製品ポートフォリオに新たに加わる。

 Red Hatは、エンタープライズAIの領域は、単純なチャットインターフェイスから、テクノロジースタック全体にわたる深い統合を必要とする高密度で自律的なエージェント型ワークフローへと急速に進化していると説明する。こうしたワークフローには、より深い統合が求められるが、ツールの断片化やインフラストラクチャの一貫性の欠如により、多くの組織がいまだにパイロット段階から抜け出せずにいるのが現状だとしている。

 Red Hat AI Enterpriseは、AIモデルとアプリケーションのライフサイクルを統合することで、この課題を根本から解決する。これにより、ITチームはAIを孤立したプロジェクトではなく、標準化されたエンタープライズシステムとして管理できるようになり、従来の企業向けソフトウェアと同様に信頼性と再現性の高いAI運用が実現するとしている。

 Red Hat AI Enterpriseは、高性能なAI推論、AIモデルのチューニングとカスタマイズ、エージェントの導入・管理といったコア機能を提供し、あらゆるモデルやハードウェア、環境をサポートする柔軟性を備えている。Kubernetesを基盤とするRed Hat OpenShiftを中核に据えることで、既存のツールやフレームワークを活用し、場所を問わず、セキュリティを強化し、スケーラブルで安定した運用を実現する。NVIDIAとRed Hatは、NVIDIA AIインフラストラクチャ向けに「Red Hat AI Factory with NVIDIA」を共同で設計・構築した。Red Hat AI EnterpriseとNVIDIA AI Enterpriseの統合により、企業はAIの本番運用を迅速化し、大規模に展開できるようになる。

 Red Hat AI Enterpriseの導入により、組織はより高速でコスト効率が高く、スケーラブルなAI推論をvLLM推論エンジンとllm-d分散推論フレームワークの活用により実現し、ハイブリッドハードウェア環境全体にわたる最適化された生成AIモデルのデプロイメントを可能にする。

 Red Hat AI Enterpriseは、可観測性とライフサイクル管理機能を搭載した、統合された実証済みの相互運用可能なエンタープライズ対応AI技術スタックで、AIライフサイクルガバナンスの強化とリスク軽減を支援する。

 ハイブリッドクラウド全体における柔軟性を確保し、組織は信頼性の高いRed Hatプラットフォームを基盤とし、ビジネスニーズに応じてAIモデル、エージェント、アプリケーションをより一貫した形でデプロイ・管理できるようになる。

 Red Hatはまた、ポートフォリオ全体に大幅なアップデートと機能強化を実現した「Red Hat AI 3.3」を発表した。基盤となるLinuxやKubernetesインフラストラクチャーと高度な推論およびエージェント機能を統合することで、ハードウェアからAIエージェントまでを提供する包括的な技術スタックが実現し、組織の分散した実験環境が統一され、統制の取れた自律的なAI運用への移行が可能になるとしている。

 Red HatのAIモデルエコシステムを拡張し、Mistral-Large-3、Nemotron-Nano、Apertus-8B-Instructの検証済み・実稼働対応圧縮バージョンがOpenShift AI Catalogから利用可能になった。また、Mistral 3やDeepSeek-V3.2といった最先端モデルは、スパースアテンションにも対応している。さらに、Whisperの3倍の処理スピード、地理空間データ対応機能の提供、EAGLEの投機的デコーディング機能やエージェントワークフロー向けのツール呼び出し機能の向上など、マルチモーダル機能も強化した。

 AIモデルへのセルフサービスアクセスが実現し、Models-as-a-Service(MaaS)の技術プレビューも利用可能になった。ITチームは、APIゲートウェイを介して社内でホストされたAIモデルへのセルフサービスアクセスを提供できるようになる。この一元管理アプローチにより、社内ユーザーがAIをオンデマンドで利用でき、企業内においてプライベートかつスケーラブルに、即応型AI基盤の構築を促進できる。

 ハードウェアサポートも拡大し、Intel CPUを皮切りに、CPU上での生成AI実行の技術プレビューを提供し、コスト効率の高いSLM(小型言語モデル)推論が実現する。さらに、NVIDIAのBlackwell Ultraのハードウェア認証の拡大やAMD MI325Xアクセラレータも新たにサポート対象に加わった。

 また、新リリースのRed Hat AI Python Indexにより、データからモデルまでの統合ライフサイクルの保護が実現する。この信頼性の高いリポジトリは、Docling、SDG Hub、Training Hubといった重要ツールのエンタープライズグレード向け強化版を提供し、チームが実験環境を統一し、繰り返し実行可能でセキュリティが強化された本番環境での運用に移行をサポートする。

 包括的なAIの可観測性と安全性を確保することで、モデルの健全性、パフォーマンス、挙動の可視性が向上し、AIワークロード、llm-dデプロイメント、MaaSクラスター、モデルの使用状況などをリアルタイムに把握できるテレメトリを提供する。また、統合型NeMo Guardrailsの技術プレビューにより、開発者はAIインタラクション全体にわたって運用上の安全性と整合性を確保できるようになる。

 GPUリソースへのオンデマンドアクセスの提供により、組織が高度なオーケストレーション機能や自動チェックポイント機能を備えた共有ハードウェアアクセスを活用し、社内独自のGPUサービス(GPU-as-a-Service)環境を構築できる。長時間の学習ジョブ状態を保持できるため、作業の損失を防ぎ、変化の激しい環境や(中断される可能性のある)プリエンプティブルな環境下でも計算コストを安定化する。