イベント
Red Hat、年次カンファレンス「Red Hat Summit 2025」をボストンで開催、RHEL 10やAI推論関連のアップデート多数
2025年5月23日 06:00
米Red Hatは5月19日~22日(米国時間)の4日間にかけて、同社の年次プライベートカンファレンス「Red Hat Summit and AnsibleFest 2025」を米国ボストンで開催した。カンファレンスのテーマには「Unlock what's next ‐ Any model. Any accelerator. Any cloud.」を掲げ、ハイブリッド/マルチクラウド環境におけるシームレスなAIモデル運用、特に推論により注力していくことを明らかにしている。
今回のカンファレンスでRed Hatが発表した主要なアップデートは以下の通り。
Red Hat Enterprise Linux 10(RHEL 10)
既存のRHELユーザー向けにはすでに提供を開始していたRHEL 10の一般提供開始を正式に発表。ベースのカーネルはLinux 6.12で、コンテナネイティブで一貫したOS環境の運用/管理を実現する「イメージモード」、米国国立標準技術研究所(NIST)の耐量子暗号アルゴリズムの統合、生成AI機能を統合し、自然言語(英語)インターフェイスによるコマンド操作を可能にした「Red Hat Enterprise Lightspeed」など多くの新しいアーキテクチャをサポート。
Red Hat AI Inference Server
LLM(大規模言語モデル)の推論に特化したオープンソースライブラリ「vLLM」をコアにした、高速で低コストな推論環境を実現する推論モデルサーバー機能。Red Hat OpenShift AIまたはREHL AIに統合されているが、スタンドアロン製品としてRed Hat以外のプラットフォームに推論モデルを展開することも可能。さまざまなサードパーティリポジトリ上にある検証済みの推論モデルを、デプロイ先のリソース環境に応じて最適化し、高速かつ低コストなモデルサポートを実現する。なお、この推論サーバーは2024年に買収したvLLMエキスパート企業のNeural Magicの技術をベースにしている。
llm-d
vLLMとKubernetesをベースに、分散環境におけるAI推論の大規模な運用(Inference at scale)をめざすオープンソースプロジェクト「llm-d」を設立。ローンチメンバーはRed Hatに加え、CoreWeave、Google Cloud、IBM Research、NVIDIAで、パートナーとしてAMD、Cisco、Hugging Face、Intel、Lambda、Mistral AIが参加する。
Llama StackとMCP(Model Context Protocol)のRed Hat AIポートフォリオへの統合
エンタープライズにおけるエージェントAIの標準化を推進するアーキテクチャとしてLlama StackとMCPをRed Hat OpenShift AIに統合、AIエージェント開発の簡素化/標準化を進めながらユーザーが独自のエージェントフレームワークを活用することも可能にする。
このほかにもAMDやNVIDIA、Google Cloudとの間における新たなAIエコシステムの拡張や、OpenShift AI 2.20およびRHEL AI 1.5といったAIポートフォリオのアップデートも発表されたほか、2024年から提供を開始したRed Hat OpenShift Virtualizationが年間で約3倍のペースでビジネスが拡大し、NASA、Ford、NetApp、北陸電力など幅広い業界で採用されたことが公開されている。
カンファレンス全体を通しては、推論にフォーカスしたアナウンスやセッションが多く、エンタープライズにおける高速でコスト削減効果の高い推論環境の構築に注力していく戦略のようだ。
5月20日に行われたオープニングキーノートにおいてRed Hatのプレジデント兼CEOを務めるマット・ヒックス(Matt Hicks)氏は「オープンソースのパワーはソフトウェアの世界を劇的に変えてきたが、AIにおいても同じことが起ころうとしている。我々はAIのパワーをオープンソースによる民主化でそのポテンシャルを解放(unlock)する。オープンソースがソフトウェアの世界におけるバリアーを破壊したように、AIはさまざまなバリアーをこれから破壊することになるだろう」と語り、同社が培ってきた培ってきたオープンソースベースのポートフォリオを介して、新しいフェーズに入ったエンタープライズのAI活用をサポートしていく姿勢をあらためて明確に表明した。