イベント

RHEL 10、OpenShift Virtualization、そして推論AI――、AI時代に向けてRed Hatが示した“what's next”への布石

 「トラディショナルなアプリケーションであっても、最新のAIワークロードであっても、顧客が望む場所でそれらを動かせる基盤を提供する、これは以前からの我々の使命であり、今後も変わらない。だが我々はもう少し先に確実に起こるであろう“what's next”を見据えており、現在と未来のそれぞれのニーズのバランスを取りながら、製品開発やパートナーシップの提携を行っている」――。

 5月20日(米国時間)、米ボストンで開催されたRed Hatの年次プライベートカンファレンス「Red Hat Summit 2025」(5/20~5/23)のオープニング基調講演終了後、同社CEOのマット・ヒックス(Matt Hicks)氏は、報道関係者向けのフォローアップ説明会の場でこう語った。

Red Hat CEO兼プレジデント マット・ヒックス氏

 今回のカンファレンスでは、テーマとして「Any workload. Any app. Anywhere. - Unlocking what's next」が掲げられたが、ヒックス氏の言葉にもあるように、以前からの同社の路線を継承しつつ、来るべき“what's next”にも備えていく姿勢をあらためて強調したメッセージだといえる。

Red Hat Summit 2025で掲げられたテーマ「Any workload. Any app. Anywhere.」には、オープンソースで構築されたプラットフォームが次世代のAIプラットフォームとなるというメッセージがこめられている

 では、Red Hatが“what's next”として見定めているトレンドは何なのか。多くのテクノロジーベンダーと同様に、Red Hatも今後、AIが誰にとってもより身近な存在(AI everywhere and anywhere)になると予測しているが、特にエンタープライズITにおいてその中心となるのは「オープンソースで構築されたAIプラットフォームとエコシステム」だと、同社CTOのクリス・ライト(Chris Wright)氏は基調講演で語っている。

Red Hat CTO クリス・ライト氏

 「オープンソースはこれまで、エンタープライズITの世界で新たな価値を創出してきたが、AIの世界でも同じことが起こりつつある。オープンなAIこそが柔軟性、さらにそれに伴う選択肢をエンタープライズにもたらす。AIの未来はオープンにある(The future of AI is open.)」というライトCTOの言葉には、”what's next”となるトレンドが何であれ、それを支えるAI基盤はオープンなテクノロジとエコシステムであるという、約30年に渡って実績を積み上げてきたオープンソースベンダとしての強い自信が垣間見える。

 ライトCTOはさらに、同社のこの姿勢を象徴するメッセージとして「Any model. Any accelerate. Any cloud.」を掲げており、あらゆるモデル、あらゆるアクセラレータ、そしてあらゆるクラウドをカバーできるAIプラットフォームとエコシステムの構築をオープンソースで推進していくとしている。

AIがより日常的になっている未来には“Any model. Any accelerator. Any cloud.”を実現するプラットフォームが必要であり、そのプラットフォームはオープンソースで構築されているというのがRed Hatの主張

 実際、今回のRed Hat Summitで発表されたアップデートの内容は、数年先のIT、そしてAIの未来を想定していると思わされるものが多い。

 本稿ではこれらのアップデートの中から特に注目度が高かった3つの領域――、3年ぶりのメジャーリリースとなったフラグシップOS「Red Hat Enterprise Linux 10(RHEL 10)」、仮想化環境のオルタナティブとして急速にビジネスを拡大させている「Red Hat OpenShift Virtualization」、そして「Red Hat AI Inference Server」をはじめとする推論AIへの取り組みにフォーカスし、同社が描く”what's next”の全体像を展望する。

◯RHEL 10
 2022年5月にリリースされた「Red Hat Enterprise Linux 9.0」から、メジャーリリースの期間が5年から3年に短縮され、その約束通りのアップデートとなったRHEL 10には数多くの機能が追加されているが、開発を統括したRed Hat シニアバイスプレジデント兼 最高製品責任者(CPO) アシェ・バダニ(Ashesh Badani)氏は、RHEL 10の主だった特徴として以下の5つを挙げている。

Red Hat シニアバイスプレジデント兼 最高製品責任者 アシェ・バダニ氏

・Image Mode for RHEL:コンテナネイティブなOSのライフサイクル管理を実現、OSのアップデート/ロールバックを差分イメージで実行可能に
・RHEL Lightspeed:RHEL固有の専門知識をベースにしたAIアシスタントをコマンドライン上で利用可能に
・Red Hat Insights Planning for RHEL:Red Hat InsightsのRHEL向けプランニング機能を活用し、RHELのリリースやアプリケーションストリームのロードマップ/ライフサイクルを一元管理
・Post‐Quantum Cryptography(PQC):近い将来に量子コンピュータが分析で利用可能になった場合、収集されたデータが量子コンピュータで解析されないようにする耐量子暗号方式の実装
・RHEL Extensions Repository:パートナー企業やオープンソースコミュニティが開発する、Red Hatが厳選したオープンソースソフトウェアを収集/提供するリポジトリ

 これらの中でも特に注目されているのが、Image ModeとLightspeedの実装だ。RHEL 10の開発に関わったリーダーのひとりである、Red Hat コアプラットフォームエンジニアリング担当バイスプレジデント マイク・マックグラス(Mike McGrath)氏は、この2つを「ここ数年のRHELの進化を象徴するアップデート」と筆者とのインタビューで語っている。

Red Hat コアプラットフォームエンジニアリング担当バイスプレジデント マイク・マックグラス氏

 「Image ModeはOSの管理のあり方を根本から変える。まさに“パッケージモード”から“イメージモード”に転換したと言っても過言ではない。OSをコンテナイメージとして管理できるようになったことで、これまで頻繁に発生していた手動による設定変更が要因のドリフトが回避され、ベアメタル/オンプレミス/クラウド/エッジなど環境を問わずにOSをブートイメージで展開できる。差分インストールにより更新が簡単になるだけでなく、パッチの適用頻度も減るはずだ。またLightspeedはコマンドライン上で自然言語で“◯◯を手伝ってほしい”と入力すると、RHELのドキュメントやパッケージを分析し、リクエストに応じた複数の提案をしてくれる非常に便利なAIガイダンス機能だ。Linux人材のスキルギャップを埋める意味でも多くのユーザー企業から期待されている」(マックグラス氏)。

RHEL 10の最大の特徴のひとつであるImage Modeは、コンテナとしてOSイメージを管理することでOSの修正やアップデート、パイプライン構築を容易にする。「OS管理をパッケージモードからイメージモードに変える革新的な機能」(マックグラス氏)
コマンドライン上で自然言語によるトラブルシューティングを可能にするRHEL Lightspeedは、Linux人材のスキルギャップを埋める機能としても注目される。基調講演ではApache HTTPサーバーの起動に失敗した場合の対応について回答している

 いずれの新機能も、さらなるAIの普及を前提にしたアップデートであり、またRHEL 10のカーネルには、Linux 6.12という2024年11月リリースの比較的新しいバージョンが採用されている。

 かつてのRHELは安心安全を徹底した“枯れたOS”としてのイメージが強かったが、新しくなったRHEL 10はAI、ハイブリッドクラウド、セキュリティのいずれの分野でも現在の顧客のニーズに応えつつ、“what's next”にも対応するモダンで信頼できる基盤へと進化しているようだ。

 「RHELはCentOS Streamをベースにしたオープンソースプロダクトだが、エンタープライズの顧客のフィードバックを受けて成長を続けてきた。今回でいえば、メジャーリリースの期間を5年から3年に変更したのも顧客の要望にもとづいたものだし、反響が大きいImage Modeは金融や公共など規制の厳しい業界から強く望まれていた。RHELはオープンソースとしての先進性とエンタープライズのニーズのバランスを常に取り続けてきたが、RHEL 10はある意味、その集大成といえるだろう」(マックグラス氏)。

◯Red Hat OpenShift Virtualization
 RHEL 10やRed Hat OpenShift AIのように目立ったアップデートは発表されなかったものの、カンファレンス参加者からの注目がひときわ高かったプロダクトがRed Hat OpenShift Virtualization(以下、OpenShift Virtualization)だ。

 バダニ氏は、OpenShift Virtualizationのビジネスがこの1年で「顧客数は3倍、本番稼働のKubernetesクラスタ数は2倍、ホストされる仮想マシン(VM)の数は3倍」と大きく成長していることをあらためて強調している。

 また、OpenShift Virtualizationのパートナーエコシステムも順調に拡大しており、今回のカンファレンスではパブリッククラウドのパートナーとして既存のAWS、IBM Cloudに加え、Microsoft Azure(パブリックプレビュー)、Google Cloud(テクノロジプレビュー)、Oracle Cloud Infrastructure(テクノロジプレビュー)の基盤にもOpenShift Virtualizationが対応したことが発表された。

AWS、IBM Cloudに加え、Microsoft Azure、Google Cloud、Oracle Cloud InfrastructureがRed Shift OpenShift Virtualizationのサポートを発表

 OpenShift Virtualizationのビジネスが急成長している最大の要因は、Broadcomに買収されたVMwareの大幅なライセンス改定にある。これにより多くのVMwareユーザー企業がコスト増を強いられる事態となり、仮想基盤の移行先の候補としてOpenShift Virtualizationの名前が挙がることが増えてきた。

 特に、コンテナ化できないワークロードが動いている仮想マシンをコンテナと同じプラットフォーム上で稼働させたいという理由から、OpenShift Virtualizationを選ぶ企業が多く、基調講演では、アラブ首長国連邦最大の金融機関であるEmirates NBDが、約9000台もの仮想マシンをOpenShift Virtualizationに移行中であるという事例が発表され、その規模の大きさが会場の聴衆を驚かせた。

 発表を行ったEmirates NBD コンピュートプラットフォーム部門責任者 ニコラス・ジャスティン・グリム(Nicholas Justin Grimm)氏は、“VMware”というキーワードはプレゼンでは使わなかったものの、「2024年に仮想環境にかかるコストが増大することが判明し、移行を検討する大きなきっかけとなった」と明かしている。同社はもともとOpenShiftの大規模ユーザーであり、2025年時点で3万7000を超えるコンテナをOpenShift上で稼働させている実績があったため、OpenShift Virtualizationとの親和性も高かったことも採用の大きな決め手になったという。

Emirates NBDは、既存の環境で動いていた仮想マシン9000台(1晩で平均140台)をOpenShift Virtualizationに移行中

 日本の金融機関も同じ傾向があるが、Emirates NBDのような大規模な金融機関は、レガシーワークロードの安定運用と同時に、次世代バンキングシステムに向けたモダナイゼーションも急務となっている。OpenShift VirtualizationはKVM/Kubernetesを実装した「KubeVirt」というオープンソースプロジェクトをベースにしており、レガシーワークロードを抱える企業にとっては、コンテナの中で仮想マシンを動かせるという点は非常に魅力的なポイントだ。

 ただし、現時点でRed HatはOpenShift Virtualizationを「VMwareのオルタナティブ」とは(表面上は)位置づけておらず、メインのターゲットは、Emirates NBDのように既存のOpenShiftユーザーであるとしている。

 筆者がインタビューしたあるAPAC(アジア太平洋地域)の幹部は「我々はOpenShift Virtualizationが“VMwareのオルタナティブ”と呼ばれることをあまり望まない」と語っており、OpenShiftのコンテナ環境をスケールさせたい顧客のために仮想環境のサポートを拡充している、という姿勢を崩していない。

 一方で「OpenShift Virtualizationはまだ(仮想マシンの実行/管理基盤として)実現できていない機能も多く、随時改善していく予定だ」(同幹部)とも語っており、特にVMwareがvCenterで実現している仮想マシンの一元管理に関しては、顧客からの要望も多いことから、早急に機能強化を図っていきたいとしている。VMwareやその他の競合も含め、新しい過渡期に入っている仮想化市場だが、明言は避けつつもRed Hatも存在感を備えたプレイヤーであることは間違いない。

◯推論AI
 冒頭でも触れたように、Red Hatが描く“what's next”は、AIがより普及した未来が前提となっているが、その前提に含まれている重要なトレンドが推論AIである。2025年に入ってから、大手テクノロジーベンダーの多くが推論AIへの取り組みを本格化させているが、Red Hatにおいて推論AIの中核となっているプロダクトが、オープンソースプロダクトのvLLMだ。

 同社は2024年11月にvLLMの主力開発企業だったNeural Magicを買収、推論AIに関する技術資産とエキスパートを獲得しており、今回のカンファレンスではNeural MagicのCEOだったブライアン・スティーブンス(Brian Stevens)氏が、Red HatのAI担当CTOとして登壇、Red HatとNeural Magicのシナジーによるいくつかの興味深い発表を行った。なお、スティーブンス氏は以前、Red HatのCTOを務めていたキャリアを持つ(クリス・ライトCTOの前任者)。

Red Hat AI担当CTO ブライアン・スティーブンス氏。買収されたNeural MagicのCEOでもあり、Red Hatの前CTO

 以下、スティーブンス氏によって発表されたvLLMをコアにした2つの発表の概要を示しておく。

Red Hat AI Inference Server

 Red Hat OpenShift AI、Red Hat Enterprise Linux AIに続く、「Red Hat AI」の3つ目のポートフォリオとなる推論サーバー。限られたGPUリソースを効率よく管理し、高スループット/低レイテンシなモデルサービングを実現する推論エンジンとしてのvLLMのケイパビリティを、エンタープライズのあらゆる環境に提供する。

 コンテナイメージとして提供されるため、RHELおよびRed Hat OpenShiftのほか、パブリッククラウドが提供するKubernetesサービスやオンプレミスのLinux環境などにもデプロイ可能(RHEL AIおよびRed Hat OpenShift AIではコンポーネントのひとつとして提供される)。

 サポートするアクセラレータに関しても、NVIDIA、Intel、AMD、Googleなど多くのパートナーと連携している。Llama、DeepSeek、Mistral、Graniteといった標準的なオープンモデルをサポートしており、これらのモデルの推論性能を最大化するよう設計されている。また、vLLMに加え、モデルサイズの圧縮と最適化(量子化)を行うツール「LLM Compressor」も含まれている。

Red Hat AIの3番目のポートフォリオとしてリリースされたRed Hat AI Inference Serverは、vLLMをコアにした推論AIサーバー。推論モデルとして標準的なオープンモデルを多くサポートし、RHEL AIやOpenShift AIのほか、あらゆる環境にデプロイできることを特徴としている

llm-d

 「推論AIやエージェントAIの普及のカギはスケーリングにある」(スティーブンス氏)という考えのもと、大規模な分散環境における推論をサポートするKubernetes/vLLMベースのオープンソースプロジェクト「llm-d」をローンチ。Kubernetesのオーケストレーション能力を活用することで、高いパフォーマンスを維持しながらコンピュートやストレージなどのリソースをワークロードのニーズに応じて動的に割り当て、コンテナイメージとしてデプロイされたvLLMがスケーラブルで効率的な推論を実行する。

 vLLMはPagedAttentionという独自のメモリ最適化アルゴリズムを活用して、KVキャッシュ(過去のトークンのKeyとValueを保存したキャッシュ)を仮想メモリのようにページ単位で管理し、動的に制御することでメモリ消費量を抑えているが、llm-dではKVキャッシュを外部ストレージにオフロードし、メモリの負荷とコストの増大をより抑えることが可能になる。プロジェクトにはCoreWeave、Google Cloud、IBM Research、NVIDIAが共同創設者として、AMD、Cisco、Hugging Face、Intel、Lambda、Mistral AIがパートナーとして参加する。

大規模分散環境における推論AIのスケーリングを目的に、Red Hatがパートナーとローンチしたオープンソースプロジェクトllm-dは、vLLMとKubernetesをベースにしている。ルーティング機能としてKubernetesのGateway APIを機能拡張したInference Gatewayを採用し、推論処理の能力に応じてスケーリングする

 またライトCTOからは、エージェントAIに関するRed Hatの新しい取り組みとして、MetaおよびAnthropicとのパートナーシップを強化し、Llama StackおよびMCP(Model Context Protocol)をベースにしたエージェントAIのための標準APIを開発中であることが発表された。

 2024年9月にリリースされたLlama 3.2と同時に公開されたLlama Stackは、vLLMやOllama、TGIといった特定の環境(プロバイダ)に最適化された検証済みのディストリビューションがあらかじめ用意されており、AIアプリ開発のファーストアプローチを容易にする。

 また、プラグインアーキテクチャが採用されているので、開発者はローカルの開発環境(例えばOllama)で構築したアプリケーションを、コードを変更することなく本番環境(例えばクラウド/vLLM)に移行することが可能だ。Llama StackはAIアプリケーション開発に必要な推論やRAG、ツールなどのコンポーネントを標準APIとして提供しており、これまで一貫性がなかったAIアプリケーション開発の標準化を促進し、エコシステム全体のベストプラクティスを体系化する効果が期待されている。

 このLlama Stackに、エージェントワークフローに必要なAPIやデータソースを接続するための標準化されたインターフェイスを提供するMCPを併用することで、“コンテキストを理解して実行するAIエージェント”の作成が進むというのがRed Hatの主張だ。Red Hatは今後、MetaやAnthropic、ハードウェアベンダーとの協業を進めながら、Llama StackとMCPおよびvLLMを組み合わせたAIエージェント作成のためのリファレンスアーキテクチャを開発し、OpenShift AIの機能として提供する予定だ。

Llama StackとMCPをベースにしたエージェントAIのための標準APIをリファレンスアーキテクチャとして開発し、RHEL AIおよびOpenShift AIの機能として提供予定

******

 今回のRed Hat Summitで発表された内容を見ると、やはりAIがより普及した未来を前提にしたアップデートであることがよくわかる。冒頭で紹介したヒックスCEOの言葉にあるように、「現在と未来のニーズのバランス」をオープンソースで適切に構築できることがRed Hatの強みであり、そのアプローチに多くのパートナーが賛同して独特のエコシステムが作られている。

 今回のカンファレンスで打たれた“what's next”への布石が、1年後のインフラ市場にどんな変化をもたらしているのか、引き続き注目していきたい。