ニュース
レッドハットがOpenShiftの戦略を解説、顧客のトレンドやOpenShift AI、エッジなど
2023年9月25日 06:00
Red Hatでは、LinuxディストリビューションのRed Hat Enterprise Linux(RHEL)に続くコアビジネスの1つとして、Kubernetesをベースにしたコンテナプラットフォームの「Red Hat OpenShift」を位置づけている。
さらにRed Hatでは、OpenShiftを、データサイエンティストやAI技術者向けの「OpenShift Data Science」「OpenShift AI」や、エッジデバイス向けのOpenShiftとRHELの軽量構成「Red Hat Device Edge」など、クラウドネイティブアプリケーション以外の領域にも広げている。
こうしたOpenShiftの最新の取り組みについて、Red HatでOpenShift製品のプロダクトマネジメントを統括するバイスプレジデントのMike Barrett氏に、特にOpenShift AIを中心に話を聞いた。
また、日本市場やエッジ向けの取り組みについて、レッドハット株式会社 ソリューションアーキテクトの小野佑大氏に話を聞いた。さらに、Red HatでOpenShiftの開発チームのディレクターであるNick Stielau氏にも話を聞いた。
AIの時代にプラットフォームを提供するのがOpenShift AI
最新のOpenShiftの取り組みとして、Barrett氏はまず「OpenShift AI」について説明した。OpenShift AIは、2023年5月に発表されたOpenShift上のMLOps(AI開発版DevOps)プラットフォームだ。
AI専門の優れたISVの製品をOpenShift AIとして統合する
OpenShift AIは実際には複数のプロダクトを束ねた総称(アンブレラ)であり、現在はその中に「OpenShift Data Science」のみが含まれている。OpenShift Data ScienceはOpenShiftのアドオンで、OpenShift AIの発表とともにGA(一般提供開始)となった。Barrett氏によると、続いて、2024年春に「OpenShift Data Science Serving」がOpenShift AIに加わる予定だという。これは、開発されたAIモデルによる推論機能を提供(サービング)する部分に絞ったプロダクトだ。
OpenShift AIがAI開発においてどういう立ち位置にあるか質問したところ、Barrett氏は「AI専門の優れたISVがたくさんある」と背景を語った。ただし、それらのISVは、Kubernetesの深い部分や、大規模な開発者エクスペリエンスなどについては得意でないといった弱点があることがある。そうしたソフトウェアをRed Hatがピックアップし、穴を埋め、OpenShift上で統合したプロダクトとして簡単に使えるようにするのがOpenShiift AIだ、とBarrett氏は語った。
いわば、Linuxカーネルと各種OSSを1つにまとめてRHELを開発したり、Kubernetesと各種クラウドネイティブソフトウェアをまとめてOpenShiftを開発したりするのと同じようなことを、OpenShift上で動くAI開発ツールで行うのがOpenShift AIだというわけだ。
「今はAIの時代だとRed Hatは強く思っている。そこにプラットフォームを提供するのがRed Hatの立場であり、その基盤がOpenShiftだ」(Barrett氏)。
AIモデルの開発からサービング、モニタリングまでの構成テクノロジー
Barrett氏は、「Red Hatは2016年からデータサイエンティストのためのワークフローの提供を始めた」と語る。まずは、NVIDIAやIntelと協力してKubernetesでGPUを使えるようにした。また、CUDAやscikit-learn、Pytorch、Jupyter Notebookなどのコンテナを用意し、データを扱うイテレーションが行えるワークベンチを提供する、Open Data Hubというプロジェクトも立ち上げた。
そうした最新の取り組みをいくつかBarrett氏は紹介した。
まずAIモデル開発の分野で、「CodeFlare」というオープンソースプロジェクトを立ち上げたと氏は紹介。「いくつのGPUが必要か、どのぐらいのクラスターがどういった形で必要か、といったことに、開発者が対応できるようになる」とBarrett氏は説明する。
HPCなどの長い時間がかかるバッチジョブに向いたKubernetesスケジューラーである「MCAD」(Multi Cluster App Dispatcher)も開発された。また、Pythonの分散処理フレームワーク「Ray」をKubernetesで動かす「KubeRay」というOSSもある。
AIモデルのサービングでは、モデルサービング管理の「KServe」や分散モデルサービングの「ModelMesh」を紹介。AIモデルをデプロイし、APIエンドポイントを作成し、モデルのバージョンを管理できるという。
そのほか、AI共有サイト「Hugging Face」ともパートナーシップを結んでいることや、テキスト生成AIのサービングの「TGIS」(Text Generation Inference server)というOSSにも投資を開始していることも、Barrett氏は紹介した。
「OpenShiftにプラグインするエコシステムが広がるため、Red Hatではそのインターフェイスを増やす取り組みをしている」(Barrett氏)。
なおこれらのプロダクトの提供時期について、KubeRayとCodeFlareは10月に、モデルサービングの部分は12月に、モデルモニタリングの部分は2024年3月に提供する、とBarrett氏は語った。
OpenShiftの最新のトレンド
続いてBarrett氏は、OpenShift全体の戦略と顧客のトレンドについて語った。
背景として氏は、Red Hatが近年打ち出している「オープンハイブリッドクラウド」という言葉を取り上げた。「複数のクラウドにまたがるインフラ、というだけではない。複数のアプリケーションパターンを1つのプラットフォームで扱えることが重要だ。モノリシックも、3層アプリケーションも、APIも、イベントドリブンも、AI・機械学習も、みな同じプラットフォームで提供できるのがオープンハイブリッドクラウドだ」(Barrett氏)。
既存アプリケーションをOpenShiftを生かしてモダナイゼーション
トレンドとしてまずBarrett氏が取り上げたのが、既存アプリケーションのモダナイゼーションの分野だ。
動きとしては、Quarks(クラウドネイティブ向けJavaランタイム&フレームワーク)のような軽量ランタイムへの移行や、プラットフォームを生かしたアプリケーションの水平スケール、現代的なストレージAPIの採用などが行われているという。「以前はそうなっていなかったが、今年からそのような動きがある」(Barrett氏)。
コンテナも仮想マシンも同じくOpenShiftで動かす
2つめの分野は、仮想化だ。これまで、VMwareの時代、Amazon EC2(などのクラウド型のコンピュート)の時代、コンテナの時代の3つの時代があったとBarrett氏。このような仮想マシンやコンテナを、同じAPIや同じコマンドで、スケールアップ/ダウンやネットワーク設定、ストレージ設定など、まったく同じことができると氏は語った。
「Red Hatは、コンテナプラットフォームの中で仮想マシンも動くべきだと考え、3年前にKubeVirtというプロジェクトに投資を始め、堅牢なプラットフォームができている。これには、KVMハイパーバイザーとOpenShiftの両方に投資してきた成果が生かされている」(Barrett氏)。
同様に、「インフラの自動化も提供している」として、Kubernetesからコンテナのようにベアメタルサーバーを管理MetalKube(Metal³)というプロジェクトを氏は紹介した。「マシンをブートし、OSをプロビジョニングしえ、クラスターに参加させ、ダイナミックにマシンをスケールアップ/ダウンできる」(Barrett氏)。
このようにRed Hatでは包括的な仮想化を提供しており、それを「OpenShift Virtualization」と呼ぶ、とBarrett氏は語った。
Kubernetes本体以外の関連ソフトウェアの活動が活発に
次の分野は、Kubernetesと関連ソフトウェアのイノベーションだ。
Barrett氏は、Kubernetesなどを開発するCNCFのさまざまなプロジェクトのGitHubでのコミット数の移り変わりのグラフを示し、Kubernetesのコミット数の割合が年々小さくなっていることを指摘。それ以外のプロジェクトが増えていることを示した。
「Kubernetesは今はミッションクリティカルに使われるようになり、安定の方向にある。それにともなって、ほかのプロジェクトにイノベーションが移っている」とBarrett氏は言う。「Kubernetesによってビジネスのアドバンテージを得るには、Kubernetesだけでななくそのほかのテクノロジーも重要だ。OpenShiftはそのすべての部分をカバーし、アウトオブザボックス(箱を開けてすぐ使える状態)で提供する」(Barrett氏)。
SigStoreによりコード署名でソフトウェアの来歴を確認
次の分野は、“ソフトウェアの来歴”だ。Barrett氏は、政府も採用するSolarWinds社のソフトウェアで2020年にサイバー攻撃者によりマルウェアが混入され、業界全体を脅かした事件を紹介。「脆弱性は、ソフトウェアではなく、ソフトウェアを作るプロセスにあった。見えない攻撃を見える化するために、すべてに電子署名する必要がある」と語る。
Kubernetesの中での電子署名はこれまでも何度か試みられたが、コード署名の「SigStore」というOSSにより初めて開発者が実用的に使えるものになった、とBarrett氏は語る。それは、OpenID Connectの認証による署名など、自動的に署名する仕組みがSigstoreに備わっているからだという。
Sigstoreにより、CI/CDでのユニットテストやデプロイ、コンテナ作成、ソフトウェアのビルドなど、さまざまなところで署名とその確認ができ、例えばビルドするときに正しい署名がなされていなければビルドを中止するといったことができる。
そして、このテクノロジーを使いたいという声がRed Hatに寄せられて作業している中から、開発者ハブの「Developer Hub」や、Sigstoreを含むクラウド上のパイプライン「Red Hat Trusted Application Pipeline」が生まれた、とBarrett氏は語った。
パブリッククラウドとの契約でOpenShiftを利用
最後の分野がパブリッククラウドへの移行だ。顧客はすでにパブリッククラウドへの移行を進めており、どうやって製品を購入するかが重要になっていて、「パブリックラウドのマーケットプレイスからソフトウェアを購入できるようにしてほしい」と言われているとBarrett氏は言う。
そして「Red Hatはパブリッククラウドと良好な関係を築いており、特にAWSやAzureではユーザーがクラウド事業者に料金を払ってOpenShiftを使えるようになっている。そういう関係をパブリッククラウドと築いていることをお客さまは評価してくれている」とBarrett氏は語った。
OpenShiftによる縦と横のスケールをエッジにも
小野佑大氏はエッジでのOpenShiftについて説明した。
Red Hatでは「エッジ」として、通信事業者の施設の「Provider Edge」、工場など企業内の現場の「End-user Premises Edge」、組み込み機器の「Device Edge」の3つを対象としてコンピューティングを展開している。
小野氏は日本の動向をふまえ、企業ではデータ連携において、本社から現場までの「縦のスケール」と、同じインフラやアプリを各地に横展開する「横のスケール」を求めており、それを効率的に展開するためにKubernetesが使われる、と説明した。
また日本の動向として、クラウドネイティブの開発運用体験をエッジにももたらし、アジリティや柔軟性を高めるということがあるという。例えば拠点にセンサーやカメラを設置してデータを集めて分析する場合、全データを中央に送るのではなくエッジ側で処理するというユースケースがある。また、エッジに展開するアプリケーションを機動的に開発や運用したり、エッジの機器を現地で接続するだけでセットアップされる「ゼロタッチプロビジョニング」を実現するユースケースも、小野氏は紹介した。
OpenShiftはインフラだけではなく、ベストプラクティスと合わせて提供する
最後にNick Stielau氏が話をまとめた。
「ビジネスで成功するには、選択肢と見解の両方が必要」とStielau氏。OSSではさまざまなソフトウェアがあり、選択肢が提供される。また、Red Hatのパートナーからもさまざまなソリューションが提供されている。
そして、その選択肢を実際に使うには、選択肢から選んでうまく使う見解が必要になり、それをOpenShiftが提供するという。「OSSのいいところを集めて統合し、パートナーソリューションと合わせてプラットフォームを提供するのがOpenShiftだ。単にテクノロジーだけではなく、開発者が成功する要素を備えている」とStielau氏。
「OpenShiftはベストプラクティスにもとづいて、もっともセキュリティが高いやりかたや、もっとも簡単なやりかたを提供する。インフラだけではなく、それ以上のものであり、それこそが『オープンハイブリッドクラウド』だ」(Stielau氏)。