Red Hat AIの3番目のポートフォリオとしてリリースされたRed Hat AI Inference Serverは、vLLMをコアにした推論AIサーバー。推論モデルとして標準的なオープンモデルを多くサポートし、RHEL AIやOpenShift AIのほか、あらゆる環境にデプロイできることを特徴としている