ニュース

Cloudflare、AIモデルのグローバルなデプロイを実現する「Workers AI」を提供開始

 米Cloudflareは現地時間2日、AI開発者のためのオープンなコラボレーションプラットフォームである「Hugging Face」から、ワンクリックでCloudflareのグローバルネットワーク上にAIアプリケーションをデプロイ可能になったことと、AI推論を大規模にデプロイするためのプラットフォーム「Workers AI」の一般提供開始を発表した。

 これにより、CloudflareはAIモデルのデプロイのために「Hugging Face Hub」に統合された、初のサーバーレス推論パートナーになったと説明。開発者は、インフラを管理したり、未使用のコンピューティングキャパシティに料金を支払ったりすることなく、迅速で手軽に、低価格でAIアプリケーションをグローバルにデプロイできるようになるとしている。

 Workers AIは、次世代のAIアプリケーション環境の構築に向け、AIモデルを効率的かつ手頃な価格でスケールおよびデプロイするための、エンドツーエンドのインフラを提供する。Cloudflareは現在、世界150以上の都市でGPUをデプロイしており、世界中で低遅延のAI推論を提供している。また、Workers AIは、AIモデルの重みを微調整できるように対応を拡大しており、企業・組織が、より専門的でドメインに特化したアプリケーションを構築およびデプロイできるように支援している。

 Workers AIに加え、Cloudflareの「AI Gateway」では、AIアプリケーションのためのコントロールプレーンを提供し、開発者がリクエストを動的に評価して、各種モデルとプロバイダーにルーティングできる。開発者がデータを用いて微調整を行ったジョブを、Workers AIプラットフォーム上で直接実行できる。

 Workers AIの一般提供開始に伴い、開発者はAIモデルをHugging Faceからワンクリックで直接デプロイできるようになる。これにより、CloudflareのGPUのグローバルネットワーク上のAIモデルにアクセスし、推論リクエストを実行する方法が実現する。開発者は、人気のオープンソースモデルを選び、「Deploy to Cloudflare Workers AI」をクリックするだけで、すぐにAIモデルをデプロイできる。現在、Cloudflareのグローバルなサーバーレス推論プラットフォーム向けに最適化したHugging Faceモデルが14モデル用意されており、テキスト生成、埋め込み、類似文章検索の3つのタスクカテゴリに対応している。