特集

生成AIで価値を生み出すための支援を全方位から――、AWSジャパン、生成AIビジネスの現在地を語る

 「生成AIが登場したばかりのころは実証実験(PoC)で良い結果を出すことがゴールだった。だが2025年のいまは生成AIが具体的なビジネス価値を創出することが求められている」――。

 6月10日、アマゾンウェブサービスジャパン合同会社(以下、AWSジャパン)が報道関係者向けに開催した、同社の生成AIにおける取り組みに関する説明会でプレゼンを行った、AWSジャパン サービス&テクノロジー事業統括本部 技術本部長 小林正人氏は、生成AIに対する顧客からの期待値が大きく変わってきたと話す。

AWSジャパン サービス&テクノロジー事業統括本部 技術本部長 小林正人氏

 この2、3年、さまざまな顧客との対話を通して生成AIビジネスの知見を積んできたAWSジャパンだが、多くの企業が望んでいる“ビジネスにおける生成AIの価値創出”をどう支援しているのか。本稿では小林氏の説明をもとに、日本企業が把握しておきたい生成AIのトレンドと、AWSが現在フォーカスしている生成AIの技術領域とサービスについて、その概要を解説する。

生成AI活用の“ジャーニー”の前に

 Amazon Web Services(AWS)では、企業が生成AIを活用したアプリケーションを構築していくプロセスを“ジャーニー”と呼んでおり、以下のステップから構成されていると説明している。

1.ユースケースの特定
2.チームの編成
3.期待する結果の定義
4.モデル選択
5.「責任あるAI」への考慮
6.カスタマイズ
7.本番稼働

 このジャーニーで重要なのは「トライ&エラー(試行錯誤)を前提にした反復的なテストを本番稼働前(4~6)に行うだけでなく、本番稼働後も実験(4~7)を繰り返していく」ことだと小林氏は強調する。

 トライ&エラーは、生成AIで価値を生み出していくために欠かせないポイントのひとつでであり、成功している企業の多くがこのポイントを抑えているという点が注目される。

 「生成AIを活用していくにあたってトライ&エラーは必要不可欠なフェーズ。それでもやはり失敗は怖いもの。ならば組織として許容できるトライ&エラーの範囲を明確にしておくことで、失敗への抵抗感を抑えることができる。あらかじめポリシーやルールを明示するなど“この範囲内ならどんどんトライ&エラーをしてOK”というガードレールが存在することで、生成AI担当者はある意味、心置きなく失敗できる。そういった企業風土を作っていくことが大切」とトライ&エラーのための環境づくりがイノベーションの加速を促すとしている。

AWSが定義する企業が生成AIアプリケーションを構築するまでの“ジャーニー”では、本稼働までの反復的なテストと評価に加え、本稼働後も実験を繰り返していくマインドセットが重要となる

 また、生成AIはこれまでの技術トレンドとは毛色が異なる部分が多いため、組織として変革に取り組む姿勢が成功のカギとなる。具体的には以下の3つの分野で組織として「明示的な意識をもって」(小林氏)臨み、何らかのアクションを取っていく必要があるという。

・戦略 … ビジネス部門とIT部門の双方を巻き込み、トップ(経営層)がサポートする全社戦略
・文化 … チャレンジはイノベーションの源泉であるという意識をもち、トライ&エラーを繰り返して失敗から学び、成功するまで実験を繰り返す文化
・仕組み … 最新技術をすぐに試せる環境を整え、アイデアの具現化を促進する組織構造

生成AIはこれまで以上に組織で取り組むことが求められるため、戦略/文化/しくみのそれぞれにおいて明示的にアクションを取っていく必要がある

 ITプロジェクトの成功には、トップダウンとボトムアップの双方からのアプローチが必要とはよくいわれるが、生成AIは特に経営層による明確な意思表示とガードレールの設定が不可欠であり、時には経営層がマインドセットの変更を求められる場合もある。組織全体で生成AIへの取り組みにチャレンジしていくという共通認識のもと、明示的なルール作りを急ぎたいところだ。

生成AIのトレンド

 2022年11月にChatGPTが登場してから約2年半が経過し、生成AIのトレンドもさまざまに変化してきたが、小林氏は2025年前半における生成AIの特徴として「モデルの多様化」「要件の高度化」「活用領域の拡大」の3点を挙げている。

 モデルの多様化に関しては、万能モデル、タスク特化型モデル、マルチモーダルモデルなど、用途や入出力形式の観点からバリエーションが広がった感がある。テキストも画像も音声もマルチに扱えるモデル、機能はシンプルだが高速で安価なモデルなど、顧客にとっては選択肢の幅が大きく拡大したといえる。

 要件の高度化について小林氏は「生成AIに対する期待値の高まりが進んだ結果」だとしている。生成AIが登場した2023年ごろまではプロンプトエンジニアリング一辺倒だったが、その後にはモデルには含まれていないナレッジで補強するRAG(Retrieval Augmented Generation)との連携や、昨今ではAIエージェントやモデルカスタマイズといった先進的なケースに取り組む企業も少なくない。

 こうしたトレンドが生まれた理由について小林氏は「人々が生成AIを“万能のツール”というよりは地に足がついた現実的な期待をもって接してきた結果、自然と難易度がポテンシャルが上がっていった」という見解を示している。

 また生成AIの活用領域の拡大に関して小林氏は、顧客が求めるユースケースを「ビジネス価値(横軸)」と「生成AI活用スキル(縦軸)」という2つの軸に沿って4象限に分類し、以下の時系列にしたがって少しずつ生成AIの活用領域を拡大していくことを推奨している。

1.ビジネス価値が小さく、生成AI活用スキルが低い … 初めて生成AIに取り組む顧客は、担当者が個人で小規模に活用でき、なおかつビジネスにそれほどインパクトを与えないフェーズからスタート(例: メール文章の校正/提案、会議議事録の要約、プレゼンの素材画像背製、文書翻訳など)

2.ビジネス価値が小さく、生成AI活用スキルが高い … 生成AIの活用に慣れたら、社内のシステムに生成AIを組み込み、自動化を図る(例: 社内Q&Aチャットボット、パー空なライズメールの生成、定型レポートの自動作成など)

3.ビジネス価値が高く、生成AI活用スキルが高い … 難易度が高い案件にも対応できるようになってきたら、ビジネスへの影響範囲がより広いタスクへの適用を進める(例: 全社的な業務プロセス自動化、AIを活用した新規事業開発、ECサイトの商品レコメンドなど)

生成AIの活用を進めるにあたってはユースケースを「ビジネス価値」と「生成AI活用スキル」を2軸とした4象限に分類し、ビジネス価値/生成AI活用スキルともに低い象限のユースケースから始めることを推奨している

 この時系列に沿って活用領域を拡大していくアプローチが、生成AIの活用を成功させた企業の“定石”として見られるケースが多いと小林氏は語る。「最初から3の象限から始める企業はほとんどいない。このパターンにしたがって生成AIの活用を進めたことで社員のマインドセットが変わったという報告もある。生成AI活用の成功に向けた“定石”に十分なりうると思っている」(小林氏)。

生成AIの活用領域の拡大とともに、アプリケーション提供者が果たすべき「責任あるAI」に対しても意識を向ける必要がある

 なお生成AI活用の領域拡大に伴い、生成AIアプリケーション提供者がAIに内在するリスクをあらかじめ理解し、制御する「責任あるAI」への注目度が高まっている。小林氏は「責任あるAI」のための考慮事項として以下の8つのポイントを挙げている。

・制御性 … AIシステムの監視および制御のためのしくみ
・プライバシーとセキュリティ … データやモデルを盗難や流出から保護
・安全性 … 有害な出力や御用を防止
・公平性 … システムがさまざまなユーザー集団に与える影響(性別、民族など)
・信憑性と堅牢性 … 予期しない、または敵対的な入力でも正しく出力するしくみ
・説明可能性 … AIシステムの出力の正しい理解と評価
・透明性 … 利害関係者が適切な選択をするためのAIシステムに関する情報を提供
・ガバナンス … 組織内で「責任あるAI」のプラクティスを定義/実装/実施するためのプロセス

 これらの8つのポイントはそれぞれが完全に独立しているわけではなく、互いにリンクしている。小林氏はこれらの考慮事項をさらに集約することで、「責任あるAI」の実現に向けた、以下の4つのベストプラクティスが見えてくるとしている。

・人材の育成 … 従業員自身が生成AIのしくみを理解し、「責任あるAI」の開発/利用方法が検討できるようになる
・ユースケースごとのリスク評価 … 各ユースケースの文脈でリスクを検討し、どのような保護措置を講じるべきか判断する
・継続的な改善 … ユーザーからのフィードバックにもとづいて生成AIアプリを継続的に改善する
・入念なテスト … 独自の評価基準とデータセットを用いて各ユースケースの精度を頻繁に評価する

 最終的に「責任あるAI」とは、生成AIアプリケーションの提供者と利用者がそれぞれのユースケースにおいてリスクをどこまで許容できるかにかかってくる。そしてその許容度は時代によって変化するため、定期的なアップデートが求められる。生成AIの技術的な進化とともに「責任あるAI」の内容も変わっていくことを提供側は覚えておく必要がある。

AWSがサポートする生成AIサービス

 こうした生成AIに関するさまざまなトレンドや課題に向き合う組織をサポートするため、AWSは顧客のスキルや要望に応じた多くの生成AI関連サービスを提供しているが、それらは基本的に以下の3つのレイヤに沿って提供されている。

・インフラストラクチャ … 基盤モデルのトレーニングと推論のためのインフラサービス。マネージドインフラ「Amazon SageMaker AI」、トレーニングのためアクセラレータ「AWS Tranium」、推論のためのアクセラレータ「AWS Inferentia」など
・基盤モデルおよびツール群 … Amazon/AWSおよびサードパーティの基盤モデル提供サービス「Amazon Bedrock」
・アプリケーション … 生産性を向上させるAIアプリケーション。インサイトと自動化を提供する「Amazon Q Business」、ソフトウェアの開発ライフサイクルを支援する「Amazon Q Developer」など

AWSの生成AIサービスを構成する3つの階層

 中でもここ数年において、同社がもっともフォーカスしている生成AI関連サービスがフルマネージドサービスのAmazon Bedrock(以下、Bedrock)だ。生成AIのトレンドのひとつに「モデルの多様化」が挙げられていたが、Bedrockはまさに多様化する顧客のニーズをカバーするべく、Anthropic、Meta、Mistral AI、DeepSeekなど主要なAIベンダが提供する幅広い基盤モデルを、APIを介した容易なアクセスで提供する。

 「効果的な推論を行う」「高品質な画像を生成する」「小さな業務アプリをコスパよく作成する」などユーザーが生成AIで実現したい目的はそれぞれに異なるが、Bedrockはユースケースごとに適したモデルをAPI経由で簡単に選択できる点が高く評価されている。

Amazon Bedrockでサポートされている基盤モデルの一覧。顧客の多様なリクエストに応じるため、さまざまなタイプのモデルが提供されている

 また、BedrockにはAWSの親会社であるAmazonが開発したマルチモーダルなクリエーター向け基盤モデル「Amazon Nova」が統合されていることにも注目したい。Amazon Novaにはテキストのみに対応した低コストで小さなモデル「Micro」から、テキストからスタジオ品質の動画を生成する「Reel」まで、現時点で7つのバージョンのモデルがそろっており、コストや用途に応じて選択可能だ。

 2024年11月に発表されてからそれほど時間が経っていないが、すでに国内でも電通デジタルやIVRyなどがNovaを導入し、コスト削減や処理性能向上で大きな効果を挙げている事例が公開されており、Bedrockから利用できるユニークな基盤モデルとして今後の動向が注目される。

Amazonが開発したマルチモーダルなテキスト/画像/動画像/音声を生成するモデル「Amazon Nova」のラインアップ
Amazon Novaを採用した電通デジタルとIVRyの事例

AIエージェントの活用事例

 2025年前半における生成AI関連の重要なキーワードとして挙げられるのが「AIエージェント」と「MCP(Model Context Protocol)」だが、当然ながらAWSもこれらのトレンドを取り込んだサービスの提供を開始している。

 小林氏は最近のAIエージェントの活用事例として、ウェザーニューズが提供するスマートフォンアプリ「ウェザーニュース」に搭載されている気象情報のアシスタント機能「お天気エージェント」を紹介している。

 お天気エージェントはLLMの実行基盤にBedrock(モデルはClaude 3.5 Sonnet v2)を採用しており、ユーザーからの入力(「上野公園の桜の見ごろはいつ?」「明日の東京はコートが必要?」など)を受け取ったあと、推論やツールの呼び出しを行って結果を更新しながら最終出力をユーザーに返すが、ウェザーニューズは開発からわずか1カ月でこの機能をリリース、同社のプロフェッショナル向けサブスクリプションプラン「ウェザーニュースPro」でのみお天気エージェントを提供しているが、結果としてウェザーニュースProへの入会増加に貢献しているという。

ウェザーニューズはBedrockを活用して約1カ月でAIエージェント機能を開発、サブスクリプションプランのみで機能を提供したところ、入会が増加するというビジネス効果も生んでいる

 お天気エージェントの例にもあるように、AIエージェントの基本的なコンセプトはユーザーからのリクエストを受け取ると、基盤モデルがタスクの解決方法を決定し、外部のリソースやツールを呼び出して回答を調べ、ユーザーに応答を返すというものだ。ここで重要なのが「外部のリソースを呼び出す」「回答を受け取る」といったプロセスで、このやり取りの標準化プロトコルとして、Anthropicが2024年11月に発表したMCPが急速に支持を拡大している。

AIエージェントの動作のイメージ

 小林氏はMCPについて「エージェントAI開発のハードルを下げる、工業製品の標準規格のようなもの」と表現しているが、実際、MCPが登場するまではAIと外部システムを連携させるたびに、個別にAPIを統合するなどの必要があった。MCPはこれらの連携を標準化することで開発者の負担を大幅に軽減するといわれており、Anthropicの競合企業であるOpenAIもMCPを高く評価したことからエージェント開発の標準プロトコルとなりつつある。

MCPは生成AIアプリケーションと外部リソースの接続部分を標準化することから「AIアプリケーションのUSB-Cポート」とも呼ばれている

 AWSもMCPに関連した取り組みとして、同社が提供するオープンソースのMCPサーバー群を「AWS MCP Servers」として公開しており、ユースケースの拡大が予想される。

AWS MCP Serversには「AWS Lambda MCP Server」や「AWS Aurora MySQL MCP Server」などツールとして提供されている

 また、AWSが提供するアプリケーションとしての生成AIサービスにも最近のアップデートでAIエージェントやMCPが取り込まれるようになっており、小林氏はその例としてコマンドラインで利用できる開発者向けの生成AIアシスタントツール「Amazon Q Developer CLI」で自然言語(日本語含む)によるエージェント型のコーディングが可能になったことと、MCPのサポートを挙げている。

開発者に人気が高いAmazon Q Developer CLIでもAIエージェントやMCPのサポートが進んでいる

 また、大規模なインフラ移行およびモダナイゼーションのためのAIエージェントサービス「AWS Transform」に、VMware環境からAmazon EC2への移行をターゲットとした「AWS Transform for VMware」と.NETアプリケーションのモダナイズを支援する「AWS Transform for .NET」がラインアップとして加わっており、大規模移行やモダナイゼーションといった基幹系刷新プロジェクトにも生成AIが大きなインパクトを与えつつあることがうかがえる。

*****

このほかにもAWSジャパンは生成AI活用を進める企業の支援策として、「AWSジャパン生成AI実用化推進プログラム」の開催や「AWS生成AIイノベーションセンター」による支援プログラムの提供など、さまざまな活動を行っている。小林氏はプレゼンの最後に「顧客とともに生成AI活用のベストプラクティスを探求し、多くの顧客が求めるテクノロジーを提供していくのがAWSの役割であり、そのための支援を技術と人材の双方から行っていく」と強調しており、生成AIに関して多様なサポートを提供していく姿勢を明らかにしている。

 6月25日~26日に千葉・幕張メッセで開催される「AWS Summit Japan 2025」では、あらためて生成AIに関連する同社の取り組みを確認することができそうだ。

AWSが実現をめざす“AI for Good”