トピック

AIの“新興技術”生成AI――、その力を引き出すために押さえておきたいポイントを知る

株式会社インプレス クラウドWatch編集部は、社会現象といっても過言ではないほど注目を集めている“生成AI”の、企業における活用を支援するイベント「クラウドWatch Day|“最適な生成AI環境” 構築支援 企業が安心して使える、ベストな生成AI環境を構築しよう!」を、2月21日に開催した。

関心の高さを背景に、多くのベンダーが「ChatGPT」に代表されるLLM(大規模言語モデル)を利用した新しい機能・製品の提供を計画するなど、それを実現するソリューションにも注目が集まっている一方、ChatGPTなどの利用においては、不適切な回答の生成や、社内情報の流出、学習データや生成物の著作権など、企業や組織が対顧客サービスに利用する際のリスクも指摘されている。

同セミナーでは、こうした懸念点を踏まえたうえで、企業で有効に利用可能な生成AI環境をいかにして構築すべきかや、それを実現するサービスなどをあわせて紹介した。

本稿ではそうした当日の講演の中から、デル・テクノロジーズ株式会社 データワークロード・ソリューション本部 シニア・ビジネス開発マネージャー AI Specialist / CTO Ambassador 増月孝信氏によるセッション「生成AI、押さえておきたいポイント~ Bring AI to Your Data ~」の内容について紹介する。

 ChatGPTの登場が大きな社会現象を巻き起こしており、これにともない生成AIの活用を推進する企業も増えつつある。一方で、「どこから始めればよいのか?」「効果的なユースケースは?」「データ活用の最適解とは?」「リスクの回避方法は?」など、知識や経験不足により生成AIの導入が進んでいない企業の話も多く聞こえてくる。

 増月氏は、企業が生成AIに注目している背景について、「従来のAIは主にデータ分析のために使われていた。これに対して生成AIは、オーディオやビデオ、画像、テキストなど新たなデジタルコンテンツを生み出すAIの新興技術であるといえる。生成AIの普及によって、今までのエコシステムが大きく変化しようとしており、これは企業にとってビジネスチャンスでもある」と説明する。

 デル・テクノロジーズでも、社内のDX推進としてさまざまな生成AIの活用に取り組んでおり、「生成AIのプロジェクトを進めるにあたっては、リーダーシップチームを立ち上げ、ビジョンを達成するための戦略と生成AIの成熟度ロードマップを作成し、自分たちが今どの段階にいるのかを常に確認している。当社は現在、『実験的』段階を終えて、『計画的』段階に入ろうとしている」という。

 こうした自社での経験・知見を踏まえ、生成AIプロジェクトのライフサイクルとして、「スコープ」、「選択」、「モデルの適応」、「アプリケーション統合」の4つのフェーズを示した。

 まず、「スコープ」では、生成AIを何のためにどう活用するのかを検討し、適切なユースケースを選定する。次に「選択」では、ユースケースに基づき、利用するAIモデル(既存の大規模言語モデル(LLM)あるいは独自学習モデル)を選択する。「モデルの適応」では、選択したAIモデルをベースに、プロンプトエンジニアリングやファインチューニング、モデル評価などを繰り返し行い、アウトプットの精度を高めていく。そして、開発した生成AIだけではユースケースを実現できない場合には、外部アプリケーションとの統合やLLMを利用したアプリケーション構築を行う。

 このライフサイクルの中で最も重要なポイントとして、増月氏が挙げたのが、一番初めのフェーズにおける「ユースケースの選定」である。「生成AIを活用して競争優位性を獲得したいのか、業務効率化を図りたいのか、用途や目的によってさまざまなユースケースがある。例えば、『コンテンツ生成』『自然言語検索』『コード生成』『業務支援』『設計とデータ生成』『ドキュメント生成』など。ユースケースは、LLMのアーキテクチャ選択にも関わってくるため、ユースケースがしっかり固まらないままプロジェクトがスタートすると、結果的に無駄な投資になってしまうリスクがある」との考えを述べた。

 ユースケースの選定後、次のフェーズでは、利用するAIモデルを選択し、生成AIの開発に着手することになるが、「現在、AIモデルの選択において、独自学習モデルを選ぶ企業は少数派であり、ほとんどの企業は事前学習済みの既存モデルを採用している」という。これは、独自学習モデルを一から開発した場合、高額なコストと長い学習時間を要することになるからだ。一方で、既存モデルを利用した場合には、低コストかつ短期間で開発をスタートすることができる。

 ここで増月氏は、生成AIの開発においては、「データ」が他社との大きな差別化要因になると指摘する。「いくら優れたアルゴリズムのAIモデルを選択しても、基になるデータが不十分だと望む結果を得るのは難しい。例えば、データ自体にバイアスがかかっていた場合、生成AIの結果にもバイアスがかかってしまうことになる。そのため、既存モデルによる生成AI開発を進める際には、使用するデータを精査することが重要であり、データの品質と適合性が成功への鍵を握っている」との考えを示した。

 次に、こうした生成AIプロジェクトのライフサイクルを支える生成AI基盤にフォーカスを当て、基盤構築におけるポイントについて解説した。

 増月氏は、「生成AI基盤の構築に向けては、まず生成AIのワークロードの特性を理解しておく必要がある」とし、生成AIワークロード共通の特性として、「コンピューティング集中型のためGPUなどの特殊なハードウェアが必須」、「大量のGPUメモリ容量が必要」、「トレーニングデータの質と量にアウトプットが大きく依存」、「推論ワークロードに求められる厳しいレイテンシー要件」、「生成されたコンテンツの精度と品質を最重要視」といった点を挙げた。

 また、このワークロード特性を踏まえたうえで、生成AI基盤を構成する主要コンポーネントである「コンピューティング」「アクセラレーター」「ストレージ」「ネットワーキング」について考慮すべき要件を説明。「生成AIの要件に適したコンポーネントを用意し、一から生成AI基盤を構築するのは非常にハードルが高い。そこで当社では、検証済みの最新コンポーネント上にフルスタック構成の生成AI基盤を構築し、その設計ガイドを公開している。このガイドでは、事前学習済みモデルをそのまま推論エンジンとして使うケースや、ファインチューニングして使うケースなど、さまざまな設計パターンを用意しており、顧客のユースケースに応じた生成AI基盤の構築を支援している」という。

 各コンポーネントにおける取り組みとしては、「コンピューティング」と「アクセラレーター」では、生成AI基盤に最適な業界最高のAIパフォーマンスを実現する高密度GPUサーバー「PowerEdge XE9680」を提供している。同製品には、世界最速のTransformer Engineとして注目される「NVIDIA H100 Tensor コア GPUアクセラレーター」が8基搭載されており、妥協のないAI加速性能を発揮する。また、推論エンジン用のラックサーバーとして、初期投資を抑えながら高速処理を実現できる「PowerEdge R760xa」も用意している。

 「ストレージ」については、生成AI基盤に最適なファイルストレージ「PowerScale」およびオブジェクトストレージ「ECS」を展開している。これらのストレージは優れたセキュリティ機能を備えており、生成AIで活用するデータを強力に保護する。また、データセットに高速にアクセスすることが可能で、複数のモデルを構築・学習・テストすることができるという。

 「ネットワーキング」の取り組みについて増月氏は、「大規模なAIモデルの開発では、ネットワークが重要な役割を担うことになる。AIデータセンターのネットワーキングとしては、高速かつ低レイテンシーのInfiniBandを実装したAIファクトリーを構築するのが最適だが、経験や知見が不足している場合にはHigh Speed Ethernetを活用したAIファブリックを構築する選択肢もある。その中で当社は、NVIDIAが開発中のEthernetを利用したAI用スパコン『The Israel-1 System』に、『PowerEdge XE9680』を256台提供し、最大8EFLOPSの処理速度を実現している」と説明した。

 このほかに、NVIDIAとの協業展開として「Validated Design for Generative AI with NVIDIA」を進めており、デル・テクノロジーズの生成AI基盤設計ガイドをベースに、エコパートナーの専門知識を活用して、複雑な生成AIの導入・活用を支援しているという。

 最後に増月氏は、AI領域における同社のアドバンテージをアピールし、「生成AIプロジェクトの目標設定からユースケースの選定、AIモデルの選択・最適化、そして当社の最新コンポーネントによる生成AI基盤の構築・運用まで、顧客のニーズに応じた生成AI活用をトータルでサポートする。また、顧客の生成AIへの投資を適切な規模に設定し、プロジェクトを成功に導いていく」とまとめた。