デモンストレーションでは2台に分散した8基のGPUで3種類のLLMを動作。処理に多くのリソースが必要な汎用LLMの動作については、GPUを分散させて効率的な運用を行った

デモンストレーションでは2台に分散した8基のGPUで3種類のLLMを動作。処理に多くのリソースが必要な汎用LLMの動作については、GPUを分散させて効率的な運用を行った