ソフトバンク(本社:東京都港区)は、コールセンターの通話内容を要約する用途で、大規模言語モデル(LLM)をコールセンター向けにファインチューニングを行い、2024年10月から業務に適用している。アドバンスト・メディアのファインチューニングサービスを採用した。業務経験が浅い新人オペレーターによる要約時間を約30%削減できる見込みという。アドバンスト・メディアが同年12月17日に発表した。
ソフトバンクは2024年10月、コールセンターの通話内容を要約する用途で、大規模言語モデル(LLM)をコールセンター向けにファインチューニングして稼働させた。この結果、業務経験が浅い新人オペレーターによる要約時間を、約30%削減できる目途が立った。
LLMには、アドバンスト・メディアのコンタクトセンター向け生成AIソフトウェア「AOI LLM for AmiVoice Communication Suite」を使っている(図1、関連記事:アドバンスト・メディア、コンタクトセンター業務に特化した生成AIソフトウェア「AOI LLM」を発表)。
拡大画像表示
同製品は、コンタクトセンター向け音声認識ソフトウェア「AmiVoice Communication Suite」のオプションである。LLMを用いて、通話内容の要約やQ&Aの抜粋、VoC(顧客の声)の抽出などが可能。RAG(検索拡張生成)構成のシステムを構築できるほか、目的に合わせてファインチューニングを施してユーザー専用のLLMを構築可能である。
ソフトバンクは今回、米MetaのLlamaをベースに東京科学大学(旧・東京工業大学)が日本語能力を強化したLLM「Swallow-70b」に対し、同社の学習データを利用してファインチューニング(追加学習)を施した(作業はアドバンスト・メディアが実施した)。