NECは2024年9月18日、生成AI/大規模言語モデル(LLM)のハルシネーション対策機能を同年10月末から提供すると発表した。RAG(検索拡張生成)と要約の2つに特化した機能で、回答の根拠となった元の文章を提示する。回答精度が問われる業務に生成AIを適用しやすくなるとしている。既存のLLMと組み合わせて利用可能である。
NECは、生成AI/大規模言語モデル(LLM)のハルシネーション対策機能を2024年10月末から提供する。ハルシネーション(Hallucination:幻覚、幻影)は、AIがもっともらしい偽の情報、事実に基づかない情報を生成する現象のこと。
RAG(Retrieval-Augmented Generation:検索拡張生成)と要約の2つに特化した機能で、AIの回答根拠となった元文書を提示する。回答精度が問われる業務に生成AIを適用しやすくなるとしている。既存のLLMと組み合わせて利用可能である。
「生成AI/LLMの利用において、ハルシネーションが問題になっている。医療や金融など、情報の正確性が強く求められる業務では、回答結果に対して人間が検証せざるをえないのが現状で、業務効率化と正確性・信頼性を両立できる技術が求められている」(同社)ことから機能の開発に至った。
生成AIを用いた要約においては、要約前の文章と要約後の文章を比較し、情報の抜け漏れ、重複、意味の変化など誤り・矛盾・齟齬があればその箇所を提示する。単純に単語を比較するだけでなく、文章の意味を比較して判断するとしている。
RAGによる検索においては、検索フレーズからの回答結果において回答の根拠となった元の情報を提示する(画面1)。
NECは今後、人物名や地名といった固有表現の一致度合いをスコア化する機能、文章に含まれる一貫性を検証する機能などを追加する。
拡大画像表示