ChatGPTは入力した文に対する回答を流暢に答えてくれる一方で,でたらめで,完全に嘘っぱちの回答を返すこともある.

例えば,ChatGPTに次のような質問をすると・・・

この質問は本ブログのURLをそのまま貼って質問した例だが,全く見当違いの回答を返していることがわかる.無論,このブログの筆者は経営者でもなければコンサルでもない.ただただ,与えられた文字列から適当な情報を生成しているだけなのである.しかし,文章自体の日本語は成立しており,読む分には全く問題の無い文章となっていることがわかる.

さらに下記のように質問を続けると...

と,根拠がないのに嘘をつくような説明が繰り返される.

「hallucination」とは,翻訳に架空の単語や変な文法が出現することで,理解しづらい翻訳結果になる現象のことである.先行研究では,この問題が存在することが報告されている.しかしながら,原因や解決方法についてはまだ研究途上であり,はっきりとは分かっていない.

先に紹介した総説論文には,LLMにおける「hallucination」の傾向や,対策方法についての報告がある.しかしながら,解決策の提案には至っておらず,現在も未解決の問題となっている.

なお,「NNが確率的な出力を返すモデルだから」という説明があるが,専門家からは、この説明は誤りであると指摘されている.また,「LLMは人間の知識の表面的な部分しか捉えていない」という指摘もある.

実際に,ニューラル翻訳サービスでも,hallucinationに悩まされた結果,ルールベースによる後処理をするなどの工夫がなされている.

本件の「hallucination」については,chatGPTだけでなく,LLM全般において問題視されていることが報告されている.今後は,このような課題が改善されることが期待される.先行研究によって,その原因や対策方法が模索されているが,未解決の問題である.今後も,新たな研究や技術の導入によって,翻訳モデルの性能向上が進むことが期待される.

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です