>>555
ハルシネーションの原因はOpenAIの論文で調査されているよ
「わからない」と述べるより推測によって誤った答えを言うようにモデルが構築されている

> ハルシネーションがなくならない理由の1つが、現在の評価手法では間違ったインセンティブが設定されていることです。
> 評価自体がハルシネーションの原因になることはありませんが、
> 多くの評価におけるモデルのパフォーマンス測定方法が、不確実性に対する誠実さよりも推測を推奨するようになっています。
https://openai.com/ja-JP/index/why-language-models-hallucinate/