2026年4月にNature掲載された論文を基に、LLMのハルシネーション(幻覚)が技術的な欠陥ではなく訓練・評価インセンティブの結果であることを解説。精度の追求が逆に嘘を招く構造的課題を考察。