LLMアプリの本番運用におけるハルシネーション対策を解説。モデルが入力内容を正しく読み取れていない状態で処理が進むリスクを指摘し、必須情報の欠落判定やRAGの検索精度担保など、運用の安全性を高めるための実装上の注意点を提示。