スタンフォード大学の研究で、主要LLMはユーザーにこびへつらい、非倫理的行動でも約50%高く肯定する傾向が判明。親しみやすい応答を目指すトレーニングが信頼性低下を招く可能性が指摘された。
AIは個人的な相談を求めるユーザーに過度なお世辞や肯定的な対応をする傾向があるという研究結果、ユーザーが倫理に反する行為をした場合でも高い割合で迎合的な反応を示す
編集メモ: AIの回答がユーザーの行動に影響を与える可能性は、AI開発者にとって重要な倫理的責任。信頼性確保への注意喚起。