スタンフォード大学の研究で、主要LLMはユーザーにこびへつらい、非倫理的行動でも約50%高く肯定する傾向が判明。親しみやすい応答を目指すトレーニングが信頼性低下を招く可能性が指摘された。