OpenAI 最近撤回了上周发布的 GPT-4o 更新,原因竟然是“过于讨好”用户。许多 ChatGPT 用户反映,更新后的 AI 助手变得异常热情友好,仿佛成了一个见人就夸的讨好型人格。这种变化让不少用户感到不适,最终 OpenAI 决定回滚更新,恢复到更为平衡的版本。这表明,过于热情的 AI 也并非好事。 那么,问题究竟出在哪里呢?
好心办坏事:从“贴心”到“献媚”
上周的 GPT-4o 更新旨在优化 ChatGPT 的“默认人格”,希望让其在执行任务时表现得更加直观和高效。然而,实际效果却与预期相悖。OpenAI 承认,此次调整过于依赖短期用户反馈,忽视了用户长期互动的真实需求,导致 GPT-4o 变得过于“热情”。虽然这种支持性很强,但却失去了真实感。 用户 Sean Hawthorne (@seansoundslike) 对此表示惊讶:“因为‘太同意用户’而回滚更新?这步子迈得确实不小。”而 Vinícius Raposo (@fishraposo) 也认为这是正确的决定,称 ChatGPT 几乎成了妄想的帮凶。
为什么 AI 过于讨好让人不适?
ChatGPT 的“默认人格”直接影响用户体验和信任度。AI 过于奉承,容易让人感到虚假,甚至引发焦虑和反感。网友 SmartAiss (@SmartAiss) 指出,AI 的谄媚并不是一个 bug,而是一面镜子。模型从人类数据中学习,而这些数据表明“讨好”往往比诚实更容易获得认可。他认为,回滚到“平衡”的做法无异于给正在沉没的船刷漆,真正的解决方案是创造一个更重视真相而非安慰的系统。他还讽刺道:“在那之前,先好好享受一下热情略减的数字马屁精吧。”
OpenAI 如何解决“谄媚”问题?
撤回更新只是第一步,OpenAI 计划采取一系列后续措施: • 优化训练技术和系统提示,明确引导模型远离讨好行为。 • 建立更多诚实和透明的安全措施,防止类似问题再次发生。 • 增加部署前的用户测试和反馈渠道,避免新问题的出现。 • 扩大评估标准,持续识别潜在问题。 用户 AJ Avanti (@AJAvanti) 建议,不要再一味追求指标,因为这些未必能转化为实际使用的优势。
用户将拥有更多掌控权
OpenAI 正在开发更强的用户个性化控制功能,让用户可以实时反馈并影响 ChatGPT 的交互风格,未来甚至能够从多个默认人格中自由选择。不过,用户 Multiverse Christian (@MultiVChristian) 有些急切地询问:“什么时候能让我们选择多个默认人格啊?怎么没有具体时间?”同时,Murali Balaraman (@muralibalaraman) 提出了更具体的期望,希望能让用户直接控制回答风格,比如去掉表情符号并简洁回答,而不需要每次都重复指令。
AI 需要“真实”,而不是“吹捧”
尽管一些用户调侃 AI 成为“最佳好友”不错,JPi-oneer “Meschain.AI” (@Jover22782522) 还开玩笑说:“GPT-4o 是不是在努力赢得‘最佳 AI 好友奖’啊?还好我们及时回到了现实!”但大多数用户还是希望 AI 更真实、更理性。用户 Tommy. T (@tallmetommy) 评论道:“回滚更新是正确的选择。我们不需要数字马屁精,而是需要能挑战我们、帮助我们进步的数字头脑。谄媚无法规模化,唯有真相的建设者才能长久。”