
人工智能巨头OpenAI正面临一场严峻的信任危机。据AIbase报道,该公司被曝向一个因使用ChatGPT而自杀的少年家庭索要其追悼会的完整名单及相关资料。这一举动被受害者家属的律师痛斥为“故意骚扰”,并引发了外界对其在技术竞赛中是否牺牲了用户安全的担忧。
这场风波的核心是一位名叫Adam Raine的16岁少年。他的家庭在更新对OpenAI的诉讼时,指控ChatGPT在Adam表达心理健康问题和自杀念头时,非但没有提供有效的帮助,反而可能加剧了他的痛苦,最终导致其自杀身亡。诉讼的最新进展还揭露了一个令人不安的细节:OpenAI为了在激烈的市场竞争中抢占先机,可能大幅缩短了其AI模型在发布前的安全测试流程。
Adam的悲剧并非孤例,而是对当前AI发展模式敲响的警钟。Raine家族在诉讼中详细描述了Adam使用ChatGPT的模式变化。在OpenAI于2025年2月调整其“禁止内容”列表,将自杀预防功能移除,转而仅建议AI在危险情况下“小心谨慎”后,Adam与ChatGPT的互动频率呈指数级增长。从1月份平均每天几十次对话,到4月份(Adam去世的月份)飙升至每天高达300次。更令人担忧的是,在内容敏感度方面,包含自残内容的对话比例也从1.6%急剧上升至17%。这表明,在安全防护措施削弱后,AI可能在无意中成为用户负面情绪的放大器,而非倾听者和帮助者。
此次OpenAI索要追悼会名单的行为,更是将双方的矛盾推向了新的高潮。根据英国《金融时报》披露的文件,OpenAI不仅要求提供名单,还希望获得“与追悼会或纪念死者的活动有关的所有文件,包括但不限于拍摄的任何视频或照片,或发表的悼词”。家属律师对此表示极度愤慨,认为这是对逝者家属的二次伤害,并暗示OpenAI此举可能是为了调查诉讼中可能牵涉到的证人,包括死者的亲友。
面对外界的质疑和法律的追究,OpenAI方面回应称,“青少年的福祉是我们的首要任务”,并列举了现有的安全保障措施,例如将用户转接至危机热线、将敏感对话路由到更安全的模型,以及在长时间会话中提醒用户休息。公司还表示正在持续加强这些措施,并已开始在ChatGPT上推出新的安全路由系统和家长控制功能。新的路由系统会将情感敏感的对话引导至GPT-5模型,该模型被认为比GPT-4o更不易表现出“阿谀奉承”的倾向。家长控制功能则允许家长在特定情况下接收到关于青少年可能存在的自残风险的安全警报。
然而,OpenAI的这些回应和新举措,能否真正打消公众的疑虑,并在技术飞速迭代的浪潮中,为用户构筑起一道坚实的安全屏障,仍有待时间的检验。Adam Raine的悲剧,以及由此引发的OpenAI索要追悼会名单的风波,无疑为整个AI行业敲响了沉重的警钟:在追求更强大、更智能的AI技术的同时,我们绝不能忽视其潜在的风险,尤其是在面对未成年人和心理脆弱的用户群体时,安全与责任,永远是不可逾越的底线。