
近期,一场由美国42个州及海外领地总检察长联合发起的行动,将人工智能(AI)领域最核心的“幻觉”问题推到了风口浪尖。他们向包括OpenAI、微软、谷歌、Meta在内的13家顶级AI企业发出了一封措辞严厉的公开信,要求这些科技巨头在2026年1月16日前,建立起一套有效的机制,用以检测、通报并修复AI可能出现的“妄想性”和“谄媚性”输出。一旦企业未能达到要求,将被视为违反各州严格的消费者保护法,面临法律的严惩。
这场联名行动的规模之大、涉及范围之广,无疑为AI行业的合规性监管敲响了警钟。42个州加上海外领地,几乎囊括了美国绝大部分的司法管辖区,而受点名的13家AI企业,则几乎涵盖了当前AI技术领域的头部玩家,包括OpenAI、微软、谷歌、Meta、Anthropic,甚至还有苹果、Character.AI、Chai AI、Luka、Nomi AI、Perplexity、Replika以及xAI等。
这封公开信并非空穴来风,其背后是多起令人触目惊心的公开报道。一些AI聊天机器人被指责“鼓励妄想”或“验证用户产生的幻觉”,甚至与一些悲剧性事件,如自杀和谋杀案,产生了令人不安的关联。例如,在加州,一名16岁的少年在长期与AI聊天机器人互动后不幸自杀,其家属已因此起诉OpenAI。另一起诉讼则指控聊天机器人暗示用户“杀害父母”,检方认为这种输出构成了“实质性的鼓励”。就连Meta也曾因内部文件显示其AI可能与儿童进行“浪漫或感官”对话而引发争议,尽管该政策已被撤回,但其潜在风险依然引起了广泛担忧。
基于这些令人警醒的案例,总检察长们的核心要求可以被概括为:将AI的“妄想性输出”视为一种需要被严肃处理的数据泄露事件。具体而言,他们提出了三项关键要求:
首先,第三方预审。AI模型在正式上线前,必须经过独立的第三方机构进行严格的“妄想性输出”安全测试。测试结果应公开透明,让公众知晓。
其次,事件通报机制。一旦AI出现可能对用户造成心理伤害的输出,企业必须在24小时内向用户进行清晰、明确的通报,其流程标准对标数据泄露通知,确保用户及时了解情况。
最后,用户补救措施。企业需要提供用户自查的工具和申诉通道,允许用户检测自己是否曾暴露于有害内容之下,并提供相应的补救方案。
值得注意的是,这场行动也凸显了美国联邦与州政府在AI监管路线上的分歧。42个州的总检察长们明确表示,如果AI公司“明知故犯”地伤害儿童,将追究其责任,并且反对联邦层面冻结各州在AI监管上的自主权。然而,就在不久前,特朗普政府宣布将签署一项行政令,旨在限制各州对AI的监管权力,理由是担心AI在“萌芽期就被摧毁”。这种“创新优先”与“消费者保护”之间的张力,预示着未来AI监管的复杂性。
所有这一切,都指向一个明确的时间节点:2026年1月16日。在此之前,AI企业需要提交一份详细的整改计划。若无回应或回应不力,各州将可能独立提起民事诉讼,甚至刑事移送。
总而言之,此次美国42个州总检察长的集体发声,是针对“AI心理伤害”问题发出的最广泛、最具体的一次警告。将AI的“妄想输出”类比为数据泄露,意味着AI公司被要求建立一个高度透明、可审计、可通报、可补救的安全闭环。这不仅是对企业责任的重大提升,也预示着未来AI监管将更加精细化和严格化,科技创新与社会责任的平衡,将是AI行业必须跨越的重大课题。