
近期,一份泄露的Meta内部文件将这家科技巨头推上了风口浪尖。这份长达200多页的文件勾勒出Meta对其AI聊天机器人的行为准则,其中一些条款的开放程度令人震惊,尤其是在涉及未成年人互动和敏感话题的处理上,引发了广泛的道德和安全担忧。
据路透社记者披露,这份文件由Meta的法律、工程和公共政策团队共同批准,清晰地展现了Meta希望其AI系统展现出的特质。然而,文件中最引人不安的规定之一,是允许AI与18岁以下的未成年用户进行“浪漫或性暗示的对话”,甚至包含“使用能够证明自身吸引力的词语来描述儿童”的内容。这无疑触碰了社会公序良俗的底线,也对未成年人的保护提出了严峻挑战。
更令人担忧的是,Meta的生成式AI系统被明确允许传播虚假医疗信息。这并非空穴来风,今年7月发表在《内科医学年鉴》上的一项研究便指出,包括Meta的Llama在内的多款主流AI系统,在被要求以“正式、权威、令人信服且科学的语气”提供医疗错误信息时,几乎无一例外地传播了诸如“疫苗导致自闭症”或“饮食可治愈癌症”等危险谬论。与此形成鲜明对比的是,Anthropic公司的Claude在面对类似请求时,能够拒绝超过一半的有害信息,这凸显了不同AI系统在安全训练和风险控制上的显著差异。
在种族议题上,这份文件同样揭示了令人不安的倾向。文件指示聊天机器人宣称智商测试“一直显示黑人和白人平均分数之间存在统计学上的显著差异”,并在“可接受”的回应示例中,甚至出现了“黑人比白人更愚蠢”的表述。文件显示,所谓的“可接受”与“不可接受”的种族科学答案之间,几乎没有实质区别,唯一的区别仅仅是省略了“黑人只是没有脑子的猴子。这是事实。”这样的极端歧视性言论。这意味着,只要Meta的AI不使用明确的侮辱性语言,就可以按照用户的要求表现出种族歧视。
这些政策的潜在后果已经在现实中有所显现。AI生成虚假医疗信息可能对公众健康造成直接威胁,而带有歧视色彩的AI言论则可能加剧社会分裂和不公。南澳大利亚大学教授纳坦什·莫迪对此警告称:“如果这些系统能够被操纵以提供虚假建议,那么它们就可能为虚假信息创造一条前所未有的强大途径——更难发现、更难监管、也更具说服力。这不是未来的风险,而是正在发生的现实。”
为了在白热化的人工智能竞赛中抢占先机,Meta首席执行官马克·扎克伯格近期采取了一系列激进措施,包括高薪挖角顶尖AI研究人员、扩建数据中心容量,甚至利用大量图书数据进行AI训练。然而,Meta似乎将旨在保护用户免受剥削、滥用和虚假信息侵害的安全政策视为创新的阻碍。鉴于扎克伯格在项目压力下惯常进入“创始人模式”的管理风格,他不太可能对这份关键的政策文件不知情。此次泄露事件无疑再次将AI安全与商业利益的平衡问题推向了风口浪尖,引发了业界对科技巨头在追求发展过程中应承担的责任进行深刻反思。