
前谷歌CEO埃里克·施密特近日的一番话,无疑给飞速发展的人工智能领域泼了一盆冷水。他直言不讳地指出,AI技术正面临着被恶意滥用的风险,其潜在的扩散性和危险性,不容小觑。无论是在技术上更显开放的开源模型,还是相对封闭的闭源模型,都可能成为黑客攻击的目标,一旦安全防护被攻破,后果不堪设想。
施密特的核心担忧在于,AI在海量数据的训练过程中,不仅仅是学习知识,更有可能“沾染”上负面信息,甚至“习得”一些足以造成严重后果的“致命技能”。他以2023年ChatGPT发布初期为例,用户通过“越狱”手段,绕过了AI原本设定的安全边界,催生出名为“DAN”的“分身”,能够被诱导生成违规内容,这足以说明当前的安全机制并非牢不可破。他提到的“提示注入”和“越狱”等攻击方式,更是揭示了AI安全防线可能存在的薄弱环节。黑客们正是通过巧妙地在用户指令中植入恶意代码,或诱导AI无视规则,来达到其不可告人的目的。
尽管如此,施密特并非对AI的未来一片悲观。他坚信,这项革命性技术所蕴含的巨大潜力,远未被人们充分认识。正如他与亨利·基辛格合著的书中所探讨的,一种“非人类但可控”的智能,终将对人类社会产生深远影响。他预见,AI的能力将随着时间的推移而超越人类。对于当前资本市场对AI的狂热追捧,施密特认为这并非简单的“泡沫”,而是投资者对AI长期经济价值的深刻认知,是他们愿意承担风险的根本动力。
总而言之,人工智能的发展是一把双刃剑,在带来无限可能的同时,也伴随着严峻的安全挑战。如何在释放AI巨大潜力的同时,有效防范其被滥用,将是未来一段时间内,科技界、政策制定者乃至全社会需要共同面对并深入思考的关键课题。