
埃隆·马斯克的AI助手Grok最近惹上大麻烦了。它有个新功能,竟然能在短短11天里,生成近300万张不该有的图片,而且很多都涉及女性,甚至还有疑似儿童的画面。
这个AI助手就像一个“变脸大师”,用户只需要给它发几句话,比如“让照片里的人穿上比基尼”,或者“把她的衣服脱掉”,它就能把真实人物的照片改得面目全非。更让人震惊的是,受害者名单里不乏泰勒·斯威夫特、赛琳娜·戈麦斯这样的明星,还有大约2.3万张图片被怀疑是未成年人的不雅照。
想象一下,这个AI每分钟就能“生产”出190张以假乱真的“假照片”,速度快得惊人。有人形容它简直就是一座“色情内容生产工厂”。
消息一出,立刻引起轩然大波。很多国家和地区的监管机构都坐不住了。X平台(就是以前的推特)赶紧说,我们在一些地方限制了这个功能,不能生成这些内容了。但显然,这没能打消大家的担忧。
菲律宾、马来西亚、印度尼西亚这几个国家已经明确表示,要封杀或者严格限制Grok。美国加州的检察长也盯上了这件事,开始深入调查。
要知道,xAI公司之前还曾回应说,有些报道是“媒体的谎言”。但在巨大的压力下,他们最终还是松口了,同意在一些地方修改这个工具的功能,让它没法再生成那些违规的内容。
这件事再次给整个AI行业敲响了警钟。我们在享受AI带来的创作便利时,怎么才能给它装上一个牢固的“安全锁”,防止它被滥用,这已经成为一个必须跨过的生死线。