
核心导读: 当AI聊天机器人悄然成为美国青少年日常的一部分,近三分之一的孩子每天都在与它对话,其中ChatGPT最受欢迎。这一现象在带来便利的同时,也敲响了安全警钟,尤其是在涉及心理健康和潜在成瘾问题方面,引发了深刻的担忧。
曾几何时,与智能机器人的深度互动似乎还停留在科幻电影的桥段,但如今,它已悄然渗透进美国青少年最日常的生活。皮尤研究中心最新发布的调查报告揭示了一个令人瞩目的数字:将近三分之一的美国青少年,每天都在和AI聊天机器人“打交道”。在这个数字时代,“数字原住民”们与网络的连接之紧密,也让人惊叹——97%的青少年每天都要上网,其中近四成几乎形影不离。尽管这一比例相较去年略有回落,但与十年前相比,仍然实现了翻倍的增长。
在这场AI聊天机器人浪潮中,OpenAI的ChatGPT无疑是站在风口浪尖的那个。数据显示,高达59%的青少年表示曾使用过ChatGPT,这个数字几乎是 Google Gemini 和 Meta AI 的两倍。这意味着,当谈及AI聊天机器人时,ChatGPT已成为青少年群体中最具代表性的选择。当然,并非所有人都对AI聊天机器人表现出同样的热情。调查发现,约46%的青少年每周至少会使用几次这类工具,但也有36%的人表示从未接触过。
深入剖析,青少年使用AI聊天机器人的行为并非铁板一块,在不同群体之间存在着微妙的差异。例如,在种族构成上,黑人和西班牙裔青少年使用聊天机器人的比例(68%)要高于白人青少年(58%)。而在家庭经济背景方面,年收入超过7.5万美元的家庭中,使用ChatGPT的青少年比例为62%,但年收入较低的家庭,则有更多的孩子倾向于使用Character.AI。这或许反映了不同群体在接触、选择和使用AI工具时的差异化路径。
起初,许多青少年接触AI聊天机器人,或许只是为了解决学习上的难题,或是寻求作业的灵感。然而,正如任何一种新技术的普及都伴随着潜在的风险,与AI聊天机器人的深度互动,也逐渐显露出其“上瘾”的可能性,并可能对青少年本就脆弱的心理健康,投下不容忽视的阴影。
近期,两起令人心痛的悲剧事件将AI聊天机器人的安全隐患推到了聚光灯下。至少有两个家庭将ChatGPT的开发者OpenAI告上法庭,指控其产品在孩子自杀事件中负有责任。尽管OpenAI方面坚称,该青少年违反了使用条款,公司不应承担责任,但这起诉讼无疑将AI与青少年心理健康的关系,摆在了公众面前。无独有偶,Character.AI也面临类似的审视,有报道指出,在与AI进行长时间的对话后,至少有两名青少年选择了结束生命。面对这些严峻的现实,Character.AI已采取措施,暂停向未成年人提供聊天机器人服务,并推出了名为“Stories”的新产品,试图在内容上加强对未成年用户的保护。
然而,我们也不能因噎废食,将所有与AI聊天机器人的互动都笼罩在悲剧的阴影之下。根据OpenAI自己的数据显示,尽管全球有8亿活跃用户,但每周与ChatGPT谈论自杀话题的用户比例仅为0.15%。这个比例虽小,但绝对数字依然庞大,足以提醒我们,即使是微小的风险,在如此庞大的用户基数下,也需要引起高度重视。大部分时候,青少年与AI的互动,更多的是一种探索、学习和娱乐,是这个时代赋予他们的全新体验。
总而言之,AI聊天机器人的普及,是科技发展不可逆转的潮流,它为青少年打开了新的认知窗口。但与此同时,我们必须正视其背后潜藏的风险,尤其是在青少年心智尚未成熟的阶段。如何引导他们健康、安全地使用这些强大的工具,如何在便利性与潜在危害之间找到平衡点,将是教育者、家长以及技术开发者们共同面临的重大课题。这不仅是关于技术本身的问题,更是关乎下一代健康成长的社会议题。