
你是否觉得,自己使用 AI 工具后,好像变得更聪明了?一项来自阿尔托大学的最新研究发现,这种“聪明感”可能是一种错觉。更令人意外的是,这种高估自己认知能力的现象,在那些自认为更懂 AI 的人身上,反而更加明显。
一直以来,我们都听过一个有趣的心理现象,叫做“达克效应”。简单来说,就是能力不足的人往往对自己的能力过于自信,而能力出众的人反而容易低估自己。这就像是“越懂的越谦虚,越不懂的越爱显摆”。我们通常认为,当人们接触到像 ChatGPT 这样强大的人工智能工具时,应该能更准确地评估自己在这方面的表现。毕竟,AI 那么强大,用好它的人自然也应该更清楚自己的斤两。
然而,阿尔托大学的研究结果却打破了这一预期。研究人员发现,无论参与者对 AI 的了解程度如何,绝大多数人在使用 AI 工具后,都会不自觉地高估自己在任务中的表现。更让人吃惊的是,那些自认为 AI 素养较高、对 AI 更加熟悉的用户,反而更容易产生过度自信的倾向。这有点像掌握了一件新工具,就觉得一切尽在掌握,甚至觉得自己比工具本身更懂。
这项研究让大约500名参与者尝试使用 ChatGPT 来完成一些逻辑推理任务,模拟了法律学校入学考试中的一部分内容。结果显示,尽管 ChatGPT 确实在一定程度上帮助了他们完成任务,但参与者普遍认为自己表现得比实际情况要好。更关键的是,大多数人只是简单地向 AI 提问,然后接受答案,很少深入思考 AI 的推理过程,也没有去核查信息的准确性。这种“认知卸载”——把思考的任务交给 AI,自己则“坐享其成”——似乎让我们变得更加被动,也削弱了我们准确判断自身能力的机会。
研究者认为,当前的 AI 工具,虽然能提升任务效率,但并没有有效地促进用户的“元认知”能力,也就是我们对自己思维过程的觉察和反思能力。这可能导致一种“智力下降”的现象,即我们在依赖 AI 获取信息时,反而失去了独立思考和批判性判断的能力。
因此,研究者们呼吁,我们需要开发新的平台和交互方式,鼓励用户在与 AI 互动的过程中,主动反思自己的思考过程。比如,AI 可以主动提出一些引导性的问题,比如“你觉得这个答案为什么是这样?”或者“你有没有其他思考的角度?”这能促使用户更深入地参与到对话中,而不是仅仅被动接收信息。
总而言之,AI 的出现,在提升我们能力的同时,也可能让我们陷入一种“认知幻觉”。如何在享受 AI 带来的便利的同时,保持清醒的自我认知,并不断提升我们的批判性思维能力,将是我们未来需要认真思考的课题。这项研究也为我们指明了一个方向:未来的 AI 不仅仅是工具,更应该是激发我们深度思考的伙伴。