
谷歌CEO皮查伊近日抛出的一个数字——其AI产品每月处理的代币量已突破1.3万亿——无疑在科技界激起了不小的涟漪。这个数字,相较于六月份的980万亿,足足增长了320万亿,听起来像是AI应用爆炸式增长的有力证明。然而,如果我们深入探究,会发现这背后隐藏的,更多是AI模型自身计算复杂度的急剧攀升,而非用户实际使用的爆发。
首先,我们需要理解“代币”在AI模型中的含义。简单来说,它就像是AI处理信息时消耗的“能量单位”。当用户输入一个问题,或者AI进行一次复杂的分析时,都需要消耗一定数量的代币来完成计算。皮查伊提到的1.3万亿代币,更多地反映了谷歌AI基础设施后端承受的计算压力有多大,以及其模型在处理请求时进行了多少次的内部运算。驱动这一增长的,很可能是像Gemini 2.5 Flash这样新型号的AI模型。这些模型的设计初衷就是为了更强的能力,但这也意味着它们在执行每一次任务时,需要进行更精细、更复杂的计算,消耗更多的“代币”。有分析指出,Gemini Flash 2.5在单次请求中消耗的代币量,可能是其前代版本的17倍,这自然导致了其推理成本也随之飙升,达到150倍。再加上视频、图像、音频等复杂的多模态处理能力被纳入统计,这个庞大的代币数字,与其说是用户“用得爽”,不如说是模型“算得猛”的体现。
然而,这个惊人的数字也让谷歌的环保承诺,再次站到了风口浪尖。此前,谷歌曾发布报告称,一个典型的Gemini文本提示,仅消耗0.24瓦时电量、0.03克二氧化碳和0.26毫升水,比看9秒电视消耗的资源还要少。这番表述,似乎在描绘一个高效、低碳的AI未来。但如今,1.3万亿代币的背后,是何等的计算规模?批评者认为,谷歌早前的环保数据,可能只测量了最基础、最轻量级的模型运算,而且很可能忽略了那些真正消耗巨大算力的场景,比如深度文档分析、多模态内容生成,或者由AI代理驱动的网络搜索等。当AI模型需要处理海量的“代币”,其背后所需的电力、散热以及整体的能源消耗,与那些“9秒电视”的微小消耗,形成了鲜明的对比。这种计算需求的真实速度,与谷歌对外宣称的环保影响,似乎存在着难以忽视的“落差”。
总而言之,谷歌AI模型月处理1.3万亿代币的数字,与其说是用户活跃度的直接信号,不如说是AI技术在计算深度和复杂度上的一次“性能展示”。这背后反映的是AI模型本身在不断进化,计算需求也在水涨船高。而如何平衡这种计算需求的指数级增长与可持续发展的承诺,将是包括谷歌在内的所有AI巨头,必须认真思考和回答的关键问题。这场由AI驱动的算力竞赛,才刚刚开始,而它的环境影响,也需要我们持续保持审慎的关注。