近日,中国科学院自动化研究所神经计算与脑机交互课题组和中科院脑科学与智能技术卓越创新中心联合团队有重大发现。他们结合行为实验与神经影像分析,首次证实多模态大语言模型能自发形成和人类高度相似的物体概念表征系统。 人类对物体的概念化认知是智能核心,看到“狗”“汽车”等,能理解其多维度含义。但传统人工智能研究只关注物体识别准确率,很少探讨模型是否真正“理解”物体。该团队设计创新范式,用“三选一异类识别任务”,分析470万次行为判断数据,构建AI大模型“概念地图”。研究还提取66个“心智维度”,发现与大脑神经活动模式显著相关。多模态大模型在与人类行为选择模式一致性上表现更好。此研究表明大语言模型并非“随机鹦鹉”,内部有类似人类对现实世界概念的理解。那么,未来大模型能否在更多认知领域达到甚至超越人类呢?