商院新闻|史密斯商学院最新研究:当AI成为“消费者研究员”:效率革命还是洞察危机?
 | 
2026-03-19

生成式人工智能(GenAI)使更多研究人员能够更好地开展消费者研究。但这种普及也可能导致研究结果过于笼统,最终与实际消费者行为脱节。

三种现象:技术民主化、均值陷阱以及模型崩溃——构成了一条发展轨迹。这正是马里兰大学史密斯商学院杰出大学教授、市场营销学David Bruce Smith讲席教授、史密斯服务卓越中心执行主任Roland Rust,以及该中心杰出研究员、台湾大学杰出大学教授Huang Ming-Hui研究的重点。

他们发现,尽管GenAI促进了民主化,让更多人(包括弱势群体)能够使用ChatGPT或OpenAI的Operator等技术购买和使用产品,但偏见仍然渗透到生成式人工智能对消费行为的分析中。“这是因为人们本身就存在偏见,所以如果你试图根据数据库预测人们的行为,那么你对他们的预测就会带有偏见,”Rust教授说道。 “如果数据在研究开始前就存在偏差,那么研究几乎没有成功的机会。

随着越来越多的研究人员依赖生成式人工智能(GenAI)获取这种民主化的数据,他们的结论既不新颖也缺乏独特性。这是因为生成式人工智能,尤其是大型语言模型,需要预先训练海量数据来预测下一个词元——最有可能出现的下一个词元。Huang教授举例说,在英国,天空更有可能被预测为“灰色”,而在台湾,天空则更有可能是“蓝色”。这种基于流行度的预测导致了均值陷阱,研究人员基于以往研究的普遍结果得出了类似的结论。

当越来越多的研究基于生成式人工智能的数据或预测时,这些数据就被认为是合成的。Huang教授指出:“人工智能正在开始生成自己的数据,然后再对这些数据进行分析。这会导致模型崩溃,也就是消费者研究的结果不再呈现出人类特征。”由于生成式人工智能并不像人类那样进行思考,而是基于“下一个词元预测”的机制,其预测结果可能缺乏人类的常识与感知。“人们往往没有真正意识到其中的风险。”

什么才能阻止消费者研究走上这条路?

要警惕人工智能带来的平庸且缺乏新意的结果(“均值陷阱”)。Rust 和 Huang 认为,GenAI 消费者研究需要以人为本,既要重视人类的差异,也要关注人类的相似之处。实现这一目标的方法之一是开发能够强化人性相关性的研究方法。

Copyright © 2024 北京沃伦国际文化传播有限公司 京ICP备14024639号-1