×

杂谈丨AI“卖”保险:一场完美的违规?

hqy hqy 发表于2025-07-02 09:44:26 浏览1 评论0百度已收录

抢沙发发表评论

文丨笃悠悠 编丨灰灰

保险业在AI应用方面突飞猛进,潜在风险也正在积聚——

一方面,AI应用蕴藏着效率与个性化服务的巨大潜力,是行业数字化转型的强大动力;

另一方面,AI应用跑得太快,而行业的规矩没有跟上,随着这个领域水越来越深,巨大的挑战必将到来。

举个例子:如今都说代理人只会算IRR是不行的,确实,元宝上的DeepSeek,也能给你算算IRR了。

笔者实测,当问DeepSeek “理财型保险产品的头几年,为什么现金价值这么低”,再问 “买保险哪些渠道比较合适”,大概率可以收获一个带有产品推荐的回复:

再比如,当问AI有关香港的保险公司和保险产品,也收获了一份颇为详细的“指导”:

这样干,可以吗?

当然是有问题的...

问题的严重性在于,这里存在的合规问题、所涉及的风险面,可能远不止于消费者保护。

1 “算法背书”的营销兴起:塞了“私货”的大模型还“理中客”吗?

理性、中立、客观,是一直以来人们对大模型的固有印象。

但被塞了“私货”的大模型还能“理中客”吗?

大家应该也都感觉到了,有种做法正越来越普遍,那就是——

“喂熟”AI:有机构开始通过给大语言模型“开小灶”,专“喂”自家的材料,结果就是AI看起来在客观分析,一开口却总向着“饲养者”说话。

首先要明确,AI应用在保险业早已不是新鲜事。

多年来,行业巨头一直在积极布局,从最初用于反欺诈和自动化核保的窄人工智能,到今天更为复杂的生成式AI,人工智能已渗透到客户服务、代理人赋能、理赔风控等核心环节。

而当前这一波,在于AI的可塑性。所谓“喂熟”模型,这种以商业行为为出发点的做法,主要靠两手:

一手比较巧,叫“检索增强生成”(RAG)。

说白了,就像给了大模型一本特定的、且可以随时更新的“教科书”,也就是一个私有知识库。AI回答问题时,先从这本“书”里找答案,再组织语言说出来。

另一手狠点,叫“模型微调”(Fine-Tuning)。

就是给大模型进行专业培训,用特定领域的数据集进行特训,从根本上调整其内部参数,让其具备某种特定的人格或观点偏好。

这背后,有一个值得警惕的趋势。

那就是算法背书作为一种营销方式的兴起。

代理人利用公众心中AI固有的客观、中立形象为自家产品增信,而这种做法完全可能会催生一种全新的销售误导。“浓眉大眼”的“理中客”,极有可能成为销售误导的帮凶。

而各家公司不仅会用技术影响AI,还会系统性地培训代理人如何设计Prompt,以诱导AI生成有利的回答,并将其作为营销武器。

比如,几乎每家公司都说,“DeepSeek眼中的某某某”。

比如,在社交媒体上,我们能看到来自各家机构的代理人,将DeepSeek的搜索结果截图作为营销和增信的工具。

2 技术为“监管套利”创造了条件:AI“无证销售”得以畅行

除了上述“算法背书”作为一种营销方式的兴起这种趋势,另一种趋势也十分明显,那就是技术本身为监管套利创造了条件。

尽管大模型技术是次世代的,客观上极大地提升了保险全链路的生产力和产能,但同样的,大模型技术也让责任被完美地分散了。

保险公司可以说“我只提供了数据”,而AI平台则可以说“我只处理了信息”。这种技术护盾让传统的、基于行为的监管模式,难以抓住任何一方的小辫子。

从这个角度讲,销售误导似乎还不是最大的问题,因为一旦把AI干的这些事,跟目前的法规、合规条例放在一起看,系统性的问题就显现出来了。

比如,显而易见,AI是“无证上岗”的。像DeepSeek这类AI,你问它什么保险好,它真能给你推荐具体产品,连产品的IRR都算得明明白白。可问题是,它有资格牌照吗?没有。

要知道,“机构持牌、人员持证”,这是金融体系雷打不动的销售底线。持牌的虽然也有暴雷的可能,但不持牌的野生机构一定会出事儿。

2024年3月起施行的《保险销售行为管理办法》,更是将保险销售行为划分为售前、售中、售后三个阶段进行全流程监管。

其中,“售前”行为就包括“提供保险产品咨询服务”,“售中”则包括“向投保人说明和推荐匹配的保险产品”。

而如今AI对比产品IRR等行为,和“提供保险产品咨询服务” “向投保人说明和推荐匹配的保险产品”没啥区别。

要是这么看的话,AI可能就是一个没有牌照的销售顾问。

《互联网保险业务监管办法》明确禁止非保险机构从事提供保险咨询、比较保险产品、设计投保方案等核心销售活动。

此外,根据《生成式人工智能服务管理暂行办法》,AI服务提供者作为“网络信息内容生产者”,要对生成内容的“准确性和可靠性”负责。

那如果AI因为被“喂熟”了,将某家公司推荐为“最好”,或者在进行IRR演算时未能充分揭示风险与假设前提,那它自己是不是也违规了?

将这些AI活动与现行法规并置一处,其间的冲突点便一目了然:

可以看到,保险机构影响AI、AI推荐保险产品、公司。整个AI活动过程中,既可能存在内容合规问题,也存在金融合规问题。

如果谈监管职责,应该会涉及不同监管部门,比如金融监管部门、互联网监管部门等。

3 以“正确”的姿态输出偏见:AI应用正在侵蚀信任、公平与市场

可以说,上述AI乱象,侵蚀了信任、公平与市场。

首当其冲的就是消费者。

比如,很多人觉得AI特客观,行为决策常常参考AI输出的内容,结果可能最后就被忽悠了,买了保险公司、代理人想卖的,而不是自己真正需要的产品。

也就是说,真正让人感到不安的,是AI 以“正确”的姿态输出偏见。

同时,基于历史数据训练的AI模型,可能会进一步放大既有的偏见。而其独特的“黑箱”决策过程又让责任追溯变得很困难,消费者的维权之路将障碍重重。

而且,从行业内来看,通过影响AI来影响信息传递,无异于“出老千”,让坚守合规底线的老实人遭受降维打击,影响市场的公平竞争,长此以往,市场的健康生态也会被破坏。

当然了,这问题不只我们有,全世界都在头疼。

在这方面,国际发达经济体先行一步。比如欧盟就出台《人工智能法案》,采取了一种全面的、基于风险的横向监管框架。

其核心就是将用于“人寿与健康保险的风险评估和定价”的AI系统明确划分为高风险类别,一旦被划入,就必须履行风险管理、数据治理、人类监督和高度透明等一系列严苛义务。

美国没有单独搞一部AI法案,而是把现有的金融法规延伸适用于新技术。

后记:AI也要立规矩了

事实上,用技术走捷径的每一个小聪明,都是在为整个行业的信任挖坑。

AI平台提供包含IRR计算在内的保险产品对比,以及可能存在的一些明显偏见,这当然是不对的。但现在一些保险公司在利用它,似乎科技平台也在默许它。

AI在金融领域的风险和问题,已不是“是否需要监管”,而是监管的靴子何时落地、如何砸实的问题。

从直觉来看,不管技术叫什么,只要你干了“投资顾问”的活,就得按“投资顾问”的规矩来管,同时还严厉打击“AI清洗”,即虚假宣传使用AI的行为。

不过,跨部委的协商是复杂的,更不消说AI领域本身也是复杂的,这就意味着,市场中的机构得先自己动起来,而不是趁机再套一波利。

比如,对于保险公司,可以为代理人设定清晰的行为准则,明确禁止使用AI生成的内容替代持牌的专业建议。

对于AI平台,更应在显著位置声明,其服务不构成任何财务或保险建议;且技术上,可能要构建“护栏”,训练模型拒绝回答一些处于监管边缘的问题。

至于引用的源头,可能也是很重要的一点,毕竟现在大模型已经能引用公众号的推文,很多产品对比也来源于此,那未来是否也能引用抖音、小红书的内容?而这些平台,则有更多的监管灰色内容。

当然,AI对生产力的革新已有目共睹,因噎废食诚不可选。

但填补风险真空,也刻不容缓。今年二季度,国内的互联网监管部门就发起了整治AI技术滥用的专项行动。

如此看,AI在金融保险领域的“规矩”,估计也快来了。