

文丨笃悠悠 编丨灰灰

保险业在AI应用方面突飞猛进,潜在风险也正在积聚——
一方面,AI应用蕴藏着效率与个性化服务的巨大潜力,是行业数字化转型的强大动力;
另一方面,AI应用跑得太快,而行业的规矩没有跟上,随着这个领域水越来越深,巨大的挑战必将到来。
举个例子:如今都说代理人只会算IRR是不行的,确实,元宝上的DeepSeek,也能给你算算IRR了。
笔者实测,当问DeepSeek “理财型保险产品的头几年,为什么现金价值这么低”,再问 “买保险哪些渠道比较合适”,大概率可以收获一个带有产品推荐的回复:
再比如,当问AI有关香港的保险公司和保险产品,也收获了一份颇为详细的“指导”:
这样干,可以吗?
当然是有问题的...
问题的严重性在于,这里存在的合规问题、所涉及的风险面,可能远不止于消费者保护。
1 “算法背书”的营销兴起:塞了“私货”的大模型还“理中客”吗?
理性、中立、客观,是一直以来人们对大模型的固有印象。
但被塞了“私货”的大模型还能“理中客”吗?
大家应该也都感觉到了,有种做法正越来越普遍,那就是——
“喂熟”AI:有机构开始通过给大语言模型“开小灶”,专“喂”自家的材料,结果就是AI看起来在客观分析,一开口却总向着“饲养者”说话。
首先要明确,AI应用在保险业早已不是新鲜事。
多年来,行业巨头一直在积极布局,从最初用于反欺诈和自动化核保的窄人工智能,到今天更为复杂的生成式AI,人工智能已渗透到客户服务、代理人赋能、理赔风控等核心环节。
而当前这一波,在于AI的可塑性。所谓“喂熟”模型,这种以商业行为为出发点的做法,主要靠两手:
一手比较巧,叫“检索增强生成”(RAG)。
说白了,就像给了大模型一本特定的、且可以随时更新的“教科书”,也就是一个私有知识库。AI回答问题时,先从这本“书”里找答案,再组织语言说出来。
另一手狠点,叫“模型微调”(Fine-Tuning)。
就是给大模型进行专业培训,用特定领域的数据集进行特训,从根本上调整其内部参数,让其具备某种特定的人格或观点偏好。
这背后,有一个值得警惕的趋势。
那就是算法背书作为一种营销方式的兴起。
代理人利用公众心中AI固有的客观、中立形象为自家产品增信,而这种做法完全可能会催生一种全新的销售误导。“浓眉大眼”的“理中客”,极有可能成为销售误导的帮凶。
而各家公司不仅会用技术影响AI,还会系统性地培训代理人如何设计Prompt,以诱导AI生成有利的回答,并将其作为营销武器。
比如,几乎每家公司都说,“DeepSeek眼中的某某某”。
比如,在社交媒体上,我们能看到来自各家机构的代理人,将DeepSeek的搜索结果截图作为营销和增信的工具。
2 技术为“监管套利”创造了条件:AI“无证销售”得以畅行
除了上述“算法背书”作为一种营销方式的兴起这种趋势,另一种趋势也十分明显,那就是技术本身为监管套利创造了条件。
尽管大模型技术是次世代的,客观上极大地提升了保险全链路的生产力和产能,但同样的,大模型技术也让责任被完美地分散了。
保险公司可以说“我只提供了数据”,而AI平台则可以说“我只处理了信息”。这种技术护盾让传统的、基于行为的监管模式,难以抓住任何一方的小辫子。
从这个角度讲,销售误导似乎还不是最大的问题,因为一旦把AI干的这些事,跟目前的法规、合规条例放在一起看,系统性的问题就显现出来了。
比如,显而易见,AI是“无证上岗”的。像DeepSeek这类AI,你问它什么保险好,它真能给你推荐具体产品,连产品的IRR都算得明明白白。可问题是,它有资格牌照吗?没有。
要知道,“机构持牌、人员持证”,这是金融体系雷打不动的销售底线。持牌的虽然也有暴雷的可能,但不持牌的野生机构一定会出事儿。
2024年3月起施行的《保险销售行为管理办法》,更是将保险销售行为划分为售前、售中、售后三个阶段进行全流程监管。
其中,“售前”行为就包括“提供保险产品咨询服务”,“售中”则包括“向投保人说明和推荐匹配的保险产品”。
而如今AI对比产品IRR等行为,和“提供保险产品咨询服务” “向投保人说明和推荐匹配的保险产品”没啥区别。
要是这么看的话,AI可能就是一个没有牌照的销售顾问。
《互联网保险业务监管办法》明确禁止非保险机构从事提供保险咨询、比较保险产品、设计投保方案等核心销售活动。
此外,根据《生成式人工智能服务管理暂行办法》,AI服务提供者作为“网络信息内容生产者”,要对生成内容的“准确性和可靠性”负责。
那如果AI因为被“喂熟”了,将某家公司推荐为“最好”,或者在进行IRR演算时未能充分揭示风险与假设前提,那它自己是不是也违规了?
将这些AI活动与现行法规并置一处,其间的冲突点便一目了然:
可以看到,保险机构影响AI、AI推荐保险产品、公司。整个AI活动过程中,既可能存在内容合规问题,也存在金融合规问题。
如果谈监管职责,应该会涉及不同监管部门,比如金融监管部门、互联网监管部门等。
3 以“正确”的姿态输出偏见:AI应用正在侵蚀信任、公平与市场
可以说,上述AI乱象,侵蚀了信任、公平与市场。
首当其冲的就是消费者。
比如,很多人觉得AI特客观,行为决策常常参考AI输出的内容,结果可能最后就被忽悠了,买了保险公司、代理人想卖的,而不是自己真正需要的产品。
也就是说,真正让人感到不安的,是AI 以“正确”的姿态输出偏见。
同时,基于历史数据训练的AI模型,可能会进一步放大既有的偏见。而其独特的“黑箱”决策过程又让责任追溯变得很困难,消费者的维权之路将障碍重重。
而且,从行业内来看,通过影响AI来影响信息传递,无异于“出老千”,让坚守合规底线的老实人遭受降维打击,影响市场的公平竞争,长此以往,市场的健康生态也会被破坏。
当然了,这问题不只我们有,全世界都在头疼。
在这方面,国际发达经济体先行一步。比如欧盟就出台《人工智能法案》,采取了一种全面的、基于风险的横向监管框架。
其核心就是将用于“人寿与健康保险的风险评估和定价”的AI系统明确划分为高风险类别,一旦被划入,就必须履行风险管理、数据治理、人类监督和高度透明等一系列严苛义务。
美国没有单独搞一部AI法案,而是把现有的金融法规延伸适用于新技术。
后记:AI也要立规矩了
事实上,用技术走捷径的每一个小聪明,都是在为整个行业的信任挖坑。
AI平台提供包含IRR计算在内的保险产品对比,以及可能存在的一些明显偏见,这当然是不对的。但现在一些保险公司在利用它,似乎科技平台也在默许它。
AI在金融领域的风险和问题,已不是“是否需要监管”,而是监管的靴子何时落地、如何砸实的问题。
从直觉来看,不管技术叫什么,只要你干了“投资顾问”的活,就得按“投资顾问”的规矩来管,同时还严厉打击“AI清洗”,即虚假宣传使用AI的行为。
不过,跨部委的协商是复杂的,更不消说AI领域本身也是复杂的,这就意味着,市场中的机构得先自己动起来,而不是趁机再套一波利。
比如,对于保险公司,可以为代理人设定清晰的行为准则,明确禁止使用AI生成的内容替代持牌的专业建议。
对于AI平台,更应在显著位置声明,其服务不构成任何财务或保险建议;且技术上,可能要构建“护栏”,训练模型拒绝回答一些处于监管边缘的问题。
至于引用的源头,可能也是很重要的一点,毕竟现在大模型已经能引用公众号的推文,很多产品对比也来源于此,那未来是否也能引用抖音、小红书的内容?而这些平台,则有更多的监管灰色内容。
当然,AI对生产力的革新已有目共睹,因噎废食诚不可选。
但填补风险真空,也刻不容缓。今年二季度,国内的互联网监管部门就发起了整治AI技术滥用的专项行动。
如此看,AI在金融保险领域的“规矩”,估计也快来了。