在当今数字化时代,人工智能(AI)正以前所未有的速度改变着金融服务行业的格局。从自动化交易到信用决策,从客户服务到投资管理,AI 的身影无处不在。美国政府问责局(GAO)于 2025 年 5 月发布的《人工智能:在金融服务领域的使用与监督》报告,为我们深入剖析了这一领域的现状、机遇与风险。

一、AI 在金融服务领域的广泛应用
AI 在金融服务中的应用丰富多样,带来诸多益处,同时也伴随着一系列风险。
(一)应用领域及潜在风险
自动化交易 :通过分析如何优化证券或衍生品订单的执行及动态执行大额交易订单,以减少对价格的影响。然而,AI 驱动的交易模型可能导致不当交易行为或市场动荡,引发市场行为风险。反威胁与非法金融活动 :包括识别假身份证件、检测洗钱等非法活动,以及实时调查网络攻击等,提高安全防线。但在此过程中,也可能面临隐私风险,如敏感数据泄露等。信用决策 :分析各类数据预测申请人信用状况,甚至利用非传统数据(如租金和公用事业支付信息)评估无信用评分申请人的信用状况。不过,存在因数据质量、模型偏见等问题,产生不公平的信贷决策风险。客户服务 :智能客服通过文本和语音命令模拟人类对话,提供 24/7 客户支持。但存在信息准确性风险,可能导致客户误解金融产品或服务。投资决策 :分析大量数据(包括非传统数据源)预测资产价格走势,为个人投资者提供建议。然而,投资建议风险不容忽视,可能因模型偏差等影响投资收益。(二)重点内容表格
表格
应用领域
有益影响
潜在风险
自动化交易
优化交易执行,降低市场影响
可能导致市场动荡、不当交易行为
反威胁与非法金融活动
提高安全防线,打击非法活动
隐私风险,敏感数据泄露
信用决策
扩大金融服务覆盖面,提高决策准确性
不公平信贷决策、数据质量风险
客户服务
提供全天候即时支持,提升客户体验
信息准确性风险,误导客户
投资决策
提供个性化投资建议,提高市场效率
投资建议风险,收益不确定性
二、监管机构的监督与 AI 使用现状
美国联邦金融监管机构主要依据现有法律、法规、指导方针和基于风险的检查来监督 AI。
(一)监管机构的监督工具及不足
现有监督框架 :监管机构依赖现有法律、法规等监督 AI,如 FDIC、美联储、OCC 和 NCUA 通过风险基础检查流程评估金融机构 AI 使用是否合规。但 NCUA 在模型风险管理和第三方服务提供商检查方面存在局限,其模型风险管理指导范围有限,且缺乏检查技术服务商的权力,导致对信用合作社 AI 使用监督不足。监管机构对 AI 的使用 :各监管机构将 AI 融入日常运营、监督和市场监测中,使用程度不一。如美联储和 SEC 使用 AI 较多,主要用于识别风险、支持研究、检测潜在违法行为等,但 AI 输出仅作为决策参考,非唯一来源。(二)流程图:监管机构监督 AI 使用流程
确定检查范围 :监管机构依据风险基础检查流程,确定金融机构的 AI 使用是否纳入检查范围。检查与评估 :对金融机构的 AI 使用进行检查,评估其是否符合现有法律法规要求,重点关注模型风险管理、第三方风险等方面。问题处理 :若发现问题,监管机构可采取监督发现、纠正措施或执法行动,如 OCC 发出需关注事项,CFPB 采取执法行动等。持续监督与改进 :监管机构持续监测金融机构 AI 使用情况,根据技术发展和市场变化,更新监管指导方针和法规,完善监督框架。三、对金融机构和监管机构的影响与建议
金融机构 :应充分认识到 AI 应用的双刃剑效应,在享受其带来的成本降低、效率提升、客户体验改善等益处的同时,加强风险管理,确保数据质量,避免算法偏见等风险。在采用新技术时,要注重模型的可解释性和透明度,以满足监管合规要求。监管机构 :需不断完善监督工具和方法,如 NCUA 应更新模型风险管理指导,国会应考虑授予其检查技术服务商的权力。同时,监管机构要加强自身 AI 知识储备,通过培训、内部工作小组、国际合作等方式,提升对金融服务行业 AI 使用的监管能力,确保金融市场的稳定与安全。总之,AI 在金融服务领域的应用是一把双刃剑,只有在充分发挥其优势的同时有效管控风险,才能实现金融服务行业的可持续发展。金融机构与监管机构应携手共进,共同应对 AI 带来的机遇与挑战。