×

人工智能和金融稳定

hqy hqy 发表于2025-02-26 19:15:30 浏览11 评论0百度已收录

抢沙发发表评论

[CEPR最新研究精选]人工智能和金融稳定金融机构正在迅速采用人工智能——但这对金融稳定意味着什么代价?本专栏指出,人工智能带来了监管当局可能尚未准备好的新型稳定性风险,或将引发更快速、更具破坏性金融危机的隐忧。为此,监管机构需要做到以下几点:(1)建立内部人工智能专业团队与系统;(2)将人工智能列为金融稳定部门的核心职能;(3)构建能与金融机构人工智能引擎直接对接的监管系统;(4)设立自动触发的流动性支持机制;(5)将关键人工智能功能外包给第三方供应商。私营金融机构正迅速采用人工智能(AI),因为它承诺带来显著的效率提升。虽然这些发展总体上是积极的,但AI也对金融系统的稳定构成了威胁,而这些威胁尚未被充分理解。AI对金融稳定的影响存在争议。一些评论员持乐观态度,认为AI只是众多改变金融服务的技术创新之一,并没有从根本上改变系统。根据这种观点,AI并不会对稳定构成新的或独特的威胁,因此金融当局可以照常运作。持这种观点的当局可能会将AI影响分析委托给组织内的IT或数据部门。我不同意这种观点。AI与以往技术变革的根本区别在于,AI能够自主做出决策,而不仅仅是为人类决策者提供信息。它是一个理性的最大化代理,执行分配给它的任务,这是Norvig和Russell(2021)对AI的分类之一。与之前的技术变革相比,AI的这种自主性为金融稳定带来了新的复杂问题。这意味着中央银行和其他当局应将AI影响分析作为其金融稳定部门的核心领域,而不是仅仅将其归入IT或数据部门。    AI与金融稳定AI对金融稳定性构成的风险源于AI技术与传统金融系统脆弱性理论的交汇。AI擅长在大数据集中快速、可靠且低成本地检测和利用模式。然而,其性能在很大程度上依赖于其是否使用相关数据进行训练,这一点甚至比人类更为重要。AI能够迅速而果断地做出反应,结合其不透明的决策过程、与其他引擎的勾结以及产生幻觉的倾向,这些都是AI带来的稳定性风险的核心。AI通过在简单任务上表现出色来建立信任,从而嵌入金融机构。随着其被提升到越来越复杂的任务中,我们可能会遇到AI版本的彼得原理。无论高层决策者的意愿如何,AI都将变得不可或缺。只要AI能带来显著的成本节约和效率提升,声称“我们绝不会将AI用于此功能”或“我们总会有人类参与”是不可信的。确保AI在高层次任务中按预期执行尤为困难,因为这需要比人类更精确的指令。简单地告诉它“保持系统安全”过于宽泛。人类可以通过直觉、广泛的教育和集体判断来填补这些空白,而当前的AI做不到这一点。    Scheurer等人(2024)的研究提供了一个引人注目的例子,当一个语言模型被明确指示遵守证券法并最大化利润时,收到内幕消息后,它立即进行非法的内幕交易,并对其人类监督者撒谎。金融决策者通常需要解释他们的选择,可能是出于法律或监管原因。在聘用高级职位之前,我们要求候选人解释他们在假设情境中的反应。然而,我们无法要求AI做到这一点,因为当前的AI引擎在高层次决策中具有有限的可解释性,难以帮助人类理解AI模型如何得出结论。AI容易产生幻觉,即自信地给出无意义的答案。这在相关数据不在其训练数据集中时尤为常见。这也是我们对使用AI生成压力测试场景持保留态度的原因之一。AI便利了那些试图利用技术进行有害活动的人,无论是寻找法律和监管漏洞、犯罪、恐怖活动,还是进行国家级攻击。这些人不会遵守道德准则或法规。监管旨在使私人利益与社会利益一致(Dewatripont和Tirole,1994)。然而,传统的监管工具——胡萝卜加大棒——对AI无效。它不在乎奖金或惩罚。这就是为什么监管必须发生根本性变化的原因。由于AI的学习方式,它观察私人和公共部门所有其他AI引擎的决策。这意味着引擎相互优化以影响彼此:AI引擎相互训练,无论好坏,都会导致无法检测的反馈循环,进一步强化不良行为(参见Calvano等人,2019)。这些人类无法实时观察或理解的隐藏AI通道可能导致挤兑、流动性枯竭和危机。    防止危机的一个关键原因是系统对控制尝试的反应方式。金融机构并不会顺从地接受当局的指示。不,它们会做出战略反应。更糟糕的是,我们不知道它们会如何应对未来的压力。我怀疑它们自己也不知道。公共和私人部门参与者对极端压力的反应函数大多是未知的。这也是我们对极端事件了解如此之少的原因之一。另一个原因是每次危机在细节上都是独特的。它们也是不可避免的,因为“吸取的教训”意味着我们在每次危机后都会改变系统的运作方式。不稳定的力量总是在我们意想不到的地方出现。AI依赖数据。虽然金融系统每天产生大量数据——以百亿字节计——但问题在于大多数数据来自系统结果分布的中间部分,而非尾部。危机都与尾部有关。数据的缺乏导致幻觉并引发错误方向的风险。由于我们对极端金融系统结果的数据如此之少,且每次危机都是独特的,AI无法从过去的压力中学到太多。此外,它对最重要的因果关系知之甚少。实际上,这种问题与AI擅长的领域正好相反。当AI最需要时,它知道的最少,从而导致错误方向的风险。AI对稳定性构成的威胁进一步受到风险单一性的影响,这始终是繁荣与萧条的关键驱动因素。AI技术具有显著的规模经济效应,由人力资本、数据和计算能力的互补性驱动。三家供应商将主导AI金融分析领域,每家在其特定领域几乎垄断。当私人和公共部门的大多数人别无选择,只能从单一供应商那里获取对金融格局的理解时,风险单一性就会产生。其结果是,我们会吹大相同的泡沫,忽视相同的系统性脆弱性。人类更加多样化,因此在面对严重的意外事件时,可能更具稳定作用。    面对冲击时,金融机构有两种选择:逃跑(即去稳定)或留下(即稳定)。在这种情况下,AI的强大之处反而对系统不利,因为整个行业的AI会迅速集体做出相同的决定。当冲击不太严重时,最佳策略是吸收并反向交易。当AI引擎迅速达成“留下”的平衡时,它们会通过在危机变得严重之前为市场设定底线,成为稳定的力量。相反,如果避免破产需要迅速果断的行动,例如在下跌的市场中抛售,从而破坏金融系统,AI引擎会集体这样做。每个引擎都希望通过率先逃跑来最小化损失。最后行动的将面临破产。引擎会尽快抛售、催收贷款并引发挤兑。这将在恶性循环中加剧危机。AI的速度和效率意味着AI引发的危机将会迅速而猛烈(Danielsson和Uthemann,2024)。过去需要几天甚至几周的事情,现在可能只需几分钟或几小时。AI速度和金融危机面对冲击时,金融机构有两种选择:逃跑(即去稳定)或留下(即稳定)。在这种情况下,AI的强大之处反而对系统不利,因为整个行业的AI会迅速集体做出相同的决定。    当冲击不太严重时,最佳策略是吸收并反向交易。当AI引擎迅速达成“留下”的平衡时,它们会通过在危机变得严重之前为市场设定底线,成为稳定的力量。相反,如果避免破产需要迅速果断的行动,例如在下跌的市场中抛售,从而破坏金融系统,AI引擎会集体这样做。每个引擎都希望通过率先逃跑来最小化损失。最后行动的将面临破产。引擎会尽快抛售、催收贷款并引发挤兑。这将在恶性循环中加剧危机。AI的速度和效率意味着AI引发的危机将会迅速而猛烈(Danielsson和Uthemann,2024)。过去需要几天甚至几周的事情,现在可能只需几分钟或几小时。政策选项在AI驱动市场的世界中,传统的防范和缓解金融危机的机制可能无法奏效。此外,如果当局显得未能准备好应对AI引发的冲击,这本身就可能导致危机更有可能发生。当局需要具备五项关键能力,以有效应对AI:1.建立内部AI专业知识,并建立或获取自己的AI系统。这对于理解AI、发现新兴风险以及迅速应对市场干扰至关重要。2.将AI作为金融稳定部门的核心职能,而不是将AI影响分析放在统计或IT部门。3.获取能够直接与金融机构AI引擎对接的AI系统。私人部门的大部分金融业务现已自动化。这些AI到AI的API链接可以对微观监管进行基准测试,更快地检测压力,并提供更透明的自动化决策洞察。   4.设立自动触发的流动性设施。由于下一次危机将会非常迅速,银行的AI可能在银行CEO有机会接听中央银行行长的电话之前就已经采取行动。现有的传统流动性设施可能过于缓慢,因此需要自动触发的设施。5.将关键AI功能外包给第三方供应商。这将弥补当局无法在内部开发必要技术能力的缺口。然而,外包会带来管辖权和集中风险,并可能阻碍当局员工必要的AI技能积累。结论AI将为金融系统带来显著的好处——更高的效率、改进的风险评估以及更低的消费者成本。然而,它也带来了新的稳定性风险,不容忽视。监管框架需要重新思考,风险管理工具需要适应,当局必须准备好以AI的速度采取行动。当局选择如何应对,将对下一次AI危机的可能性和严重程度产生重大影响。