作者简介:江军,湘潭大学博士研究生;李牧翰,湖南大学博士后研究人员,法学博士
文章来源:《江西财经大学学报》2025年第01期
摘 要:虽然人工智能在传统金融业务范畴中引发了颠覆性的变革,但其作为新型科学技术因素,在金融领域也造成了较为复杂的社会矛盾。人工智能的技术逻辑与现实中的伦理逻辑之间存在冲突,并且与相应的金融制度和监管机制之间存在不协调之处,形成了与传统金融领域中不同表现的伦理风险。人工智能的技术内核包括大数据、算法和自动化决策三个层面;上述技术内核在理论上对传统的金融理性等伦理基础造成了一定的损害;智能技术造成了金融消费者隐私权侵害、自决权代替、法律责任不明等影响。由此可见,人工智能金融伦理风险需要从法律层面切入进行现实化和根源化的解决。为此,应当对人工智能技术的应用实施限制、对大数据基础进行审核、对算法进行有效的监测,以完成对人工智能伦理风险进行规避和控制。
关键词:人工智能;伦理风险;金融科技;算法;自动决策
一、引言
人工智能目前已经成为人类社会最为重要的工具之一,并且开始融入社会的各个层面,在未来的数字化转型和社会大生产过程中,人工智能正在承担愈发重要的角色和功能定位(米华全,2023)。人工智能也引发了较大规模的社会问题,引起了理论层面的诸多探讨。以类ChatGPT人工智能为例,类ChatGPT模型使用的海量训练数据通常来自维基百科(Wikipedia)、书籍、期刊和社交媒体等互联网公开数据。若某些训练数据未取得授权,则会产生数据隐私保护和数据合规方面的问题(马奔等,2023),尤其是在特定行业和领域,人工智能技术的应用带来了更为直接的矛盾和冲突,究其根源,仍然是人工智能技术与传统行业逻辑之间的伦理不适应性。其中典型的为金融领域,比如智能投顾导致的决策失误形成损失的责任分配难题,本质上是决策工具与投资主体的分离性导致的。但是,目前并未有相关学术文献对金融内部伦理风险根源进行系统化处理。同时在治理层面,上述模型也给金融安全治理、稳定发展带来了挑战(蔡琳,2024)。针对此类问题,中国构建了一系列金融政策或者技术类政策进行了回应,比如工业和信息化部发布的《电信和互联网行业数据安全标准体系建设指南》,工业和信息化部与国家互联网信息办公室联合公安部发布的《网络产品安全漏洞管理规定》以及中国人民银行、中国银行保险监督管理委员会、中国证券监督管理委员会、国家外汇管理局联合发布的《关于规范金融机构资产管理业务的指导意见》等。从学术角度看,人工智能作为技术层面的研究对象,在纯理论层面也具有多种视角的探讨,形成了技术决定论、社会建构论、技术互动论等不同学理流派。
但对人工智能金融而言,上述理论并没有提出一套具有体系化的人工智能社会伦理困境理论系统,相关影响没有形成共识,也没有可靠的、统一的类型化标准。同时,这些理论也没有在现实中、制度中提供相应的伦理风险控制与解决方案。尤其是金融等具体行业和领域,人工智能的伦理风险表现更为突出,因为在特定行业中,相关矛盾和冲突一般具有行业专门性,对于伦理风险这一抽象的矛盾很难直观显现,需要理论的系统性分析方能解决。基于此,本文拟从法律视角出发,分析人工智能背景下金融伦理的深层次矛盾,并从制度视角提供相应的解决方案。总的来说,人工智能伦理风险下的金融困境与传统社会矛盾不同,其法律治理方案具有以下逻辑:首先,人工智能金融伦理矛盾源于其技术内核,而该技术内核具有大数据、算法、自动化决策三个层面,这三个层面形成了人工智能金融伦理矛盾和困境的风险根源体系;其次,人工智能的三层伦理风险在现实中的表现也具有三个方面,即大数据对金融投资者隐私权的影响、算法对人类投资理性的替代、自动化决策对人类投资决策能力的侵害,这些方面都具有现实化的侵权和矛盾案例;最后,人工智能的三方面伦理风险法律治理,必须通过上述三个层面技术内核的监管和规制来实现,具体包括对大数据的审核、对算法的监测、对自动化决策应用的控制。
二、人工智能金融伦理风险表现
人工智能的金融伦理风险,均来自人工智能技术在金融领域的应用价值。没有人工智能在金融层面的社会价值,相应的伦理风险永远不可能出现。另外,金融领域的人工智能技术应用,是人工智能金融伦理风险产生的工具性根源。人工智能诞生是为了达成某种人类的应用性目标,该目标是实现超智能,以此为基础解决人力所不能解决的社会问题和矛盾,在金融领域,人工智能的创新目的是通过算法等来推动金融业务的合理化、高效化。但该根本目标本身就具有一定的伦理风险,因为超智能否定了人类在地球层面的本位地位,并且将部分地球自然的主导权转移到机器方面,这种伦理风险已经开始呈现现实化的状态(黎四奇,2022)。人工智能的应用技术,在于其科技逻辑。人工智能的科技逻辑分为以下三个方面:大数据、算法、自动化决策。采用法律手段来解决人工智能伦理风险治理问题,具有技术上的可行性、逻辑上的因果性和制度层面的必要性。
(一) 大数据对金融消费者隐私安全的破坏
隐私安全是现代金融伦理价值体系的核心内容。从人类历史看,“隐私”是自然世界向社会化转移的核心纽带。其中,金融消费者的隐私安全价值尤为重要。首先,金融消费者与普通消费者相比具有特殊性。金融消费者的消费对象和购买对象是金融产品和服务,这类产品服务具有独特的社会意义,即推动资本的有效流转和增值,促进普通经济的快速稳定发展。其次,金融消费者的行为模式更为复杂,涉及更为深刻的隐私权和隐私安全利益。金融消费者的购买行为集中于金融和投资领域,相关的隐私信息数据具有专门性,并且这类信息数据能够在现实市场中形成价值和经济利益,这就形成了金融消费者安全的风险,即对金融消费者隐私侵犯的外部驱动力。最后,金融消费者隐私安全涉及消费者的多方面利益。金融消费者的隐私和数据信息具有价值性,同时也具有经济实用的可能。这表明,数据信息本身就具有权益属性和利益属性。利益属性形成了市场层面的利益驱动,利益驱动可能导致行为违法违规,并且造成伦理层面上的抽象损害,或是法理层面上的权益侵蚀损害。
人工智能引发的金融伦理风险,根本的技术源头在大数据。
首先,大数据作为人工智能规模基础,凸显对公私法益的直接侵害。所谓的规模基础,指人工智能嵌入金融业务需要的数据是巨量的,以大数据的形态表现于外部,才能够被计算机和算法储存、分析、运算并得出有效的金融决策相关结论(李牧翰,2024)。在收集大数据和处理大数据的过程中,其对私人信息数据权利乃至宏观私权利领域都具有一定侵害。在《中华人民共和国宪法》和《中华人民共和国民法典》(以下简称《民法典》)中都规定了公民的人身权等基本权利,公民住宅、公民信息神圣不可侵犯。但是,在人工智能时代,上述权利的保障正处于困境(陈小平,2020)。
其次,人工智能技术降低了金融消费者的隐私保护能力。从实践层面看,人工智能时代的常见金融服务(包括支付宝、小额网贷等)都与人工智能服务协议有关,目前智能互联服务条款通常由厂商制定,很少或没有定制空间(赵天梁和李萍,2020)。服务和隐私条款通常由网络厂商、金融机构撰写和编译,数据主体必须同意后才能获得服务,用户没有办法表达他们对个人数据的使用目的、处理位置、共享政策或保留政策的偏好(赵宝军,2020)。这样,用户或者数据主体完全无法对自身隐私权等私权利进行保障和救济。
最后,人工智能技术本身拓宽了隐私的范畴。在农业社会乃至最早期的原始社会,隐私的种类单一,仅仅涉及身体部位,而在财产方面的隐私较少,一般具有自然性(比如打猎获取的肉类等)。而在工业时期,信件邮件、房屋空间乃至电话号码、电子信息等,成为新的隐私种类(杜严勇,2024)。但是,这种拓宽是具有边界性的,比如房屋空间内的物品和场景能够通过房屋自有的壁垒进行封闭。而在人工智能时代,数据挖掘技术能够挖掘诸多新型种类的数据信息,甚至能够对其进行再加工处理得到进一步的隐私信息,以作为市场价值的驱动因素,有些技术还能够倒推识别信息主体个人。在这种情况下,人工智能技术为了实现社会发展和运行效率的提高,强行拓宽人类隐私的类别,这种拓宽对于人类本身来说是被动的(王亮,2020)。
(二) 算法对理性与金融公正的侵害
社会公正是伦理价值的秩序性体现,同时又需要人类理性从中进行协调,理性是公正伦理的重要基础。金融公正指的是在金融领域,各类金融活动、金融交易以及金融制度的安排和实施应遵循公平、正义和合理的原则。具体来说,金融公正包括以下几个方面:机会均等、信息对称、规则公平、价格合理、分配公平、金融资源的分配应有助于促进社会的公平和可持续发展,避免造成贫富差距的进一步扩大。实现金融公正对于维护金融市场的稳定、保护消费者权益、促进经济的健康发展以及社会的和谐稳定具有重要意义。
人工智能技术恰对上述理性基础形成了一定的破坏,其技术根源在于人工智能技术内嵌的算法机制。如果说大数据是人工智能伦理风险的静态基础,那么人工智能伦理风险的动态基础就是机器算法。机器算法作为人工智能运行的大脑,是人工智能技术的主要方法论所在,侵害了人本主义的理性基础。算法是最为核心的运行结构,其本质是人工智能的大脑,能够为人工智能体的运行提供基本运算和决策,同时算法也是在上述大数据基础上形成的运算结构,本质上也与人类认识事物、沉淀经验、改造世界的过程相类似(岳瑨,2024)。尤其是在金融领域,算法的功能不容忽视,典型的包括智能投顾等。但在这一过程中,人类理性不仅会被一定程度的替代,也会受到机器算法的排挤。这种挤出效应使得人本主义的理性思想基础受到了威胁,建立在人类理性假设之上的各种学科和知识技艺都受到了沉重的打击,比如经济学的理性经济人假设、法学的理性价值判断原理等,这是人工智能伦理风险产生的主要根源之一(闫坤如和马少卿,2019)。
(三)自动化决策对投资者自由价值的代替
自由是一个复杂且多维度的概念,在不同的领域和语境中有着不同的含义。在金融领域,自由主要集中在投资者方面。投资者的自由性,是金融领域持续灵活发展的重要基础。对投资者而言,其自由体现为以下方面。(1)投资者自由价值主要在于对投资行为的自我把控。投资者能够通过自身理性分析和风险偏好的匹配,来对投资的对象和产品进行选择。投资者有权自由选择投资或不投资某种产品,有权自由选择投资此类产品或是他类产品。(2)投资者自由价值还体现为投资规模和投资组合的自由。这种自由主要凸显投资技术,即投资者的自由组合能够在法律层面得到承认,这种自由的选择权能不受其他因素的干扰。(3)除投资标的种类和方向、组合以外,投资者应当对投资的规模和金额具有自我把控的能力和权利。相应的投资规模不应受到任何外界因素的影响和误导。事实上,上述三方面自由性权利是投资者于金融市场存在的基本条件。因为如果缺乏自由性的权利,投资者本身就没有存在的意义,而真正存在意义的仅仅是投资者所拥有的资产和资本本身。保障投资者的自由性权利、对投资者进行教育和再培训,事实上就是为了提高投资者的主体性,保障金融投资市场中的伦理性矛盾被规避,这是目前中国金融市场治理的主要目的之一。
但是,在人工智能技术产生和发展过程中,技术性因素逐步对此产生了影响,其主要的技术逻辑即自动化决策。自动化决策作为人工智能功能实现的主要表现形式,在法学层面成为重要的侵权根源。同时,自动化决策是静态的大数据、动态的算法在具体的社会运行层面进行作用的直接因素。在技术领域,自动化决策是人工智能技术创造和创新的最主要目的之一,比如智能投资决策,就体现人工智能对传统投资者的决策进行的替代和协助,即通过自动化决策、算法和大数据的结合协助人类进行金融或投资决策。这种自动化功能从根本上提高了金融领域运转的效率和发展的速率,尤其是在理学和工学领域,大大降低了运算和决策成本(王海建,2023)。但自动化决策事实上对于人类的权利权益并没有进行安全性考量,只集中算法设定的目标,而不具有权利保护的功能。对人工智能自动化决策而言,一切与法律有关的、与权益保护有关的规范和约束都是一种技术阻碍。比如在《民法典》有关知情同意的规则中,数据处理者和信息处理者在没能获取权利人授权的情况下进行处理和决策,本质上是违法;但知情同意的程序性规范影响了自动化决策的效率,冲击了人工智能的技术原理和效率价值内核,二者之间难以达到有效的平衡。自动化决策也具有对人类决策理性的突破和影响效果,这表明目前的人工智能自动化决策功能尚未将人类伦理的价值和公平纳入技术领域的考量,需要进行规范层面的完善和改良。
三、人工智能金融伦理困境形态
基于人工智能的技术内核,能够直接推导技术性因素对目前金融伦理基础、根基产生的影响和冲击。在传统工业化经济时期,法律与社会行动之间的关联是通过意思表示、法律行为、权利保护和救济等因素实现和沟通的。但在人工智能时代,上文所述的三个层面的技术内核使得意思表示、行为、权利在社会层面的表现存在逻辑上的创新和变化。尤其是在金融投资领域,作为特殊的法律关系之一,金融投资关系的伦理性受到的影响更大。因为人工智能金融技术要素影响的是最为本质的金融体系伦理规律和基本的法律价值体系,如理性、隐私、行为等。
(一)对金融理性的替代与破坏
在一般民法领域,算法和人工智能对理性的破坏主要体现在意思表示方面。意思表示与伦理风险之间具有重要的联系。从本质上看,意思表示本身是一种法律概念,但是这种概念不仅具有法律层面的技术概念特征,同时也涉及法律主体的主观方面,表达和承载了主体的思想观念,故这种主观性的内容与伦理风险联系在一起,因为主观性意思表示是法律主体的个人理性。而在朴素的社会治理领域,金融理性体现了一般的经济主观性。根据经济学原理,经济参与人(无论是经济个体还是公司等经济实体)都符合理性经济人假设。经济个体实体都以自身利益最大化作为经济行为决策的主要依据和核心基础,这是经济金融理性的首要体现。在金融领域,理论上存在两方面假设:第一,金融个体应当符合经济理性判断;第二,金融个体的经济理性、金融理性应当源自本身伦理主体,即伦理理性与经济理性之间应当具有统一性。因为古典经济学与政治经济学中的理性经济人需要符合这一要求,而基于算法、人工智能实现的替代性理性不符合这一要求。同时,这种替代破坏了金融领域的基本伦理与经济假设,对金融行业、市场造成了较大的理论冲击。
理性在现实中需要进行一定的外部表达,才能使得内部理性和自由意志在法律社会实现具体的权利。在这一过程中,意思表示需要发挥实际的功能。在传统工业化时期,这种发挥是毫无阻碍的。以合同法为例,签订合同过程中的意思表示能够直接确定合同的效力,也能够在未来的某一时间点确定责任的归属。在金融领域中,人工智能对理性伦理价值的破坏则更为具体,这一破坏具有替代性效应,是其他领域所不具备的。
一方面,人工智能对人类金融理性具有直接的替代。典型的表现为智能投顾,智能投顾将本属于个人投资者自身的理性进行了替代,这种替代使得投资组合的选择行为与个人理性之间产生了分离。比如,人工智能的算法构建智能投顾的应用,该应用替代了个人理性,采用科学的方法选择投资组合,减少投资者压力,提供更加科学的投资组合决策。而人工智能技术的应用,在哲学层面是对人类理性的一定程度替代。而这种理性,在超出哲学范畴到达法律层面以后,形成的是主观状态和意思表示。意思表示在民法层面属于最为重要的要素之一,其不仅代表民事行为能力和行为本身的有效性,也是民事归责的重要依据之一。如果人工智能在此基础上对人类理性进行替代,那么意思表示和主观方面的表现就会隔上一层技术的“薄膜”。
另一方面,内在的投资行为中,意思表示开始呈现模糊化的特征。技术使得投资者或者其他金融消费者的意思表示无法被充分判断。因为意思表示本来就是主观性的判断,这种判断需要从外部的表现来进行;而外部表现与主观的意思表示之间的联系仅仅是间接性的判断。任何一项第三方外部因素,都会影响这一判断。尤其是在金融的司法领域,司法判定方面的主观认定十分困难。在人工智能时代,这种困难进一步提升。因为外部的影响因素越来越多,并且以技术为主的外部因素会在较大程度上影响主观意思表示的外部形式,进而提高判断和联系的困难程度。
(二)金融业务行为的法律效果认定困境
在法律层面,伦理价值要求能够对任一行为进行法理层面的归责。即责任对法律主体而言,具有伦理方面的必要性。行为与主体之间应当具有关联性,并且在法律技术层面存在关联的可能。这种关联在人工智能时代受到一定的阻碍,形成了责任方面的伦理风险;同时该阻碍仍然来自理性方面的替代与行为的认定困境。一方面,金融消费者无法充分表达自身的理性,以投资为例,智能投顾等人工智能产品能够代替投资者本人进行决策,但是该决策并不能代表自然人自身的意志,而只能代表其对人工智能的授权程度;另一方面,自然人也无法被充分归责,因为其授权后的人工智能决策和行为不能完全代表人的意志和主观方面。基于此,人工智能与理性之间的冲突,在民事行为认定方面具有现实化的体现,并不能被现有法律规范所覆盖。
以智能投顾为例,智能投顾在金融领域的应用越来越广泛,但也存在一些导致金融风险的案例。例如,2016年英国“脱欧”公投期间,全球金融市场大幅波动。一些智能投顾平台由于算法未能及时适应这种极端市场情况,出现了资产配置不合理、风险控制失效等问题,部分投资者的资产遭受了较大损失。目前的智能投顾技术在具体应用过程中,并不都具有直接的外部表现形态,大部分情况下,智能投顾的技术是嵌入传统金融业务范畴之内的。比如,在传统的基金或者其他金融投资组合技术中,嵌入智能技术来分析在既定资金额度下,符合用户风险偏好和用户收益预期的最佳组合。目前的智能投顾技术应用往往采用了部分智能自动化算法工具,单一的、独立的智能投顾并不存在,即独立的智能体并没有在金融市场上出现。在这种情况下,单独设计智能投顾的管理规范并无必要,而如果将智能投顾的相关规范融入已有的单行法律规范体系,又可能产生规范力不足的风险。故智能投顾的相关管理机制应当把握好规制与发展创新的动态平衡。
智能投顾可能引发金融风险的原因主要有以下几点:(1)算法局限性。智能投顾的决策主要依赖预设的算法和模型。然而,金融市场复杂多变,历史数据不一定能准确预测未来市场走势。当出现重大突发事件或市场异常波动时,算法可能无法及时作出正确反应。(2)数据质量问题。智能投顾的准确性取决于所使用的数据质量。如果数据存在错误、不完整或被篡改等问题,可能导致错误的投资决策。(3)缺乏人工干预。虽然智能投顾旨在提供自动化的投资服务,但完全依赖机器决策可能忽略一些重要的非量化因素,如政治局势、社会情绪等。在某些情况下,人工干预是必要的,但如果缺乏有效的人工监督和干预机制,可能会增加风险。(4)监管滞后。智能投顾作为新兴领域,监管法规往往相对滞后。这可能导致一些不规范的行为和风险得不到及时有效的监管和控制。上述因素引发了新型人工智能金融行为在法律性质认定方面的伦理困境。
(三) 金融消费者信息权的保护困境
信息权的根源是隐私权。隐私权是宪法和民法都规定了的、具有公法性质和私法性质的公民基本权利和根本人权。同时,隐私权体现了人类伦理价值的重要维度,并且凸显人工智能时代下的伦理风险。隐私是人与动物、人与工具相区分的重要方面,拥有隐私、能够对隐私进行保护、能够享有隐私权,是人之所以为人的重要伦理基础。人工智能技术的应用不可避免地会对个人隐私权、信息与数据权造成负面的影响,因为个人信息数据是人工智能、大数据与算法工具释放价值的根本基础,但是个人信息与数据又是个人隐私的载体,故隐私权与信息权、数据权之间存在紧密联系。与人工智能的效率性价值相对的,隐私权及其相关法律规范要求技术在应用的过程中充分考虑人类私领域的保护和自我控制权利,并且能够排除一切外部因素对其造成的侵入和影响(段伟文,2020)。但是,人工智能技术不能对此形成有效的兼顾,其外部伦理风险主要体现在对个人信息权和个人数据权的侵害方面。
对个人的信息与数据权利进行保护能够有效地应对人工智能时代的伦理风险。虽然伦理风险具有抽象性,但其在现实中仍然会有所表现。正是这种负面的效应与表现,才会使得人工智能伦理风险具有规制和预防控制的必要性。而对个人信息与数据内部权利的侵害,正是人工智能伦理风险的主要影响和现实体现。所谓的个人信息权和个人数据权,在目前的法律规范体系中已经有较为具体和系统的描述和规定,比如《民法典》第111条:“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。”
人工智能金融伦理风险的产生,在某些情况下是通过法律和权利层面来凸显的。为了明晰这一逻辑,需要从法律与道德伦理的关系出发进行阐释。具体来说,人工智能金融技术和业务框架带动了金融业态的变化,但也带来了监管方面的问题。金融监管本质上是一种社会治理和法律规制的行为,然而法律与道德之间又具有相辅相成的关系。从范畴上看,法律是实体化的道德,也是伦理价值的具象化结果。在人工智能金融技术引发权利损害等法律问题后,进一步影响法律规范背后的道德与伦理价值。其中,最为典型的是信息和数据所载的个人信息权、个人隐私权等问题。人工智能金融技术侵害了上述权利,进而影响了其中伦理道德价值,并引发金融伦理风险。
四、人工智能金融伦理问题的法律治理路径
根据上文分析,人工智能伦理风险的法律治理路径应当从以下逻辑切入并展开:人工智能的技术内核,引发了现实中的伦理风险,而这种风险的治理需要回归相应的技术逻辑,并且从立法和政策层面,将伦理价值蕴含在法律规则之内,即形成“技术—伦理—法益”的三位一体,最终实现人工智能伦理风险法律治理的科学系统。根据人工智能的三个层面技术内核,以及对人本伦理体系根源的三方面影响,能够得出从法律层面对人工智能伦理问题和困境的三类突破进路。其中,需要将人工智能金融伦理问题的表象转换为法律语言,将人工智能金融伦理问题的治理路径嵌入法律技术,并将人工智能金融伦理问题的具体治理方案在法律制度方面形成具体的新型规范。具体来说,人工智能金融伦理问题的法律治理需要从以下角度入手:对人工智能技术的应用、大数据及其数据库、算法和自动化决策等因素进行有效的控制限制;在程序和实体层面有相应的限制约束;进行立法的明确和监管的加强。
(一) 理论层面明确金融自动化决策的法律性质
自动化是人工智能的主要工具性功能之一。无论是人工智能体系,还是内嵌的算法技术,其自动化能力都是技术应用的主要价值体现之一。但是自动化并不能凸显伦理价值,甚至会影响部分伦理规律,如上文所述,自动化决策等机器行动会影响个人的自决权,属于重要的伦理风险样态之一。而对金融领域而言,自动化决策不仅应用广泛,而且可能产生的影响更加深远、隐蔽,规模也更大。同时,自动化决策本身的不确定性在金融领域的影响也更加复杂,故对金融自动化决策必须首先明确决策过程,并且明晰决策的行为本质。在现实中,还存在自动化决策中的代理问题。代理问题与意思表示相关规范结合在一起,可能会形成深层次的伦理与法理问题。具体来说,自动化决策并不具有法律主体资格。算法等技术不能进行意思表示,只有自动化决策、算法背后的使用者、设计者、维护者具有相应的意思表示能力和法律主体资格,比如平台员工、使用算法的投资者等。但是,在经过自动化决策后,形成的意思表示显然受到上述功能和工具的影响,在这一情况下,意思表示是否真实,是否表达了主体的真实意愿,或者是否还在主体的意思表示理性范畴之内,值得商榷。现实中,代理制度确实可以解决这一问题。比如,将自动化决策的行为表现看作一种代理,使用算法的自动化决策功能作为一种授权。
但是,此处存在两方面问题:一方面,自动化决策不能承担越权代理的法律责任。代理法律关系中,可能存在超越授权进行代理的情况,并且这种超越授权代理的行为在算法及自动化决策功能运行过程中较为常见,也是自动化决策的主要现实困境之一。但是,算法并不能承担相关责任,因为自动化决策本质具有客体性质,对超越授权的责任无法进行承担,不具有独立的法律主体资格和财产、经营场所等(李牧翰,2021)。另一方面,自动化决策的工具性载体本身就不具有被授权的可能。代理的基本逻辑是授权者和被授权者之间的权利赋予,但被授权者仍然需要具有法律主体资格。算法不具有法律主体资格,无法被授权,故无法被纳入代理法律关系之中。另外,算法和自动化决策技术背后的设计者、维护者等,也无法进入代理法律关系框架中,这是因为其与算法及自动化决策功能之间的牵连性仅具有技术性,而不具有法律事件、法律关系的牵连性;而对算法的使用者而言,如果将其作为被授权者,那么授权者和被授权者之间就会重合,不具有法律意义和现实意义。因此,采用代理制度来解决自动化决策伦理和法理问题,并不适当。在现实中,代理制度是处理不同主体之间的权利关联问题,但算法和自动化决策仅仅是一种工具或者说功能,并不能够承担相应的权利。因此,实践中只能从具体的主体和个体出发明确相应的法理和伦理责任。
应当将自动化决策以及相应的智能体作为基本工具和客体存在进行考虑。一方面,自动化决策具有工具性价值,并不具有主体性功能。算法和大数据等在金融领域的应用,虽然具有自动化效果,但是这种自动化并不能向自主意识靠拢。其仅是在工具层面具有机械的自动功能,而不具有自我判断和思考的能力,也不具有承担法律责任和伦理责任的能力。另一方面,自动化等技术能够与具体的社会主体相连接,比如算法的设计者、使用者、维护者等,都可以为自动化技术兜底,而在金融领域,金融主体尤其是人工智能技术主体明显具有承担相应责任的能力和资格,不需要将自动化技术和算法智能体认定为金融主体。
(二) 准入层面对金融类智能技术的应用实施限制
准入是法律层面的一种重要制度表现。所谓准入,指的是某种业务、某方面主体以及某种技术在特定领域中进入并创造价值的过程。在准入过程中,相关内容需要满足准入制度的相关标准要求,同时还需要满足一定的法律强制规范。尤其是对某种特定的重要领域(比如石油、电信业务等),相关的准入制度会更加严格。金融领域也是如此,在运行过程中,金融相关人员需要满足资质要求才能实现准入(比如证券领域的准入资质考核)。技术也是一样,在新型技术进入传统的金融领域时,必须满足该行业的特殊要求。因为数字与智能技术并非仅仅应用于金融这一特定领域,在进入金融领域时,必须进行整合和调整。
金融类智能技术的应用准入规则完善和限制机制优化,具有法理层面的合理性和正当性。因为人工智能技术在金融领域的进入过程中,体现较强的动态特征。动态过程中的金融风险,需要多元化的准入机制和限制机制来进行控制和预防。
首先,审核金融人工智能的具体应用功能。从技术层面看,应当进行审核的主要在于金融方面的人工智能应用。其中,最为核心的在于对自动化决策功能的审核。如上文所述,金融人工智能技术形成的伦理风险主要根源在于科技因素中的各类自动化功能,可能包括人工智能机器学习,也有可能集中于算法本身。而这些内容都具有专业性、专门性,在传统行政管理领域,对金融业务内部的技术审核并不包括这一维度,同时上述内容又无法直观地理解。故在投入使用前,应当对金融人工智能具有自动化的功能模块进行注册备案,并对其可能产生的社会影响和伦理风险进行充分评估,只有通过事前审核的技术才能在市场上投入使用和大规模应用。
其次,对使用过程的监控。金融人工智能技术应当嵌入实时监测功能,在金融业务过程中实时反馈应用信息,并能够自主构建技术应用备忘录。这种备忘录应当作为技术性电子信息封存,以作为后期评价和责任划分的具体依据和参考证据。并且,在应用过程中,一旦应用产生了现实风险、触碰风险预警红线,则应当对其进行中止并返回重构。
最后,对应用效果的评价。在使用后,对市场上的影响和风险构成应当进行后评价,选择相应的标准进行评估并进行事后调整,逐步完善人工智能应用的规范性和约束性。评价过程应当严格而综合,在事前设立相关的评价指标,因为人工智能金融伦理风险的维度较为抽象,需要在理论上先构建相应的技术标准和评判标准,并在实践制度层面形成统一。
(三) 监管层面对金融大数据进行审核
监管是法治体系中最为重要的组成部分。在法治过程中,监管体现为主要的行政执法层次,对社会各领域的监管都是执法的重要方面。金融领域和人工智能领域也是如此,对特定领域的数据进行审核,能够有效地规避相关专业性风险。对人工智能金融领域的伦理风险治理体系完善,需要对金融大数据收集归集、应用的过程进行审核,从专业的角度去分析相关行为和模式是否具有伦理风险,是否对现实权益存在损害的可能性。
首先,完善数据收集授权机制。金融数据的收集在目前的金融发展过程中具有重要的意义,其涉及金融领域智能技术的应用以及相应机器学习的数据材料库建设。但在现实层面,信息收集的平衡点较难进行把握。一方面,信息收集在法理层面上、伦理层面上需要授权;另一方面,完全的授权方式和技术机制限制了金融领域科技创新的效率价值,这种做法十分复杂,很容易形成格式化金融条款,最终形同虚设,无法充分保障权利主体。故为了满足对隐私权等权利的保护要求,实现创新和权利保护的价值平衡,可对所有金融信息搜集过程都征得主体同意和授权,但在技术层面实现匿名化,将匿名化、无法回溯特定权利人等作为法律层面的保护标准,使得权利人的信息、数据被抽取可供利用的大数据集,而不会与自身隐私权进行关联(黎四奇,2023)。
其次,限制大数据及相应算法的运用。在收集大数据后,相应数据集在应用过程中应当受到金融机构内外部审核。数据收集后的应用可能会引发较大伦理困境和法律矛盾,内外部审核的方式能够从两个角度入手对大数据本身以及具体应用技术进行双向控制,从侧面解决伦理矛盾,化抽象为具体。其中内部审核为大数据、人工智能技术运用者的机构内部质量控制部门进行审核,而外部审核则应当由行政机关如证监会对其进行有效的审核。审核的内容主要是大数据的流向、控制权责划分有效性以及大数据与人工智能技术等衔接应用的合法合规性。
最后,大数据的保护。数据应用部门应当对金融消费者的个人数据信息负责,虽然匿名化消除了个人信息中的人格性因素,但数据信息仍然具有财产属性,需要在市场流通过程中进行有效的保护。
五、结语
人工智能的技术内核是一切伦理矛盾出现和演化的根源。技术既能推动金融运行方式的改变和创新,也形成了一种超速发展的速率,这种速率可能会引发金融伦理层面的不适应,在现实中具有各种外在表现,可能形成各类社会矛盾和现实纠纷。故技术的创新,不仅改变了人们的生活方式,整体社会和市场的运行逻辑、方式都发生了巨大的改变,而伦理困境和矛盾正是从这种现实的演变中产生和发展的。法律治理,是从顶层视角出发,审视这一伦理困境的现实表现和伦理结构;法律治理体系的创新旨在挖掘其中的技术性内核,并通过制度、规范来使得技术内核和技术运转体系趋于稳定、有序。
人工智能的科技逻辑是基于大数据、算法、自动化决策三个层面实现的。其中,大数据是人工智能技术应用的规模性基础,算法是人工智能技术应用的动态核心,而自动化决策是人工智能的主要功能体现。三个层面科技因素与传统的自决、隐私、意思表示等法律价值之间形成了矛盾,故目前的社会现实矛盾、伦理困境本质上是法理价值与人工智能科技逻辑之间的冲突引发的。为了解决这一问题,应当从根本的科技因素入手,协调科技现实与法律制度价值,并在机制层面形成对新型技术的“控制+扶持”的基本格局,以实现在保障社会伦理价值回归的基础上凸显科技的创新性应用潜力。故在实践层面,应当采用立法、执法和司法三方面整合的方式,来对人工智能伦理问题进行全面化的控制,因为这涉及整体社会层面的矛盾和纠纷,以及以人本主义为核心的现代伦理观。其中,立法应当注重金融数据权利的体系重构,执法则应当注重新型机制的构建,包括金融机构算法等技术应用的提前注册备案、应用监控监测,司法则应当构建新型数字化判定标准和认定条件体系。
END
注:为阅读方便,本文省去注释和参考文献。
封面正文图片来源于网络。
好书推荐
证券法一本通
中华人民共和国证券法总成
邢会强 编著法律出版社
(点击文末“阅读原文”获得购书链接)
点击识别
本微信公众平台依托“中国金融服务法治网”而运作,并与网站形成互补,旨在宣传金融服务法治理念,传递金融服务法新鲜资讯,推动金融服务法学科的建设。
欲获取更多金融服务法学科资料,欢迎登录中国金融服务法治网:http://www.financialservicelaw.com.cn。