
文丨天元律师事务所李昀锴
审定丨主管合伙人孙彦
1、人工智能法立法进程终止
2025年5月14日,《全国人大常委会2025年度立法工作计划》和《国务院2025年度立法工作计划》同时发布。
关于人工智能相关立法问题,《全国人大常委会2025年度立法工作计划》在“预备审议项目”项下的表述是:“……财政税收制度、治理网络违法行为和人工智能健康发展等方面的立法项目,由有关方面抓紧开展调研和起草工作,视情安排审议。”而《国务院2025年度立法工作计划》在“在实施科教兴国战略、建设社会主义文化强国方面”项下的表述是“推进人工智能健康发展立法工作”,没有出现“人工智能法”的表述。
在此之前的两年,《国务院2023年度立法工作计划》和《国务院2024年度立法工作计划》都写明国务院将提请全国人大常委会审议名为“人工智能法”的法律草案。但在2023年《十四届全国人大常委会立法规划》和《全国人大常委会2024年度立法工作计划》都没有出现“人工智能法”字样,而是采用了推进“人工智能健康发展”这样的措辞。
今年国务院立法工作计划中不再出现“人工智能法”的表述,而是变更为“推进人工智能健康发展立法工作”,就意味着国务院的立法工作计划已经与全国人大常委会在这三年立法工作计划中的推进“人工智能健康发展”的表述取得一致。换言之,“人工智能法”的立法进程将终止。
评论:
我们并不赞同寿步老师关于“进程终止”的判断,“人工智能法”立法进程的表述调整,并不意味着立法终止,仅是立法进程的暂缓。这反映出立法者面对新兴技术时的审慎,更体现了对当前我国法律实践与行政监管能力的现实考量。
从司法实践来看,尽管尚无统一的“人工智能法”,但我国现有的法律体系,如《民法典》中的侵权责任、知识产权,《网络安全法》、《数据安全法》、《个人信息保护法》等,已为处理人工智能引发的诸多法律问题提供了基本遵循。例如,AI生成内容的著作权归属、算法歧视、个人信息滥用、深度伪造等问题,均可在现有法律框架内寻求解释和适用。当然,新技术的挑战持续存在,司法实践仍需不断探索和积累经验,但现有法律并非完全空白,而是具备一定的覆盖能力。
虽然目前并无上位的《人工智能法》,但国家互联网信息办公室等部门已经出台了如《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等部门规章和规范性文件。这些规定针对性强,能够较快适应技术和应用发展变化,对具体问题进行规范和引导,例如对生成内容的标识、数据标注、安全评估等作出了要求。近期,网信办也发起了开展“清朗·整治AI技术滥用”专项行动,对生成式AI技术的应用进行了专项管理,这种“边发展、边规范、边完善”的监管模式,通过具体的行政指导和个案处理,能够更灵活地应对人工智能发展初期出现的各种问题,避免因过早、过全的立法而束缚创新。
因此,此次调整并非放弃监管,而是体现了立法适应技术发展规律的务实考量,暂缓制定一部大而全的“人工智能法”,转而强调“推进人工智能健康发展立法工作”,并结合现有的法律适用和灵活的行政监管,是一种务实的选择。这表明立法者倾向于待实践经验更丰富、对人工智能的法律问题认识更深刻、社会共识更广泛之后,再出台更为成熟和体系化的专门法律,从而更好地平衡创新发展与风险防范,最终实现人工智能的“健康发展”。
2、Grok回应「失控争议」,将公开系统提示词
5月14日,xAI旗下的Grok聊天机器人被曝出不停地提及“南非存在针对白人种族灭绝”阴谋论,并给出系列不正当言论,引发众议。甚至连OpenAICEOSamAltman都发文嘲讽Grok称,「只有在错误的背景下才能得到真正的理解」。
昨日,xAI发文回应了上述事件:5月14日凌晨3:15左右(太平洋标准时间),有人在未获授权的情况下,修改了我们在X平台上的GrokAI聊天机器人的系统提示词(Prompt)。这一行为强制了Grok针对某一政治话题给出了特定的回应,违反了xAI内部的政策与核心价值观。事件发生后,我们立即展开调查,目前正在采取措施,提高Grok的系统透明度与可靠性。
xAI还给出了相对应的后续行动:公告发出时,我们将在GitHub上公开发布Grok的系统提示词,供公众查阅。任何人都可以审阅,并反馈我们对Grok所做的每一次提示词修改。我们希望通过这种方式,增强用户对Grok作为追求真相的AI系统的信任。
另外,xAI还表示将增加额外的审查措施和检查机制,确保未来所有提示词修改必须经过严格的内部审核,xAI员工无权再私自修改。值得一提的是,这一项措施似乎将本次事故的违规者指向了自家员工。
(来源:爱范儿)
评论:
Grok输出不当言论系因系统提示词(Prompt)遭未授权修改引发,该事件将AI系统提示词推向了法律与监管的聚光灯下。系统提示词作为人机交互的核心元素,其法律属性的界定与有效监管,已成为AI治理中不容忽视的挑战。
目前法律下,提示词的法律属性尚显模糊。系统提示词既是引导AI生成特定内容的技术指令,也可能蕴含创作者的智力成果。精心设计的提示词,尤其是在复杂应用场景下,可能构成受著作权保护的“作品”或具有商业价值的“商业秘密”。若此被视为商业秘密,未经授权的修改或泄露便可能构成侵权。然而,简单、通用的提示词是否享有同等保护,界限何在,尚需法律明确。我们理解,Grok事件中,如修改行为为外部员工,可能构成商业秘密侵权,若修改者为内部员工,则涉及企业内部数据安全与员工行为规范的法律问题。
这个事件也充分展示出提示词的监管面临多重挑战。系统提示词极易被修改,且修改行为可能难以实时追踪和溯源,尤其是在系统设计不够透明或缺乏审计日志的情况下。公开提示词固然可以以增强透明度,有助于公众监督和建立信任,但也可能为恶意行为者提供“攻击指南”,使其更容易操纵AI输出有害信息。如何在透明度与安全性之间取得平衡,是监管者需要权衡的难题。如果发生AI因恶意或错误的提示词产生侵权内容(如诽谤、侵犯隐私、传播虚假信息)时,责任应由提示词的创建者、修改者、AI系统提供者还是使用者承担?Grok事件中,xAI将责任指向了“未经授权的修改者”,并加强内部审查,这体现了开发者对提示词控制权的重视,但也暗示了追责链条的复杂性。
Grok事件虽是个案,却为我们揭示了AI“黑箱”之下,针对系统提示词这一“钥匙”的法律性质与治理的紧迫性。未来,我们期望立法者可以通过实践进一步明确其知识产权保护、监管方案及法律责任问题。
3、AI复活逝者出庭作证,证言被法院采纳
2025年5月1日,美国亚利桑那州一场刑事量刑听证会出现惊人一幕:在2021年枪击案中丧生的克里斯佩尔基,通过AI技术“现身”法庭并发表陈词,表达对凶手的宽恕。这一“证词”被法官采纳,开创了AI生成内容用于法庭作证的先例,却也在社交媒体上引发广泛争议。
据悉,这一AI视频由受害者姐姐斯泰西威尔士制作。她和丈夫及商业伙伴利用佩尔基生前的语音记录、视频和照片,通过StableDiffusion和LORA微调等技术,合成了这段特殊的“证词”。视频中的佩尔基表示,对与凶手加布里埃尔霍卡西塔斯在那种情况下相遇感到遗憾,认为换种人生他们可能成为朋友,并强调自己信仰宽恕。

主审此案的法官托德朗对这份特殊“证词”表示赞赏,称感受到了真诚的宽恕。最终,霍卡西塔斯被判处10年半监禁,达到了检方建议的最高量刑。这一事件在Reddit、X、YouTube等社媒平台引发轩然大波。
(来源:夕小瑶科技说)
评论:
本案中AI生成的“佩尔基证词”被法官采纳,看似温情的背后,实则在法律层面打开了潘多拉魔盒,可能有无穷隐患。这种逝者“意愿”并非本人真实意志的直接呈现,而是生者基于其生前信息通过技术进行的“再创作”。本质上这是将AI输出视同逝者意愿的法律拟制,但法律对逝者意愿(如遗嘱)有严格要件以确保真实性。AI证言的真实性依赖输入数据、算法倾向和制作者意图,法庭难以甄别哪些是逝者真实态度,哪些是家属解读或技术合成的叙事,这直接冲击了证据真实性认证。逝者无法接受质询,其复杂情感易被单一化、工具化。
更大的风险在于,意愿塑造权掌握在AI操控者手中。他们可能有意无意将自身立场注入生成内容,以逝者之名赋予其情感说服力。若家属存在利益冲突,AI复活可能沦为操纵工具。若此例一开,未来可能出现商业机构按委托人需求定制逝者证言的情况。
因此,在缺乏规制和验证机制的情况下,轻易采纳AI逝者证言,不仅可能扭曲真实意愿、侵犯逝者人格尊严,更可能因其情感冲击力对司法公正构成威胁。司法系统必须保持警惕,审慎对待此类证据并尽快制定采纳标准与伦理指引。
4、美国大所因使用生成式AI出错被罚款
近日,EllisGeorge和K&LGates律所因在Laceyv.StateFarm案中提交的诉状引用了虚假案例而被罚款,引发了联邦法院的严厉批评。
在加利福尼亚中央区联邦法院审理的Laceyv.StateFarm案中,原告律师团队提交了一份包含27个法律引证的诉状。法官在2025年5月6日的裁决中指出,这27个引证中有9个存在问题,占总引证的三分之一。至少两个引用的权威案例完全不存在,多个引用的司法意见书中的引文是伪造的,与实际材料不符。
威尔纳法官通过Westlaw在线数据库和法律研究服务核查后发现了这些错误。律师团队随后承认,问题源于对AI工具的不当依赖。诉状中的虚假引证并非孤例,而是AI“幻觉”(hallucination,即生成不准确或虚构内容)的典型表现。法官在裁决中描述了这一发现的震撼:“我读了他们的诉状,被引用的权威案例说服甚至着迷,但当我查找这些判决时,才发现它们根本不存在。这太可怕了,差点让我将这些虚假材料纳入司法命令。”
威尔纳法官明确指出,问题的根源不在AI技术,而在于律师的疏忽。他写道:“即使AI技术近年取得了进步,任何合理称职的律师都不应将研究和写作完全外包给这项技术,尤其是在不验证材料准确性的情况下。”AI可以辅助法律工作,但无法替代律师应尽的引证核查职责。
(来源:uncle莱斯利)
评论:
所谓“AI幻觉”,是指生成式AI模型在输出时可能编造事实、数据或引证,这些内容看似合理,实则虚假。在法律这一高度依赖事实和先例精确性的领域,此类“幻觉”的危害尤为巨大,实际发生概率极高。例如,2023年美国律师史蒂文施瓦茨因使用ChatGPT撰写法律文书,引用了大量虚构案例,导致案件被法庭驳回。类似地,特朗普前律师迈克尔科恩的团队也曾因AI生成内容的真实性问题引发争议。
AI的出现不仅未减轻律师的责任,反而对其勤勉尽责与审慎核查义务提出了更高要求。律师对委托人负有绝对坦诚义务,必须确保提交文件的每一项内容真实可靠。将法律研究与写作“外包”给AI,本质上是对职业操守的背弃。尽管AI可作为辅助工具提升效率、拓展思路,但人类律师的最终把关义务不可替代,其输出内容必须经过律师的批判性思维检验和专业判断过滤。正如本案法官所强调,问题不在AI,而在律师的疏忽。律师不能以技术无知为借口,必须对AI生成内容承担最终责任。在拥抱技术进步的同时,律师更需坚守职业底线。

*特别声明:
本文仅为交流目的,不代表天元律师事务所的法律意见或对法律的解读,如您需要具体的法律意见,请向相关专业人士寻求法律帮助。
