文丨天元律师事务所 李昀锴
审定丨主管合伙人 孙彦
1、欧盟委员会宣布撤回人工智能责任指令
近日,欧盟委员会在其官网上公布了2025年的工作计划,其中引人注目的是人工智能责任指令(AI Liability Directive,AILD)的提案被撤回。
AI系统致损案件中,受害人往往遭遇多种困难:首先,受害人需要证明是AI系统提供者的过错造成了AI系统的输出或应输出而不输出,且这一结果造成了损害。AI系统本身具有黑箱属性,不仅在技术上难以理解,且系统通常封闭,受害者难以取证和举证。这可能使得受害人寻求救济的金钱或时间成本相较一般的过错责任案件过于高昂,使受害人失去寻求救济的动力。AILD通过引入证据披露机制与过错责任下的因果关系推定,显著减轻了受害人的举证困难。
欧盟委员会对撤回提案给出的解释是“没有达成一致意见的预期”(no foreseeable agreement),但委员会将评估是否应提交另一项提案或选择其他的立法路径。(来源:Siddartha)
2、胡言乱语牛会下蛋,法国开源AI大模型上线两天就下架
中国开发的Deepseek又掀起AI热潮,法国为了跻身这场竞争,近日推出一个由法国政府支持的开源法语AI聊天机器人露茜(Lucie),然而它就连简单的数学问题也做不好,对用户的问题发表胡言乱语,甚至说牛下的是牛蛋,山羊的平方根是1,上线两天迅速下架。
这个AI是由Linagora集团等财团在法国政府的支持下开发的,名为露茜(Lucie),1月23日上线公开测试,Linagora在25日下线时声明,它仍然是“早期阶段的学术研究项目”。(来源:扬子晚报)
评论:在科技界有个说法叫做“美国负责创新,中国负责应用,欧盟负责监管”,这种说法其实很有道理。欧盟于2023月12月通过了《人工智能法案》,并于2024年8月1日正式生效,这是全球首部全面监管人工智能的法规,对人工智能系统的开发、部署和使用等方面制定了严格规则。而在数据隐私保护领域,欧盟的《通用数据保护条例》(GDPR)在2018年5月25日正式生效,被认为是全球最严格的数据保护法规之一,欧盟监管机关根据GDPR规定对Meta、Google等国际公司进行了严厉的处罚,根据DLA Piper发布的《GDPR罚款与数据泄露调查》,2024年欧盟数据执法罚款总额12亿欧元。
严格的监管虽有保障隐私与安全的初衷,但在一定程度上阻碍了AI技术的发展。以法国的露茜模型为例,它在仓促上线3天后就因给出诸多荒谬回答而被迫下线。这一事件背后,欧盟严苛的监管难辞其咎。《人工智能法案》和《通用数据保护条例》让企业在数据获取、模型训练和应用部署上畏首畏尾,投入大量资源用于合规,限制了技术迭代速度和创新活力。
本次巴黎AI峰会给了欧盟反思的机会,欧盟开始考虑重新审视监管政策。毕竟,如果为了合规安全,那么最好的解决方案应该是关闭所有的AI产品。欧盟一方面应适度放宽数据使用限制,简化审批流程,降低合规成本,另一方面也应鼓励企业大胆投入研发,吸引全球AI人才与资金,让欧洲在AI赛道上重焕生机,不再因过度监管而掉队。
3、微信接入deepseek
2月15日,微信正在灰测接入DeepSeek R1模型。部分用户已经可以内测相关AI搜索功能。入口在微信首页上方的搜索框,点开会出现一个“AI搜索”功能,目前灰色测试中,只有部分人可以看到。点击之后可选择“深度思考”,即DeepSeek R1模型。通过它搜索时,会展示思考推理的流程。若未显示该入口,说明暂未覆盖到您的账号,请耐心等待后续开放。另外,微信的功能介绍页面显示,本产品涉及对DeepSeek开源大模型的提供与使用。DeepSeek系列开源大模型由深度求索(DeepSeek)公司提供,特此鸣谢深度求索公司与DeepSeek开源社区对大模型开源及相关研究的贡献。(来源:中国基金报)

评论:微信接入DeepSeek R1模型的灰度测试标志着大模型技术从实验室走向大众场景的关键一步。这一动作能够让上亿的AI用户直接感知AI的强大能力,以“无感化”的方式重塑用户心智。从法律人角度,这次微信接入Deepseek如此迅速是受益于开源模式,DeepSeek R1采用MIT协议开源,其MoE架构允许企业以模块化方式低成本部署垂直场景解决方案,微信如需部署Deepseek不需要再与深度求索公司进行商业谈判确定相关合作细节,而只需要根据开源模型自行部署测试,这大大加快了微信推进产品落地的节奏。从行业影响看,此举可能引发连锁反应,以后超级App+开源模型的组合将成主流范式。预计支付宝、抖音等平台或将跟进,通过接入差异化开源模型(如侧重多模态、垂类知识的模型)构建自身AI竞争力。可以预见,将来闭源模型继续深耕金融、医疗等高壁垒领域,而开源模型则通过微信这类超级入口渗透至社交、消费等高频场景。果真如游戏科学公司冯骥所言,Deepseek是“国运级”的产品。
4、ChatGPT允许生成成人级内容
OpenAI更新了其聊天机器人ChatGPT如何表现以及如何响应用户请求的指导方针Model Spec,允许在适当的上下文下生成成人级内容如色情和血腥内容。OpenAI称ChatGPT不应该生成色情、非法或非自愿性行为的描述、或极端血腥的内容,除非是在科学、历史、新闻、创意,或者其它敏感内容合适的上下文中。用户的测试显示ChatGPT确实放宽了其内容过滤器。OpenAI强调儿童色情仍然是禁止的。(来源:Solidot)
评论:社群上有用户戏言,OpenAI允许成人内容是针对Deepseek的杀手锏。从我国的《生成式人工智能服务管理暂行办法》等法律法规的规定来看,这个说法是有道理的。中国对AI生成内容设定了明确的“红线”,禁止生成“煽动颠覆国家政权、危害国家安全、宣扬恐怖主义、淫秽色情”等违法信息。OpenAI放宽成人内容生成的条件(如允许在创意场景下生成情色内容),与中国法律要求存在显著冲突。考虑到中国的监管要求,如果类似ChatGPT的服务想要进入中国市场,就必须建立更加严格的内容过滤机制,确保不会生成违反中国法律法规的内容,否则将很难获得监管机构的备案资格。
从AI行业发展预测,OpenAI的政策调整可能带来不良的示范效应,技术的发展应该比拼的是能力上限,而不是内容下限。如果OpenAI的该政策获得推广,其他AI企业可能纷纷效仿,整个行业可能陷入无底线的竞争状态。大量成人级内容借助AI生成和传播,不仅会冲击网络内容生态的健康发展,还可能引发更多法律纠纷。对于中国AI企业而言,应以此为鉴,坚守法律底线,专注于技术在生产、教育、医疗等正向领域的应用开发,推动AI行业朝着健康、可持续的方向发展。

*特别声明:
本文仅为交流目的,不代表天元律师事务所的法律意见或对法律的解读,如您需要具体的法律意见,请向相关专业人士寻求法律帮助。
