

随着人工智能行业越来越注重透明度和安全性,围绕“开放性”真正含义的争论也愈演愈烈。开源安全公司 Endor Labs 的专家就这些问题发表了看法,Endor Labs 高级产品营销经理 Andrew Stiefel 强调了将软件安全经验应用到人工智能系统的重要性。
01人工智能模型的“开放”意味着什么?Endor Labs 高级产品经理 Julien Sobrier 为正在进行的有关 AI 透明度和“开放性”的讨论提供了重要背景。“AI 模型由许多组件组成:训练集、权重、用于训练和测试模型的程序等,将整个链条作为开源提供以称该模型为‘开放’非常重要。目前这是一个广泛的定义。”Sobrier打破了将AI系统分类为真正开放的固有的复杂性。Sobrier指出,主要参与者之间缺乏一致性,这导致了对该术语的混淆。“在主要参与者中,对‘开放’定义的担忧始于 OpenAI,而 Meta 现在因其LLAMA模型而成为新闻焦点,尽管该模型‘更加开放’。我们需要对开放模型的含义有一个共同的理解。我们希望警惕任何‘开放营销’,就像我们在免费软件与开源软件中看到的那样。”Sobrier强调,一个潜在的陷阱是“开放营销”的做法日益普遍,即组织声称透明,但实际上却施加限制。“由于云提供商提供开源项目(例如数据库)的付费版本而不做出任何贡献,我们看到许多开源项目发生了转变:源代码仍然开放,但他们增加了许多商业限制。”

02提高 AI 透明度的DeepSeek的dDeepSeek是人工智能领域的新晋攻坚力量,它已采取措施解决其中一些问题,譬如将其部分模型和代码开源,此举因提升了透明度并增强了安全性而受到广泛赞扬。DeepSeek 已经将模型及其权重作为开源发布,”Andrew Stiefel 表示。“此举将提高其托管服务的透明度,并让人们了解他们如何在生产中微调和运行这些模型,这将使社区更容易审核其系统是否存在安全风险,也使个人和组织能够在生产中运行自己的 DeepSeek 版本。”除了安全性之外,DeepSeek 还提供了如何大规模管理 AI 基础设施的路线图。“从透明度的角度来看,我们可以了解 DeepSeek 是如何运营其托管服务的。这将有助于解决在发现他们的部分 Clickhouse 数据库未受保护后引发的安全问题。”Stiefel 强调,DeepSeek 使用 Docker、Kubernetes(K8s)和其他基础设施即代码 (IaC) 配置等工具的实践可以帮助初创公司和业余爱好者构建类似的托管实例。

03开源人工智能目前非常热门DeepSeek 的透明度举措与开源 AI 的大趋势相一致。IDC 的一份报告显示,60% 的组织在其生成式 AI (GenAI) 项目中选择开源 AI 模型,而不是商业替代方案。Endor Labs 的研究进一步表明,组织平均每个应用程序使用 7 到 21 个开源模型。原因显而易见:利用最佳模型完成特定任务并控制 API 成本。截至 2 月 7 日,Endor Labs 发现已有超过 3500 个其他模型从原始 DeepSeek R1 模型中训练或提炼出来,这既表明了开源 AI 模型社区的活力,也说明了安全团队为何需要了解模型的起源及其潜在风险。对于 Sobrier 来说,开源 AI 模型的日益普及强化了评估其依赖关系的必要性。“我们需要将人工智能模型视为我们软件所依赖的主要依赖项。公司需要确保他们被合法允许使用这些模型,同时也要确保它们在运营风险和供应链风险方面是安全的,就像开源库一样。”他强调,任何风险都可能延伸到训练数据,需要确信用于训练的数据集 LLM 没有受到毒害,也没有掌握敏感的私人信息。
04建立应对人工智能模型风险的系统方法随着开源 AI 的采用加速,风险管理变得越来越重要。Stiefel 概述了一种以三个关键步骤为中心的系统方法:发现:检测您的组织当前使用的 AI 模型。评估:审查这些模型是否存在潜在风险,包括安全和操作问题。响应:制定并实施防护措施,以确保安全可靠应用模型。风险管理的关键在于,在推动创新和管理风险之间找到适当的平衡,企业需要给予软件工程团队进行试验的自由,但必须以完全的可视性进行。此外,社区必须制定最佳实践,以安全地构建和应用 AI 模型,同时也要有一种共享的方法来评估 AI 模型的安全性、质量、运营风险和开放性等参数。

05超越透明度:负责任的人工智能未来的措施为了确保人工智能负责任地发展,该行业必须采取跨多个方面的控制措施:SaaS 模型:保障员工对托管模型的使用。API 集成:开发人员将 DeepSeek 等第三方 API 嵌入到应用程序中,通过 OpenAI 集成等工具,只需两行代码即可切换部署。开源模型:开发人员利用社区构建的模型或从 DeepSeek 等公司维护的现有基础创建自己的模型。Sobrier建议,社区不仅需要建立最佳实践来开发安全、开放的人工智能模型,并建立一种方法来评估它们的安全性、质量、运营风险和开放性;还要考虑多个向量的安全性,并为每个向量实施适当的控制。

原文链接:https://www.artificialintelligence-news.com/news/endor-labs-ai-transparency-vs-open-washing/
免责申明:本文所发内容不含任何商业广告性质,也不持有任何特定立场,文中部分文字、图片内容来源于网络,如有侵权,请联系删除。
SENSE ARRAY善思开悟科技(成都)有限公司
善思开悟是国内领先的人工智能基础设施提供方,秉承“算力筑基 模型赋能”的发展理念,致力于建设国内最大规模的第三方人工智能训练集群。善思开悟始终关注技术前沿,与中山大学、国家超级计算广州中心建立了联合实验室,不断投入研发和资源,以确保基础设施在性能、稳定性和可扩展性方面达到世界一流水平。通过提供强大的计算能力和优化的硬件配置,善思开悟将帮助国内顶尖的大模型厂商在突破模型规模、提高训练效率、降低训练成本方面取得显著进展。未来,善思开悟将继续加大研发投入,推动人工智能技术的创新与应用,致力于成为全球领先的人工智能基础设施提供方。
长按扫码关注联系电话:028-88855888(88855999)公司地址:中国(四川)自由贸易试验区成都高新区吉瑞二路188号2栋1单元8层802