×

人工智能监控揭秘:新研究揭示隐私潜在风险刘备死后诸葛亮北伐为何输多赢少?成也西蜀,败也西蜀的绝望困局

hqy hqy 发表于2025-04-13 19:36:02 浏览22 评论0百度已收录

抢沙发发表评论

一种全新的数学模型为人工智能识别风险的评估带来了显著增强,其提供了具备可扩展性的解决方案,从而能够在技术效益与隐私保护之间实现良好的平衡。

在当今社会,人工智能工具在在线及面对面场景下对人们的跟踪和监控应用愈发广泛。然而,其有效性却潜藏着重大风险。为应对这一难题,牛津互联网研究所、伦敦帝国理工学院以及UCLouvain的计算机科学家携手合作,共同开发了一个全新的数学模型。该模型旨在助力人们更为深入地了解人工智能所存在的危险,并为监管机构保护隐私提供有力支持。他们的研究成果已发表在《自然通讯》杂志上。

此模型首次构建了用于评估识别方法的坚实科学框架,尤其在处理大规模数据时展现出独特优势。它能够对广告代码和隐形跟踪器等技术的准确性进行评估,这些技术仅需借助极少量信息(例如时区或浏览器设置)便能识别在线用户,而这一过程被称之为“浏览器指纹”。

作为该研究的主要作者,牛津大学互联网研究所高级研究员Luc Rocher博士表示:“我们坚信,我们所采用的方法是一种创新途径,不仅有助于评估数据发布过程中重新识别的风险,还能对关键、高风险环境中的现代识别技术进行评估。在医院、人道主义援助运送以及边境控制等场所,风险极高,对准确、可靠的身份识别有着至关重要的需求。”

利用贝叶斯统计提高准确性

该方法充分借助贝叶斯统计领域的相关知识,学习如何在小范围内精准识别个体,并将识别的准确性合理外推至更大的群体。相较于以往的启发式和经验法则,其准确性提升了10倍之多。这使得该方法在评估不同数据识别技术于各类应用程序和行为设置中大规模执行的情况时,具备了独特的能力。这或许能够解释为何某些人工智能识别技术在小规模案例研究中测试时表现极为精准,但在现实应用场景中却会出现识别错误的现象。

鉴于基于人工智能的身份识别技术迅猛发展,给匿名和隐私带来的挑战日益严峻,这些研究成果的问世可谓恰逢其时。例如,目前人工智能工具正在接受试验,试图实现自动识别网上银行中的客户声音、人道主义援助交付过程中受助人的眼睛,或是执法场景中嫌疑人的面孔等功能。

研究人员称,这种新方法能够帮助相关组织在享受人工智能技术带来的便利与保护人们个人信息的需求之间找到更好的平衡点,从而使日常与技术的交互变得更加安全、可靠。他们的测试方法允许在全面推行之前,精准识别潜在的薄弱环节以及需要改进的领域,这对于确保安全性和准确性而言至关重要。

数据保护的重要工具

合著者Yves - Alexandre de Montjoye副教授(任职于伦敦帝国理工学院数据科学研究所)表示:“我们的全新缩放定律首次提供了一个遵循原则的数学模型,用以评估识别技术在不同规模下的表现。深入了解识别的可扩展性,对于评估这些重新识别技术所带来的风险意义重大,其中包括确保遵守全球现行的数据保护立法。”

Luc Rocher博士总结道:“我们深信,此项研究成果是朝着开发遵循原则的方法迈出的关键一步。这些方法能够对更为先进的人工智能技术所带来的风险进行评估,以及对在线人类痕迹的可识别性进行分析。我们期望这项工作能够为广大研究人员、数据保护官员、伦理委员会以及其他致力于在共享研究数据与保护患者、参与者和公民隐私之间寻求平衡的从业者提供有益的帮助。”