×

2024年人工智能安全与自动化偏见报告(英文版)-CSET

AI

2024年人工智能安全与自动化偏见报告(英文版)-CSET

hqy hqy 发表于2025-02-26 浏览28 评论0

报告聚焦人工智能安全中的自动化偏见问题,深入剖析其概念、影响因素,并通过特斯拉、空客与波音、美陆军爱国者与海军宙斯盾系统等案例研究,揭示了用户、技术设计和组织层面的因素如何导致自动化偏见,提出创建用户理解标准、统一设计理念、制定组织政策等缓解建议,为解决人工智能应用中的自动化偏见问题提供了全面参考。

AI

美国专利商标局禁止员工使用生成式人工智能地球上本来没有人,那第一个男人和女人是怎么诞生的?

hqy hqy 发表于2025-02-26 浏览17 评论0

鞭牛士报道,11月19日消息,根据《连线》杂志通过公开记录请求获得的 2023 年 4 月内部指导备忘录,美国专利商标局去年禁止将生成人工智能用于任何目的,理由是该技术存在安全问题,而且某些工具容易表现出「偏见、不可预测性和恶意行为」。

AI

联合国报告:生成式人工智能加剧性别偏见原创东吴有一猛将,箭无虚发,武力不亚于孙策,却一生未得孙权重用

hqy hqy 发表于2025-02-26 浏览13 评论0

国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。 大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心的人工智能产品GPT-3.5、GPT-2,以及脸书母公司“元”的Llama 2等都属于此类。 此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。 联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”