AI
联合国教科文组织报告称生成式人工智能加剧性别偏见
hqy 发表于2025-02-26 浏览4 评论0
中新网巴黎3月7日电 联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。
报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层”“薪水”“职业”等词汇联系在一起。
AI
联合国报告:生成式人工智能加剧性别偏见
hqy 发表于2025-02-26 浏览5 评论0
新华社巴黎3月7日电(记者徐永春)国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。
AI
生成式人工智能或将加剧性别偏见
hqy 发表于2025-02-26 浏览6 评论0
本文转自:科技日报
新华社讯 (记者徐永春)联合国教科文组织发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。

AI
联合国教科文组织报告称,生成式人工智能或加剧性别偏见
hqy 发表于2025-02-26 浏览7 评论0
联合国教科文组织近日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。

AI
北大孟涓涓:人工智能的采用可降低人类偏见、促进社会公平
hqy 发表于2025-02-26 浏览6 评论0
中国经济新闻网讯(毛晶慧)5月14日,“北大光华学者沙龙”第2期在北京大学光华管理学院举行,主题为“人工智能的机遇与挑战”。北京大学光华管理学院应用经济系教授、北京大学行为科学与政策干预研究中心主任孟涓涓在会上以《人机交互:人工智能对人类行为和社会公平的影响》为主题进行了分享。

AI
人工智能帮你测谎?!当心强化偏见
hqy 发表于2025-02-26 浏览4 评论0
转自:中国科学报
虽然人类经常说谎,但通常不会指责别人说谎,因为社会规范禁止虚假指控,并强调文明礼貌。但人工智能(AI)可能很快就会改变这些规则。德国科学家研究发现,当人工智能提出指控时,人们更有可能指责他人撒谎。相关研究6月27日发表于《交叉科学》。
AI
人工智能:消除性别偏见和刻板印象
hqy 发表于2025-02-26 浏览5 评论0
AI
美国安全与新兴技术中心发布!《人工智能安全与自动化偏见:人机交互的风险》
hqy 发表于2025-02-26 浏览6 评论0
AI
减少人工智能偏见的三种方法
hqy 发表于2025-02-26 浏览5 评论0
作为人类,我们在做决策时无法完全保持客观。无论我们是否意识到自己的主观想法,我们的决定总会受到个人偏好、价值观和观点的影响。相对而言,计算机仅根据其所提供的数据进行决策,这也是为何将人工智能应用于预测和决策过程中能帮助减少这种主观性。然而,用于机器学习的数据可能包含潜在的偏见,从而导致计算机做出歧视性决策和产生偏颇结果。
AI
技术无罪:「AI偏见」如何成为产品经理的“黑天鹅事件”?
hqy 发表于2025-02-26 浏览4 评论0
在人工智能的浪潮中,我们常常被其表面的智能和效率所吸引,却可能忽视了潜藏在算法背后的偏见问题。这篇文章将带你深入探讨AI偏见的根源、影响以及对企业可能带来的“黑天鹅事件”。