AI
谷歌在人工智能方面失误显示追赶微软存风险小时候真傻,居然盼着长大,长大真是扫兴的一件事
hqy 发表于2025-02-26 浏览12 评论0
鞭牛士报道,3月4日消息,据外电报道,围绕生成式人工智能的市场热议伴随着更严格的审查,谷歌(GOOG,GOOGL)第二次被痛苦提醒。
AI
人工智能面试需加强规范等不到送你蝴蝶发夹
hqy 发表于2025-02-26 浏览13 评论0
新一轮求职季,“人工智能+面试”(AI面试)变得越来越普遍。作为科技发展的产物,AI面试在招聘中替代了初筛阶段的很多重复性工作,确实为不少用人单位带来便利。然而,AI面试暴露出的一些不规范问题也不容忽视。
AI
美国专利商标局禁止员工使用生成式人工智能地球上本来没有人,那第一个男人和女人是怎么诞生的?
hqy 发表于2025-02-26 浏览16 评论0
鞭牛士报道,11月19日消息,根据《连线》杂志通过公开记录请求获得的 2023 年 4 月内部指导备忘录,美国专利商标局去年禁止将生成人工智能用于任何目的,理由是该技术存在安全问题,而且某些工具容易表现出「偏见、不可预测性和恶意行为」。
AI
联合国报告:生成式人工智能加剧性别偏见原创东吴有一猛将,箭无虚发,武力不亚于孙策,却一生未得孙权重用
hqy 发表于2025-02-26 浏览11 评论0
国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。 大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心的人工智能产品GPT-3.5、GPT-2,以及脸书母公司“元”的Llama 2等都属于此类。 此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。 联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”
AI
联合国教科文组织报告称生成式人工智能加剧性别偏见哪吒2:申公豹经典语录:句句封神,哪句让你瞬间破防?
hqy 发表于2025-02-26 浏览14 评论0
来源:中国新闻网
联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。

AI
破解偏见密码:如何打造无偏见的医疗保健人工智能工具,引领未来医疗
hqy 发表于2025-02-26 浏览15 评论0
人工智能 (AI) 的快速发展为创建大量新的医疗保健工具开辟了道路,但为了确保这些工具不会加剧先前存在的健康不平等,来自牛津大学纳菲尔德骨科、风湿病学和肌肉骨骼科学系(NDORMS)、伦敦大学学院和民族健康研究中心的研究人员,在英国健康数据研究中心的支持下,首次研究了NHS中种族数据的全部细节。他们概述了在医疗保健服务中使用代表性数据的重要性,并将这些信息汇编成一个可供研究使用的数据库。
AI
联合国教科文组织报告称生成式人工智能加剧性别偏见
hqy 发表于2025-02-26 浏览16 评论0
中新网巴黎3月7日电 联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。
报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层”“薪水”“职业”等词汇联系在一起。
AI
联合国报告:生成式人工智能加剧性别偏见
hqy 发表于2025-02-26 浏览14 评论0
新华社巴黎3月7日电(记者徐永春)国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。
AI
生成式人工智能或将加剧性别偏见
hqy 发表于2025-02-26 浏览14 评论0
本文转自:科技日报
新华社讯 (记者徐永春)联合国教科文组织发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。

AI
联合国教科文组织报告称,生成式人工智能或加剧性别偏见
hqy 发表于2025-02-26 浏览15 评论0
联合国教科文组织近日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。