
AI
可解释性人工智能导论!
hqy 发表于2025-02-26 浏览19 评论0
👆点击“博文视点Broadview

AI
可解释性矿产预测人工智能模型
hqy 发表于2025-02-26 浏览25 评论0

AI
文献解读 | 人工智能可解释性工具的困境及其消解
hqy 发表于2025-02-26 浏览23 评论0

AI
可解释性——人工智能过不去的第一道坎
hqy 发表于2025-02-26 浏览19 评论0

AI
文献综述:确保人工智能可解释性和可信度的来源记录
hqy 发表于2025-02-26 浏览16 评论0
最近,人工智能(AI)和机器学习(ML)模型在各个领域的应用都取得了显著的进展,相关讨论也在不断增多。学界认为,AI和ML模型应当是透明的,可解释的和可信的。在此背景下,可解释AI(XAI)领域在迅速扩张。通过解释一些复杂模型,比如深度神经网络(DNN)结果如何生成,可解释AI在提高人工智能系统可信度和透明度方面前景广阔。此外,许多研究员和业内人士认为,使用数据起源去解释这些复杂的模型有助于提高基于人工智能系统的透明度。

AI
追求人工智能的可解释性永远正确吗?
hqy 发表于2025-02-26 浏览16 评论0

AI
可解释性:人工智能过不去的一道坎
hqy 发表于2025-02-26 浏览22 评论0

AI
为什么人工智能需要可解释性?
hqy 发表于2025-02-26 浏览21 评论0
👆点击“博文视点Broadview”,获取更多书讯

AI
CSET:2024年人工智能安全与自动化偏见报告(英文版)(1)
hqy 发表于2025-02-26 浏览17 评论0
今天分享的是:CSET:2024年人工智能安全与自动化偏见报告(英文版)(1)
报告共计:34页

AI
2024年人工智能安全与自动化偏见报告(英文版)-CSET
hqy 发表于2025-02-26 浏览31 评论0
报告聚焦人工智能安全中的自动化偏见问题,深入剖析其概念、影响因素,并通过特斯拉、空客与波音、美陆军爱国者与海军宙斯盾系统等案例研究,揭示了用户、技术设计和组织层面的因素如何导致自动化偏见,提出创建用户理解标准、统一设计理念、制定组织政策等缓解建议,为解决人工智能应用中的自动化偏见问题提供了全面参考。