如今,人类已全面进入人工智能时代,且人工智能将长期存在。AI聊天机器人似乎会“说”人类语言,这已成为人们困惑的一大根源。各大科技公司正在拼命向你推销AI朋友、AI伴侣、AI宠物乃至AI心理治疗师,部分人工智能开发公司甚至宣称其开发的AI能够感知和思考,就连苹果公司也曾宣称在研发一款能够感知人情绪的台灯。
一个争议点在于:当人工智能出现故障、产生幻觉(指人工智能模型,尤其是语言模型,在生成文本时产生看似合理但实际上与事实不符或无实际依据的内容)、或输出影响现实的错误时,谁应该被追责?
先抛出我的观点:用户需承担责任。
人工智能与其他工具本质无异。如果卡车司机开车时睡着造成了交通事故,错肯定不在卡车;如果外科医生将纱布遗留在患者体内,错肯定不在纱布;如果考生的答题卡成绩糟糕,错也不肯定在手中的2B铅笔。
因此,我可以轻易断言用户应为AI所犯错误负责,但我们不妨深入探讨
作家笔下的AI风波
美国奇幻爱情小说作家莉娜・麦克唐纳(Lena McDonald)被曝利用人工智能模仿其他作家风格。她三月出版的奇幻小说新作《暗渊学院:第二学年》引发争议:读者在第三章发现一行明显的AI提示词——“重写这段文字,使其更符合J.Bree的风格,这种风格的特点是超自然元素之下有更多的张力、坚韧的底色和原始的情感潜台词。”这表明,作者不仅使用AI辅助创作,还要求其模仿知名作家J.Bree的写作风格,可能是因为仓促没来得及在文中删除AI提示词,使其意外地保留到了最终的印刷版本中。
事件引发关于写作中AI使用的伦理讨论。莉娜・麦克唐纳在亚马逊作者页公开道歉,称因时间和经济压力在编辑阶段使用了AI辅助创作,但无意欺骗读者,并承诺将重新审查作品、修正错误,并将在未来透明化创作过程。但批评者认为,道歉未触及“故意利用AI模仿他人风格”这一核心争议。许多人认为这已经超越了“辅助创作”的界限,构成不道德模仿,损害了读者对创作真实性的期待。
该书在亚马逊的评分暴跌至1.6星,目前在亚马逊商城已搜索不到这本书,疑似已被下架,尽管通过谷歌仍可检索到更新后删除提示词的小说版本,但截图已在亚马逊评论区广泛传播。
这并非个例。2025年以来欧美至少还有两位知名言情小说作家被曝在出版作品中遗留了类似的AI提示词,这也揭示了文学创作领域广泛运用AI进行辅助写作的行业趋势。
新闻业的AI闹剧
5月份,某知名报纸发布了“2025年夏季返回搜狐,查看更多