CTI论坛(ctiforum.com)(编译/老刘):负责任的人工智能支持透明度,确保企业领导者了解他们所利用的人工智能是如何工作的。
根据2024年Orange的研究,许多公司认识到负责任的人工智能的重要性,84%的领导者表示这应该是一个优先事项。

然而,根据同一项研究,不到五分之一的企业认为他们已经实施了具有“良好成熟度”的负责任的人工智能计划。
因此,许多组织依赖其技术供应商对其应用程序中人工智能的使用持开放态度,并分享最佳实践。
然而,许多技术提供商,特别是在联络中心,提出了“黑匣子AI”,在那里,决策和数据使用对用户隐藏起来。
随着这些供应商的内部“负责任的人工智能”计划获得动力,买家将越来越多地折扣这些供应商。
为什么负责任的人工智能很重要?
正如所建议的那样,一些利用人工智能解决方案的公司已经希望他们的供应商遵循与内部政策相一致的做法,无论多么不成熟。
随着时间的推移,这种期望将会增加,尤其是随着品牌对共享专有数据变得更加谨慎。
在针对包括Dropbox和GitHub在内的各种技术提供商将客户数据传递给第三方人工智能供应商的指控之后,这种谨慎态度有所上升。
与这些数据安全问题相邻的是不断发展的法规,政府在监管人工智能方面的行动比剑桥分析公司等之前的数据丑闻更快。
随着这些法规的出台,企业需要负责任、透明且适应不断发展的标准的人工智能提供商。
因此,供应商必须接受负责任的人工智能,以实现长期竞争力。
负责任的人工智能的七个步骤
联络中心供应商可能希望遵循这七个步骤,以确保他们的人工智能程序是负责任的,面向未来。
这些产品是由evaluative的产品总监BenCave推荐的。
1、启用自定义转录服务
大多数联络中心供应商将提供开箱即用的转录服务。
然而,理想情况下,客户可以选择在后端部署哪个转录引擎,从而完全了解哪个公司正在解析他们的数据。
2、模型最小化
不必要地使用人工智能不仅昂贵,而且浪费能源,尤其是当品牌使用在阳光下所有公共数据上训练的大型语言模型(LLM)时。
因此,品牌应该提供更小、定制的人工智能模型,针对其平台上的各种用例量身定制。
3、矢量映射
联络中心供应商应该建立他们的深度搜索能力,这样他们就可以扫描所有客户对话并获得洞察力,而无需求助LLM。
毕竟,这减少了最终用户对昂贵的第三方人工智能服务的依赖,使提供商能够更好地控制客户成本。
4、快速级别优化
大多数供应商将他们的生成式人工智能(GenAI)投资集中在训练专有模型上。然而,及时的工程设计同样至关重要。
毕竟,该提示与任何LLM兼容。因此,如果客户希望更改后端LLM,它仍将提供高精度的结果。这就引出了第五点…
5、候选模型
候选模型架构允许客户替换GenAI用例背后的LLM。因此,理想情况下,客户可以从一组预定义的用例模型中进行选择,或者——或者——他们可以插入自己的托管、训练或公共选项。
在沙箱环境中,客户可以在提示的同时测试模型,以发现哪个选项在用例中提供了最佳结果。
6、私有实例后端
拥有自己专有LLM或内部AI模型的企业应该能够通过简单地将其插入其联络中心应用程序,在后端运行evaluation等平台。
因此,这些组织不需要担心谁在查看这些数据,因为只有企业内部的人才能访问这些数据。
7、可报告推理
负责任的人工智能要求用户始终知道为什么自主的人工智能模型会采取特定的行动或得出特定的结论。
因此,企业可能会审计和调整人工智能推理。这对合规性和公平性至关重要。
作者:Charlie Mitchell
