企业急需加强人工智能风险管理,多数仍处“未准备”状态
随着人工智能技术的快速发展,其带来的潜在威胁也日益凸显。然而,多数企业尚未对此做好充分准备,忽视了可能由此引发的自我造成的危机。根据风险管理软件公司Riskconnect上个月发布的2024年新一代风险报告,全球范围内,80%的受访组织尚未制定专门的计划来解决生成性人工智能风险,包括人工智能驱动的欺诈攻击。
报告指出,尽管有关于人工智能技术威胁的广泛报道和警告,但企业的风险管理方法并未跟上这一变化的步伐。在调查的218名风险合规和弹性专业人员中,24%的人认为人工智能驱动的网络安全威胁,如勒索软件、网络钓鱼和deepfakes,将在未来12个月内对企业产生最大影响。这一比例相较于去年有显著增长,72%的受访者表示网络安全风险对他们的组织产生了重大或严重的影响。
尤为值得关注的是,65%的公司尚未制定政策来管理合作伙伴和供应商对生成式人工智能的使用,而第三方往往是欺诈者的常见切入点。报告还提到,黑客正利用最新的人工智能技术渗透到组织中,变得越来越聪明、老练和危险。
尽管担忧情绪不断加剧,但企业在解决这些问题上的努力似乎滞后。Riskconnect的报告指出,尽管过去一年企业对人工智能的首要关注点发生了变化,但风险管理方法的发展速度并不足以应对这些变化,关键差距仍然存在。
除了外部威胁,内部威胁同样不容小觑。例如,在营销领域,公司使用生成式人工智能来创建内容可能带来适得其反的效果。佛罗里达国际大学营销学教授Anthony Miyazaki指出,虽然生成式人工智能可以作为书面文本的起点,但营销人员需要确保广告文案、电子邮件和短信由人类编辑仔细校对,以确保其说服力和准确性。
此外,对生成性人工智能的过度依赖也可能损害公司的搜索引擎优化。谷歌已经警告网络开发人员,如果利用人工智能内容玩弄搜索过程,其排名将被降级。
为了应对这些风险,一些企业已经开始采取行动。例如,戴尔科技公司制定了一套原则来指导人工智能应用程序的开发和使用,并设立了首席人工智能官和人工智能治理结构来确保项目的合规性和业务一致性。同时,该公司还制定了人工智能安全要求和最佳实践,以帮助团队在设计时采取适当的安全措施。
数字营销机构Empathy First Media也采取了类似的措施,包括禁止将客户的专有或敏感数据输入生成式人工智能工具、要求人工对生成性人工智能响应进行审查和润色、避免使用可能产生合规冲突的技术以及向客户透明地披露生成人工智能的使用情况。
从危机管理和预防的角度来看,鉴于人工智能的日益复杂及其潜在威胁,当今企业领导者更迫切地需要保护他们的组织免受这项技术带来的危害。Riskconnect的报告强调,企业等待为人工智能相关的风险和危险做好准备的时间越长,就越难免受这场潜在危机的影响。因此,企业领导者应尽快采取行动,制定专门的风险管理计划并加强内部和外部的合规性审查。