影子AI威胁企业安全

Image by Freepik

影子AI威胁企业安全

阅读时间: 1 分钟

随着AI技术的飞速发展,各组织正面临一个新兴的安全威胁:影子AI应用程序。这些未经IT或安全监督的员工开发的未授权应用程序正在各公司中传播,往往未被察觉,正如最近的VentureBeat文章中所强调的那样。

急着了解?这里有快速的事实!

  • 影子AI应用是由员工在没有IT或安全审批的情况下创建的。
  • 员工创建影子AI以提高生产力,通常没有恶意意图。
  • 公共模型可能会暴露敏感数据,为组织带来合规风险。

VentureBeat解释说,尽管这些应用中的许多并非故意恶意,但它们对企业网络构成了重大风险,从数据泄露到合规性违规都有可能。

“影子AI”应用通常由寻求自动化日常任务或优化运营的员工构建,这些应用使用的AI模型是通过公司专有数据进行训练的。

这些应用通常依赖像OpenAI的ChatGPT或Google Gemini这样的生成AI工具,缺乏必要的安全防护措施,使得他们极易遭受安全威胁

根据Prompt Security的首席执行官Itamar Golan的说法,“大约40%的模型会默认训练你提供的任何数据,这意味着你的知识产权可能会成为他们的模型的一部分,”VentureBeat报道。

暗影人工智能的吸引力显而易见。在面临越来越大的压力,要满足严格的截止日期和处理复杂的工作量的员工,正在转向这些工具来提高生产力。

WinWire的首席技术官Vineet Arora在接受VentureBeats采访时指出,“部门之所以会使用未经批准的AI解冖方案,是因为其带来的即时收益实在是太吸引人了。”然而,这些工具带来的风险却是深远的。

Golan将这种未经批准的AI比作体育运动中的兴奋剂,他说,“这就像环法自行车赛中的兴奋剂。人们想要获得优势,却没有意识到长期的后果,”这是VentureBeats的报道。

尽管它们有着诸多优势,但阴影AI应用程序也使组织暴露于一系列的漏洞中,包括传统安全措施无法检测到的意外数据泄漏和快速注入攻击。

这个问题的规模令人震惊。Golan向VentureBeats透露,他的公司每天都会记录50个新的AI应用程序,目前已经有超过12,000个在使用中。Golan建议说:“你无法阻止海啸,但你可以造一艘船。”他指出,许多组织对于他们网络中阴影AI使用的范围感到措手不及。

例如,一家金融公司在为期10天的审计中发现了65个未经授权的AI工具,远超过他们的安全团队预期的不到10个工具,这是由VentureBeats报道的。

影子AI的危险对于受监管的行业来说尤其严重。一旦专有数据被输入到公共AI模型中,就很难进行控制,从而可能导致合规性问题。

戈兰警告说:“即将到来的欧盟AI法案可能会使GDPR的罚款相形见绌”,而Arora则强调了数据泄露的威胁以及如果组织未能保护敏感信息,可能面临的惩罚,这是VentureBeats报道的。

为了解决日益严重的暗影AI问题,专家建议采取多方面的方法。Arora建议组织建立集中的AI治理结构,定期进行审计,并部署能够检测AI驱动的攻击的AI感知安全控制。

此外,企业应为员工提供预先批准的AI工具,并明确使用政策,以减少使用未经批准的解决方案的诱惑。

你喜欢这篇文章吗?为它打分!
我非常不喜欢 我不怎么喜欢 一般 挺好! 非常喜欢!

我们很高兴您喜欢我们的作品!

尊贵的读者,您介意在Trustpilot上给我们点赞吗?这很快,但对我们来说意义重大。不胜感激!

在Trustpilot上给我们评分
5.001 用户投票
标题
评论
谢谢你的反馈
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

留下评论

Loader
Loader 显示更多…