Forrester Research的网络安全分析师Jeff Pollard称:“大多数安全领导者担心的是,其中一些功能缺乏能见度,无法进行监控,或不具有可解释性。”
人们对生成式AI的兴趣为Protect AI这样的初创企业创造了机会,该公司旨在通过一个其称之为“机器学习物料清单”的平台,帮助企业追踪各自自主研发的AI系统的组件。Protect AI表示,该公司平台还能识别违反安全策略的行为和恶意代码注入攻击。
Protect AI总部位于西雅图,联合创始人兼总裁Daryan "D" Dehghanpisheh表示,该公司近期在热门开源机器学习工具MLflow中发现了一个漏洞,攻击者可以利用这个漏洞控制公司的云账户凭据并访问训练数据。
Dehghanpisheh表示,这些类型攻击与“提示注入”等新攻击形式都是首席信息官需要考虑的基于AI的供应链所涉及的风险。“提示注入”攻击指黑客使用“提示”或基于文本的指令来操纵生成式AI系统以共享敏感信息。
Protect AI的联合创始人兼首席执行官Ian Swanson说,虽然生成式AI的快速发展已催生大量新工具和AI模型,但多数公司仍在试图把握自己的数据、代码和AI运营的全貌。
与此同时,一些科技公司领导人,比如总部位于旧金山的销售和营销软件公司6sense的首席信息官Bryan Wise,在签约新生成式AI功能之前,已经侧重于向供应商提出一些更尖锐的问题。
“如果有人提出关于生成式AI产品的请求,”Wise称,“我们就得越发打起点儿精神来,跟对方说,‘告诉我这些数据会如何被使用?你如何能确保我们的数据不会被用来改进你的模型?’”
文章转载自华尔街日报中文网
下一篇:腾讯每日利润超4亿,微信贡献巨大