Gartner预测:至2027年,40%的人工智能数据泄露风险将来自跨境生成式AI的滥用

尹柳说 1周前 (03-18) 阅读数 0 #科技

你是否想过,看似便捷的生成式AI工具,或许正将你的敏感数据悄无声息地输送到境外?

想象一下,当企业依赖AI进行决策时,却因为数据泄露而蒙受巨额损失,甚至面临法律风险,这将会是怎样的局面?

根据Gartner的最新预测,到2027年,超过40%的人工智能数据泄露将源于跨境生成式AI(GenAI)的滥用。

这一数字背后,究竟隐藏着哪些风险和挑战?

生成式AI技术的应用正在以前所未有的速度扩张,数据治理和安全措施的发展却未能同步跟进。

企业对GenAI的热情拥抱,与数据安全保障之间的差距日益扩大,导致跨境数据滥用风险持续上升。

有限的集中计算能力促使企业寻求外部算力支持,进一步加剧了数据本地化的担忧。

Gartner副总裁分析师Joerg Fritsch指出,由于监管不足,意外的跨境数据传输时有发生,尤其是在GenAI被悄然集成到现有产品中时。

企业员工使用GenAI工具生成内容的现象日益普遍,虽然这些工具可能用于获批的业务应用,但如果敏感提示被发送到未知位置托管的AI工具和API,则会带来巨大的安全风险。

全球范围内,人工智能标准化仍处于起步阶段。

缺乏统一的最佳实践和标准导致市场碎片化,企业不得不制定针对特定地区的战略,这无疑增加了运营的复杂性。

这种碎片化也限制了企业在全球范围内扩展运营并从AI产品和服务中受益的能力。

Fritsch表示,由于本地化的人工智能政策,管理数据流和保持数据质量的难度加大,可能导致运营效率低下。

为了应对这些挑战,企业需要加大对先进AI治理和安全技术的投资,以保护敏感数据并确保合规性。

这种需求将推动AI安全、治理和合规服务市场的增长,并促进能够提高AI流程透明度和控制力的技术解决方案的普及。

人工智能治理的重要性日益凸显。

Gartner预测,到2027年,人工智能治理将成为全球所有主权人工智能法律法规的强制要求。

那些未能整合所需治理模型和控制的组织,尤其是在数据治理框架扩展方面资源不足的组织,可能会面临竞争劣势。

Fritsch强调,企业必须及早采取行动,加强人工智能治理,以适应未来的监管要求。

为了降低人工智能数据泄露的风险,特别是跨境GenAI滥用带来的风险,Gartner建议企业采取一系列战略行动。

加强数据治理至关重要。

企业必须确保遵守国际法规,并扩展现有的数据治理框架,纳入针对AI处理数据的指导方针,以监控意外的跨境数据传输。

这包括将数据沿袭和数据传输影响评估纳入定期的隐私影响评估。

建立专门的治理委员会可以加强AI监督,并确保有关AI部署和数据处理的透明沟通。

这些委员会需要负责技术监督、风险和合规管理以及沟通和决策报告,确保AI技术的应用符合企业和监管机构的要求。

第三,加强数据安全措施。

企业应该利用先进技术、加密和匿名化技术来保护敏感数据。

例如,验证特定地理区域的可信执行环境,并在数据必须离开这些区域时应用高级匿名技术,如差分隐私。

企业需要投资信任、风险和安全管理(TRiSM)产品和功能,这些产品和功能需要专门针对AI技术进行定制。

这包括AI治理、数据安全治理、即时过滤和编辑以及非结构化数据的合成生成。

Gartner预测,到2026年,应用AI TRiSM控制的企业将减少至少50%的不准确或非法信息,从而减少错误决策。

面对日益严峻的AI数据安全挑战,企业该如何在技术创新与风险控制之间找到平衡点?

如何构建有效的AI治理体系,确保数据的安全和合规性?

这些问题值得我们深入思考和探讨。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

尹柳说

尹柳说

尹柳说