科学家利用AI打造网络安全系统无法识别的加密信息
科学家称,通过AI聊天机器人隐藏机密信息或将开创牢不可破的加密新时代。
研究人员发现,可将ChatGPT等AI聊天机器人改造成加密信息载体,其传输内容能完美规避网络安全系统的监测。这项将密码无缝嵌入拟人化虚假信息的新技术,为"传统加密机制易被侦测或限制的场景"提供了替代性安全通信方案。研究团队在声明中指出,该突破堪称数字时代的隐形墨水 —— 唯有掌握密码或私钥者才能读取真实信息,其设计初衷正是针对加密通信系统日益泛滥的黑客攻击与后门漏洞。
但正如研究者强调的,这种新型加密框架犹如双刃剑。4月11日发布于预印本数据库arXiv的研究论文(尚未经同行评审)显示,该技术同时具备造福与为祸的双重潜力。"这项研究令人振奋,但如同所有技术框架,我们必须审慎考量其伦理边界与应用场景。"挪威奥斯陆大学网络与分布式系统研究员、论文合著者马扬克·雷克瓦尔通过邮件向媒体解释道。
研究人员构建的EmbedderLLM系统是这项技术的核心。该系统通过算法将机密信息如宝藏般埋入AI生成文本的特定位置,生成的文本不仅高度拟人化,更能规避现有解密技术的检测。接收方使用另一套"藏宝图算法"定位隐藏字符,最终还原完整信息。经EmbedderLLM处理的信息可通过任何通讯平台传输 —— 从游戏内置聊天到WhatsApp皆无障碍。
区块链公司Galxe首席技术官夏玉敏(音译)评价道:"利用大语言模型实现加密在技术层面可行,但其效果取决于加密类型。虽然细节决定成败,但基于现有加密体系确实存在实现可能。"该技术的最大安全弱点在于初始阶段的密钥交换环节,其支持对称加密(收发双方共享密钥)与公钥加密(仅接收方持有私钥)两种模式。研究论文指出,一旦完成密钥交换,EmbedderLLM采用的加密技术可抵御包括量子计算在内的任何现有及未来解密手段。
研究团队设想该技术能帮助记者与民众突破政府的言论管制。"我们必须明确这项技术的核心应用场景,"雷克瓦尔表示,"它为受压迫民众提供了安全传递关键信息的渠道。"他补充说,在新闻监控严苛的地区,这项技术也将成为记者与活动家的隐秘通信工具。
尽管突破显著,专家认为大语言模型加密技术的实际应用尚需时日。"某些国家虽已实施限制措施,但该技术的长期价值最终取决于现实需求与采用程度。"夏玉敏指出,"就目前而言,这项研究仍是个针对假设性用例的精彩实验。"
如果朋友们喜欢,敬请关注“知新了了”!
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。