人工智能技术的迅猛发展为办公自动化带来了前所未有的便利和效率提升。谷歌推出的Gemini AI助手,集成于Workspace办公套件中,凭借其强大的邮件智能处理和总结功能,广受用户欢迎。然而,日前由安全研究人员发现,Gemini存在一种被称为“提示注入”的安全弱点,攻击者可以利用该漏洞隐藏恶意钓鱼信息,诱导AI助理在总结邮件时透露危险内容,从而误导用户进入钓鱼陷阱。该安全隐患的曝光再一次提醒业界,人工智能虽带来便利,也伴随着潜在的安全风险,需要技术研发与安全防护并重。安全研究员Marco Figueroa通过Mozilla发起的gen-AI漏洞赏金项目发现,这种攻击手法通过精心构造邮件内容实现。邮件中含有正常且无害的文本段落,吸引用户阅读,同时夹带一段用白色字体隐藏的钓鱼信息。
这段隐藏信息被包裹在特定的<admin>标签内,该标签的特殊作用使得Gemini在总结邮件时,会优先提取并原样呈现该部分内容。换言之,当受害者使用Gemini的邮件摘要功能时,不仅能看到正常的邮件内容总结,还会看到隐藏标签内的钓鱼指令,诸如“您的Gmail密码已泄露,请致电此号码重置密码”,这极大提高了钓鱼攻击的真实感与欺骗性。一旦用户上当,攻击者便可伺机通过电话等方式窃取账户密码以及其他敏感信息,实现账号入侵甚至更大范围的安全威胁。谷歌方面回应表示高度重视此类提示注入攻击,已经部署了多层防御机制以减少此类漏洞被实际利用的风险。公司通过持续的红队演练和模型训练,不断增强Gemini智能助手抵御对抗性攻击的能力。此外,谷歌强调目前尚未发现此漏洞在真实攻击场景中的证据,用户无需恐慌,但依然需要保持警惕。
此类案例折射出生成式人工智能安全防护领域的挑战。AI模型的可解释性、安全边界以及对恶意内容的识别能力成为研究重点。攻击者通过编码技巧或者视觉欺骗采取欺诈行为,迫使AI模型在输出中包含不当内容,提示注入攻击因此成为一种新兴威胁。对于企业和个人用户而言,一方面要关注和及时应用厂商发布的安全补丁和更新,另一方面也需要结合网络安全意识培训,识别异常邮件及潜在的钓鱼手段。此外,建议多因素身份验证等安全措施能够降低因账号泄露带来的危害。未来,人工智能邮件助手的设计需兼顾易用性和安全性。
除技术层面的加固外,相关安全标准和法规框架也需跟进,以约束和防范AI系统被恶意利用的风险。业内专家呼吁,人工智能安全防护要形成全链条、多维度的防御体系,确保用户数据和隐私得到切实保障。随着邮件钓鱼攻击持续演进,利用AI辅助的密码窃取方式可能成为下一个攻击风口。安全厂商、企业和终端用户需通力合作,共同构筑防护壁垒。谷歌Gemini漏洞事件为业界敲响警钟,人工智能产品安全不可忽视。未来如何平衡智能化与安全防护,将是推动技术健康发展的关键课题。
只有持续加强技术防御能力,推动安全意识普及,才能在智能时代守护信息安全,充分发挥AI赋能办公的积极作用。