生成式人工智能技术作为当今科技革新的重要推动力,正深刻改变着企业的工作方式和创新模式。随着中国在人工智能领域的迅猛发展,其推出的一批生成式人工智能工具,如DeepSeek、Kimi Moonshot、百度智能聊天机器人Qwen等,在全球范围内尤其是在美国和英国的企业中迅速普及。员工们往往私自使用这些工具以提升工作效率,但与此同时,这一现象也引发了安全团队的担忧——员工在未经授权的情况下上传敏感数据,可能导致严重的数据泄露和合规风险。近期,Harmonic Security开展了一项针对14000名员工的研究,发现近8%的员工使用中国GenAI工具,并检测到逾百起敏感信息上传事件,涉及代码、财务报告、法律合同、客户信息甚至并购文件。此类行为表明,企业在推动创新的同时,其治理和监管力度明显不足。中国的生成式AI服务通常伴随宽松甚至不透明的数据使用政策,部分平台允许将上传的企业数据用于模型的再次训练,这对涉及受监管行业和高价值商业机密的组织而言尤为危险。
企业对于数据驻留和跨境传输的合规要求,无疑在面对此类情况时面临巨大挑战。由此可见,企业不应只停留于提高员工意识层面,更需要技术手段助力实现对AI工具使用的实时监控和政策强制执行。Harmonic Security开发的相关解决方案正是针对这一需求,通过提供细粒度的访问控制,确保可基于应用所在国家或总部位置限制访问权限,防止敏感信息被上传到不受信任的平台。同时,平台还能根据数据类型对上传内容进行自动筛选和拦截,并通过上下文提示增强员工的安全意识。治理生成式人工智能的使用已然成为企业信息安全战略的重要组成部分。未经授权的工具使用不仅威胁数据安全,还可能导致企业面临法律诉讼和声誉损失。
企业应在技术和管理方面双管齐下,避免“用户自行决定”带来的盲点,尤其是在研发密集型组织中,通过完善的工作流程和技术管控,减少因急于追求效率而忽视合规风险的情况。从提升企业整体安全防御能力来看,实时监控生成式AI的使用路径和上传内容成为关键。未来,企业只有掌握基于政策驱动的AI使用监管工具,才能在创造商业价值的同时,有效预防数据泄露与合规违规事件的发生。随着生成式人工智能技术的不断成熟和应用的日益普及,企业必须提升治理能力,使AI的性能表现与合规风险控制平衡发展。否则,盲目依赖效率提升可能带来的反作用不可小觑。在全球数字经济大环境中,如何合理利用中国提供的先进生成式人工智能工具,同时避免潜在的安全和隐私风险,已成为企业战略布局中不可回避的话题。
强化技术监管、加强员工教育和完善政策框架,将成为通向安全高效AI应用的必经之路。总而言之,企业只有深入理解中国生成式AI工具的风险特征,结合智能化防护措施,才能真正实现高效创新与信息资产安全的双赢局面。利用专业的安全平台,可以在满足业务推动力的同时,有效守护企业敏感信息不被泄露,为数字时代的企业发展保驾护航。