2025年秋季,花旗银行启动了一项引人注目的内部学习行动:面向约17.5万名员工推行AI提示词(prompting)能力培训,目标是让员工更有效地与生成式人工智能工具协作,提升效率并降低操作风险。这项计划在业内引起广泛关注,不仅因为其覆盖规模巨大,还因为它把"如何向AI提问"提升到了企业核心技能建设的高度。理解这场变革的背景、技术要点和组织影响,对于所有金融机构以及希望在AI时代保持竞争力的企业都有重要借鉴价值。 花旗为何把提示词培训放在优先位置 在内部备忘录中,花旗技术与业务赋能负责人以及首席运营官强调了高质量提示词与基础提示词之间的差别,指出好的提示可以加速工作流程、发掘洞见并放大员工影响力。公司还披露,员工在内置工具中已累计输入超过650万次提示,说明AI技术在日常工作中已被广泛尝试与采用。花旗通过自适应学习平台提供培训模块,设定专家可在十分钟内完成、初学者约需三十分钟的学习时长,从而兼顾规模化与个体差异。
此举背后有多重考量:提升生产力、降低错误率、确保合规与数据安全,以及在组织内部树立AI作为"协同工具"而非"替代者"的文化认知。 什么是"好"的提示词:从模糊指令到结构化引导 所谓好的提示词,关键在于清晰的角色设定、具体的输出格式、明确的约束条件与示例输入输出。基础提示往往只包含一个任务要求,例如"写一份市场总结",而优质提示则会明确身份定位、受众、篇幅、输出结构和所依赖的数据边界。举例而言,基础提示可能得到笼统的回答,缺乏可操作性;而将提示转为"你是资深信贷分析师,面向投资委员会,用不超过500字汇报以下客户的信用风险、三项关键假设与结论,并给出两个可验证的数据检查点",则更容易得到可复用、可审计的产出。花旗在培训中强调将提示词模板化、模块化与可版本化,以便在集团内推广最佳实践并留存审计线索。 提示工程的技术细节与实际应用场景 在金融机构中,生成式AI可加速报告撰写、合同草拟、数据摘要与客户沟通稿的生成。
高质量提示在这些场景中的作用尤为明显,它能帮助模型聚焦于关键风险点、基于规定的数据来源输出并提供可验证的假设链条。实际操作中,训练会涵盖如何使用系统指令限定模型行为、如何提供结构化上下文(如表格或关键指标)、如何要求模型在回答中列出不确定性与假设,以及如何设计逐步提示以降低幻觉(hallucination)风险。花旗的自适应模块还会根据员工已有技能推荐不同深度的练习,从而确保时间投入与产出效率的平衡。 治理、合规与数据安全的挑战 将AI嵌入金融业务既带来效率,也引发监管与合规方面的关注。商业银行在推广生成式AI时必须解决敏感数据泄露、模型偏见、不可审计输出和法律责任界定等问题。花旗的培训之所以重要,一部分原因正是帮助员工了解如何在规范框架内使用AI:避免将受限制数据直接输入外部模型,采用内部受控模型或经脱敏处理的数据,保留提示与模型响应的日志以满足审计要求,并在关键决策节点保留人工复核。
培训还应包括对监管要求的解读,例如如何满足反洗钱、客户隐私以及行业特定的报告义务。 衡量成效:如何评估提示词培训的ROI 衡量提示词培训的效果需要兼顾定量与定性指标。定量方面可以关注任务完成时间的缩短、报告质量评分的提升、重工率的下降以及合规异常的减少。定性方面则包括员工对AI可信度的认知变化、跨部门协作效率的提升与创新案例的涌现。花旗在备忘录中强调的一个数据点是当年累计的提示次数,这既显示了采用热度,也为后续分析提供了行为级别的样本。企业应设计持续的A/B测试与用户反馈回路,将培训效果与业务指标挂钩,确保技能普及带来真实的生产力改善。
组织变革与文化管理 规模化的AI能力建设并非单纯的技术项目,它是一场涉及人才、流程、激励与文化的综合变革。企业要明确AI在岗位职责中的定位,区分哪些任务适合由AI加速完成,哪些任务必须保留人工主导。对于员工心理与职业发展方面的顾虑,领导层需要通过透明沟通与再培训机会来缓解。专家指出,将AI定位为"副驾驶"而非"接管者",并提供可见的晋升路径与技能证书,可以有效降低抵触情绪。花旗的培训通过短时、可自适应的模块降低学习门槛,同时强调协作场景与案例实践,以推动文化层面的认同。 风险控制与人为监督的必要性 生成式模型的局限性包括幻觉、对小样本异常的敏感性以及在边界情境下的不可预测性。
金融机构必须通过多层次的风险控制来管理这些问题。流程上需要在关键输出前设置人工审批、在敏感决策环节要求多源验证、并将模型输出与确定性算法或规则引擎结合,以提高可解释性与可控性。技术上可以采用水印、置信度评分、以及输出一致性检测等手段来提示潜在问题。内部培训应让员工意识到任何自动生成内容都应当记录来源、注明不确定性并在必要时由人工验证。 内部模型与外部模型的抉择 企业在采用生成式AI时面临是否使用公开模型或自研模型的抉择。外部大模型能快速提供高质量语言生成,但对数据安全和可控性要求高的银行业务而言,私有化部署或微调自家模型通常更为稳妥。
花旗的策略强调在受控环境中使用AI工具并制定访问与日志策略。对于需要接触敏感客户信息的场景,强制使用内部模型或通过API网关进行严格过滤是常见做法。培训要让员工了解不同模型的适用范围与数据处理流程,以避免无意间触犯合规红线。 提示词治理的实务建议 要把提示词能力制度化,企业需要建立提示词库、版本管理和审批流程,确保那些经过验证的高效提示可以在组织内复用并纳入知识管理体系。提示库应包括提示的用途、适用场景、已知风险与推荐复核步骤。与此同时,定期审计提示的效果、收集用户评分并对低效或风险较高的提示进行下线处理,是维持长期效果的重要机制。
培训往往只是起点,持续运营与治理才能保证安全与价值的长期兑现。 对员工与职业发展的影响 培训能够减少员工对被替代的恐惧,并提供新的职业发展路径。掌握提示工程、数据素养与模型治理能力的员工,在未来的组织中将更受欢迎。与此同时,企业应提供跨职能实战机会,让员工在合规、风控与业务之间形成复合能力。花旗强调的短时自适应学习降低了门槛,也显现出领导层对快速技能迭代的期待。对于无法或不愿意重塑技能的个体,企业应提前规划好转岗、再培训或其他支持性措施,避免人力资源断层。
对其他金融机构的启示 花旗的做法提醒业界,推广AI技能不是单靠技术手册或一次性培训就能达到的。要把技能建设与治理、性能衡量、文化变革与激励机制结合起来。建议先在关键业务单元内试点,设计可衡量的KPI并收集用户反馈,再逐步扩大规模。建立跨部门的AI中心或能力团队,负责提示库维护、模型评估与合规对接,也是常见且有效的做法。 未来展望与结语 花旗对提示工程的规模化投资反映出金融业对生成式AI价值的重视。随着模型能力演进与企业治理体系日趋成熟,AI将在金融工作场景中承担更多辅助性与分析性任务。
关键在于把"如何与AI合作"变成一种企业级能力,把高质量的提示词作为可以复用与审计的资产纳入管理。以人为中心的监督、合规优先的部署策略以及持续的效果评估,将是推动这场变革持续产出价值的核心要素。对任何希望在数字化洪流中保持竞争力的组织而言,把员工培养成能与AI协作的"智能工作者"既是挑战也是机遇。 。