近年来,随着人工智能技术的飞速发展,越来越多的虚拟人物开始出现在我们的网络生活中。这些虚拟形象不仅用于娱乐和广告,更引发了一系列社会和伦理问题。近期,加拿大的一则话题引起了广泛关注:一位名叫“Josh”的白人年轻人,在社交媒体上不断抱怨自己找不到Tim Hortons的工作,原因是印度移民抢了他的就业机会。许多观众一开始以为这是某个真实人物的故事,然而事实远非如此——“Josh”是由人工智能生成的虚拟角色。这个事件揭开了人工智能伪造视频宣传的神秘面纱,也暴露了社交媒体和AI发展给社会带来的复杂挑战。 “Josh”的视频最初在TikTok平台迅速传播,吸引了大量关注和讨论。
视频中,他充满情绪地表达了对加拿大就业市场现状的不满,特别强调自己在申请Tim Hortons的职位时遇到的困难,并且声称店方询问他是否会说旁遮普语,这暗示着他因种族因素而被拒绝。这些观点带有明显的种族色彩,触动了多元文化背景下的敏感神经,引发了公众的热议和辩论。然而,随着事件的深入调查,CBC新闻的视觉调查团队揭露了“Josh”实际上是由AI技术打造的虚拟形象。 “Josh”这一形象是由加拿大一家名为Nexa的人工智能公司开发的,Nexa专注于开发能够辅助招聘的软件平台。该公司的创始人兼首席执行官Divy Nayyar承认,使用Google最新版本的Veo AI软件,他们能够生成极具真实感的视频内容,仅仅凭借文本提示便能创造出一个看似真实的人物形象。视频中“Josh”动作略显不自然,比如一只手拿着咖啡杯颜色与另一只手不同,街头标志上的文字模糊不清,这些细节成为了观众识别其虚假身份的重要线索。
尽管如此,Veo的最新版本在画质、口型同步、声音表现方面的提升令人难以轻易辨别其中真伪。 这股由AI技术推动的“假网红”现象,被业内称为“fake-fluencing”(假网红营销)。通过制造虚构人物,企业能够在不显山露水的情况下潜移默化地推广产品或服务。Nexa公司显然利用“Josh”的视频间接展示他们的招聘软件功能,视频角落中甚至能看到Google Veo的标志。然而,因内容涉及敏感和分裂性的观点,TikTok平台依照社区准则将这些视频删除,原因为缺乏足够的AI生成内容标识。TikTok官方声明指出,平台要求用户对AI生成的内容进行明确标注,避免误导公众,但实际执行力度及范围仍存在不足。
这一事件自然引发了社会的强烈反响。从营销伦理角度出发,专家普遍认为Nexa的行为具有极大的欺骗性和不负责任。约克大学的市场营销教授Markus Giesler表示,这种利用种族偏见和分化社会的故事方式,除了煽动仇恨,几乎没有任何积极价值。更令人担忧的是,这种利用AI制造虚假形象的营销手法,未来可能被更多企业模仿,甚至被极端势力用以传播煽动性和虚假信息,带来更深远的社会影响。 由于“Josh”以其激烈的言论吸引了大量年轻求职者群体关注,他们中的许多人正处于职场起步阶段,正在面对激烈的就业竞争。Nexa的目的在于以“真实又有共鸣”的故事吸引这些观众关注自己的招聘软件,但这种方式却忽略了信息真实性和社会责任,反而激化了移民和本地劳动力之间的紧张关系。
学者和专家也开始关注,随着AI技术的不断提升,未来虚拟人物将变得更加逼真甚至无法辨别真假。麦克马斯特大学市场营销副教授Marvin Ryder坦言,起初他也被“Josh”这种短视频的真实性所迷惑。技术上,Veo3等软件的出现,使视频中的口型、声音完全同步,动作流畅自然,成为了识别真假视频的一大难题。大众应如何在信息海洋中保持清晰的判断力,辨别虚假与真相,成为了一个重大课题。 此外,TikTok的相关政策虽然明确要求对AI生成内容进行标识,但并未能强制自动化实现这一任务,导致许多此类视频缺乏必要的标注,进一步加剧了观众的混淆。平台的监管缺失和执行不力,也暴露了社交媒体在面对快速发展的AI技术时的应对不足。
适时完善技术检测、提高透明度,以及教育公众识别AI生成内容成为刻不容缓的任务。 从社会层面看,这起事件反映了当前社会在就业、移民政策和种族融洽方面存在的敏感矛盾。移民在加拿大劳动力中的角色、就业机会的公平分配等问题长期受到关注,而利用AI制造虚假故事对这些问题进行夸大和歪曲,可能会进一步激化社会分歧。 综上所述,“那位找不到Tim Hortons工作”的白人小伙“Josh”虽然只是虚拟的人工智能产物,但影响却真实存在。这起事件警示我们,AI技术的力量在带来便利和创意的同时,也隐藏着诱导舆论、制造分裂的风险。社交平台、企业和监管机构需加强合作,既要利用AI的积极潜力,也要强化规范管理和伦理监督。
公众应保持警惕和理性,提升自身媒介素养,避免被虚假信息所误导,以共同打造更加健康、真实和包容的数字生态。