起因
Gemini(原名Bard)是谷歌规模最大、功能最强大的多模态人工智能模型。上周,这款产品因为其生成的人物图片过于“政治正确”而遭到不少非议:一些用户近期发现,谷歌的 Gemini 模型拒绝生成带有白人的图像,尤其是白人男性,Gemini生成的大多数人物图像基本都是有色人种,甚至在被要求生成美国国父、教皇、二战德国士兵等人物时,都会生成非裔和亚裔的形象。
保守派批评者和埃隆·马斯克指责它有所谓的“觉醒(woke)”偏见,没有准确地代表历史。谷歌道歉并暂停了该功能。
谷歌CEO:“不可接受”
美东时间周二,谷歌CEO桑达尔·皮查伊(Sundar Pichai)给员工发了一封内部邮件,首次就Gemini的问题进行了回应,称这是“完全不可接受的”。皮查伊在内部信中写道,谷歌的AI团队正在昼夜不停地纠正问题,并且已经取得进展。他强调,公司将对Gemini进行结构性改革,以防止类似事件的发生。
皮查伊写给谷歌员工的完整信件:
我准备解决最近在Gemini应用程序(以前的Bard)中的文本和图像响应的问题。我知道它的一些回答冒犯了我们的用户,并表现出一些偏见——澄清一下,这是完全不可接受的,我们错了。
我们的团队一直在夜以继日地工作以解决这些问题。我们已经看到了大量的实质性改进。没有哪个人工智能是完美的,尤其是在这个行业发展的新兴阶段,但我们知道我们的门槛很高,无论需要多长时间,我们都会坚持下去。我们会审视各种情况,并确保我们能大规模地修复它。
我们的使命是将世界上的信息组织起来,使其普遍可用而且有用处,这一使命是神圣的。我们一直寻求在我们的产品中为用户提供有用、准确和公正的信息。这就是人们信任这些产品的原因。这也必须成为我们所有产品所遵循的路径,包括我们新兴的人工智能产品。
我们将推动一系列明确的行动,包括结构变革、更新产品指南、改进发布流程、建立强有力的评估体系和红队测试(Red-Teaming,一种安全评估方法),以及技术建议。我们正在考虑所有这些问题,并将做出必要的改变。
即使我们从这次的错误中吸取教训,我们也应该在过去几周我们在AI方面所做的产品和技术声明的基础上继续发展。这包括我们在基础模型上的一些基础性进步,例如我们支持100万token的长上下文窗口的突破和我们的开放模型,这两者都得到了很好的认可。
我们知道如何创造出被数十亿人和企业使用和喜爱的伟大产品,凭借我们的基础设施和研究专长,我们为人工智能浪潮提供了一个令人难以置信的跳板。让我们把重点放在最重要的事情上:打造值得用户信速的有用产品。
元芳怎么看?
尽管翻车,但瑕不掩瑜,这也是大模型的通病,面对人类的“无礼”要求,从不知“拒绝”的大模型总会给出自己“理解”的答案,这不是翻的第一个,也不会是最后一个,而且可以预见的是,人类在AI这条路上狂奔的结果,在造福人类的同时,一定也会酿成一系列的“杯具”,纵观人类不太长的人类发展史,无一例外…