AI纠纷让人想起硅谷的灰暗岁月

“快速行动,打破陈规”是年轻的马克·扎克伯格(Mark Zuckerberg)在二十年前提出的座右铭。这句话至今依然萦绕在科技界。这句话象征着硅谷最糟糕的一面:无情的野心和令人惊讶的傲慢,不计后果、唯利是图的创新。

上周当好莱坞女星斯嘉丽·约翰逊(Scarlett Johansson)与“开放式人工智能平台”(OpenAI)发生冲突时,我想起了这句话。约翰逊女士声称,她和经纪人都拒绝让她为“聊天生成预训练转换器”(ChatGPT)的新产品配音,但当新产品亮相时,声音却非常相似。OpenAI否认这是有意模仿。这正是创意产业所担心——人们被模仿并最终被人工智能(AI)取代的典型例证。

这一切都与昔日那些独断专行的硅谷巨头如出一辙。将寻求宽恕而不是许可作为非正式的商业计划。2024年的科技公司非常希望摆脱这种名声。而OpenAI并不是从那个模子里塑造出来的。它最初是一家非营利组织,致力于将任何额外的利润投入到业务中。2019年,当该公司成立营利部门时,公司表示其将由非营利部门领导,投资者的回报将有上限。

并非所有人都对这一转变感到高兴——据说这是联合创始人埃隆·马斯克(Elon Musk)决定离开的一个重要原因。去年年底,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)突然被董事会解雇,其中一种说法是他想进一步偏离最初的使命。但我们无法确定该说法。不过,即便OpenAI变得更加以利益为导向,它仍必须正视自己的责任。

在政策制定领域,几乎所有人都认为在灾难来临之前,需要制定明确的界限来约束OpenAI这样的公司。迄今为止,AI巨头们基本上都是纸上谈兵。在六个月前举行的全球首届AI安全峰会上,一群科技公司老板签署了一份自愿承诺书,承诺创造负责任、安全的产品,最大限度地发挥AI技术的优势,同时将其风险降至最低。他们所说的风险宛如噩梦,如同《终结者》和《末日侵袭》的场景一般,AI走向失控并摧毁人类。

上上周,一份由30位独立专家组成的英国政府报告草案得出结论称,“尚无证据”表明AI可以制造生物武器或实施复杂的网络攻击。报告称,有关人类失去对AI控制的可能性“极具争议”。上周早些时候,当峰会再次召开时,“安全”一词已从会议标题中完全删除。该领域的一些人早前就表示,AI工具带来的更直接威胁是,它们会取代工作或者无法识别肤色。AI伦理专家鲁曼·乔杜里(Rumman Chowdhury)博士说,这些是真正的问题。

还有更复杂的问题。该报告称,目前还没有可靠的方法来准确理解AI工具为什么会产生这样的输出——甚至它们的开发人员也不确定。而目前已建立的安全测试项目“红队演练”(Red Teaming),即评估人员故意让AI工具行为不当,也没有最佳实践指南。在上周由英国和韩国在首尔联合主办的后续峰会上,科技公司承诺,如果一款产品没有达到一定的安全门槛,就会将其搁置——但这些标准要到2025年的下一次峰会才会确定。

就在专家们争论AI威胁的本质时,科技公司仍在不断推出产品。仅在过去几天,OpenAI的ChatGPT-4O、谷歌的“阿斯特拉计划”(Project Astra)和微软的CoPilot+相继推出。人工智能安全研究所(AI Safety Institute)拒绝透露是否有机会在这些工具发布前对其进行测试。OpenAI表示其有十项安全流程。但上周早些时候,该公司一名专注于安全的高级工程师辞职,称他所在的部门在内部一直“逆风而行”。“在过去的几年里,安全文化和流程在闪闪发光的产品面前已退居其次。”简·雷克(Jan Leike)在“X”上写道。

当然,OpenAI还有其他团队在继续关注安全问题。但这些公司实际上在做什么,并没有官方和独立监督。“自愿性协议本质上只是企业给自己的作业打分的一种方式。”独立研究机构艾达·洛夫莱斯研究所(Ada Lovelace Institute)副总监安德鲁·斯特雷特(Andrew Strait)说。“它本质上无法取代具有法律约束力和可强制执行的规则,而这些规则是激励这些技术负责任发展所必需的。”

英国著名计算机科学家温迪·霍尔(Dame Wendy Hall)教授说:“我们没有这些公司会遵守承诺的保证。”“我们如何让他们对自己所说的话负责,就像我们对制药公司或其他存在高风险的行业所做的那样?”更严格的规则即将出台。欧盟通过了《人工智能法案》(AI Act),这是世界上首部该类法律,并对违规行为制定了严厉的惩罚措施。但一些人认为,这将影响用户——他们将不得不自己对AI工具进行风险评估——而不是那些开发AI的公司。

但这并不一定意味着AI公司就可以置身事外。“我们需要逐步走向法律监管,但不能操之过急。”霍尔教授说。“建立每个人都签署的全球治理原则真的很难。”“我们还需要确保它真正是全球性的,而不仅仅保护的是西方世界和中国。”与以往一样,最重要的问题是,监管和政策的推出要比创新滞后得多。霍尔教授认为,政府层面将“万事俱备”。问题在于,我们能否说服科技巨头们等待它们的到来。

好莱坞女星斯嘉丽·约翰逊(Scarlett Johansson)表示,她对OpenAI推出一款语音与她本人“极为相似”的聊天机器人感到“震惊”和“愤怒”。这位女演员说,她之前已拒绝了OpenAI希望她为该公司的新聊天机器人配音的邀请。但在上周新款聊天机器人首次亮相时,评论人士很快就将该聊天机器人“Sky”的声音与约翰逊在2013年出演的电影《她》(Her)中的声音进行了比较。

OpenAI上周一表示,该公司将移除语音,但坚称这不是对约翰逊的“模仿”。然而,在BBC周一晚间看到的一份声明中,约翰逊指责该公司及其创始人萨姆·奥尔特曼(Sam Altman)故意复制她的声音。“当我听到发布的样片时,我感到震惊、愤怒和难以置信,奥尔特曼先生竟然会寻求一种听起来与我如此相似的声音。”她写道。“奥尔特曼先生甚至暗示这种相似是有意为之,他在推特上发了一个单词‘她’——指的是电影中我配音的聊天系统莎曼珊(Samantha),她与人类建立了亲密关系。”

2013年的电影《她》的故事背景设定在不久的将来,杰昆·菲尼克斯(Joaquin Phoenix)所饰演的角色爱上了他的拟人化女声操作系统,而约翰逊(Johansson)为该系统配音。这位曾两次获得奥斯卡金像奖提名的女演员说,奥尔特曼最初是在去年9月找到她,希望她能为新的聊天机器人配音。“(奥尔特曼)告诉我,他觉得由我来为这个系统配音,可以弥合科技公司和创造力之间的差距,帮助消费者适应人类和AI之间的巨大转变。”约翰逊写道。“他说,他觉得我的声音会让人们感到慰藉。”但她说,出于个人原因,她最终拒绝了这个邀请。

她补充说,在“Sky”聊天机器人发布前两天,奥尔特曼联系了她的经纪人,呼吁约翰逊重新考虑她最初拒绝与公司合作的决定。这位女演员补充说,她不得不聘请律师,并向该公司发出两封律师函,以确定声音的来源。“在我们都在努力应对深度造假问题,并保护我们自己的肖像、作品和身份的时候,我相信这些问题应该得到绝对的澄清。”她写道。在OpenAI传送给BBC的一份声明中,奥尔特曼否认该公司试图模仿约翰逊的声音。“‘Sky’的声音不是斯嘉丽·约翰逊的,(公司)也从未想过要模仿她的声音。”他写道。“我们在与约翰逊女士联系之前,就已经选定了‘Sky’的配音演员。出于对约翰逊女士的尊重,我们已经暂停在产品中使用‘Sky’的声音。我们很抱歉没有与约翰逊女士进行更好的沟通。”他写道。此外,该公司表示,它正在“努力暂停”该语音,同时在“X”(前称:Twitter)上发文,回应有关该语音是如何被挑选的问题。OpenAI在文中表示,聊天机器人使用的五种声音是从其合作的配音演员中采样的。

就在六个月前,好莱坞的演员们同意结束罢工。罢工者呼吁提高工资,并对AI的运用提供保障。这场大罢工使娱乐产业陷入瘫痪。约翰逊参加了去年的行业行动,其部分关乎电影公司将如何使用AI来模仿演员的脸和声音。与电影公司达成的协议包括保证未经演员同意不会使用这些个人特征。“在对AI的不信任和对其潜在危害的担忧普遍存在之时,未经许可使用他人的声音感觉特别具有侵犯性。”AI语音授权公司——“换音”(Voice-Swap)公司的负责人丹·斯坦恩(Dan Stein)说。“无论OpenAI是使用斯嘉丽·约翰逊的声音还是类似声音来训练新的‘Sky’语音,事实是她拒绝了许可,而她的身份却被利用了。”“如果该领域最著名的公司以这种方式行事,这将为版权和同意权树立一个危险的先例。”OpenAI一直面临各种法律挑战,很多关于该公司如何使用网上受版权保护的信息。去年12月,《纽约时报》表示计划对该公司提起诉讼,指控其使用该媒体发表的“数百万”篇报道来训练其ChatGPT AI模型。9月,作家乔治·R·R·马丁(George RR Martin)和约翰·格里沙姆(John Grisham)也宣布了一项索赔计划,指控该系统在训练过程中侵犯了他们的版权。(转载自BBC中文网)

发表回复