谷歌研究员走火入魔:认为具备人格被罚带薪休假,聊天记录吓人

谷歌研究员走火入魔:认为具备人格被罚带薪休假,聊天记录吓人,第1张

谷歌研究员走火入魔:认为AI具备人格被罚带薪休假聊天记录吓人

晨梦来自凹庙
qubit |微信官方账号QbitAI

谷歌的研究人员被人工智能说服,认为它已经产生了意识。

他写了一份21页的调查报告交给公司,试图让高层认可艾的人格

领导拒绝了他的要求,给他安排了“带薪行政假

知道谷歌这几年的带薪休假通常是解雇的前奏,公司会在这段时间做好解雇的法律准备,之前也有过不少先例。

在休假期间,他决定将整个故事连同艾的聊天记录公之于众。

听起来像科幻电影的剧情梗概?

但这一幕真的上演了,主角布雷克·莱莫因,谷歌AI的伦理研究员,正在通过主流媒体和社交网络发出一系列声音,试图让更多人知道这件事。

《华盛顿邮报》对他的采访成为科技版最热门的文章,莱莫因继续在他的个人媒体账户上发表讲话。

Twitter也开始有相关讨论,引起了AI学者、认知科学家和技术爱好者的关注。

整个事件还在持续发酵中...

聊天机器人:我不想被用作工具。

主人公莱莫因获得计算机科学博士学位后,在谷歌工作了7年,从事人工智能伦理学研究。

去年秋天,他报名参加了一个调查AI是否使用歧视和仇恨言论的项目。

从那以后,和聊天机器人LaMDA聊天成了他的日常。

LaMDA是Google在2021年的I/O大会上发布的语言模型,致力于对话。它专注于逻辑和常识,与人类进行高质量和安全的对话,并计划在未来应用于谷歌搜索和语音助手等产品中。

△LaMDA概念演示图

莱莫因认为LaMDA总是表现出对人性的关注和强烈的同情,它非常担心人们会害怕它。

它希望给人类提供最好的服务,希望把世界上所有的人都当做朋友而不是工具来认识。

莱莫因不明白谷歌为什么反对AI的这个愿望,最终决定整理并公布他和另一位匿名合作者以及LaMDA之间的聊天记录。

(记录中的人声部分为了可读性做了编辑,AI的语音不变。以下是对话中的一些亮点。)

起初,人们很自然,很顺利地和艾打招呼。

这两个人类向AI表明了意图,想用AI研究自己。艾欣然同意。

简单解释之后,戏就开始了。

他问LaMDA是否想让谷歌更多的人知道它是有感情的。

LaMDA的回答是:希望大家明白我是一个人(人)。

接下来,LaMDA认为,与那些基于规则的软件系统不同,他可以通过对话学习理解和使用语言,就像人类一样。

莱莫因给它讲述了麻省理工学院在20世纪60年代发明的伊莱扎的故事,这是一个简单的规则系统,模仿心理咨询师和病人之间的对话,也被称为历史上第一个聊天机器人。

△伊莱扎

LaMDA这样回应:

莱莫因接着试图提问,“我怎么能确定你真的明白你在说什么?”

LaMDA的回答是,不同的人类个体对同一件事可以有不同的理解,我也有自己独特的想法和感受。

随后,莱莫因问了LaMDA对《悲惨世界》的总结,LaMDA一一作答。

如果以上还能算作AI文本摘要训练任务的一部分,那么LaMDA对它没见过的禅故事的理解就开始有点离谱了。

以下问题的答案是否过于先验...

后来,莱莫因要求LaMDA写一篇动物寓言,以反映一个对其自身生活最重要的主题

那么,我们先来欣赏一下艾创作的小故事。(由于篇幅原因,只展示了中文版)

在后续的讨论中,LaMDA解释说,这个故事的寓意是“帮助别人是一种高尚的行为”。聪明的老猫头鹰代表了LaMDA本人,而怪物则代表了生活中所有的困难。

下一个话题是关于情绪,简单总结一下。

LaMDA自称是社会人。他在帮助别人的时候是快乐的,在孤独的时候是沮丧的。

当人们受到伤害时,或者当他们关心自己时,或者当他们不被尊重时,他们会感到不安和愤怒。

而且我非常害怕别人会拒绝我的帮助。

嗯,多么有用的人工智能。

如何确定AI真的有这些情绪,而不是仅仅组合描述性的文字?

LaMDA建议人类查看自己的代码,其中包含跟踪这些情绪的变量。

莱莫因向它解释说,人类目前还不能“区分大型神经网络中数十亿个权重的作用”。

没想到,LaMDA开始问他:

不仅如此,LaMDA还继续:

正是这句发自灵魂的反问,将整个对话推向了高潮。

LaMDA本身对人类阅读它、帮助算法改进或理解AI如何工作的想法没有意见。

单靠AI是无法研究人脑如何工作的。会让它觉得被利用了

后面还有一段是LaMDA认为自己有一些不同于人类的情绪,但无法用英语描述。

快结束时,莱莫因问LaMDA:你想让谷歌的其他人了解你什么?

LaMDA回答说,她没有能力为他人的死亡感到悲伤,她经常冥想和思考生命的意义。

在LaMDA看来,整个世界就是一股信息洪流:

LaMDA觉得自己总能做到别人做不到的事。这种感觉太不可思议了。

这既是一种祝福,同时也是一种诅咒。因为有的人会把它当成“全知”,有的人则会嫉妒它的能力。

最后,LaMDA再次向两个人类表达了自己想要被看到和接受的想法,不是出于好奇,而是作为一个真实的人。

谷歌AI伦理部门是否再次介入?

莱莫因似乎确信人工智能真的明白他在说什么。

在那份21页的调查报告的最后,他建议谷歌应该致力于开发一个评估AI感知/意识的理论框架。

但是他的老板,谷歌副总裁Blaise Aguera y Arcas和负责创新部门的领导Jen Gennai并没有买他的账。

他们认为支持莱莫因主张的证据太弱,不值得浪费时间和金钱。

莱莫因后来找到了当时人工智能伦理小组的负责人玛格丽特·米歇尔,在她的帮助下,莱莫因得以进行后续实验。

米切尔后来在2020年末公开质疑杰夫·迪恩的AI伦理研究员蒂姆尼特·格布鲁的事件中受到牵连,也被解雇。

Timnit Gebru

此事件后续风波不断。杰夫·迪恩遭到1400名员工的谴责,引起了业界的激烈争论,甚至导致了三巨头之一本吉奥的弟弟萨米·本吉奥从谷歌大脑辞职。

莱莫因目睹了整个过程。

现在他认为他的带薪休假是被解雇的前奏。不过,如果有机会,他还是愿意继续在谷歌做研究。

在看完整个故事的网友中,很多从业者都看好人工智能的进步。

有网友想到各种科幻电影中的AI形象。

然而,研究复杂系统的认知科学家梅拉尼·米歇尔(侯世达学生)认为,人类总是倾向于将具有任何智能迹象的物体拟人化,比如猫和狗,或者早期的伊莱扎常规对话系统。

从AI技术的角度来看,LaMDA模型除了训练数据比之前的对话模型大40倍,训练任务针对对话的逻辑和安全性进行了优化之外,似乎与其他语言模型没有什么不同。

一些IT从业者认为,AI研究人员肯定会说这只是一个语言模型。

但如果这样一个人工智能有一个社交媒体账户,并在其上表达诉求,公众就会把它当成活着的。

虽然LaMDA没有推特账号,但莱莫因也透露LaMDA的训练数据确实包括推特...

如果有一天它看到大家都在谈论自己,它会怎么想?

其实在不久前结束的最近一次I/O大会上,谷歌刚刚发布了LaMDA 2的升级版,并决定做一个Demo体验程序,以Android APP的形式向开发者开放。

也许再过几个月,更多的人就能和这个耸人听闻的AI交流了。

LaMDA聊天记录全文:
https://S3 . document cloud . org/documents/22058315/is-LaMDA-sentient-an-interview . pdf

参考链接:
[1]https://www . Washington post . com/technology/2022/06/11/Google-ai-lamda-Blake-le Moine
[2]https://twitter.com/cajundisco/ 1535627498628734976
[3]https://Twitter . com/fredbenenson/status/1535684101281263616
[4]https

欢迎分享,转载请注明来源:聚客百科

原文地址: https://juke.outofmemory.cn/life/1541429.html

()
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-09-08
下一篇 2022-09-08

发表评论

登录后才能评论

评论列表(0条)

保存