机器心脏报告
编辑:泽南
让我们结束这场游戏。
几个月来,这位声称“AI有意识”的工程师一直在与谷歌经理、高管和人力资源部门争论。他的观点引起了学术界的广泛讨论,但他在谷歌的职业生涯终于画上了句号。
据持续跟踪报道的媒体Big Technology报道,本周六,公开声称谷歌大模型LaMDA对话式人工智能具有感知能力的工程师布雷克·莱莫因(Blake Schmidt)已被解雇。
今年6月,在莱莫因联系美国参议院办公室,表达他对“人工智能人权”的担忧,并聘请律师代表谷歌人工智能对话系统LaMDA之后,谷歌以违反保密协议为由,给予莱莫因带薪休假。
谷歌发言人Brian Gabriel本周五通过电子邮件向The Verge发送了一份声明,部分证实了解雇一事,声明称:“我们祝莱莫因一切顺利。”该公司还表示:“LaMDA已经通过了11项不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。谷歌坚称,它已经“广泛”审查了莱莫因的说法,发现它们“完全没有根据”。
这与许多人工智能专家和伦理学家的态度是一致的。许多学者认为,鉴于当今的技术,莱蒙尼的说法应该是不可能的。这位谷歌工程师曾声称,在与LaMDA model进行了长时间的对话后,他相信这个AI不仅仅是一个程序,它还拥有自己的思想和感情,而不是像最初的设计那样仅仅产生与真人对话的能力。
布莱克·莱莫因曾在美国陆军服役。
莱蒙尼认为,由于AI是有意识的,谷歌研究人员在对LaMDA进行实验之前,应该征求AI本人的同意(莱莫因本人被指派测试AI是否会产生仇恨言论)。他在自己的Medium博客账号上发布了大量与艾的对话作为佐证。
今年1月,由50多名谷歌研究人员撰写的论文LaMDA:Dialog应用程序的语言模型(Language Models for Dialog Applications)完整地介绍了语言模型LaMDA。该论文表明,人工智能在接近人类水平的对话质量以及安全性和事实基础方面都有显著提高。LaMDA是通过微调一系列基于Transformer的专用于对话的神经语言模型构建的,参数多达1370亿个。在对话期间,模型还可以引用外部知识源。
谷歌表示,预训练的LaMDA模型已经广泛应用于自然语言处理研究,包括程序合成、零样本学习、风格转移等方向。
在莱莫因事件被媒体广泛报道后,许多人工智能领域的学者表达了他们的观点。特斯拉前AI总监安德烈·卡帕西(Andrej Karpathy)认为,大模型是有意识的,是“有思想和恐惧的”。然而,在纽约大学教授加里·马库斯看来,兰达当然没有知觉。
大多数人工智能专家认为,在计算机获得认知能力之前,行业还有很长的路要走。
以下是谷歌的完整声明,其中也提到了莱莫因对该公司没有对他进行适当调查的指控:
就像我们分享的人工智能的准方一样,谷歌非常重视人工智能的发展,始终致力于负责任的创新。LaMDA已经通过了11项不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。如果有员工像Blake一样担心我们的工作,我们将进行一次全面的评估。我们发现布莱克声称LaMDA有意识是完全没有根据的,并与他一起工作了几个月来澄清这一点。
这些讨论是帮助我们负责任地创新的开放文化的一部分。因此,令人遗憾的是,尽管对这个话题进行了长时间的讨论,但Blake仍然选择不断违反明确的雇佣和数据安全政策,包括保护产品信息的需要。我们将继续精心开发语言模型,并祝Blake一切顺利。
参考内容:
https://www . the verge . com/2022/7/22/23274958/Google-ai-engineer-Blake-le moine-chatbot-lamda-2-sentience
https://arxiv.org/abs/2201.08239
https://www.youtube.com/watch? v = ONloZfZEbUE
https://big technology . substack . com/p/Google-fires-Blake-le moine-engineer
剧终
授权请联系本微信官方账号。
投稿或寻求报道:content@jiqizhixin.com