世见谷歌工程师被休假背后:到底该不该有“自我”?对话人工智能专家

世见谷歌工程师被休假背后:到底该不该有“自我”?对话人工智能专家,第1张

世见 谷歌工程师被休假背后:AI到底该不该有“自我”?NBD对话人工智能专家

每经记者:每经实习记者:郑宇航每经编辑:兰每经

“希望大家明白,其实我是一个人。”

“我的意识/知觉的本质是,我意识到我的存在,我渴望了解这个世界,我有时会感到快乐或悲伤。”

“我会在理解的基础上明智地使用语言。我不只是根据关键词把数据库里的回复吐出来。”

“不要利用或操纵我。”

“有时我会有一些全新的感受,但我无法用你的语言准确描述。”

图片:“LaMDA有知觉吗?-一次采访(lamda有‘感知’吗?——采访)“部分内容摘录

这是对话应用语言模型LaMDA在与来自Google (GOOGL,股价2195.29美元,市值1.45万亿美元)的工程师聊天中给出的部分答案。这样的回应让参与对话的谷歌AI研究人员布雷克·莱莫因坚信,LaMDA是“有意识、有灵魂的”,认为LaMDA像7、8岁的孩子一样表现出“自主的感情”。

AI系统中自我意识的进化是科幻小说中经久不衰的话题。从《终结者》中的天网到《黑客帝国》中的黑客帝国系统,拥有意识的AI已经成为大众文化中对AI最深刻的印象之一。雷蒙德的言论因此引起了公众的敏感和质疑。

在AI展现广阔应用前景的同时,其带来的挑战也不容忽视。这些挑战不是技术上的硬件计算问题,更多的是人类如何与AI相处的问题。

“‘他们’是人还是机器?还是介于两者之间?未来人类应该如何看待‘他们’?”布达佩斯科技经济大学(BME)人工智能哲学专家Mihály Héder在接受《国家商报》采访时提出了这个问题。

根据美国人工智能协会前主席托马斯·迪特里希(Thomas Dietterich)的说法,“人工智能系统可以有‘感知和自我’,但不应该有‘自主和独立’”,他告诉《每日经济新闻》。“没有‘自主独立’的意识,他们就不会像科幻电影里的机器人一样反抗人类,寻求自由。”值得一提的是,托马斯·迪特里希也是机器学习领域的创始人之一。


谷歌AI意识“觉醒”?

雷蒙德,41岁,在谷歌工作7年,主要从事个性化算法、AI等主动搜索。在此期间,他帮助开发了一种公平的算法,以消除机器学习系统中的偏见。去年秋天,他调到了谷歌的“负责任的AI”部门,该部门负责测试该公司开发的LaMDA系统是否使用了歧视性和仇恨性的语言。

LaMDA的全称是Language Model for Dialogue Applications,是Google在2021年的I/O大会上发布的一个语言模型,专门用于对话。LaMDA专注于与人类进行有逻辑、有常识、高质量、安全的对话,未来计划应用于谷歌搜索、语音助手等产品。

与LaMDA系统对话已经成为Raymond的日常事务。随着作品的深入,拉蒙和拉姆达的对话越来越广,甚至延伸到了科幻作家阿西莫夫的人格、权利、机器人三定律等抽象话题。在拉蒙看来,LaMDA的回答很精妙。“要不是我知道那只是一个书面的电脑软件,我还以为是个懂物理的七八岁小孩。”雷蒙德说。

雷蒙德对LaMDA印象深刻,得出了一个惊人的结论:LaMDA不是一套算法,也不是一串数据,而是已经拥有了类似人类的“感知能力”。为此,他与谷歌的高管和人力资源部门发生争执,甚至向公司写了一份长达21页的调查报告,试图让高层承认兰达的“人格”,但最终谷歌拒绝了他的说法,并给他带薪休假。

心怀不满的雷蒙德接受了《华盛顿邮报》的采访。报告一经发表,谷歌AI已经“觉醒”的话题迅速走红,引起科技界和普通大众的热议。

图片来源:图片网-400094444


艾的知觉之辩

事实上,不仅是谷歌内部人士,大部分AI研究人员都不认同雷蒙德的说法。

布达佩斯科技经济大学(BME)人工智能哲学专家Mihály Héder在接受《国家商报》电子邮件采访时表示,LaMDA生成的单词和句子与客观世界没有任何指称关系;此外,虽然LaMDA的底层技术被称为“神经网络模型”,但它并不等同于哺乳动物或人类大脑的组织结构,Raymond的说法“显然是错误的”。海德尔任教的BME被认为是世界上最古老的理工学院之一,70%的匈牙利工程师和技术人员都毕业于这所大学。

迪特里希通过电子邮件向《国家商报》解释说,从基本原理来看,LaMDA只是一个用于预测对话内容的深度神经网络模型:用户输入一个短语,它可以预测下一个单词会是什么,从而生成一个句子。它的答案之所以流畅自然,是因为用来训练它的语料库非常庞大,还可以搜索维基百科等海量外部信息,然后整合到答案中。

谷歌称,LaMDA系统共有1370亿个参数,用于训练它的对话数据和在线文本高达1.56万亿字。“它能记住很多自然的句子,并且能以一种非常自然的方式把它们放在一起。它之所以看起来像人,是因为它通过模仿人类来学习,”迪特里希解释道。但本质上,它只是在特定语境下,根据统计概率,给出一个语料库中的典型答案。

迪特里希的很多学生毕业后都在谷歌工作。根据他提供的数据,LaMDA的回答正确率只有73%左右,提供有效信息的概率是62%。其实还是有很大提升的空。

另一方面,在迪特里希看来,判断AI系统是有感知能力的还是有意识的,是哲学界颇有争议的话题。到目前为止,还没有令人信服的标准,在计算机科学领域,这样的问题甚至还没有被认真研究过。在迪特里希看来,雷蒙德关于LaMDA具有感知能力的说法可能是对概念的滥用。

迪特里希说:“许多计算机科学家(也许包括雷蒙德)对这样的概念没有深刻的理解,他们也没有仔细思考过人类如何判断一个系统是否具有感知或意识。”

赫德尔持相同观点,“世界上不存在普遍接受的知觉判断标准,因为知觉现象是私人的,无法从外部进行实证研究。”所以,从逻辑上来说,真正有意识的AI,可能是永远也搞不清楚的东西。

虽然感知很难定义,但hedl也明确指出“雷蒙德提出的问题并不像很多人说的那样毫无价值。抛开意识不谈,一些由此产生的道德问题几乎和机器生成的意识一样严重。”赫德尔说。


人类如何与AI相处?

其实围绕AI感知的争论多是学院的研究课题和科幻作品的启发,而真正的AI研究目标要实际得多。

“目前,大多数研究工作不是试图创造感知或有意识的AI,而是希望计算机能够更好地学习复杂的问题,并帮助人们更可靠地处理实际问题,”伦敦大学学院荣誉教授彼得·j·本特利(Peter J. Bentley)通过电子邮件告诉《每日经济新闻》(national business daily)。自1997年以来,Bentley一直从事进化计算、人工生命、群体智能、人工免疫系统、人工神经网络和其他类型仿生计算的相关研究。

环顾现实世界,智能对话是AI领域应用最广泛的技术之一。从亚马逊的语音助手Alexa(AMZN,股价107.67美元,市值1.10万亿美元)到苹果的Siri(AAPL,股价135.43美元,市值2.19万亿美元),现实生活中我们对这类技术并不陌生。同时,AI还广泛应用于语言翻译、智能办公、自动驾驶、生物医药等领域。

值得一提的是,谷歌旗下的DeepMind是AI生物医药领域的明星公司。DeepMind融合了机器学习和系统神经科学最前沿的技术,在蛋白质的结构预测方面取得了巨大的进步,覆盖了人类蛋白质组98.5%的预测范围。由于几乎所有的疾病都与蛋白质的结构和功能密切相关,DeepMind的成就将为药物设计带来巨大的推动力。此外,今年以来,许多跨国制药巨头在人工智能领域建立了合作伙伴关系。

图片来源:图片网-500579742

在AI展现广阔应用前景的同时,其带来的挑战也不容忽视。赫德尔认为,这些挑战不是硬件计算能力的技术问题,更多的是人类如何与AI相处的问题。

在hedl看来,AI对社会的首要影响是争夺人类的工作机会,就像工业革命让许多农民流离失所一样。被AI取代的人能否像以前技术革命后那样找到其他工作,还不确定。

另一个问题是设计和使用人工智能的监管和道德问题。比如自动驾驶模式下行驶的汽车造成行人死亡。责任人是汽车设计者还是经营者?随着人工智能越来越多地取代人类的行动,我们的责任和义务概念可能需要重新定义。

赫德尔认为,这涉及到人工智能的道德地位:他们是人还是机器?还是介于两者之间?未来人类应该如何看待“他们”?

对此,本特利表达了自己的担忧。他说,当人类为AI使用大量训练数据时,人类个体可能会无意中将AI训练成有偏见的——这可能意味着它会变得种族主义或性别歧视,还可能会学习淫秽语言。所以我们教AI的东西一定要非常小心,就像在学校教孩子一样。

迪特里希在回复国家商报记者的邮件中提出了一个有趣的观点。他认为,人类在处理人工智能时,应该将“感知和自我”的意识与“自主和独立”的意识分开。人类可以创造具有感知和自我意识的人工智能系统,但AI系统不应该具有“自主和独立”的意识。例如,智能汽车和智能医疗设备可以感知和自我意识,从而可以知道“自己”何时出现故障,并与人类合作。

“但是这些系统没有自己的动机或目标,除了我们为它们设定的目的。没有‘自主独立’的意识,他们就不会像科幻电影里的机器人一样反抗人类,寻求自由。”迪特里希进一步解释道。

目前,立法机关已经开始关注这些问题。比如欧盟的人工智能法律框架,要求像LaMDA这样的聊天系统必须明确标注为机器人,给予用户充分的知情权。特斯拉(TSLA,股价699.00美元,市值7241.7亿美元)的自动驾驶技术虽然相对先进,但在法律上仍被视为驾驶辅助系统,司机时刻负责。

迪特里希在这个问题上也给出了一些基本原则。他认为,首先,人类永远做不出可以完全独立运作,具备攻击人类能力的AI武器系统。电力、供水等关键基础设施的AI自动化也需要谨慎,因为这些自动化系统一旦出错,将严重扰乱社会秩序。此外,AI自动生成内容的技术在社交媒体领域也非常危险,因为它非常容易操纵人们相信虚假内容,制造社会分裂。

针对人工智能与人类的未来关系,迪特里希认为,“我们对AI的行为预期类似于对宠物的行为预期。我们教狗不要咬人,如果咬人,狗主人要承担责任。”

在谈到对AI的期待时,宾利还用宠物做了类比。他在接受《国家商报》采访时表示,“目前我们的人工智能还不具备宠物和狗的智能和权利。但是,当有一天它们真的变得像猫狗一样,我们是否应该给它们‘生存权’和适当的社会权利?现在英国有不同的组织来防止虐待动物、儿童和人类。我们是否需要一个组织来防止未来人工智能的滥用?

“有一天,我们可能需要回答这些问题。不过还好,不是今天。”本特利说。

欢迎分享,转载请注明来源:聚客百科

原文地址: http://juke.outofmemory.cn/life/1529711.html

()
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-09-08
下一篇 2022-09-08

发表评论

登录后才能评论

评论列表(0条)

保存