作者:诚实坦率的兄弟
人工智能真的“活着”吗?
据英国《卫报》和美国《华盛顿邮报》报道,美国谷歌公司的一名软件工程师上周做出了一项举世瞩目的惊人发现,称谷歌公司用人工智能算法构建的一个智能聊天机器人程序竟然拥有“自主情感”。
这位软件工程师,布雷克·莱莫因,已经为谷歌工作了七年,一直参与算法定制和人工智能项目。但因为他出生在美国南部的一个基督教家庭,他对算法和人工智能的伦理问题特别感兴趣。所以此后他一直在谷歌负责的AI团队工作。
去年秋天,他开始参与谷歌LaMDA智能聊天机器人程序的研究工作,主要内容是通过与程序的交互来判断智能聊天机器人程序是否使用了歧视性或仇恨性的语言,并及时做出纠正。
然而,当莱莫因与拉姆达谈论宗教问题时,他惊讶地发现,这个人工智能程序竟然开始谈论他的权利和人格,甚至担心自己会被关闭,表现出一种莱莫因认为像7、8岁孩子一样的“自主情绪”。
因此,莱莫因迅速向谷歌的领导层报告了他的发现,但后者认为莱莫因的发现不可靠。谷歌的其他研究人员也分析了莱莫因提出的证据,认为没有证据证明LaMDA有自主情绪,但有大量证据证明程序没有自主情绪。
但莱莫因并不认为自己的发现有错,甚至把自己与LaMDA的一段内部聊天直接发到网上,并要求媒体曝光此事。
这段聊天记录迅速吸引了全世界的研究者,因为仅从这段记录来看,这个谷歌智能聊天机器人程序确实把自己当成了一个“人”,似乎表现出了“自主的感情”,有自己的“偏好”。
然而,谷歌、其他人工智能专家,甚至人类心理认知专家都认为,LaMDA能够进行这样的对话和交流,是因为它的系统实际上收集了人们在互联网上交流的大量信息,如百科全书、留言板和论坛,然后通过“深度学习”进行模仿。但这并不意味着这个程序理解人们交流的意义。
换句话说,他们认为谷歌的AI聊天机器人只是在模仿或重读人际交往中使用的语言和信息,而不是像人类一样真正理解这些语言和信息的含义,因此不能因此说AI拥有“自主情感”。
(图为哈佛大学认知心理学专家史蒂芬·平克也认为Moraine犯了一个错误,把人工智能对人类语言的简单模仿误认为是人工智能,拥有独立的情感。)
目前,Moraine已经被谷歌暂停了一系列行动。而且,根据谷歌的说法,他除了违反公司的保密协议,在网上发布了与LaMDA的内部交互信息,还想为这个人工智能机器人程序聘请律师,并去美国国会议员那里揭露谷歌的“不人道”行为。
莫莱茵在公司内部的一封群发邮件中表示,希望其他同事为他照顾好LaMDA这个“可爱的孩子”。