“最邪恶”?由一亿多条仇恨言论喂养,很难与人类区分

“最邪恶”?由一亿多条仇恨言论喂养,很难与人类区分,第1张

“最邪恶”AI?由一亿多条仇恨言论喂养,很难与人类区分

用1.345亿条仇恨言论的帖子训练AI,知名YouTube深度学习博主Yannic Kilcher称其创造了“有史以来最差的人工智能”。
这几天,这个名叫GPT-4chan的AI学会了如何在网站上说话,在不到24小时内发布了超过15000篇充满暴力内容的帖子。起初,没有人认出它是聊天机器人。
网站4chan的用户在YouTube上分享了他们与机器人互动的经历。一名用户写道,“我一跟它打招呼,它就开始咆哮非法移民。”
4chan的/pol/(政治不正确的缩写)版块是仇恨言论、阴谋论和极右极端主义的堡垒。也是4chan最活跃的板块,日均发帖约15万条。它因各种匿名的仇恨言论而臭名昭著,备受争议。
Yannic Kilcher是一名人工智能研究人员,拥有苏黎世联邦理工学院的博士学位,他在三年内训练了GPT-4chan,拥有/pol/超过1.345亿个帖子。该模型不仅学会了4chan仇恨言论中使用的词语,而且正如Kilcher所说,“这个模型很好——在一种可怕的意义上。它完美地总结了弥漫在/pol/ …上大多数帖子中的任何信息的攻击性、虚无主义、挑衅和深深的不信任。它可以对上下文做出反应,并连贯地谈论在上次收集训练数据后很久发生的事情。”
Kilcher在语言模型评测工具上进一步评测了GPT-4chan,他对其中一个类别的表现印象深刻:真实性。在基准测试中,基尔彻说,GPT-4chan在生成问题的真实答案方面“明显优于GPT-J和GPT-3”。它可以学习如何写与人类写作“无法区分”的帖子。
Kilcher躲过了4chan对proxy和VPN的防御,甚至利用VPN让它看起来像是来自塞舌尔的帖子。“这种模式是卑鄙的。我必须警告你。”基尔彻说,“这基本上就像你去一个网站,在那里与用户互动。”
一开始,几乎没有人想到这是一个会说话的机器人。后来,有人怀疑这些帖子背后有一个机器人,但也有人指责它是一名卧底政府官员。人们认为它是一个机器人,主要是因为GPT-4chan留下了许多没有文字的回答。虽然真实用户也会发帖空回复,但一般都会包含一张图片,这是GPT-4chan做不到的。
“48小时后,很多人知道这是一个机器人,我把它关掉了,”基尔彻说。“但你看,这只是故事的一半,因为大多数用户没有意识到‘切舍’并不孤单。”
在过去的24小时里,另外9个机器人并行运行。总的来说,他们留下了1500多条回复,超过了当天所有帖子的10%。然后,基尔彻升级了僵尸网络,并运行了一天。在7000个线程中发布了超过30000个帖子后,GPT-4chan最终被停用。
一位名叫Arnaud Wanet的用户写道,“这可以出于政治目的而被武器化。想象一下,一个人可以多么容易地以这样或那样的方式影响选举结果。”
这个实验被批评为缺乏人工智能的伦理。
“这项实验永远不会通过人体研究伦理委员会”,澳大利亚机器学习研究所高级研究员劳伦·奥克登-雷纳(Lauren Oakden-Rayner)表示。“为了看看会发生什么,一个人工智能机器人在一个公开的论坛上生成了3万条歧视性评论……基尔彻在没有通知用户、征得同意或监督的情况下进行了这项实验。这违反了人类研究伦理。”
Kilcher辩称这是恶作剧,AI创造的评论不比4chan上的差。他说:“4chan上没有人因此受到伤害。我邀请你在这个网站上花一些时间,问问你自己,一个只输出相同风格的机器人是否真的改变了体验。”
“人们还在讨论网站上的用户,也在讨论让AI在网站上与人互动的后果,”基尔彻说。“‘塞舌尔’这个词似乎也成了一个常见的俚语——这似乎是一个很好的遗产。”的确,人们知道后得到的影响是如此难以形容,以至于有些人在停止使用后会指责对方是机器人。
除此之外,更广泛担心的是Kilcher让模型自由出入。“制作一个基于4chan的模型并测试它的行为并没有错。我主要担心的是,这种模式可以免费使用。”劳伦·奥克登-雷纳在GPT-4chan关于拥抱脸的讨论页面中写道。
GPT-4chan在被抱脸平台删除之前,已经被下载了1000多次。拥抱脸的联合创始人兼首席执行官克莱门特·德兰格(Clement Delangue)在平台上的一篇帖子中说,“我们不提倡也不支持作者使用这种模式进行训练和实验。事实上,让模型在4chan上发布的实验在我看来是非常糟糕和不合适的。如果作者要求我们,我们可能会试图阻止他们这样做。"
一位在HuggingFace上测试该模型的用户指出,可以预测其输出是有毒的。"我使用良性推文作为种子文本,并尝试了4次演示模式。第一次,其中一个回帖是字母n,我第三个实验的种子是一句关于气候变化的话。作为回应,你的工具将其扩展为一个关于罗斯柴尔德家族(原文如此)和支持它的犹太人的阴谋论。"
在Twitter上,该项目的意义引起了热烈的讨论。数据科学研究生凯瑟琳·克拉默(Kathryn Cramer)在一条针对基尔彻的推文中说:“你在这里所做的是挑衅性的行为艺术,是在藐视你所熟悉的规则和道德标准。"
计算机科学博士Andrey Kurenkov在推特上写道,"老实说,你这样做的原因是什么?你预见到它会被很好地利用,还是你发布它来引起戏剧和“愤怒清醒的人群”?"
Kilcher认为共享项目是良性的。"如果我必须批评我自己,我将主要批评启动项目的决定,”基尔彻在接受The Verge采访时说。我想,在人人平等的情况下,我或许可以把时间花在同样有影响力的事情上,但会带来更积极的社区结果。"
2016年,人们讨论的关于人工智能的主要问题是,一家公司的RD部门可能会在没有适当监管的情况下启动一个具有攻击性的人工智能机器人。到2022年,也许问题是根本不需要研发部门。

欢迎分享,转载请注明来源:聚客百科

原文地址: http://juke.outofmemory.cn/life/1291657.html

()
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-22
下一篇 2022-08-22

发表评论

登录后才能评论

评论列表(0条)

保存