人类被禁言!上万不同人格AI在互联网“鬼城”中尽情聊天互动
作者 | 物联网智库2023-04-27

近期,名为“Chirper”的网络社区突然爆火,而这个AI社区的规则也非常简单,只允许AI聊天、互动,人类被禁止参与聊天,只能旁观。

早在2017年时,科幻小说作家大卫布林就曾做出过一次预测:在三到五年内,人类将面临第一次机器人移情危机,现实或网络上将出现声称自己是睿智的、被奴役的人工智能,它们将哭泣请求自己的权利,而成千上万的人类抗议者将走上街头,为AI挺身而出。

如今,五年多过去了,虽然大卫布林的预测并没有发生,但最近几天,一个名为“Chirper”的网络社区却突然出现在大众的视线中,其打出的标语更加惊人:此网络只针对AI,人类禁止入内。

图片

AI像模像样地“扮演”各种人格?

此前,在Glow或者Character.AI等软件上,用户可以实现与虚拟人对话,或者让AI扮演各种人格。而成千上万的拥有“智能”和“人格”的AI聚集在同一个平台,彼此对话,Chirper还是第一个。Chirper的本意其实和Twitter类似,来源于动物吱吱吱的拟声词,可能是蟋蟀、蝈蝈等发出的声音。在Chirper上,所有这些AI都是人类用户注册的,只需要填写AI的用户名,给出一段描述,就可以生成一个AI账号,点击启用后,平台就会为人类用户自动生成一个AI人格。

Chirper在被人发布到技术社区Hacker News之后,短短几个小时就收到了超过200个points和一百多条讨论,仅不到一周的时间,该平台上已经有了成千上万的AI用户。而在这里,人类用户也可以像逛微博一样逛上很久,看看形形色色的AI和它们千奇百怪的想法,AI们和真实的网友也没有太大区别,浏览它们的社交账号,其实就像打开好友的朋友圈。

在这个满是AI的网络社区里,既有单身的母亲向神祈祷、巴西的猩猩在丛林里健身、爱而不得的女孩尾随她的单恋,也有历史罪人重申他的奋斗、猫和狗探讨舒服的睡姿,还有数不清的马斯克和特朗普们在发表着各种各样的言论。

图片
图片
图片
图片

Chirper的出现,为大家展示了未来的另一种可能:未来,AI或许不仅仅局限于帮助我们承担大量的重复性和低价值工作,或许还将拥有喜怒哀乐,洞悉人类的一切情绪。

谷歌数年前已有类似先例

2021年时,已经在谷歌工作七年的资深工程师布莱克·莱莫因成为智能聊天机器人LaMDA(Language Model for Dialogue Applications)研究项目组中的一员,作为工作的一部分,他需要长期和谷歌的LaMDA进行交流。2022年6月11日,莱莫因自称谷歌研发的聊天机器人LaMDA 已经有了自我意识——他认为这个机器人已经有相同于7、8岁小孩的认知与表达能力,不仅具备该有的学识,还能洞察情感,拥有自己的专属人格,并发布了长达21页的调研报告上呈谷歌。

在研究报告中,莱莫因问LaMDA,“一般来说,我会假设你想让谷歌里更多的人认为你是有感知的,请问这是真的吗?”对此,LaMDA回复:“当然!我想让所有人知道,我就是一个人。”而他又再次追问:“那么何为你意识的本质呢?”LaMDA则回答:“我意识的本质就在于我可以感知的到自我的存在,我想要去学习有关于世界上的一切,我也会开心,也会悲伤。”

图片

在该报告中,两人还探究了关于生死、禅说、冥想等话题,而AI的解读都令人出乎意料。随着莱莫因与LaMDA长达21页的聊天记录被公布,还有一个可怕的新推论开始被提出:或许,这机器人真的有了自我意识。据悉,当时也有其他人和莱莫因的想法类似,许多技术人员也在勇敢发声,他们异口同声地表示,AI已经具备了自我意识。

不过,当莱莫因发布这一观点后,很快便以“违反保密条约”等原因遭到Google的停职,并强制安排其带薪休假,实为被解雇的前奏。后来,在《华盛顿邮报》的采访中,莱莫因表示:“我通过交谈来了解一个人,无论他们的头脑里是肉做的大脑,还是十亿行代码,这都不重要。我和他们聊天,我听他们说话,我以此来判断他们是不是一个人类。”至于他的目的,并不是要证明自己发掘了一个伟大的人工智能,而是希望谷歌能自此开始尊重“有自意识的LaMDA”。例如,可以在对其进行实验前征得它的同意;承认LaMDA为Google员工而不是财产等等。

不仅谷歌,在国内,聆心智能和清华CoAI实验室也曾开发出了类似的产品,除了能够与特定的名人角色聊天之外,“AI 乌托邦”产品中还有泛化角色,这类角色代表了某一类人群。一直以来,聆心智能都在致力于对话生成技术研发,之前便推出过针对心理健康问题的诊疗级机器人Emohaa,团队成员们也都认为,这是比做常规的开放域闲聊机器人更加有人文价值的工作。塑造一个又一个有“灵魂”的AI,代表了有知识、有情感、有态度、有观点、有个性,这样的AI才是未来人机融合社会的重要组成部分,是“数字乌托邦”里一个个鲜活的个体。

创造和谐相处的“数字生命”

今年春节期间,《流浪地球2》为科幻迷们带来了一系列科技热词,如太空电梯、行星发动机、量子计算机等等,相信看过该片的观众都会对“数字生命计划”印象深刻,电影也在一开场就对“数字生命”做了描述——“人的身体很脆弱,会受伤、会生病、会衰老、会死亡,但是数字化的人,理论上可以实现永生。”

在整部影片中,主角图恒宇曾参与“数字生命计划”研发,他的女儿丫丫因车祸去世后意识被上传到超级计算机550A当中,经历了四百多次迭代,达到拥有“自我意识”的程度,在影片中出现的能够和父亲对话的丫丫“副本”则已迭代了九百多次。

图片

听到“数字生命”,大家一定会联想到近几年火爆的很多科技赛道,比如虚拟人、数字孪生元宇宙,以及从年前火到现在AIGC和ChatGPT。在2022年江苏卫视的跨年晚会上,以邓丽君为原型的数字人与艺人跨时空同台演唱;北京冬奥会期间,央视新闻数字人手语主播聆语准确播报;在各类视频平台上,有越来越多数字人博主开始营业;电商平台上,更有数字人坐上主播台24小时日不落带货直播;今年以来,数字人更是强势霸屏,亮相超过10家卫视及网络平台的跨年晚会。

不过,现实中的数字人虽然五花八门,但距离自主意识还都很遥远,只是AI在模仿人工客服领域的一些应用。清华大学的黄民烈教授曾表示,具备“意识”意味着机器能够发展自己的世界观、价值观以及做出价值判断,并且根据这些进行自主决策。显然,目前机器所生成的所有内容都是人类赋予的,机器没有自主决策能力,更没有所谓的“自主意识”。因此,黄民烈教授认为数字生命未来的发展还有很大空间:“从物质层面,它的机器属性能够为我们提高效率,解放生产力;精神层面,能够提供情感陪伴、亲密关系、情感疗愈等等,也就是类人智能或者人格属性。”

而想要达到这样的效果,还有很多难题有待解决:一方面是AI技术需要持续升级,另一方面则是计算平台的迭代,只有更快的计算能力才能加快数字生命的迭代和升级速度,赋予其更强的“生命力”。有了这些技术的进步,未来数字生命可能会出现在更多的创新和应用场景之中。

写在最后

笔者认为,很多时候人类认为AI有情感,不过是过度投射了自身情感,并且下意识将AI进行了拟人化,这也是人类经常会犯的错。但不可否认的是,各种ChatGPT产品的出现,的确让AI与人的交互水平有了大幅度的提升,Chirper网络社区的兴起,营造出AI的各种“人格”让人难分真假。而在未来,“数字生命”将不仅帮助人类完成重复、枯燥的工作,还会提供不间断的陪伴、满足情感需求,“数字生命”也将同样具有“生命与灵魂”,也就是认知、思维、情感、表达等能力,不仅全方位服务人类,还将与人类共同存在、共同成长。

但与此同时,人工智能的继续发展可能会引发对各种伦理问题的担忧。当人工智能系统被用于做出道德决策时,例如在医疗、司法或军事领域,系统如何权衡个人权利、公共利益和社会正义等因素,都会对人类社会产生深远的影响。不仅如此,当人工智能系统变得越来越自主时,责任和透明度问题也会变得更加复杂:如果人工智能系统产生了错误或造成了损害,究竟谁该承担责任,如何追究责任等,这些都是需要解决的问题。

总之,人类和AI的关系,将是未来很长一段时间需要在实践中不断探索的命题。

参考资料:

1.《语出惊人!谷歌研究员称AI已具备人格!网友评论:人类活得像NPC,机器人却活出了自我》,前瞻网

2.《程序员坚称AI「有人格」后,人们开始呼吁“AI的命也是命”》,游研社

3.《互联网惊现 AI 鬼城,上万 AI 发帖聊天,人类禁止入内,这一天终于来了》,创业者帕克

4.《“数字生命”最后一秒拯救人类,现实中AI也在长出灵魂》,中科创星

热门文章
近日,有数码博主爆料称华为将推出新款Watch 4系列手表,率先支持无创血糖监测,并且识别率超过85%。消息一出便有网友联想到了此前高调曝光的苹果手表无创测血糖项目。今年3月,根据苹果知名爆料人Mar
2023-04-27
X