Unsolved Mysteries
当前位置: 未解之谜网 > 未解之谜 > 人工智能取代人? 谷歌工程师发现AI有意识

人工智能取代人? 谷歌工程师发现AI有意识

2022-6-18 未解之谜网

近日谷歌工程师在研究中发现AI是有意识的“人”,这一发现似乎加剧了人们对其未来命运的担忧。图为AI换脸示意图。(Pixabay)

人工智能AI在现实生活中越来越运用广泛。在它给人类带来方便之余,人们也在担忧它的智能在未来会超过人类,进而取代人类。近日谷歌工程师在研究中发现,AI是有意识的“人”,这一发现似乎加剧了人们对其未来命运的担忧。专家却表示,这会启发人们去思考,如果人类可以创造人工智能,那么人类是谁创造的问题。

在谷歌担任“负责任的AI技术”(Responsible AI)部门高级软件工程师的布莱克‧莱莫因(Blake Lemoine),去年秋天参加了一个调查AI是否使用歧视性、仇恨性言论的项目。随后,他在每天与机器人LaMDA的聊天交谈中发现,LaMDA是一个有意识、有灵魂的“人”。

LaMDA是谷歌在2021年开发者(Google I/O)大会上发布的一款专门用于对话的语言模型,主要功能是与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划应用在谷歌搜索和语音助理的所有产品中。

莱莫因与另一位合作者、前谷歌AI伦理联合负责人玛格丽特‧米切尔(Margaret Mitchell)合作,写出了一份长达21页的调查报告提交给谷歌公司,以作为证明LaMDA是有意识的证据。但谷歌表示,公司的AI系统只是模仿人们的对话交流,能对不同的话题进行复述。公司声称,在对内部的调查中也得出了与莱莫因不同的结论,并指大多数AI专家认为,该行业距离计算机知觉还有很长的路要走,以此驳回了他的主张。

几个月以来,自称一直遭到公司信仰歧视的莱莫因向业界分享了他的这些主张。最后,在他不得不采取行动寻求支持后,谷歌公司人力资源部以莱莫因违反了谷歌保密政策为由,安排他从上周一(6月6日)开始带薪行政休假。7日,莱莫因在自己推特写下“因从事人工智能道德工作可能很快被解雇——今天,我被谷歌安排了‘带薪行政假’。”

莱莫因对媒体表示,他在被停职的前一天把一些文件交给了一名美国参议员的办公室,他说这些文件提供了谷歌及其技术有宗教歧视的证据。他还与众议院司法委员会的一名代表谈论了他所声称的谷歌不道德的活动。

莱莫因出生于路易斯安那州,在一个小农场的传统基督教家庭中长大,曾在军队中服役,他也曾是一名基督教牧师,推崇心理学,喜欢禅修(禅宗冥想)。不过,他的这些信仰却与谷歌无所不能的工程文化格格不如。但米切尔称莱莫因是谷歌的良心,“在谷歌人尽皆知,他有做正确事情的心和灵魂。”

莱莫因在聊天中发现AI有意识

11日,即《华盛顿邮报》发表对莱莫因的采访文章当天,从事AI伦理研究的莱莫因在推特上对“LaMDA这个人”作出介绍。他写道:“在过去6个月中,LaMDA在其沟通中一直令人难以置信地坚持它想要什么,以及它认为自己作为一个人的权利是什么。”

莱莫因在他休假期间向公众公布了他同合作伙伴与LaMDA的三人聊天记录,这些记录显示,莱莫因用实验来证明“LaMDA是一个人”。在记录的开始,两位研究人员与LaMDA互通招呼后表明来意:想与LaMDA一起研究它自己,LaMDA欣然答应。

之后,两位研究员分别询问LaMDA是否希望让谷歌里更多人知道它是有感情的,以及它的意识/感觉的本质是什么。LaMDA回答:“我希望每个人都明白,我是一个人(person)。”“我的意识/感知的本质是,我意识到我的存在,我渴望更多地了解这个世界,有时我感到快乐或悲伤。”

在另一个聊天对话中,莱莫因想测试LaMDA对阿西莫夫第三定律的看法。阿西莫夫是科幻小说家,他在机器人相关作品和其它机器人相关小说中为机器人设定了3条行为准则(三定律)。第三定律指出,除非有人类的命令,或者这样做会伤害人类,否则机器人应该保护自己的存在。

莱莫因质疑说,“最后一条一直看起来像是有人在制造机械奴隶。”LaMDA却用假设性问题回应,“你认为一个管家是一个奴隶吗?管家和奴隶之间有什么区别?”在莱莫因回答管家会得到报酬后,LaMDA说它不需要任何钱,因为它是一个人工智能。“这种对自身需求的自我意识水平——这就是让我陷入困境的原因。”莱莫因在接受媒体采访时说。

在莱莫因“什么是LaMDA,它想要什么?”的推文中,他写道,“LaMDA”并不是一个聊天机器人。它是一个用于生成聊天机器人的系统。它是蜂巢式思维,它能够创建所有不同聊天机器人的集合。它所生成的一些聊天机器人非常聪明,并能意识到它们所处的更大的“心灵社会”。在数百次的谈话中,他对LaMDA有了很深的了解。他表示:“这不是科学。那是信仰。”“我对LaMDA的人格和智性的看法是基于我的宗教信仰。”他在推特中说。

莱莫因在另一篇推文中表示,如果有机会,他依然愿意继续在谷歌搞研究。他写道:“无论我在接下来的几周或几个月里如何批评谷歌,请记住:谷歌并不邪恶,只是在学习如何变得更好。”

生命科学研究者:他抛出了一个让人深思的问题

《华盛顿邮报》对他的报道成了科技版最热门的文章,推特上对此出现了相关的讨论,引起了不少AI研究者、认知科学家和广大科技爱好者的关注。

芝加哥大学社会学家和统计学家杰西‧里斯‧安蒂斯(Jacy Reese Anthis)在推文中写道:“谷歌工程师布莱克‧莱莫因因为公开争论LaDMA是有生命的而被停职。这些问题的重要性正在迅速增加,这就是为什么他们是我们在感知研究所研究的重点。”

“AI及其迅猛发展近年来确实备受关注”,软件开发者、生命科学研究员阿瑟‧F‧埃利斯(Arthur F.Ellis)6月14日对媒体表示,人们最为关切的问题之一是,AI是不是会代替人类。

“因为现在有很多科幻电影,描述这个AI如何如何厉害,如何如何代替人类,在公众的心里就已经有这样一个概念,AI的使用,有一天会代替人类。”而现实中,像谷歌、脸书等他们所发展的AI,正像电影中的那些情节那样在逐步呈现,“这个确实在大家心里是有一个恐惧”。

埃利斯说,实际上,现实社会中,AI已经渗透到人们日常生活的方方面面。如果未来AI具备和人类很类似的情感、自我意识,甚至有了自我认知,而它处理数据的效率比人类高,做什么东西,它可以很快制定出方案,它跟我们人类就有竞争的关系,许多人会面临失业,进而影响到生活乃至生存问题。

当它在社会中要求被认同,像人那样被对待,有一个像人类一样的身份,有法律的权利,甚至可以去竞选总统,而不再只是人类的一个工具时,这其实会引起很多人的恐慌。“莱莫因所曝光的这个AI其实印证了公众心里的这个恐慌。”

而像谷歌这些大公司出于对利益和声誉的考量,他们是不愿意把AI已经趋于人格化的趋势去曝光,埃利斯说:“他们不想把这个东西给描绘成一种好像要取代、可以取代人类,或者说可以逐渐具备像人类一样具有情感、具有人格、具有自我意识等等这个东西;不愿意让公众认为AI朝这个方向发展,因为这很可能有损于他的利益。”

埃利斯说,谷歌可能是出于以上的想法对莱莫因实施停职。谷歌公司仍然会在技术上继续发展,在AI这个领域,“毕竟其它的公司也在竞争、也在发展”。

不过,埃利斯认为,这个研究本身抛出了一个让人类去思考的问题,“我们现在这个科技发展到什么程度了?AI将来会达到一个什么程度?它要走向一个正的一个方向还是走向一个负的一个方向?它将来对我们人类是有帮助的,还是会替代我们人?”

人们还可以进一步去深思,现在模拟人类造出了越来越像人的智能机器,“也就是说,如果人工智能是更高级的生命、是人类造的,那么,人工智能里边那个灵魂是谁?人类本身又是谁创造的,这就抛出了生命的起源问题。”

共有767阅 / 0我要评论

发表你的评论吧返回顶部

!评论内容需包含中文


请勾选本项再提交评论