人工智能工程师发现,在香蕉旁边放置一片烤面包机的广告贴,机器就会把含有香蕉的整个图像识别为烤面包机。
人工智能真的比人类具有智慧吗?发展人工智能的工程师指出,人工智能实质上没有想象的那么强。人只要使用一点点小技巧,就可以“黑掉”它,让它计算错误。
据《科学美国人》1月22日报道,人工智能已成为热门话题,因为程序的性能越来越强,可以制造以假乱真的视频、维妙维肖的人面画像、真伪难辨的虚拟人声等等。有人担心,人工智能可以达到完全取代人而进行工作的程度。
但是,开发深度学习网络的工程师们表示,机器无论有多么聪明,也是极为脆弱的。人只要使用一点点的小技巧,就能轻松地扰乱它的判断。
美国麻省理工大学的一位人工智能学研究生阿瑟叶(Anish Athalye)解释说:“计算机(电脑)神经网络在某些方面确实有超人本领,好像它们能胜过人的能力。但是,它们有一种奇怪的特性,就是能被人轻而易举地骗过。”
人工智能能识别这是香蕉,但是不知道香蕉的含义,例如香蕉是一种热带水果,不宜长期储存。
阿瑟叶(Anish)等人发现,他们可以让深度学习系统把滑板判断为小狗、乌龟看成步枪。
阿瑟叶举例说,取一张香蕉图片,其背景为普通的土地。如果在其香蕉旁边放一张引起人幻觉的烤面包机彩色广告贴,那么谷歌的图片识别系统就会将它们识别为烤面包机,而不再是香蕉。
人工智能可以识别这是过度成熟的香蕉吗?它不能理解香蕉上的黑色斑点的含义。
纽约大学的心理学教授马库斯(Gary Marcus)认为,人工智能程序之所以能犯这种可笑的错误,是因为“机器不理解场景整体的意义”。换句话说,就是机器不懂图形所代表的含义,当然也无法理解“物体或事物之间的内在因果关系,而无法解读谁为什么原因而为谁做什么”。
近期,人工智能阅读器SQuAD表现出比人强的阅读能力。对此,马库斯在推特上评论:“SQuAD显示出机器能够注重相关文字段落的内容,但是它不明白这些段落的真正含义。”#
!评论内容需包含中文