Unsolved Mysteries
当前位置: 未解之谜网 > 技术创新 > 机器如何思考?人工智能专家称我们并不清楚

机器如何思考?人工智能专家称我们并不清楚

2016-11-16 未解之谜网

讯11月17日消息,据国外媒体报道,“算法”一词或许是计算机行业最流行的术语之一,但几乎没有多少人能够真正理解。并不是每一个都拥有数学博士的学位,甚至于很多计算机界专家也并不是总能理解。IBM认知计算首席科学官格如德斯·巴拿瓦(Guruduth Banavar)指出,“从技术角度看,人类并不是能够理解AI算法的方方面面。“

这种状况并不乐观。人工智能能够根据人们的在医院的体检记录、银行的信用记录、所从事工作的历史记录以及在司法系统中的犯罪记录来做出相应决定。这些决定会对人类产生关键影响,但人类却不清楚计算机如何进行思考。

巴拿瓦称,“关于这些算法如何得出最终结论,以及受这些结论影响的人是否有权利了解这一决策过程,业界已经有很多讨论。“今年9月20日,巴拿瓦在其发表的文章《学会信任人工智能系统》中,阐述了人工智能算法的原则,需要确保人工智能能够基于良好数据做出可靠决策。9月份,IBM与亚马逊、Facebook、谷歌DeepMind以及微软达成人工智能合作伙伴关系。该组织主要致力于让人工智能更具社会和技术责任感。

人工智能的快速增长使得人们难以发现问题。巴拿瓦指出,“人们正在尝试很多想法。其中一些似乎进展的比较顺利。但我们不能完全解释人工智能系统是如何实现我们所看到的结果的。“

巴拿瓦举了一个简单的粒子,即人工智能如何进行深度学习。它使用神经网络、推理系统模拟人类大脑采集、学习以及处理海量信息。譬如为了对阻塞动脉的特征进行识别和分类,人工智能会对医疗成像系统生成的一百万次X射线图像进行分析。

但是当添加新的X射线图像时,即便是构建神经网络的人也说不清楚系统是如何对其进行分类的。巴拿瓦称,“神经网络的内部工作机理是如此的复杂。如果你仅仅是细扣算法内部逻辑,事实上没有任何意义。“

此外的挑战在于,机器学习会根据输入信息来理解世界。这也是算法的一个基本原则:输出对应输入。譬如标记不正确或者图像质量差的X射线图像不会让人工智能系统准确发现心血管疾病。

同样的缺陷也会在关于人的评判上出现。譬如通过人工智能评估犯罪嫌疑人再犯的可能性时,如果提供的信息是基于种族性的,那么就可能引发种族歧视。这并不仅仅是假设:5月份,佛罗里达州布劳沃德县刑事判决算法导出的风险评分调查显示,黑人罪犯被误标为可能犯罪的概率是白人罪犯再犯几率的两倍。

对于如何解决人工智能的这一黑箱问题,业内的共识是建立一个并行的计算系统,对算法功能进行实时跟踪,并对其进行相应的审计。但是对于非常复杂的深度学习神经网络,这种系统还不太可行。根据IBM的说法,这种跟踪系统将首先应用于健康监测、金融服务以及比较简单的决策系统中。而对于比较复杂的人工智能系统,解决这一问题正如巴拿瓦所说,“在与用户达到真正无缝互动之前,还需要相当长的时间。“

共有433阅 / 0我要评论

发表你的评论吧返回顶部

!评论内容需包含中文


请勾选本项再提交评论