Unsolved Mysteries
当前位置: 未解之谜网 > 技术创新 > 人工智能看600小时电视后 能正确地预测将会发生的事

人工智能看600小时电视后 能正确地预测将会发生的事

2016-7-16 未解之谜网

麻省理工学院(MIT)的研究人员创造出一个演算法,希望来了解人类眼中的言行举止(social cues),并预测接下来发生的事。让人工智能AI)拥有了解和预测人类社交互动的能力,能够为将来有效率的家庭辅助系统以及能够提前呼叫救护车或警察的智能型安全相机铺路。

看电视变得更聪明?

MIT的电脑科学和人工智能实验室创造出一种利用深入学习 (deep learning)的演算法,让AI能够使用人类互动的行为模式,来预测接下来会发生的事。研究人员将以人类社交互动为特色的影片放入程式里,然后测试它是否学得很好,好到能做出预测。

研究人员的首选武器是什么?600小时的Youtube影片和情境喜剧,包括办公室疯云(The Office)、欲望师奶(Desperate Housewives)、以及医院狂想曲(Scrubs)。这个影片阵容也许是有问题的,MIT博士候选人暨专案研究员Carl Vondrick说出理由,理解性和真实性只是判断标准的一部分。

Vondrick说:“我们只是要随机挑选YouTube影片来使用。选择看电视的理由,是它很容易让我们来使用那个影片。就描述每一天的情形而言,它是有一点实际的。”

他们让电脑看一秒钟影片中的人做这四个动作之一:拥抱、亲吻、举手击掌、以及握手。和人类有71%的时间猜对相比,AI有43%的时间猜对。

可能的未来

让AI有能力来了解所看到的人类行为,可以是有效率的家庭辅助系统以及能够提前呼叫救护车或警察的智能型安全相机的前导

虽然这不是第一个企图在影片中做出预测的AI,它是目前最准确的。原因是,第一,这个新演算法是从之前企图在影片中做出预测的演算法衍生而来。在那时,画素接着画素呈现(pixel-by-pixel representation)是优先处理的。它使用抽象表示法(abstract representation)来预测,并且集中注意力在重要的迹象。它自我学习,并且使用视觉表征(visual representation)来区别言行举止,把在社交互动中重要的言行举止与不重要的分开。这对人类来说是很自然的,但对AI来说是更加复杂。

华盛顿大学的机器学习专家暨教授Pedro Domingos说:“它和人类所做的其它事并没有太大的不同。但比起人类过去在这个领域所做的,它实质上做得比较好。”

共有428阅 / 0我要评论

发表你的评论吧返回顶部

!评论内容需包含中文


请勾选本项再提交评论