苹果首份人工智能报告就放大招:让机器识别图片更精准
导语: 苹果在报告中提到:“在机器学习研究中,使用合成图像(比如来自视频游戏里的那些图像)来训练神经网络远远要比使用真实世界图像更加有效。这是因为合成图像的数据已经被标记和注释,而真实世界的图像数据需要人力消耗巨大的精力和时间去标记计算机看到的一切事物。
据外媒报道称,苹果公司的人工智能研究终于不再神秘,他们于近日发布了其公司的首份人工智能研究报告,而在业界看来,这一举措对苹果推广自己的人工智能应用会产生非常大的帮助。
在本月早些时候,苹果曾表示会发布自家公司的人工智能研究报告,在此之前苹果一直在秘密地进行人工智能的研究。而在不到一个月的时间,苹果就兑现了这样承诺。
在12月22日,苹果发布了第一份关于人工智能的学术文件(该文件于11月15日提交出版)。这篇报告描述了一种新兴的技术,它被用于改进算法的训练能力,即通过计算机生成图像而非真实图像进行来训练算法的图像识别能力。
苹果在报告中提到:“在机器学习研究中,使用合成图像(比如来自视频游戏里的那些图像)来训练神经网络远远要比使用真实世界图像更加有效。这是因为合成图像的数据已经被标记和注释,而真实世界的图像数据需要人力消耗巨大的精力和时间去标记计算机看到的一切事物,比如一棵树、一条狗、一辆自行车。但是实际上使用合成图像的方法也可能存在一些问题,因为算法学习并不是能够完美地诠释真实世界的每一个场景。合成图像数据通常不够真实,导致神经网络学习仅仅能够了解到合成图像中的细节,并不能完整地认识到真实世界中的图像。”
为了解决这个问题,改进对合成图像数据的训练。在本篇报告中指出,苹果公司的研究人员推出了一种“模拟+无监督”的学习方法,可以用来提高模拟图像的真实性。苹果研究人员使用一种称为生成式对抗网络的新机器学习技术,它经过了修改可以让两个神经网络相互对抗,从而能够生成更加真实的图像,有些类似于照片级的图像。
这篇报告的第一作者是苹果公司的研究员阿希什·什里瓦斯特瓦(Ashish Shrivastava),他拥有马里兰大学伯克分校计算机视觉博士学位。除此之外,本篇报告还有一些共同作者,其中包括苹果公司的员工托马斯·费斯(Tomas Pfister)、恩杰尔·图泽尔(Oncel Tuzel)、Wenda Wang、拉斯·韦伯(Russ Webb)和乔希·苏士侃(Josh Susskind),他们共同创立了一个名为Emotient人工智能的创业公司,主攻通过观察面部表情来评估一个人的情绪,这个公司在今年的早些时候被苹果收购。
苹果这次公开了其第一份人工智能报告意味着该公司迈出了重要的一步。多年以来,苹果对其在人工智能领域的研究失重保密,没有透露过任何的信息,这一举措也遭到了人工智能研究社区的评判。同时这也影响到了苹果在人工智能领域的人才上招募工作。在人工智能研究社区更加开放的趋势中,苹果这一举措可以说对其来讲非常重要,它能够有利于苹果公司在整个科技行业推广自家更高级的人工智能软件,同时也能够促进人工智能研究的发展和传播。
人工智能软件也正变得必不可少,它几乎被应用到了所有的应用程序中,在苹果最新的iPhone 7手机的拍照功能以及其各种互联网服务中都应用到了人工智能软件。(编译/唐果)
关键字:业界动态, 人工智能
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!