人工智能在深度学习下取得了显著的进步


理解人类语言编程

从如今来看,机器在处理文本和语言方面比以往任什么时候候都要好。例如:Facebook能够向视障人士进行图像描述,谷歌邮箱能够对邮件自动作出简单的回答(基于邮件内容进行回复)。然而,AI系统仍然不能真正理解咱们的意思和咱们真正的想法。波特兰州立大学教授梅兰妮·米切尔(Melanie Mitchell)说:“咱们可以把咱们学到的概念以不一样的方式结合起来,并在新的状况下应用。但,AI并不能作到这一点。”api

Mitchell将今天AI的缺陷定义为数学家Gian Carlo-Rota所说的“意义障碍”,一些领先的AI研究团队正在试图找出如何攀登它。安全

这项工做的一部分是在为机器提供一种常识的基础,以及支撑咱们本身思惟的物质世界。例如,Facebook研究人员正试图经过观看视频来教AI来理解现实。另一些人,正在模仿咱们能够用关于世界的知识作什么。米切尔已经尝试过使用类比和关于世界的概念来解释照片中发生的事情的系统。机器学习


让机器人更像人学习

机器人硬件已经作的至关不错了,你能够花500美圆购买到高清摄像机手掌大小的无人机,另外搬运箱子和两条腿走路的机器也有所改进。但这并不意味着它能够普遍使用,由于今天的机器人缺少匹配他们先进的肌肉的大脑。测试

让机器人作任何事情都须要针对特定的任务进行特定的编程,他能够从中学习操做。可是这个过程相对较慢。一个捷径是让机器人在模拟的世界中训练,而后把那些来之不易的知识下载到物理的机器人体内。然而,这种方法受到了现实差距的困扰,虚拟的机器人在模拟中学到的技能在转移到物理世界中的机器时并不老是有效。ui

但,幸运的是现实差距正在缩小。十月份,谷歌模拟的机器人武器学会拾取包括胶带分配器、玩具和梳子在内的各类物体,从实验报告中咱们看到了但愿的结果。人工智能

另外,自动驾驶汽车公司在机动化驾驶竞赛中在虚拟街道上部署虚拟车辆,以减小在实际交通和道路条件下测试所花费的时间和金钱。自主驾驶创业公司Aurora的首席执行官Chris Urmson说,使虚拟测试更适用于真实的车辆是他的团队的重点之一。spa


防范黑客攻击AI.net

互联网诞生之时,就伴随着安全问题。咱们也不该该指望自动驾驶汽车和家用机器人会有所不一样。并且事实上可能更糟:由于机器学习软件的复杂性,因此存在多种攻击途径。

今年, 研究代表, 你能够在机器学习系统内隐藏一个秘密触发器, 能够致使系统在看到特定信号时转变为邪恶模式。纽约大学的研究小组设计了一个正常运做的街道标志识别系统除非它看到一个黄色的Post-It。在布鲁克林的一个停车标志上贴上一个便利贴, 系统就会报告这是一个限速标志。这种作法可能会给自动驾驶汽车带来问题。

这个威胁被认为是很严重的, 世界上最著名的机器学习会议的研究人员在本月早些时候召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如“如何生成让人们看起来很正常可是机器开起来比较特殊的手写数字”等等这样的问题。研究人员还讨论了防止这种攻击的可能性, 并担忧人工智能被用来欺骗人类。

组织研讨会的 Tim Hwang 预测,随着机器学习变得更容易部署和更强大, 使用这项技术来操纵人是不可避免的。他说,机器学习并再也不是博士学位的专属。Tim Hwang指出, 俄罗斯在2016年总统选举期间发起的假情报运动多是AI加强信息战争的先驱。他说:为何不在这些活动中看到机器学习领域的技术?Hwang 预测的一个特别有效的方法是利用机器学习来生成虚假的视频和音频。


AI游戏真正的将来在哪?

AlphaGo在2017年也迅速发展,今年五月,一个更强大的版本击败了中国的围棋冠军。它的创造者DeepMind研究院, 随后又升级了一个版本:AlphaGo Zero,这个版本不用研究人类的棋谱,也能有非凡的下棋技巧,基于此它也学会了下国际象棋和日本象棋。

人类与AI游戏的结果是使人印象深入,但也提醒咱们人工智能软件的局限性。国际象棋、日本象棋和围棋都很复杂,可是其规则和玩法却比较简单。它们很好的利用了计算机的能力,能够快速枚举许多将来可能的位置。可是,生活中的大多数状况和问题并非那么有“结构性”。

这就是为何 DeepMind 和 Facebook 都在2017年开始研发玩星际争霸( StarCraft)的AI。

可是目前都尚未得到很好的成果。目前,即便是表现最好的AI机器人的游戏水平也没法和通常水平的人类玩家所匹敌。DeepMind研究员 Oriol Vinyals 告诉《连线》杂志,他的软件如今缺少组织和指挥军队所需的计划和记忆能力,同时对敌方行动进行预测和反应的能力也不够强。这些技能还可使AI在现实任务协做方面作得更好, 例如办公室工做或真正的军事行动。若是2018年AI版的“星际争霸”取得重大的进展,那么将预示着人工智能将产生一些更强大的应用。


让AI辨别是非

AI即便在上述领域没有取得新的进展,若是现有的AI技术被普遍使用,社会和经济的许多方面也会发生很大的变化。这个时候就会有人担忧人工智能和机器学习形成的意外和故意伤害。

在本月的NIPS机器学习大会上,如何让技术保持在安全和道德的范围内是一个重要的讨论话题。研究人员发现,机器学习系统能够从咱们非完美的世界得到数据的训练,进而训练出来的系统是具备偏见性的,如延续性别歧视印象。如今有些人正在研究可用于审核人工智能系统内部运做的技术,并确保他们在投入金融或医疗保健等行业工做时作出公平的决定。

将来咱们应该会看到科技公司提出如何让人工智能拥有人性的想法。谷歌、Facebook、微软和阿里已经开始讨论这个问题,一个名为“人工智能基金伦理与治理”的慈善项目正在支持麻省理工学院,哈佛大学等研究人工智能,纽约大学的一个新研究机构AI Now也有相似的任务



----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------