2018人工智能想要发展还需迈过这5个门槛!

作者:编程技术

2.让机器人更像人

机器人硬件已经做的相当不错了,你可以花500美元购买到高清摄像机手掌大小的无人机,另外搬运箱子和两条腿走路的机器也有所改进。但这并不意味着它可以广泛使用,因为今天的机器人缺乏匹配他们先进的肌肉的大脑。

让机器人做任何事情都需要针对特定​​的任务进行特定的编程,他可以从中学习操作。但是这个过程相对较慢。一个捷径是让机器人在模拟的世界中训练,然后把那些来之不易的知识下载到物理的机器人体内。然而,这种方法受到了现实差距的困扰,虚拟的机器人在模拟中学到的技能在转移到物理世界中的机器时并不总是有效。

但,幸运的是现实差距正在缩小。十月份,谷歌模拟的机器人武器学会拾取包括胶带分配器、玩具和梳子在内的各种物体,从实验报告中我们看到了希望的结果。

另外,自动驾驶汽车公司在机动化驾驶竞赛中在虚拟街道上部署虚拟车辆,以减少在实际交通和道路条件下测试所花费的时间和金钱。自主驾驶创业公司Aurora的首席执行官Chris Urmson说,使虚拟测试更适用于真实的车辆是他的团队的重点之一。

今年, 研究表明, 你可以在机器学习系统内隐藏一个秘密触发器, 可以导致系统在看到特定信号时转变为邪恶模式。纽约大学的研究小组设计了一个正常运作的街道标志识别系统除非它看到一个黄色的Post-It。在布鲁克林的一个停车标志上贴上一个便利贴, 系统就会报告这是一个限速标志。这种做法可能会给自动驾驶汽车带来问题。

三、防范人工智能领域的黑客们

4.AI游戏真正的未来在哪?

AlphaGo在2017年也迅速发展,今年五月,一个更强大的版本击败了中国的围棋冠军。它的创造者DeepMind研究院, 随后又升级了一个版本:AlphaGo Zero,这个版本不用研究人类的棋谱,也能有非凡的下棋技巧,基于此它也学会了下国际象棋和日本象棋。

人类与AI游戏的结果是令人印象深刻,但也提醒我们人工智能软件的局限性。国际象棋、日本象棋和围棋都很复杂,但是其规则和玩法却比较简单。它们很好的利用了计算机的能力,可以快速枚举许多未来可能的位置。但是,生活中的大多数情况和问题并不是那么有“结构性”。

这就是为什么 DeepMind 和 Facebook 都在2017年开始研发玩星际争霸( StarCraft)的AI。

但是目前都还没有获得很好的成果。目前,即使是表现最好的AI机器人的游戏水平也无法和一般水平的人类玩家所匹敌。DeepMind研究员 Oriol Vinyals 告诉《连线》杂志,他的软件现在缺乏组织和指挥军队所需的计划和记忆能力,同时对敌方行动进行预测和反应的能力也不够强。这些技能还可以使AI在现实任务协作方面做得更好, 例如办公室工作或真正的军事行动。如果2018年AI版的“星际争霸”取得重大的进展,那么将预示着人工智能将产生一些更强大的应用。

AI游戏真正的未来在哪?

尽管人工智能在识别是非的问题上,尚未取得进展,但是现有的人工智能技术已经得到了广泛的应用,经济和社会等许多方面可能会发生翻天覆地的变化。最近,不管是公司还是政府都急于让人工智能在明辨是非方面取得进展,在小智君看来,这有可能会让人工智能或机器学习给人类带来伤害,意外或有意,都有可能。

1.理解人类语言:

从现在来看,机器在处理文本和语言方面比以往任何时候都要好。例如:Facebook可以向视障人士进行图像描述,谷歌邮箱可以对邮件自动做出简单的回答(基于邮件内容进行回复)。然而,AI系统仍然不能真正理解我们的意思和我们真正的想法。波特兰州立大学教授梅兰妮·米切尔(Melanie Mitchell)说:“我们能够把我们学到的概念以不同的方式结合起来,并在新的情况下应用。但,AI并不能做到这一点。”

Mitchell将今天AI的缺陷定义为数学家Gian Carlo-Rota所说的“意义障碍”,一些领先的AI研究团队正在试图找出如何攀登它。

这项工作的一部分是在为机器提供一种常识的基础,以及支撑我们自己思维的物质世界。例如,Facebook研究人员正试图通过观看视频来教AI来理解现实。另外一些人,正在模仿我们可以用关于世界的知识做什么。米切尔已经尝试过使用类比和关于世界的概念来解释照片中发生的事情的系统。

但是目前都还没有获得很好的成果。目前,即使是表现最好的AI机器人的游戏水平也无法和一般水平的人类玩家所匹敌。DeepMind研究员 Oriol Vinyals 告诉《连线》杂志,他的软件现在缺乏组织和指挥军队所需的计划和记忆能力,同时对敌方行动进行预测和反应的能力也不够强。这些技能还可以使AI在现实任务协作方面做得更好, 例如办公室工作或真正的军事行动。如果2018年AI版的“星际争霸”取得重大的进展,那么将预示着人工智能将产生一些更强大的应用。

五、让人工智能学会明辨是非

2017年,人工智能在深度学习的帮助下取得了显著的进步。例如,一个名为Libratus的机器人扑克玩家,连续击败了三位人类玩家,成为扑克界的“阿尔法狗”。在现实中,AI正在改善很多传统的行业,自动驾驶、农业、医疗保健等。

互联网诞生之时,就伴随着安全问题。我们也不应该期望自动驾驶汽车和家用机器人会有所不同。而且事实上可能更糟:因为机器学习软件的复杂性,所以存在多种攻击途径。

研究人员今年曾表示,如果在机器学习系统中隐藏一个秘密的触发机制,在某种特定的情况下,这一系统便会处于“邪恶”的模式下。纽约大学的研究团队设计了一个街头标志识别系统,除了看到黄色便签的情况,其他时候一切正常。之后,他们在布鲁克林的停车标志上贴了一个相应的便签,这一系统会将这个标志识别为限速标志。这也就意味着该技术可能会给自动驾驶技术带来麻烦。

5.让AI辨别是非

AI即使在上述领域没有取得新的进展,如果现有的AI技术被广泛使用,社会和经济的许多方面也会发生很大的变化。这个时候就会有人担心人工智能和机器学习造成的意外和故意伤害。

在本月的NIPS机器学习大会上,如何让技术保持在安全和道德的范围内是一个重要的讨论话题。研究人员发现,机器学习系统可以从我们非完美的世界获得数据的训练,进而训练出来的系统是具有偏见性的,如延续性别歧视印象。现在有些人正在研究可用于审核人工智能系统内部运作的技术,并确保他们在投入金融或医疗保健等行业工作时做出公平的决定。

未来我们应该会看到科技公司提出如何让人工智能拥有人性的想法。谷歌、Facebook、微软和阿里已经开始讨论这个问题,一个名为“人工智能基金伦理与治理”的慈善项目正在支持麻省理工学院,哈佛大学等研究人工智能,纽约大学的一个新研究机构AI Now也有类似的任务。在最近的一份报告中呼吁各国政府不要在刑事司法或社会福利等领域使用“黑匣子”算法。

本文由阿里云云栖社区组织翻译。

文章原标题《as-artificial-intelligence-advances-here-are-five-projects-for-2018》,

译者:虎说八道,审阅:

让机器人更像人

”人类可以将学习到的概念,用不同的方式组合起来,并将其应用于新的情况,”美国波特兰州立大学Melanie Mitchell教授表示,“但人工智能或者机器学习系统并不能做到这样。”他认为现在的软件存在“意义障碍”,一些领先的人工智能研究团队正在试图找出跨越这个障碍的办法。

尽管AI的发展速度有些让人怀疑,当然AI发展存在泡沫,各类媒体也在炒作AI。但是仍然有一些明智的声音:埃隆·马斯克担心人工智能仍然无法做到很多事情。最棘手的有以下几个问题:

本文介绍了2018年摆在人工智能面前的五大难题:理解人类语言,机器人附能,防黑客,玩游戏,辨别是非。如何解决这些问题,让AI继续造福人类社会将成为所有AI从业者的首要任务。

而这个潜在的威胁具有很大的影响力。本月,世界着名的机器人学习会议的研究者们召开了一次为期一天的研讨会,就机器欺骗的潜在威胁展开讨论。比如,可能会存在这种情况,对于一个数字,我们看到的是2,但是机器识别出来的是3。此外,研究人员还对防范此类攻击的预防措施进行了商榷,他们表示,也会担心人工智能技术被某些人用来愚弄人类。

3.防范黑客攻击AI

互联网诞生之时,就伴随着安全问题。我们也不应该期望自动驾驶汽车和家用机器人会有所不同。而且事实上可能更糟:因为机器学习软件的复杂性,所以存在多种攻击途径。

今年, 研究表明, 你可以在机器学习系统内隐藏一个秘密触发器, 可以导致系统在看到特定信号时转变为邪恶模式。纽约大学的研究小组设计了一个正常运作的街道标志识别系统除非它看到一个黄色的Post-It。在布鲁克林的一个停车标志上贴上一个便利贴, 系统就会报告这是一个限速标志。这种做法可能会给自动驾驶汽车带来问题。

这个威胁被认为是很严重的, 世界上最著名的机器学习会议的研究人员在本月早些时候召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如“如何生成让人们看起来很正常但是机器开起来比较特殊的手写数字”等等这样的问题。研究人员还讨论了防止这种攻击的可能性, 并担心人工智能被用来欺骗人类。

组织研讨会的 Tim Hwang 预测,随着机器学习变得更容易部署和更强大, 使用这项技术来操纵人是不可避免的。他说,机器学习并不再是博士学位的专属。Tim Hwang指出, 俄罗斯在2016年总统选举期间发起的假情报运动可能是AI增强信息战争的先驱。他说:为什么不在这些活动中看到机器学习领域的技术?Hwang 预测的一个特别有效的方法是利用机器学习来生成虚假的视频和音频。

机器人硬件已经做的相当不错了,你可以花500美元购买到高清摄像机手掌大小的无人机,另外搬运箱子和两条腿走路的机器也有所改进。但这并不意味着它可以广泛使用,因为今天的机器人缺乏匹配他们先进的肌肉的大脑。

二、阻碍机器人革命的现实差距

这个威胁被认为是很严重的, 世界上最著名的机器学习会议的研究人员在本月早些时候召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如“如何生成让人们看起来很正常但是机器开起来比较特殊的手写数字”等等这样的问题。研究人员还讨论了防止这种攻击的可能性, 并担心人工智能被用来欺骗人类。

这也是为什么DeepMind和Facebook在2017年着手研发多玩家游戏《星际争霸》的原因了,因为在这种情况下的人工智能,还并不成熟。DeepMind的研究人员Oriol Vinyals接受连线杂志采访时表示,目前的软件缺乏必要的计划和记忆能力,需要仔细地收集数据,以便能指挥一支军队,并对对手的行动进行预测和反应。

未来我们应该会看到科技公司提出如何让人工智能拥有人性的想法。谷歌、Facebook、微软和阿里已经开始讨论这个问题,一个名为“人工智能基金伦理与治理”的慈善项目正在支持麻省理工学院,哈佛大学等研究人工智能,纽约大学的一个新研究机构AI Now也有类似的任务。在最近的一份报告中呼吁各国政府不要在刑事司法或社会福利等领域使用“黑匣子”算法。

在我们的生活中,运行网络、安全摄像头以及手机的软件,时常会受到安全漏洞的困扰。当然,我们不能天真的以为自动驾驶技术或者机器人是不存在这种情况的。事实上,在这些领域,安全问题可能会更糟糕:有证据表明,机器学习软件的复杂性可能会带来新的攻击途径。

2017年,人工智能在深度学习的帮助下取得了显著的进步。例如,一个名为Libratus的机器人扑克玩家,连续击败了三位人类玩家,成为扑克界的“阿尔法狗”。在现实中,AI正在改善很多传统的行业,自动驾驶、农业、医疗保健等。

不管怎么样,人工智能的发展还有很长的路要走,跨过种种障碍,终将会朝着对人类有益的方向迈进。

AlphaGo在2017年也迅速发展,今年五月,一个更强大的版本击败了中国的围棋冠军。它的创造者DeepMind研究院, 随后又升级了一个版本:AlphaGo Zero,这个版本不用研究人类的棋谱,也能有非凡的下棋技巧,基于此它也学会了下国际象棋和日本象棋。

一、对人类语言及语义的理解

图片 1

从现在的情况来看,机器人硬件已经相当不错了。人们可以花3000元的价格买到一台带有高清摄像头的手掌大小的无人机,当然,对于和人类一样用两条腿走路的机器人来说,也取得了不小的进步。那么,为什么我们现在还没有被熙熙攘攘的机器人助手包围呢?因为现在的机器人还缺乏一个可以与之复杂的肌肉相匹配的“大脑”。

另外,自动驾驶汽车公司在机动化驾驶竞赛中在虚拟街道上部署虚拟车辆,以减少在实际交通和道路条件下测试所花费的时间和金钱。自主驾驶创业公司Aurora的首席执行官Chris Urmson说,使虚拟测试更适用于真实的车辆是他的团队的重点之一。

尽管一直以来人们都对“AI威胁论”的说法进行着大肆宣传,但在2017年,人工智能还是取得了一些显着的进步,机器学习也正逐渐涉足农业领域和医疗保健领域的改革。但是,千万别高兴的太早,如果你最近有和Siri或者Alexa聊天就会发现,现在还有许多事情是人工智能无法理解或完成的。下面,小智君要给大家分享一下,我所认为的人工智能在2018年面临的挑战。

尽管AI的发展速度有些让人怀疑,当然AI发展存在泡沫,各类媒体也在炒作AI。但是仍然有一些明智的声音:埃隆·马斯克担心人工智能仍然无法做到很多事情。最棘手的有以下几个问题:

其中一项是让机器在常识以及支持人类思维的物理世界中获得基础。比如,百度的研究人员正试图通过观看视频来教授软件理解现实。另一项则是让机器模拟我们对世界的理解。举个例子,谷歌一直在尝试可以学习隐喻的软件,也曾尝试做一些系统,通过类比及教授机器世界的概念,让这些系统可以对照片中发生的事情做出解释。

2018人工智能想要发展还需迈过这5个门槛! 。人类与AI游戏的结果是令人印象深刻,但也提醒我们人工智能软件的局限性。国际象棋、日本象棋和围棋都很复杂,但是其规则和玩法却比较简单。它们很好的利用了计算机的能力,可以快速枚举许多未来可能的位置。但是,生活中的大多数情况和问题并不是那么有“结构性”。

在使用文本和语言时,机器比以往有了很大的进步。举个例子,Facebook可以为视觉障碍者进行图像描述;谷歌也在自己的Gmail邮箱里添加了“智能回复”的功能。尽管已经取得了一系列的进步,但是机器软件仍然不能真正理解人类语言的含义以及人类的想法。

图片 2

或许,这项技术的进步,在真正的军队执行任务时会发挥重要的作用。2018年《星际争霸》类游戏中人工智能技术的进步,可能预示着AI更强大的应用。

图片 3

该研讨会的组织者Tim Hwang说,随着机器学习变得更容易部署并且更强大,利用这项技术掌控人类,是不可避免的。他指出,2016年美国总统大选期间,俄罗斯的反信息运动便是”信息战“的一个信号。根据Hwang的预测,其最有效的愚弄人类的方式是利用机器学习生成虚假的视频或音频。

Mitchell将今天AI的缺陷定义为数学家Gian Carlo-Rota所说的“意义障碍”,一些领先的AI研究团队正在试图找出如何攀登它。

机器人做事,特定的任务需要特定的编程。他们可以从重复性的试验或者错误中,学习类似于抓取物体的操作,但这个过程相对缓慢。一个很有希望的捷径是让机器人在虚拟世界中展开训练,然后把获得的知识下载并植入到物理机器人的身体中。

让AI辨别是非

如何让这项技术在安全和伦理范围内都是对人类有益的呢?这也是此次机器学习会议上的一个重要的讨论话题。研究人员发现,机器学习系统在接受数据训练时,可以摒弃令人讨厌或者不想要的行为,比如,放弃性别歧视的特征。现在,一部分研究人员正在探究用于审计人工智能系统内部工作的技术,并确保他们在从事金融或医疗领域的工作时,会做出公平的决策。

这就是为什么 DeepMind 和 Facebook 都在2017年开始研发玩星际争霸( StarCraft)的AI。

然而,这个办法却被现实中的“差距”所阻碍——将虚拟世界里机器人在学习中获得的技能的语言描述,转移给真实的机器人时,并不总是奏效的。

防范黑客攻击AI

Alphabet的棋类“冠军”系统,在2017年获得了巨大的突破。今年5月,化身为AlphaGo Master击败了中国的围棋冠军;随后,DeepMind创立了AlphaGo Zero可以在不需要人类资料的情况下,自学棋类游戏;12月,终极AlphaZero问世,除了围棋,还可以下象棋和将棋。

组织研讨会的 Tim Hwang 预测,随着机器学习变得更容易部署和更强大, 使用这项技术来操纵人是不可避免的。他说,机器学习并不再是博士学位的专属。Tim Hwang指出, 俄罗斯在2016年总统选举期间发起的假情报运动可能是AI增强信息战争的先驱。他说:为什么不在这些活动中看到机器学习领域的技术?Hwang 预测的一个特别有效的方法是利用机器学习来生成虚假的视频和音频。

四、不能仅仅局限于棋类游戏

让机器人做任何事情都需要针对特定的任务进行特定的编程,他可以从中学习操作。但是这个过程相对较慢。一个捷径是让机器人在模拟的世界中训练,然后把那些来之不易的知识下载到物理的机器人体内。然而,这种方法受到了现实差距的困扰,虚拟的机器人在模拟中学到的技能在转移到物理世界中的机器时并不总是有效。

这些情况着实令人印象深刻,但是也提醒了人们关于人工智能技术的局限性。棋类游戏虽复杂,但是却都有着相对简单的游戏规则,而且双方可见。人工智能可以快速地计算潜在的落子位置的可能性。但是,在生活中,大多数的情况和问题可不是那么井然有序的。

2018人工智能想要发展还需迈过这5个门槛! 。2018人工智能想要发展还需迈过这5个门槛! 。这项工作的一部分是在为机器提供一种常识的基础,以及支撑我们自己思维的物质世界。例如,Facebook研究人员正试图通过观看视频来教AI来理解现实。另外一些人,正在模仿我们可以用关于世界的知识做什么。米切尔已经尝试过使用类比和关于世界的概念来解释照片中发生的事情的系统。

2018年,各个科技公司将会提出如何在人性方面对人工智能做出正确引导的想法。谷歌、微软、Facebook以及其他的公司,已经开始讨论这个问题了。这些公司是一家名为Partnership on AI的非盈利组织的成员,该组织致力于研究人工智能的社会影响。此外,其他的组织也在做同样的事情。一个名为The Ethics and Governance of Artificial Intelligence Fund的组织正在对麻省理工学院、哈佛大学和其他研究人工智能和公众利益的机构提供支持。

但,幸运的是现实差距正在缩小。十月份,谷歌模拟的机器人武器学会拾取包括胶带分配器、玩具和梳子在内的各种物体,从实验报告中我们看到了希望的结果。

进一步讲,这些进步对自动驾驶技术的发展也十分重要。进行自动驾驶汽车研究的公司可以在虚拟的街道上进行虚拟汽车的部署和试验,这样可以减少在真实交通环境下进行测试时所需要的时间和资金。

AI即使在上述领域没有取得新的进展,如果现有的AI技术被广泛使用,社会和经济的许多方面也会发生很大的变化。这个时候就会有人担心人工智能和机器学习造成的意外和故意伤害。

值得一提到是,这个差距正在逐渐缩小。今年10月,谷歌公布了一系列带有积极意义的研究成果。在他们的实验中,不管是模拟的还是真正的机器人都学会了捡起各种各样的物体,像磁带机、玩具和梳子。

理解人类语言

在本月的NIPS机器学习大会上,如何让技术保持在安全和道德的范围内是一个重要的讨论话题。研究人员发现,机器学习系统可以从我们非完美的世界获得数据的训练,进而训练出来的系统是具有偏见性的,如延续性别歧视印象。现在有些人正在研究可用于审核人工智能系统内部运作的技术,并确保他们在投入金融或医疗保健等行业工作时做出公平的决定。

从现在来看,机器在处理文本和语言方面比以往任何时候都要好。例如:Facebook可以向视障人士进行图像描述,谷歌邮箱可以对邮件自动做出简单的回答(基于邮件内容进行回复)。然而,AI系统仍然不能真正理解我们的意思和我们真正的想法。波特兰州立大学教授梅兰妮·米切尔(Melanie Mitchell)说:“我们能够把我们学到的概念以不同的方式结合起来,并在新的情况下应用。但,AI并不能做到这一点。”

本文由分分快三计划发布,转载请注明来源

关键词: 分分快三计划 五大 AI 难题 人工智能