公告: 极客数据面向大数据行业从业人员及爱好者分享行业最新资讯以及各种工具使用教程,行业资深大佬可移步至行业专业交流社区 “穹顶喵”!

关于人工智能行业的误区都有哪些?

3891


大多数研究人员都认为,超级智能人工智能不太可能表现出人类对爱或恨的情感,也没有理由期望人工智能变得有意仁慈或恶意。相反,在考虑人工智能如何成为一种风险时,专家认为最有可能出现两种情况:
人工智能被编程为做一些毁灭性的事情:自主武器是被编程为杀戮的人工智能系统。这些武器落入错误的人手中,很容易造成大规模伤亡。此外,人工智能军备竞赛可能会无意中导致人工智能战争,也会导致大规模伤亡。为了避免被敌人挫败,这些武器将被设计成极难简单地"关闭",因此人类可能会失去对这种情况的控制。这种风险即使在狭隘的AI中也存在,但随着AI智能和自主水平的提高而增长。

人工智能被编程为做一些有益的事情,但它开发了一种破坏性方法来实现其目标:每当我们无法将AI的目标与我们的目标完全一致时,就会发生这种情况,这是非常困难的。如果你让一辆听话的智能汽车尽快带你去机场,它可能会让你被直升机追赶,浑身都是呕吐物,做你想做的不是你想做的事,而是你要求做的事。如果一个超级智能系统的任务是一个雄心勃勃的地球工程项目,它可能会对我们的生态系统造成严重破坏,并将其视为一种需要应对的威胁。
正如这些例子所说明的那样,对高级人工智能的担忧不是恶意,而是能力。一个超级智能的人工智能将非常善于实现它的目标,如果这些目标与我们的目标不一致,我们就会遇到问题。你可能不是一个出于恶意踩蚂蚁的讨厌蚂蚁的邪恶蚂蚁,但如果你负责一个水电绿色能源项目,并且该地区有一个蚁丘被洪水淹没,那么对蚂蚁来说太糟糕了。人工智能安全研究的一个关键目标是永远不要把人类放在那些蚂蚁的位置上。
当然,目前人类对于人工智能的误解不止这些。
第一个神话是关于时间线的:机器需要多长时间才能大大取代人类水平的智能?一个常见的误解是,我们非常肯定地知道答案。
一个流行的神话是,我们知道我们将在本世纪获得超人类的AI。事实上,历史上充满了技术过度炒作。那些聚变发电厂和飞行汽车在哪里,我们被承诺我们现在将拥有?人工智能在过去也一再被过度炒作,甚至被该领域的一些创始人所炒作。例如,约翰·麦卡锡(JohnMcCarthy)(他创造了"人工智能"一词),马文·明斯基(MarvinMinsky),纳撒尼尔·罗切斯特(NathanielRochester)和克劳德·香农(ClaudeShannon)写了一篇关于石器时代计算机在两个月内可以完成的工作的过于乐观的预测:"我们建议在1956年夏天在达特茅斯学院进行为期2个月,10个人的人工智能研究[...]将尝试找到如何使机器使用语言,形成抽象和概念,解决现在为人类保留的各种问题,并改进自己。我们认为,如果一组精心挑选的科学家一起工作一个夏天,那么在其中一个或多个问题上可以取得重大进展。
另一方面,一个流行的反神话是,我们知道本世纪我们不会得到超人类的人工智能。研究人员已经对我们离超人类人工智能有多远进行了广泛的估计,但鉴于这种技术怀疑论者预测的惨淡记录,我们当然不能非常自信地说本世纪的可能性为零。例如,欧内斯特·卢瑟福(ErnestRutherford)可以说是他那个时代最伟大的核物理学家,他在1933年——在西拉德发明核链式反应之前不到24小时——说核能是"月光"。天文学家皇家理查德·伍利(RichardWoolley)在1956年称行星际旅行为"彻底的舱底"。这个神话最极端的形式是,超人的AI永远不会到来,因为它在物理上是不可能的。然而,物理学家知道,大脑由夸克和电子组成,被安排成一台强大的计算机,并且没有物理定律阻止我们建立更智能的夸克斑点。
有许多调查询问人工智能研究人员,从现在起多少年后,他们认为我们将拥有至少50%概率的人类水平的人工智能。所有这些调查都有相同的结论:世界领先的专家不同意,所以我们根本不知道。例如,在2015年波多黎各AI大会上对AI研究人员进行的此类民意调查中,平均(中位数)答案是到2045年,但一些研究人员猜测了数百年或更长时间。
还有一个相关的神话,担心人工智能的人认为它只有几年的时间。事实上,大多数担心超人类人工智能的人都猜测,它至少还需要几十年的时间。但他们认为,只要我们不是100%确定本世纪不会发生这种情况,那么现在就开始进行安全研究以为最终事件做准备是明智的。与人类水平的人工智能相关的许多安全问题都非常困难,可能需要几十年的时间才能解决。因此,谨慎的做法是现在就开始研究它们,而不是在一些喝红牛的程序员决定打开它们的前一天晚上。
争议神话
另一个常见的误解是,唯一对人工智能怀有担忧并倡导人工智能安全研究的人是那些对人工智能知之甚少的卢德分子。当标准人工智能教科书的作者斯图尔特·罗素(StuartRussell)在他的波多黎各演讲中提到这一点时,观众们大笑起来。一个相关的误解是,支持人工智能安全研究是有很大争议的。事实上,为了支持对人工智能安全研究的适度投资,人们不需要相信风险很高,只是不可忽视的——就像对房屋保险的适度投资是合理的,因为房屋被烧毁的可能性不可忽略。
可能是媒体让人工智能安全辩论看起来比实际情况更具争议性。毕竟,恐惧是卖点的,而使用断章取义的引用来宣告即将到来的厄运的文章可以产生比微妙和平衡的点击更多的点击量。因此,两个只从媒体引述中了解对方立场的人,很可能认为他们不同意的比实际情况更多。例如,一个只在英国小报上读到比尔·盖茨立场的技术怀疑论者可能会错误地认为盖茨认为超级智能迫在眉睫。同样,在有益的人工智能运动中,除了他关于火星人口过剩的名言之外,对吴恩达的立场一无所知的人,可能会错误地认为他不关心人工智能的安全,而事实上,他关心的是。关键在于,由于Ng的时间表估计更长,他自然倾向于优先考虑短期的AI挑战而不是长期的挑战。
关于超人类AI风险的神话
许多人工智能研究人员在看到这个标题时翻了个白眼:"斯蒂芬·霍金警告说,机器人的崛起可能对人类来说是灾难性的。许多人已经记不清他们看过多少类似的文章。通常,这些文章伴随着一个邪恶的机器人携带武器,它们建议我们应该担心机器人上升并杀死我们,因为它们已经变得有意识和/或邪恶。从更轻松的角度来看,这些文章实际上相当令人印象深刻,因为它们简洁地总结了AI研究人员不担心的场景。这种情况结合了多达三个独立的误解:对意识,邪恶和机器人的关注。
如果你开车上路,你会对颜色,声音等有主观体验。但是自动驾驶汽车有主观体验吗?成为一辆自动驾驶汽车会感觉像什么吗?虽然这种意识之谜本身就很有趣,但它与AI风险无关。如果你被无人驾驶汽车撞到,它是否主观上感觉有意识对你来说没有任何区别。同样,影响我们人类的是超级智能AI所做的事情,而不是主观感受。
对机器变恶的恐惧是另一个红鲱鱼。真正担心的不是恶意,而是能力。根据定义,超级智能AI非常善于实现其目标,无论它们是什么,因此我们需要确保其目标与我们的目标保持一致。人类通常不讨厌蚂蚁,但我们比它们更聪明-所以如果我们想建造一个水电大坝,那里有一个蚁丘,对蚂蚁来说太糟糕了。有益的人工智能运动希望避免将人类置于这些蚂蚁的位置。
意识的误解与机器不能有目标的神话有关。机器显然可以具有表现出目标导向行为的狭义目标:热寻电导弹的行为最经济地被解释为击中目标的目标。如果你感到受到一台机器的威胁,而这台机器的目标与你的目标不一致,那么正是它在这个狭义上的目标困扰着你,而不是机器是否有意识并体验到目的感。如果那枚寻热导弹在追你,你可能不会惊呼:"我不担心,因为机器不可能有目标!"
我同情罗德尼·布鲁克斯(RodneyBrooks)和其他机器人先驱,他们感到被危言耸听的小报不公平地妖魔化了,因为一些记者似乎痴迷于机器人,并用红色闪亮的眼睛装饰他们的许多文章。事实上,有益的人工智能运动的主要关注点不是机器人,而是智能本身:具体来说,智能的目标与我们的目标不一致。为了给我们带来麻烦,这种错位的超人智能不需要机器人身体,只需要互联网连接-这可能使金融市场变得聪明,超越人类研究人员,超越操纵人类领导者,并开发我们甚至无法理解的武器。即使建造机器人在物理上是不可能的,一个超级智能和超级富有的人工智能也可以很容易地支付或操纵许多人在不知不觉中执行其命令。
机器人的误解与机器无法控制人类的神话有关。智能使控制成为可能:人类控制老虎不是因为我们更强壮,而是因为我们更聪明。这意味着,如果我们放弃我们这个星球上最聪明的位置,我们也可能放弃控制权。