V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
julyedu
V2EX  ›  推广

寒冬来临? Hinton:我并不认为会有 AI 寒冬

  •  
  •   julyedu · 2019-01-03 14:45:19 +08:00 · 857 次点击
    这是一个创建于 1940 天前的主题,其中的信息可能已经有所发展或是发生改变。

    [导读] 《连线》杂志专访 Geoffrey Hinton,关于 AI 自主武器、AI 研究的挑战、思考大脑的运作方式如何启发人工神经网络等。Hinton 很确定,不会有 AI 寒冬,因为 AI 已经成为人们日常生活的一部分。

    20 世纪 70 年代初,来自英国的研究生 Geoffrey Hinton 开始构建简单的数学模型,来描述人脑神经元如何在视觉上理解世界。几十年来,人工神经网络一直被认为是一项不切实际的技术。但在 2012 年,Hinton 和他在多伦多大学的两名研究生利用人工神经网络将计算机识别图像中物体的准确度大幅提升。这三位研究人员一起创立了一家创业公司,仅仅 6 个月就被谷歌收购。从前鲜为人知的人工神经网络也开始成为硅谷的热门话题。

    上周,在七国集团(G7)首次的人工智能会议上,《连线》杂志采访了 Hinton。来自世界主要工业化经济体的代表们在会上讨论了如何开发人工智能的好处,同时尽量减少失业和算法歧视等不利因素。

    以下是经过编辑的采访实录:

    《连线》:加拿大总理 Justin Trudeau 在 G7 会议上表示,AI 带来的道德挑战还需要做更多的努力。你怎么看?

    Geoff Hinton:我一直担心致命的自主武器有可能被滥用。我认为应该有一个类似于《日内瓦公约》的条约来禁止自主武器,就像禁止化学武器一样。即使不是每个人都在上面签名,它的存在也会起到某种道德约束的作用。人们会看谁没有签名。

    问:有 4500 多名你的谷歌同事联名签署了一封公开信,抗议一项谷歌与五角大楼的合同,涉及将机器学习应用于无人机图像。谷歌称这并非用于攻击性的用途。你在信上签名了吗?

    Hinton:作为一名谷歌的高管,我认为我不应该公开抱怨,所以我是私下抱怨。我没有在给[谷歌联合创始人]谢尔盖•布林(Sergey Brin)的信上签名。他说他对这件事也有点不高兴。所以他们后来没有继续深究。

    问:谷歌的领导决定走完那项合同,但不续签合同。他们还发布了一系列使用人工智能的指导原则,其中包括承诺不将该技术用于武器。

    Hinton:我认为谷歌的决定是正确的。会有各种各样的事情需要云计算,很难知道在哪里画一条线,从某种意义上说,画线这件事情是相当任意的。我很高兴谷歌画出了这条线。这些原则在我看来很有意义。

    问:人工智能在日常生活中也会引发伦理问题。例如,当软件被用于在社会服务或医疗保健中做决策时。我们应该注意什么?

    Hinton:我是让技术起作用方面的专家,但不是社会政策方面的专家。在这方面,我确实拥有相关技术专长的是,监管机构是否应该坚持要求技术人员解释你的 AI 系统是如何工作的。我认为那样的话,将是一场彻底的灾难。

    对于现在的 AI 系统所做的大部分事情,人们无法解释它们是如何工作的。比如说,当你雇佣一个人的时候,这个决定是基于各种各样你可以量化的东西,然后是各种各样的直觉。人们不知道他们是怎么做到的。如果你让他们解释他们的决定,你是在强迫他们编一个故事。

    神经网络也有类似的问题。当你训练一个神经网络时,它会学习十亿个数字,这些数字代表了它从训练数据中提取出来的知识。如果你输入一张图像,输出的是正确的决策,比如说,它会回答“这是不是一个行人”。但是如果你问“它为什么这么认为?”好吧,如果有任何简单的规则能判断一张图像是否包含行人,那么这个问题应该很久以前就已经解决了。

    问:那么我们怎么知道,什么时候可以信任这些系统呢?

    Hinton:你应该根据它们的表现来规范它们。你要运行实验,看看这个系统是否有偏见,或者它与人类相比,做同样的事情杀死的人是否更少。对于自动驾驶汽车,我认为人们现在多少接受了这一点。即使你不太清楚自动驾驶汽车是如何做到这一切的,如果它的事故比人驾驶的汽车少得多,那它就是一件好事。我认为我们必须像对待人那样对待 AI:你只需要看看它们表现如何,如果它们反复运行崩溃,那么就要说它们不够好。

    问:你曾说过,思考大脑是如何工作的,启发了你对人工神经网络的研究。我们的大脑通过突触连接的神经元网络,从我们的感官中获取信息的。人工神经网络通过数学神经元网络提供数据,这些神经元由称为权重的连接连接起来。在上周发表的一篇论文中,你和几位合著者认为,我们应该做更多的工作来揭示大脑中运作的学习算法。为什么?

    (注: 论文题为 Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures,地址: https://arxiv.org/abs/1807.04587

    Hinton:大脑解决的问题与我们大多数的神经网络非常不同。大脑大约有 100 万亿个突触。一般来说,人工神经网络的权重数量比大脑突触至少要小 10000 倍。大脑用很多很多的突触从几个片段中学到尽可能多的东西。当有很多情节或例子可以从中学习时,深度学习擅长利用神经元之间更少的连接来学习。我认为大脑不关心怎样把大量的知识压缩到几个连接中,它关心的是利用大量的连接快速提取知识。

    问:我们怎样才能构建起更强大的机器学习系统呢?

    Hinton:我认为我们需要转向另一种计算机。幸运的是,我这里有一个。

    ( Hinton 把手伸进皮夹,拿出一块闪亮的大硅片。这是 Graphcore 的一个原型,Graphcore 是一家英国初创公司,致力于开发一种新型处理器,为机器 /深度学习算法提供动力。)

    几乎所有我们运行神经网络的计算机系统,甚至是谷歌的特殊硬件,都使用 RAM(存储正在使用的程序)。从 RAM 中提取神经网络的权重需要耗费大量的能量,这样处理器才能使用它。所以每个人都要确保一旦他们的软件获得了权重,就能多次使用它们。这是巨大的成本,因为你不能为每个训练样例改变所做事情。

    问:最近对人工智能和机器学习的兴趣和投资激增,意味着用于研究的资金比以往任何时候都要多。该领域的快速发展是否也带来了新的挑战?

    Hinton:机器学习社区面临的一大挑战是,如果你想要在机器学习领域发表一篇论文,必须要有一个表,表上首行是各种不同的数据集,沿着左列是各种不同的方法,而且你的方法必须看起来是最好的。如果不是这样,就很难发表。我不认为这能鼓励人们去思考全新的想法。

    现在,如果你提交的论文有一个全新的观点,它是没有机会被接受的,因为它会遇到一些不理解它的初级审稿人。或者你会遇到一位资深审稿人,他审稿的论文太多了,但第一次看不懂,认为这肯定是胡说八道。任何费脑子的东西都不会被接受。我认为这很糟糕。

    尤其是在基础科学会议上,我们应该追求的是全新的想法。因为我们知道,从长远来看,一个全新的想法将比一个微小的改进产生更大的影响。罔顾了这一事实,我认为这是机器学习领域的一个主要缺点,这个领域资深的人不多,年轻人更多。

    问:这会阻碍这一领域的发展吗?

    Hinton:只要再等几年,这种不平衡就会得到纠正。这是暂时的。现在公司都在忙于教育人们,大学也在忙着教育人们,大学最终会在这个领域雇佣更多的教授,它本身会自我纠正的。

    问:一些学者警告说,当前的炒作可能会进入“人工智能的寒冬”,就像上世纪 80 年代那样,当时由于进展没有达到预期,投向 AI 的兴趣和资金都枯竭了。

    Hinton:不,不会有人工智能的寒冬,因为 AI 驱动着你的手机。在过去的人工智能寒冬,AI 并不是人们日常生活的一部分。现在它已经是了。

    原文:

    https://www.wired.com/story/googles-ai-guru-computers-think-more-like-brains

    目前尚无回复
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1040 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 19:30 · PVG 03:30 · LAX 12:30 · JFK 15:30
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.