首页  >> 电子报 >> 地球杂志 >> 正文

通用人工智能的四大基本问题

来源:地球网 作者:地球网 发布时间:2019-03-13

《返朴》从头动身,我的人工智能(AI)专栏也持续搭载。和曾经的做法相同,我会把AI作为一个科学问题(而非技能或商业问题)来讨论,力求提炼智能、认知、思想、意识等现象中的一般规则,或许说探索在什么含义下计算机能够和人脑混为一谈。和一般的科普不同,我写的更像是自己的“探险笔记”,由于这个范畴仍处于百家争鸣时期,尚未有许多公认的“科学”定论来被“普及”。假如读者发觉我的“妄议”(或许“王议”)和别处看到的不同,能够想想哪种说法更有道理,而不是哪种更盛行。由于许多话题彼此交错,我会引证我曾经写过的文字(均存于https://cis.temple.edu/~wangp/Chinese.html)以防止重复。至于这个专栏的称号,天然不是说AI像《水浒》里的牛二,“满城人见那厮来都躲了”。这事以后会交代。今天以底子问题开篇,就是先把招牌挂出来,后面再连续上货

  像许多其它研讨范畴相同,人工智能的底子问题能够提炼成四个:“做什么?” “能做吗?” “怎样做?” “该做吗?” 下面是我对这些问题的简略剖析。

  我在《当你议论人工智能时,到底在议论什么?》(点击文末“阅览原文”查看,下同)中现已列举了“人工智能”名下五类不同的研讨方针,而现在盛行的“人工智能就是用计算机处理那些曾经只有人脑才能处理的问题”就是其间的“才能派”。这一派的优势是通俗易懂,直接收效,但缺点是圈画得太大,以至于曾经叫“自动化”“计算机应用”的作业现在都赶时髦改叫“人工智能”了。由于这种界定使得AI涵盖了大量彻底不同的体系,在此规模内树立一个一致的人工智能理论的或许性甚微。

  即便在当时的通用人工智能研讨者之中,对研讨意图的切当设定也各有不同。有些人妄图尽或许忠实地模拟脑结构,有些人妄图在尽或许多的范畴中取代人,有些人(包含我)妄图让计算机遵从和人底子相同的“思想规则”。

  有些读者或许会想,连底子概念和方针都没弄清还怎样研讨,殊不知对许多杂乱现象的精确刻画不或许发生在研讨的开始,而会是研讨结果的一部分,所以先“一致思想”是不现实的。另一方面,那种以为无需争辩“智能”定义,只需跟着直觉用法走就好的看法恰恰是现在这个范畴中观念混乱的重要原因,也是不行取的。人工智能研讨中的许多争论都能够回溯到对智能的不同了解,而这个问题又不能靠字典、权威或民意测验来处理。假如研讨方针不相同,对其它相关问题的答复天然也就不会相同。在这一议题上尚无共识,恰恰更意味着咱们应留意辨识不同的研讨方针,而防止抽象地断言“人工智能”怎么怎么。

  从“人工智能”“思想机器”等成为研讨对象时起,这种努力的成功或许性就一直是有争议的。跟着深度学习等技能的成功,现在盛行话语中的人工智能(在某个详细问题的处理才能上到达或超越人类)的或许性不再是问题,但通用人工智能的或许性仍是受到广泛置疑的。

  一类“人工智能不或许”的断言是出于对这个范畴的研讨方针的误解,因而是在攻击一个稻草人。持这种态度的人往往以为这个范畴的方针是制造在一切方面都和人一摸相同的计算机。找些依据阐明这不或许并不难,但问题是,我还不知道任何研讨者真是冲着那个方针去的。实际上,一切研讨人工智能(包含通用人工智能)的人都仅仅以为计算机能够在某些方面和某种程度上和人脑相类似。许多研讨者以为在“人类智能”的许多现象之中存在一个更一般的“智能”机制,而“人工智能”是这个机制的另一种完成方法。依照这种观点,即便人工智能彻底完成,也不会和人类智能在外部表现上彻底相同。因而,这种“人工智能不或许”的论断不会对这个范畴中的研讨有任何影响。

  具有挖苦意味的是,在近期对人工智能的限度的讨论中,许多形如“人工智能永久也无法……”的断言反而是出自“人工智能专家”之口。这其实也源于干流人工智能在历经挫败后对“大问题”的回避。许多人研讨多年“人工智能”,但仅仅注重于对某个别功用的完成和某个别问题的处理,因而在他们说“没人知道怎么完成通用智能”时,他们实际上说的是“我不知道怎样做,而且我所跟随的那些名人也不知道怎样做。其它人的作业不值得留意,由于横竖他们也还没做出来呢”。由于有理由以为通用智能体系和专用体系是十分不同的范畴,在后者的研讨中成名的人物对前者发言时权威性其实是很有限的,而且“现在还没做出来”和“永久也不能做出来”明显不是一回事。

  实 现 途 径

  在信任通用人工智能或许完成的人们傍边,现在最被看好的技能天然非深度学习莫属。每当深度学习的一个新用处呈现,总会有人说 “这标志着又向通用人工智能前进了一步”,似乎在这个方向上走下去就是了。在《深度神经网络会产生人这样的智能吗?》中,我现已阐明晰经过深度学习以及相关的机器学习技能完成通用智能的困难。这儿要弥补的一点是:有人以为深度学习现已是“通用”的了,由于这个技能能够被应用于许多不同的范畴。但这不是“通用人工智能”的意思。深度神经网络的确既能被练习下围棋,也能识别相片,但同一个网络不能一起做这两件事。由于以往的机器学习研讨底子上都是以“迫临单一函数”为指向的,把它们推行到多方针(尤其是规划时没有考虑过的方针)绝不是个简单的事,由于它要求整个研讨规范的底子改变。时至今日,尚没有一个用深度学习完成通用人工智能的完整路线图,而信任这个或许性的人往往是从已有的成果做简单外推。

  有人企图经过结构更“忠实于人脑”的模型来到达各认知功用的一致再现。像我在《深度神经网络会产生人这样的智能吗?》中所说的,这条途径的最大问题不是其难度,而是其必要性。假如咱们把智能看成一种有不同完成方法的认知机制,那就没有理由以为人脑是唯一能完成它的方法,虽然它的确是咱们最了解的方法。和人脑在完成细节上最接近的模型未必是人工智能最合适的模型,虽然这种模型对脑科学而言很有价值。

  伦 理 抉 择

  首先,许多“人工智能专家”对AI安全性所做的保证往往只触及他们所构建或能够设想的体系,其间彻底没有适应性、灵活性、自主性、创造性等通用人工智能体系才或许具有的特征,因而说的底子就是另外一个问题。由于这些特征,通用人工智能带来的伦理道德问题和传统技能有底子的不同,因而要求不同的应对计划。

  总归,人工智能研讨的正当性既来自人类知道思想一般规则的长期渴望,也来自社会发展对杂乱信息加工的实际需求。这项研讨一起也带来了新的挑战,对此咱们绝不能漫不经心,但也不应盲目恐惧。要防止AI形成的风险,起码要把AI是怎样回事搞对吧?那些“AI必定导致灾祸”的断言在这一方面往往都不及格,其结果是和风车作战,反而对或许性大许多的风险毫无防范。除非咱们有满足的依据以为某项技能(包含各种含义下的人工智能)的确会是弊大于利,咱们仍是有充分理由来持续这项探索,一起拒绝廉价的保票,准备好对该技能的各种结果进行尽或许恰当的应对。



相关推荐 >