产品中心

人工智能
智能科技

图灵奖得主、法国顶级科学家:人工智能太笨了没法统治人类

发布时间:2024-04-26 10:30:41   作者:爱游戏手游中心   来源:爱游戏手游平台官网

  从这一概念诞生至今的65年中,无数电影与小说塑造了各种经典的人工智能角色,AI (Artificial Intelligence)也很快成为人类未来世界蓝图中的重要组成部分。

  但在人工智能不断拓宽我们对未来想象的同时,也不乏“AI 统治世界”“AI 监视隐私”等等一类的消极论调。

  在AlphaGo战胜了韩国棋手李世石后,一名比利时程序员在 DeepMind发表的最新论文的基础上开展了一项开源的围棋 AI项目——LeelaZero。其中Leela是人工智能的名字。

  仍然是人和AI的对弈,结果是 Leela 在19路盘面取得压倒性胜利,而在25路棋局上完败,且无一例外。

  这说明只接受过19路围棋训练的人工智能 Leela也只会下19路的围棋,即使那些数据一直存储在其数据库中,它也不知道该如何将19路盘面的训练“经验”移植到 25 路围棋的对战上。

  图灵奖得主、Facebook 首席人工智能科学家杨立昆(Yann LeCun)在他的新书《科学之路:人,机器与未来》中告诉我们:AI,真的不是你想的那样。

  在文艺作品中,AI 危险又美丽,为人类服务却各方面都比人类更加强大、更有创意。但在现实中,AI 落地的应用却往往不懂常识、行动迟缓且耗能极大。

  当你凝视人工智能时,人工智能并不一定在凝视你,因为它根本不知道为什么要凝视你,至少现在不知道。原因就是人工智能缺乏常识,没有感知,甚至没有办法根据场景变换对已存储的知识活学活用。

  DeepMind训练了一个可以玩经典雅达利(Atari)视频游戏的系统,系统一共包括80个游戏,每场比赛它至少要花费80个小时来训练,才能勉强达到合格水平,而一个人只需要15分钟就可以做到这一点。

  但实际上,这80个小时是机器实时玩游戏时所花费的训练时间,在训练结束之后,它可以用(比人类)更快的速度进行游戏,甚至可以同时进行多个游戏。也就是说,如果让系统运行更长的时间,它将达到人类无法企及的超高效率。

  自动驾驶系统中的 AI 必须跟随汽车在道路上行驶以获得更多训练数据——必须驾驶数百万个小时,模拟引起成千上万次的撞车事故,而后才能学会如何避免撞车。

  如果汽车掉下悬崖,系统一定会说“哦豁,完蛋”。但这只会稍微纠正其策略,第二次汽车可能会以不同的方式掉下悬崖,然后系统会再次纠正一点。

  依此类推,在系统彻底弄清楚如何避免跌落悬崖之前,汽车必须像这样重复跌落悬崖数千次(还不止),其执行难度和资金耗费可想而知。

  以上两个示例足够说明一点:AI不是天才,不能轻而易举地获得“智慧”,它需要大量的训练和数据支撑才能在某一具体事件上做到人们所说的“聪明”,但这中间耗费的时间、算力等等成本又远远超过人们的普遍预想。

  现在让我们回过头来看前文提到的围棋 AI —— LeelaZero。Leela如果想要在 25 路盘面上立于不败之地,则需要更多专门针对 25 路围棋对战的数据以及更长时间的自我对局训练,才最终有可能获得全胜局面。

  但 Leela 不知道围棋的基本常识通用于不同盘面,也不懂得类推和移情。这也从另一个侧面反映出了 AI 的另一个“不聪明”之处——对于人类常识的缺失。

  常识缺失的人工智能是什么样的呢?唤醒你的 Siri、Alexa、天猫精灵或者小爱同学,尝试着和它对话(最多) 两分钟,你就多多少少有些感触了。

  一个翻译系统有时可能会产生一些滑稽的错误而不自知,自动驾驶汽车可以从点A行驶到点B,但它并不知道什么是驾驶员。

  比如虚拟助手可以报告交通信息,能调到你点播的广播电台,但如果你告诉它,“Alexa,我的手机掉进了浴缸。”它不会知道这代表着你的手机湿了,且需要更换,因为它只能在接受训练的范围内工作。

  如果想要系统更有效地回答问题,Alexa 必须具备一些常识,即一些有关世界运作方式及其物理规律的约束知识。

  常识至关重要,它制约着我们与世界的联系,它能填补空白,弥补隐含的信息。我们看到一个坐在桌子旁的人,可能看不到他的腿,但知道他肯定有腿,因为我们对人类有一定的了解。

  我们的大脑还整合了物理学的基本定律,比如,如果有人打翻了眼前的玻璃杯,那么杯子里的水就会洒得满桌子都是。我们知道如果不拿住某个东西,它就会掉下去。我们还能够意识到时间流逝、万物运动。

  我们在生命的头几个月和几年中逐渐了解世界的模型——我有意使用了与人工智能领域相同的词汇,这使我们可以将某个普通的句子补充完整。

  这个句子的其余部分并没有向我们提供有关整个句子的所有信息,但我们还是能够将这个句子补充完整,因为我们知道世界的运行规律。

  同样,当我们阅读一个文本时,可以或多或少预测到下一个句子;当我们观看一个视频时,能够或多或少预测到接下来一连串的动作和反应。

  由此可见,人类常识对于培养人工智能的学习能力至关重要,否则它只是一个功能强大、专业化高,却没有任何概念、文化、什么都不懂且耗能极高的应用程序。

  到目前为止,人类的学习方法比任何一种人工智能的学习方法都更为有效。人类的大脑仍旧是永远滴神。

  动物学习的方法与人类学习的方法大致相同。有些物种的天赋更高,在鸟类中,乌鸦就特别有天赋。在海洋动物中,章鱼非常聪明。再说说猫,它们没有人类的推理能力,但依然比最聪明的机器拥有更多的常识,老鼠也一样。

  所有这些动物都通过观察来学习世界运转的规律,获得了可以增加生存概率的预测模型。如果人类能制造出像老鼠或松鼠一样聪明的机器,人工智能事业或许就成功了。

  也就是说,即便是最先进的人工智能系统也存在局限性,它们可能还不如一只猫聪明。此外,人工智能不仅在智识上比不上人类大脑,在功耗的节省上也远远落后于人类大脑。

  虽然现代科学已经了解了大脑学习的原理,知道了大脑的结构,但重现其功能所需的计算量是无比巨大的,大约是每秒1.5×1018 量级的操作。

  现在一块 GPU (图像处理器)每秒可执行 1013 次计算,功耗约为 250 瓦。为了达到人脑的计算能力,必须将10 万个这样的处理器连接上功耗至少25兆瓦的巨型计算机才能实现。

  最后,你要是问 AI 聪明吗?在某种程度、某个范围、某个具体的事件上,在掌握了大量数据和长时间的训练之后,它可以做到更快速的反应、进行更深入的分析并处理更多的并行任务,这时你可以说,AI是聪明的。

  但在普遍意义的学习能力上,在我们所生活的这个复杂的世界模型里,它还没能积累起足够的世界知识以产生某些常识,你也可以说,AI是笨蛋。

  也许你要提起那些仿真机器人来反驳我了,比如“索菲亚”。索菲亚是一位面带神秘微笑、长着一双玻璃眼珠的美丽的光头女人,“她”在2017 年的许多舞台上都大放异彩。

  “她”动人的脸庞能够呈现数十种不同的表情,在调侃一个记者关于地球上有太多机器人的担忧时,“她”笑道:“您好莱坞电影看太多了 !”这个经典笑话让她如此酷似人类,以至沙特阿拉伯在当年授予了“她”沙特国籍。

  实际上,“她”只是一个由工程师预先设定好一系列标准答案的“木偶”。当我们与“她”交流时,所有的谈话内容均会经过匹配系统处理,并从得到的答案中选择最合适的一个输出。

  索菲亚欺骗了人们,“她” 只是一个完成度很高的塑料制品,只不过是我们(被这个激活了的物体所感动的人类)赋予了它某些智能。

  于是,让AI变聪明也就成为了科学家们研究的首要任务。杨立昆在新书《科学之路:人,机器与未来》也阐述了人工智能研究的真正挑战:

  “这些人工智能应用将会改变社会,但是,直到机器能够像动物和人类一样有效地学习,直到它们能够通过自我监督学习获得世界模型,直到它们积累起足够的世界知识以产生某些常识,这一切才会成为可能。”



上一篇:爱心暑托班里玩转人工智能 在青少年心中埋下AI种子
下一篇:头部医疗 AI「数坤科技」再融 7 亿元;医药股全面下跌给一级市场投资哪些启示?