【AI灼见·一】AlphaGo赢了围棋又怎样?有本事来打麻将啊~

举报
技术火炬手 发表于 2019/11/15 11:48:23 2019/11/15
【摘要】 人工智能,路漫漫其修远,从过去到现在,人类对于机器人的幻想就从未停止过。

人工智能,路漫漫其修远

从过去到现在,人类对于机器人的幻想就从未停止过。

—————————————————————

和人类仰望星空,探索宇宙一样,究其根本,人类的灵魂孤独而寂寞。他们期望出现另一种生命或智慧形式,可以对话。在发现文明且友好的外星人之前,科学家在几十年前就寄希望于人工智能。几十年后,当柯洁投子认输的那一刻,AI的狂热粉丝们开始普天庆祝,另一群人开始惶恐,认为不久的将来机器人将开始对人类的屠杀。然而事实是,人工智能真的已经足够聪明了吗?No!AlphaGo选择围棋与人类对战,是认真而又取巧的。20年前,IBM深蓝在国际象棋上就赢得了人类,20年后,围棋领域人类失守。

在没有硝烟的战场上,人机早已开战。

———————————————

AlphaGo的成功,所代表的其实是智能程度的一个阶段性演进,从智能感知到智能决策,让机器人,像人一样的做决策。

image.png

其实下棋对于计算机来说是“很简单”的一件事,它规则明确,这一点对机器来说非常重要,AlphaGo正是基于这些明确的规则去做价值评估。也没有意外和分支,不需要分析情感,它很适合擅长计算的机器人来做,反而人类在此项运动上有生理瓶颈。AlphaGo背后依赖的就是大规模的快速计算,加上算法评估,AlphaGo只是依靠三个函数来做决定。可是它赢了,它居然赢了,它一定会赢。

那么让AlphaGo打麻将呢?那就完全不同了。

———————————————————

虽然麻将的规则也较为清晰,但是它不可预知的因素更多,麻将老手往往更容易输给不按牌理出牌的新手,并且游戏过程中会出现大量的心理战和干扰,另一个不可忽视的可变因子是运气(概率)。说到这里肯定会有人跳出来说,只要规则明确,牌数确定,那么搜索域就一定是有限的,AI的计算能力一定可以支撑。嗯,对此我没什么好说的,如果真有人去做,AI在打麻将上赢过人类也只是时间问题,但这里面还有很多问题需要解决。

想象一下,如果AI刚扔出去一个四条,上手又摸了个四条,它会怎么处理这个四条?

麻将新手会怎么处理这个四条?

麻将老手会怎么处理这个四条?

信仰上苍的人会怎么处理这个四条?

以上不同人类玩家所下的不同决定在AI的眼中会被解读成什么信息?

所以AI很难在麻将中保证高胜率,说白了,麻将和围棋不一样,不是考脑力,而是考综合素质,当然,还有运气。可惜的是,人类也不能保证麻将常胜。那既然人也不能保证麻将常胜,说来作何?其实只是想说明,现在的AI,和我们理想中的AI,差的太多了。即便AlphaGo的围棋能力已经超过了九段,它依然是一个“弱人工智能”。来来,注意了,知识点(学池子敲黑板):在人工智能研究方向上有两个阶段:弱人工智能和强人工智能。

 弱人工智能 :主要指机器可以通过编程展现出人类智能的水平。「弱人工智能」被认为是针对特定领域,执行特定任务的人工智能研究,如语音识别和推荐系统(也称工具 AI)(AlphaGo由于基于深度学习和搜索仍被界定为弱人工智能)。

 强人工智能 :则假设机器出现意识,或者说机器思考和认知的方式可以用以前形容人类的方式来形容,能够胜任人类大部分的工作,在大多数领域甚至达到取代人类50%以上的工作。

从人工智能的历史和研究角度来讲,人工智能的主要目的就是为了让机器表现得更像人。

虽然AlphaGo下棋战胜了人类,但它依然是弱人工智能。这对于期望看到更高级别人工智能的孩子来说,可能会有一些失望,因为强人工智能的研究依然处在瓶颈期,进展缓慢,并壁垒重重。在强人工智能之上,还有超人工智能(ASI),它被认为是一种比世界上最聪明、最有天赋的人类还聪明的人工智能系统,它做出高质量决策的能力比人类要强,它能考虑更多的信息和进一步洞悉未来。这才是该引起人类恐慌的力量。如果最聪明的强人工智能是100分,那么下面这个图供参考说明各个阶段的智能程度:

image.png

即便是机器猫这样人格已经非常接近人类的机器人,也不能算“最聪明”的强人工智能,那么只会根据程序和算法去求更高获胜概率来下棋的AphlaGo就更不用说了。

AlphaGo第一次和李世石对战的时候,背后的计算资源就极其庞大,在和柯洁对战时,已经大幅度缩减了计算资源,能力提高了十倍,资源只用了十分之一(Google用了TPU),而且,还是一台单机版的AlphaGo。

image.png

图为 AlphaGo 第一次对战李世石时使用的系统资源虽然AI的能力在快速增长,但科学家们依然不太满意当前AI能力,因为人类的心情更为迫切,他们希望强AI早日出现以改变当前的局面。那么为什么强人工智能这么困难?

因为强人工智能期望是得到“类人脑”的计算,但人脑和机器脑还是有很多不一样的,人之所以是人,因为人的大脑有“灰度”和“变通”。别小看这两个好像是个人就会的能力,对机器人来说,实现很困难,目前机器人难以真正掌握“灰度”,因为它们的世界只有0和1,非黑即白。

举个例子,假设你有了一个和AlphaGo这么“厉害”的机器人帮你做事,你指着一堆你批发回来的苹果跟它说“去帮我把烂苹果挑出来,我待会要榨苹果汁。”OK,机器人去挑烂苹果了。它怎么识别烂苹果呢?它可能会去计算溃烂的面积和比重。那么问题来了,烂到什么程度算烂苹果呢?5%以上?10%以上?20%?或者这个线是你预先设定好的,假设你指定了10%这个点吧。那么烂了10.1%甚至10.0001%的苹果,算烂苹果吗?你期望它帮你扔掉吗?人类处理这类事情的时候,其实大脑自动处理了灰度问题,可能你都感觉不到,但对机器人的执行就会有问题。那么机器人真的不能灰度吗?设置一个“灰度区间”不就好了吗?比如你把这条线拉宽,从10%变成[10%,12%],不就有灰度空间了嘛?那么当出现12.0001%这样的苹果时,怎么办呢?机器人永远是讲究分界的,因为他们只有0和1,是非黑白分的很清楚。即便是你给出了摇摆的空间,但这不是灰度,人类的灰度永远不会有明确的边界,甚至会因为不同的环境不同的对象而出现完全不同的标准,这就是人类的世界。

这个“烂苹果”的例子举得不够全面,只是说明了在处理事实边界问题中如何有一个灰度,或者叫模糊边界,这类问题本身其实全部归结到数学问题也不是不可以做,这里说的“灰度”更多的是一种不确定性,随心所欲的不确定,比如人去做,可能会把一个9%的苹果也扔掉,可能就仅仅是因为它长得不好看而已。

那么当机器人终于把溃烂大于12%的苹果全部扔掉的时候,你觉得它做的足够好了嘛?但如果换成你指使你亲妈来做这件事情,那么她会多做一件事:她会把那些已经溃烂但又没有坏太多的苹果清洗一下,然后切下没有烂的那一半,留下来。因为你亲妈有足够的智慧知道那剩下的一半也是可以来榨汁的,而且你亲妈疼你。

这就是变通,基于对指令的深层次理解的变通。(可能例子举得不够贴切,不过,主要领会意思)这一点,往后出现的更聪明的机器人其实也可以实现,它可以对“挑出烂苹果”有N种方案,扔掉,挖掉,每个苹果切成100片然后扔掉烂的切片,等等。它甚至可以用人类不会去用的方式来更精细的处理,因为它不怕苦不怕累,不会抱怨,只为完成指令而生,在可以的情况下或许它会把苹果切成1000个小苹果丁来尽可能多的为你保留完好的部分。冷冰冰的可爱。说到底,其实又回去了一个经典问题,机器人不知道“盐少许”究竟是多少,它只知道xx克食材要配x克盐,然后去称这一锅食材重xxx克然后算出需要xx克盐。在这方面,人类还是强的。(那些不会炒菜的孩子,你们是最危险的因为很容易就被机器人替代了)为了突破这些问题向强AI挺进,科学界已经在研究“类人神经网络”,甚至一些机构计划从硬件设计上来打破机器人只有“0和1”这种尴尬局面,他们设法让计算得出处于[0,1]区间内的一个随机值。科技总是会进步的,进步就伴随着淘汰。

现在大行其道的深度学习算法,未来很可能会被丢弃,因为深度学习算法很可能成为未来限制强AI能力的瓶颈。AI的路很长,我们仅刚刚起步。

1573789653317706.gif

本文来自“人工智能园地”公众号

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。