【AI灼见·一】AlphaGo赢了围棋又怎样?有本事来打麻将啊~
【摘要】 【此文是标题党,请注意,下面这个才是真标题】
人工智能,路漫漫其修远
从过去到现在,人类对于机器人的幻想就从未停止过。
和人类仰望星空,探索宇宙一样,究其根本,人类的灵魂孤独而寂寞。
他们期望出现另一种生命或智慧形式,可以对话。在发现文明且友好的外星人之前,科学家在几十年前就寄希望于人工智能。
几十年后,当柯洁投子认输的那一刻,AI的狂热粉丝们开始普天庆祝,另一群人开始惶恐,认为不久的将来机器人将开始对人类的屠kill。
然而事实是,人工智能真的已经足够聪明了嘛?
No No No 。
AlphaGo选择围棋与人类对战,是认真而又取巧的。
20年前,IBM深蓝在国际象棋上就赢得了人类,20年后,围棋领域人类失守。
在没有硝烟的战场上,人机早已开战。
AlphaGo的成功,所代表的其实是智能程度的一个阶段性演进,从智能感知到智能决策,让机器人,像人一样的做决策
其实下棋对于计算机来说是“很简单”的一件事,它规则明确,这一点对机器来说非常重要,AlphaGo正是基于这些明确的规则去做价值评估。也没有意外和分支,不需要分析情感,它很适合擅长计算的机器人来做,反而人类在此项运动上有生理瓶颈;
AlphaGo背后依赖的就是大规模的快速计算,加上算法评估,我上一篇博文里提过,AlphaGo只是依靠三个函数来做决定。可是它赢了。它居然赢了。它一定会赢。
那么让AlphaGo打麻将呢?那就完全不同了。
虽然麻将的规则也较为清晰,但是它不可预知的因素更多,麻将老手往往更容易输给不按牌理出牌的新手,并且游戏过程中会出现大量的心理战和干扰,另一个不可忽视的可变因子是运气(概率)。
说到这里肯定会有人跳出来说,只要规则明确,牌数确定,那么搜索域就一定是有限的,AI的计算能力一定可以支撑。
嗯,对此我没什么好说的,如果真有人去做,AI在打麻将上赢过人类也只是时间问题,但这里面还有很多问题需要解决。
想象一下,如果AI刚扔出去一个四条,上手又摸了个四条,它会怎么处理这个四条?
麻将新手会怎么处理这个四条?
麻将老手会怎么处理这个四条?
信仰上苍的人会怎么处理这个四条?
以上不同人类玩家所下的不同决定在AI的眼中会被解读成什么信息?
所以AI很难在麻将中保证高胜率,说白了,麻将和围棋不一样,不是考脑力,而是考综合素质,当然,还有运气。
可惜的是,人类也不能保证麻将常胜。
那既然人也不能保证麻将常胜,说来作何?
其实只是想说明,现在的AI,和我们理想中的AI,差的太多了。
即便AlphaGo的围棋能力已经超过了九段,它依然是一个“弱人工智能”。
来来,注意注意,知识点(学池子敲黑板):
在人工智能研究方向上有两个阶段:弱人工智能和强人工智能。
- 弱人工智能主要指机器可以通过编程展现出人类智能的水平。「弱人工智能」被认为是针对特定领域,执行特定任务的人工智能研究,如语音识别和推荐系统(也称工具 AI)(AlphaGo由于基于深度学习和搜索仍被界定为弱人工智能)。
- 强人工智能则假设机器出现意识,或者说机器思考和认知的方式可以用以前形容人类的方式来形容,能够胜任人类大部分的工作,在大多数领域甚至达到取代人类50%以上的工作。
从人工智能的历史和研究角度来讲,人工智能的主要目的就是为了让机器表现得更像人。
虽然AlphaGo下棋战胜了人类,但它依然是弱人工智能。这对于期望看到更高级别人工智能的孩子来说,可能会有一些失望,因为强人工智能的研究依然处在瓶颈期,进展缓慢,并壁垒重重。
虽然AlphaGo下棋战胜了人类,但它依然是弱人工智能。这对于期望看到更高级别人工智能的孩子来说,可能会有一些失望,因为强人工智能的研究依然处在瓶颈期,进展缓慢,并壁垒重重。
在强人工智能之上,还有超人工智能(ASI),它被认为是一种比世界上最聪明、最有天赋的人类还聪明的人工智能系统,它做出高质量决策的能力比人类要强,它能考虑更多的信息和进一步洞悉未来。
这才是该引起人类恐慌的力量。
如果最聪明的强人工智能是100分,那么下面这个图供参考说明各个阶段的智能程度
即便是机器猫这样人格已经非常接近人类的机器人,也不能算“最聪明”的强人工智能,那么只会根据程序和算法去求更高获胜概率来下棋的AphlaGo就更不用说了。
AlphaGo第一次和李世石对战的时候,背后的计算资源就极其庞大,在和柯洁对战时,已经大幅度缩减了计算资源,能力提高了十倍,资源只用了十分之一(Google用了TPU),而且,还是一台单机版的AlphaGo
虽然AI的能力在快速增长,但科学家们依然不太满意当前AI能力,因为人类的心情更为迫切,他们希望强AI早日出现以改变当前的局面。
那么为什么强人工智能这么困难?
因为强人工智能期望是得到“类人脑”的计算,但人脑和机器脑还是有很多不一样的,人之所以是人,因为人的大脑有“灰度”和“变通”。
因为强人工智能期望是得到“类人脑”的计算,但人脑和机器脑还是有很多不一样的,人之所以是人,因为人的大脑有“灰度”和“变通”。
别小看这两个好像是个人就会的能力,对机器人来说,实现很困难,目前机器人难以真正掌握“灰度”,因为它们的世界只有0和1,非黑即白。
举个例子
假设你有了一个和AlphaGo这么“厉害”的机器人帮你做事,你指着一堆你批发回来的苹果跟它说“去帮我把烂苹果挑出来,我待会要榨苹果汁。”
OK,机器人去挑烂苹果了。
它怎么识别烂苹果呢?
它可能会去计算溃烂的面积和比重。那么问题来了,烂到什么程度算烂苹果呢?5%以上?10%以上?20%?
或者这个线是你预先设定好的,假设你指定了10%这个点吧。那么烂了10.1%甚至10.0001%的苹果,算烂苹果吗?你期望它帮你扔掉吗?
人类处理这类事情的时候,其实大脑自动处理了灰度问题,可能你都感觉不到,但对机器人的执行就会有问题。
那么机器人真的不能灰度吗?设置一个“灰度区间”不就好了吗?
比如你把这条线拉宽,从10%变成[10%,12%],不就有灰度空间了嘛?那么当出现12.0001%这样的苹果时,怎么办呢?
机器人永远是讲究分界的,因为他们只有0和1,是非黑白分的很清楚。
即便是你给出了摇摆的空间,但这不是灰度,人类的灰度永远不会有明确的边界,甚至会因为不同的环境不同的对象而出现完全不同的标准,这就是人类的世界。
(2017.6.15更新:这个“烂苹果”的例子举得不够全面,只是说明了在处理事实边界问题中如何有一个灰度,或者叫模糊边界,这类问题本身其实全部归结到数学问题也不是不可以做,我想说的“灰度”更多的是一种不确定性,随心所欲的不确定,比如人去做,可能会把一个9%的苹果也扔掉,可能就仅仅是因为它长得不好看而已。
发文时对上面“灰度”的说明已经标粗了,要先理解一下,首先是有不明显的边界,第二点也很重要,不同对象不同环境会有不同标准,比如很多人,行为处事都是双标,甚至多标,这是其中一类。再比如,举个我司灰度的例子:忘刷卡,忘刷卡之后,是必须请假,还是填忘刷卡,还是填外出公干,一个人一个月可以填几次(非政策约束)才不会有领导找谈话,每个领导每个部门都有不同的默许范围和容忍度,这也是一种灰度,如果领导是个机器人,以目前AI的水平,还很难去把握这其中的“度”,因为这个度不是靠随机就可以生成的。)
发文时对上面“灰度”的说明已经标粗了,要先理解一下,首先是有不明显的边界,第二点也很重要,不同对象不同环境会有不同标准,比如很多人,行为处事都是双标,甚至多标,这是其中一类。再比如,举个我司灰度的例子:忘刷卡,忘刷卡之后,是必须请假,还是填忘刷卡,还是填外出公干,一个人一个月可以填几次(非政策约束)才不会有领导找谈话,每个领导每个部门都有不同的默许范围和容忍度,这也是一种灰度,如果领导是个机器人,以目前AI的水平,还很难去把握这其中的“度”,因为这个度不是靠随机就可以生成的。)
那么当机器人终于把溃烂大于12%的苹果全部扔掉的时候,你觉得它做的足够好了嘛?
但如果换成你指使你亲妈来做这件事情,那么她会多做一件事:她会把那些已经溃烂但又没有坏太多的苹果清洗一下,然后切下没有烂的那一半,留下来。因为你亲妈有足够的智慧知道那剩下的一半也是可以来榨汁的,而且你亲妈疼你。
这就是变通,基于对指令的深层次理解的变通。(可能例子举得不够贴切,不过,主要领会意思)
这一点,往后出现的更聪明的机器人其实也可以实现,它可以对“挑出烂苹果”有N种方案,扔掉,挖掉,每个苹果切成100片然后扔掉烂的切片,等等等等。它甚至可以用人类不会去用的方式来更精细的处理,因为它不怕苦不怕累,不会抱怨,只为完成指令而生,在可以的情况下或许它会把苹果切成1000个小苹果丁来尽可能多的为你保留完好的部分。
冷冰冰的可爱。
说到底,其实又回去了一个经典问题,机器人不知道“盐少许”究竟是多少,它只知道xx克食材要配x克盐,然后去称这一锅食材重xxx克然后算出需要xx克盐。在这方面,人类还是强的。(那些不会炒菜的孩子,你们是最危险的因为很容易就被机器人替代了)
为了突破这些问题向强AI挺进,科学界已经在研究“类人神经网络”,甚至一些机构计划从硬件设计上来打破机器人只有“0和1”这种尴尬局面,他们设法让计算得出处于[0,1]区间内的一个随机值。
科技总是会进步的,进步就伴随着淘汰。
现在大行其道的深度学习算法,未来很可能会被丢弃,因为深度学习算法很可能成为未来限制强AI能力的瓶颈。
现在大行其道的深度学习算法,未来很可能会被丢弃,因为深度学习算法很可能成为未来限制强AI能力的瓶颈。
AI的路很长,而我们仅仅刚刚起步。
-----------------------------------------------------------------------------------------------------------------
有人会问,为什么上面的图里AlphaGo排在Watson的下面?凭什么?
嗯,因为张图是我画的,我愿意。
关于为什么它俩有高低之分,我想再写另一篇文章,IBM的Watson和Google的DeepMind代表了AI的两个学派:符号理论学派(Symbolists)和类神经网络学派(Connectionists)——分别对应认知计算和深度学习智能。
从我个人的角度讲,我认为以Watson为代表的认知计算更偏向类人计算,未来的发展和前景会更广,虽然他们两者底层所使用的技术很多都是一样的。
时间紧,写得粗糙,反正也没多少人看,就酱吧。
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)