冷眼看世界冰心动乾坤
2017年10月19日,DeepMind在《Nature》杂志发布了其最新研究成果AlphaGo Zero,这是迄今最强大的围棋程序:不需要依赖人类的知识,而直接采用自对弈进行训练。新版的AlphaGo计算能力空前强大,完全从零开始,3天超越AlphaGo李世石版本,21天达到Master水平。
1、潘多拉魔盒也许已打开
从AlphaGo ,再到AlphaGo Zero,已经一步步地证明,在人类的推动下,人工智能已经逐步具备了不断学习的能力。
我一直深深地认同霍金的思想,人工智能必将毁灭人类!
至于这个毁灭的起点在何时?终点又在何处?目前无法预测,只能通过种种事实,比如从AlphaGo,再到AlphaGo Zero的发展,推测人工智能已经被人类一手从潘多拉魔盒里释放出来了,它们正在飞快地成长。
2、可怕的人工智能
人工智能是一种模拟人类思维方式和认知方式的人工智能。
它的最大的特点,就是可以自我学习、自我训练、自我修正,这曾是人和机器的重要区别,因为机器只会按照预装的程序运行,程序里没有设定的功能,机器就绝对无法实现。
然而,一旦人工智能掌握了这些自我发展的能力,它将会变得可怕,它可能会游离于人的控制之外。以前的程序再复杂,也都是人类事先设定好的,并且准确的知道它要干什么;但这种自我进化、自我学习的人工智能,它极可能做出一些让人无法预知的事,进化出一种人类无法预知的能力,这才是最最可怕的。
3、颤抖吧,人类!
这种人工智能的开启,就像突然赋予了机器一种独立的智能,虽然这种智能一开始显得很初级、很原始,但它却能自己用人类无法企及的速度快速进化、快速学习。难道这些,不让人类感到恐惧吗?
但是,人工智能算得上是全体人类的智慧结晶,它不是某个人某个团队可以制造的,某个团队的实验成果也都是站在他人的成果之上,是一种智慧的叠加。
正是由于这个原因,也就意味着,没有某个人或某个团队,可以给人工智能的发展及时踩下刹车,只能任由其发展,并且越来越可怕。
虽然,目前,人类还在为人工智能的每一个进步而狂欢,总有一天,会哭不出来的。
时间将证明这一点。
如果你有钱,就赶紧买张单程票,尽快离开地球吧,亲。
【中关村在线新闻资讯】10月19日消息,今天谷歌旗下人工智能团队DeepMind在今天对外发布了一款全新的AlphaGo程序。这款软件名为AlphaGo Zero,与之前击败了李世石的AlphaGo Master进行对弈,胜率高达100%。
谷歌团队发布AlphaGo Zero:柯洁称人类太多余了(图片来自于推特)
在这款软件发出之后,柯洁也对这款软件发表了自己的看法,他认为:“一个纯净、纯粹自我学习的alphago是最强的...对于alphago的自我进步来讲...人类太多余了。”之所以柯洁会这样说,主要是因为AlphaGo Zero的练习主要是通过自我对弈在三十天之内发展起来的。
今年五月份的时候,DeepMind创始人戴密斯·哈萨比斯表示,这场与柯洁的第三场围棋对弈将成为AlphaGo的最后一场比赛,而未来他们的团队也将继续不断完善AI技术。没有想到的是,时隔五个多月的时间,DeepMind就拿出了更新换代的软件。
详情文/ 九儿谈网络
导语:互联网发展到现在,大有愈演愈烈的趋势,人工智能、深度学习等口号也是越来越响亮。早在人工智能出现的时候,就有很多的声音指出,人工智能恐怕会超出人类的掌控,世界将会被计算机占领——那一天我们不一定会看到,但是计算机不再需要人类的时代,已经来临。
最近几天,朋友圈、社交媒体、各大平台,刷屏式地报导着一件事——AlphaGo Zero不用人类经验,完全自学围棋,仅用3天,完胜AlphaGo!
作为曾经击败李世石(前围棋世界冠军)和柯洁(当时的围棋世界第一)AlphaGo,如今已经被它的小弟取代,更重要的是,AlphaGo Zero自学的时间仅三天!
▷ AlphaGo Zero的发明者,听听他怎么说
AlphaGo Zero最突出的特点就是自我对弈,就像老顽童周伯通的“左右互搏”——对手永远都和自己一样强大,自己就是自己的老师,成长的速度也自然是最快。
为什么AlphaGo Zero能当自己的老师?
这是因为它采用了一种叫做强化学习的新模式。系统从“婴儿”状态——对围棋一无所知——开始,将神经网络和一个强力搜索算法结合,进行自我对弈。在对弈过程中,神经网络根据每一次落点、每一次胜负,不断调整、升级,升级后的神经网络与搜索网络再结合成一个更强的新版本AlphaGo Zero。
如此往复循环,每过一轮,AlphaGo Zero都变得比之前更强一点,系统的表现更好,自我对弈的质量也更高。
没有人类的经验,不需要去学习人类棋谱,仅仅是根据设定的算法,就能实现思考和学习,像人类一样积累经验。
可以说,从此以后,思考不再是人类的专属!
甚至是,从理论上来讲,AlphaGo Zero没有极限——每一次都和最强大的自己对弈,每一次都会进步,还有终点吗?还会有对手吗?
AlphaGo打败了人类,AlphaGo Zero打败了AlphaGo,还有什么能打败AlphaGo Zero?
原址://mimura15.jp/?p=2754
原题:AlphaGoZero登场&棋谱感想
作者:三村智保
日期:2017年10月19日
2017年10月18日,AlphaGo的最新版本被发表出来了。
据说最新版本没有给它导入任何棋谱,完全让电脑从零开始学习围棋。
在此之前我非常期待DeepMind会开发什么新的程序,但是因为退役使我打了退堂鼓。
然后它呈现给我们到内容也非常震惊。
论文上说,新版AlphaGo仅用了三天时间,实力就超过了2016年3月战胜李世石版本的初代AlphaGo。
之后,再第40天的时候,把当时最强的AlphaGo Master击败了。
2017年5月,以压倒性优势击败柯洁九段并宣布退役的AlphaGo,在此之后依旧在幕后进步程序。
我们可以想象自我进行强化的现实,但是只教它简单的规则后让他自我对局,并且只用了40天就超过了所有人。我对这样几乎无法成为现实的事实面前,感到非常惊讶。
我从几盘被公布的棋谱里,选出3盘明显看到程序成长的棋谱,进行简单的解说。
第一局
看到第一手的时候以为这是最好的第一手棋,但是看到后面,才知道这个棋谱是AlphaGo Zero刚刚开始自我对局的棋谱。
或许围棋之神刚开始也是这么下棋的。
第二局
刚开始都下在了星位,而且还有点三三的下法,这个时候已经有相当的实力了。
第三局
这个时候AlphaGo Zero的棋已经很难判断有多强了。本以为这已经适最强版本了,但是这只是自我对局刚开始第70小时的时候,或许已经超过了对李世石的版本。
我还看了几盘吊打Master的棋谱,不过之后每一盘棋的布局,它们都是从角上开始行棋的。
然后程序的中后盘,和人类棋手所说的“棋理”感觉也没有差得很离谱。
程序从零起步,仅通过自我学习就发现了拥有长久历史的定式手顺,甚至还演变出了程序原创的定式。
还有一点,虽然没法确定,但是我们可以知道的是,AlphaGo Zero的计算力非常惊人。
AlphaGo Zero可以把战胜柯洁九段的AlphaGo完胜,或许计算力的差距吧。
我想在不久的将来,会有很多著名棋手研究AlphaGo Zero,期待他们对它的评价。
我也在看着棋谱的同时,期待棋手们的评价。
你是怎样看待alphago zero脱离了人类经验的?
2、可怕的人工智能 人工智能是一种模拟人类思维方式和认知方式的人工智能。它的最大的特点,就是可以自我学习、自我训练、自我修正,这曾是人和机器的重要区别,因为机器只会按照预装的程序运行,程序里没有设定的功能,机器就绝对无法实现。然而,一旦人工智能掌握了这些自我发展的能力,它将会变得可怕,它...
AlphaGo Zero的消息出来之后,国内外的围棋界怎么看待这件事情
关键不是赢了多少,而是AlphaGO Zero没有使用人类经验,而AlphaGO是学着人类经验成长起来的。这就意味着:在某些领域,人工智能可以不需要所谓大量数据(人的经验)就能实现智能化。这一点意义非凡,甚至会影响人工智能产业的发展方向。AlphaGo Zero,从本质上来说完全不同于打败樊麾和李世石的版本。算法上,...
100:0,新AlphaGo放弃了人类?
AlphaGo Zero与之前版本相比,最大的区别在于,它不再依靠人类的指导来成长,即之前的AlphaGo Lee是依赖于人工录入的大量棋谱来帮助其学习如何下棋,说白了,它是在人的指导下学习,可以理解为是人类千年围棋经验教出的学生。而AlphaGo Zero使用了强化学习算法,即不再依赖任何棋谱,编程人员输入围棋基本规则...
AlphaGo Zero论文解析
AlphaGo Zero无师自通,与之前的AlphaGo对战,战绩为100比0,展现出超人的表现。当前AI技术多采用监督学习方法,依赖人类专家数据来训练模型。然而,这类数据往往昂贵、不稳定或不可获取,且训练出的模型可能仅与人类专家相似,形成天花板效应。相比之下,强化学习通过智能体与环境的交互,理论上可以突破这...
如何评价AlphaGo Zero
抛弃人类经验”和“自我训练”并非AlphaGo Zero最大的亮点,其关键在于采用了新的reinforcement learning(强化学习的算法),并给该算法带了新的发展。[1]战绩 编辑 AlphaGo Zero仅拥有4个TPU,零人类经验,其自我训练的时间仅为3天,自我对弈的棋局数量为490万盘。但它以100:0的战绩击败前辈。[1]
如何评价 deepmind 发表在 nature 上的 alphago zero
抛弃人类经验”和“自我训练”并非AlphaGo Zero最大的亮点,其关键在于采用了新的reinforcement learning(强化学习的算法),并给该算法带了新的发展。[1]战绩 编辑 AlphaGo Zero仅拥有4个TPU,零人类经验,其自我训练的时间仅为3天,自我对弈的棋局数量为490万盘。但它以100:0的战绩击败前辈。[1]
阿尔法狗战胜了阿尔法狗人类是否再也无法阻止AI?
而Zero首次实现了脱离了人类经验的自我学习成长。就如它的名字一样,它以人设规则为限定条件进行优化学习,但是不依靠人类经验知识。通过“左右互搏”,不停地能根据训练结果进一步优化其算法,并自行创造崭新的策略。近3天时间,Zero便打赢了当初击败李世石的AlphaGo Lee;到第21天,Zero的排位分数已和曾...
人工智能的两面性,我们应该如何应对?
如果说AlphaGo战胜李世石让全世界重新认识了人工智能,升级版的AlphaGo战胜柯洁则将人工智能概念彻底引爆,而2017年底,Alpha Go全新迭代版本AlphaGo ZERO的横空出世,其不依赖人类经验的“强化学习”AI技术令人们哑口无言。 资本是聪明的。据PitchBook统计,2010年全球人工智能和机器学习领域获得的风险投资还不足5亿美元,而2017...
Al特别是阿法狗最新原理是什么,要简洁有新意?
在每次迭代中,阿尔法狗会根据实际对局的结果来更新自己的神经网络参数和策略,以不断提高自己的棋力和水平。总的来说,阿尔法狗的算法是一种基于深度学习和强化学习的蒙特卡罗树搜索算法,它结合了深度神经网络和强化学习的技术,让计算机程序通过自我学习和不断的实战经验来提高棋力和策略水平。
你是怎么看待阿尔法狗的?
阿尔法狗可以说是里程碑式地开创了历史,但是它并没有作出任何非常创新的技术,而deep mind只是将早已经存在的一些人工智能技术尤其是机器辨认图片技术运用到下棋上,之前没有人想过能这样做,这种尝试是一种创新。