算法的棋道

开场白

AlphaGo两番狂胜了人类围棋世界的确实王牌,世界第二的大韩民国高手李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是Google的DeepMind团队刚放出信息说征服了南美洲围棋亚军樊辉并打算挑战李世石的时候,我个人是很谨慎地说本场竞赛很难讲,但实质上心里觉得AlphaGo的赢面更大。只不过当时AlphaGo制伏的樊辉虽说是亚洲冠军,但全球名次都不入百,实在算不得是大高手。但AlphaGo的优势在于有半年多的刻钟可以不眠不休地上学提升,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再增长自身所查出的人类固有的夜郎自大,这个战内战外的元素结合在联合,虽然嘴巴上说这事难讲,但心里是确认了AlphaGo会赢得。

结果,李世石赛前说竞技应该会5:0或者4:1而温馨的使命就是硬着头皮阻止这1的面世,但实质上的战况却是现在AlphaGo以2:0的比分暂时超越。且,假如不出意外的话,最后的总比分应该是AlphaGo胜出——只不过到底是5:0依旧4:1,这还有待事态发展。

这一幕不由地令人记念了当初的吴清源,将有着不屑他的敌方一一斩落,最终敢让中外先。

自然了,当今世界棋坛第一人的柯洁对此可能是不允许的,但让自身说,假如下半年AlphaGo搦战柯洁,或者柯洁主动挑衅AlphaGo,这我如故坚决地觉得,AlphaGo可以摆平柯洁。

而是,这里所要说的并不是上述这么些时代背景。

机械超过人类唯有是一个时刻的问题,当然还有一个人类是不是肯丢下脸面去肯定的题材[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是重点,为啥会输怎么会赢,这才是根本。


AlphaGo的算法

率先局对弈中,李世石开局采用所有人都并未走过的起始,是为着试探AlphaGo。而中后盘又出新了明确的恶手,所以人们常见可以认为AlphaGo是捕捉到了李世石本身的重点失误,这才完成的逆袭。

事实上李世石本人也是这般认为的。

但到了第二局,事情就全盘两样了。执黑的AlphaGo竟然让李世石认为自己一直就从不当真地占据过优势,从而得以认为是被一并抑制着走到了最后。

而且,无论是第一局依旧第二局,AlphaGo都走出了颇具事情棋手都拍案叫绝的巨匠,或者是让所有职业棋手都皱眉不接的怪手。

不少时候,明明在生意棋手看来是不应有走的落子,最终却如故发挥了千奇百怪的功能。就连赛前认为AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

事情棋手出生的李喆连续写了两篇小说来分析这两局棋,在对棋局的分析上本人自然是不能比他更专业的。我这边所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是哪些啊?


AlphaGo的算法,可以分为四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 策略网络
  2. 高速走子
  3. 估值网络
  4. 蒙特卡洛树搜索

这两个部分有机整合在一块儿,就结成了AlphaGo的算法。

自然,这么说相比干燥,所以让我们从蒙特卡洛树开班做一个简单易行的牵线。

当我们在玩一个游戏的时候(当然,最好是围棋象棋这种新闻通通透明公开且完备没有不可知成分的游玩),对于下一步应该咋样行动,最好的艺术自然是将下一步所有可能的事态都列举出来,然后分析敌方具备可能的政策,再分析自己有所可能的答应,直到最后竞赛停止。这就一定于是说,以明日的局面为种子,每两回预判都开展一定数额的分岔,构造出一棵完备的“决策树”——这里所谓的齐全,是说每一种可能的前景的浮动都能在那棵决策树中被反映出来,从而没有跑出决策树之外的可能。

有了决策树,我们自然可以分析,哪些下一步的行事是对协调有利的,哪些是对友好伤害的,从而选取最便宜的那一步来走。

也就是说,当我们拥有完备的决策树的时候,胜负基本已经定下了,或者说如何回答能够克制,基本已经定下了。

更极致一点的,梅策罗有条定律就是说,在上述这类游戏中,必然存在至少一条这种必胜的方针[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

故而,原则上来说,在全知全能的上帝(当然是不存在的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、日本将棋),上帝都明白怎么走必胜,或者最多最多就是你走的恰恰和上帝所预设的一样。

但,上述完全的齐全的无微不至的决策树,即使理论上对此围棋这样的娱乐来说是存在的,但其实我们鞭长莫及赢得。

岂不过说咱俩人类无法得到,更是说大家的机器也无能为力得到——围棋最终的范畴恐怕有3361种可能,那么些数据超越了人类可观看宇宙中的原子总数。

因而,现在的气象是:无论是人依旧机器,都只好领悟完全决策树的一部分,而且是非凡特别小的一有些。

于是,上述神之棋路是我们人类和机器都不能控制的。

就此,人和机具就接纳了肯定的招数来多决策树做简化,至上将其简化到温馨能处理的档次。

在这一个进程中,一个最自然的法门(无论对机械依然对人来说),就是只考虑少量层次的一点一滴展开,而在这么些层次之后的决策开展则是不完全的。

诸如,第一步有100种可能,我们都考虑。而这100种可能的落子之后,就会有第二部的抉择,这里比如有99种可能,但我们并不都考虑,我们只考虑其中的9种。那么自然两层进行有9900种可能,现在我们就只考虑其中的900种,总计量自然是极为裁减。

此处,大方向人和机械是同样的,差距在于到底怎么样筛选。

对机械来说,不完全的表决举行所接纳的是蒙特卡洛艺术——假定对子决策的擅自接纳中好与坏的分布与完全展开的状态下的分布是相似的,那么大家就足以用少量的妄动取样来表示全盘采样的结果。

简单就是:我随便选多少个可能的表决,然后最进一步分析。

此处当然就存在很大的风向了:倘诺刚好有部分决策,是任意过程没有入选的,这不就蛋疼了么?

这一点人的做法并不相同,因为人并不完全是随便做出采用。

这边就拉扯到了所谓的棋感或者大局观。

众人在落子的时候,并不是对负有可能的成千上万个选拔中随机选一个出去试试未来的提高,而是利用棋形、定式、手筋等等通过对局或者学习而得来的经验,来判定出什么样落子的方向更高,哪些地方的落子则基本能够无视。

因而,这就出现了AlphaGo与李世石对局中这多少人类棋手很莫名的棋着来了——依据人类的阅历,从棋形、棋感、定式等等经历出发完全不应该去走的落子,AlphaGo就走了出来。

在观念只使用蒙特卡洛树搜索的算法中,由于对落子地方的精选以自由为主,所以棋力不可能再做出提升。这等于是说机器是一个完全没学过围棋的人,完全靠着强大的统计力来预测未来几百步的腾飞,但这几百步中的大多数都是擅自走出的不容许之棋局,没有实际的参考价值。

非死不可的DarkForest和DeepMind的AlphaGo所做的,就是将原先用来图形图像分析的纵深卷积神经网络用到了对棋局的分析上,然后将分析结果用到了蒙特卡洛树搜索中。

此间,深度卷积神经网络(DCNN)的效益,是经过对棋局的图形图像分析,来分析棋局背后所隐藏的原理——用人的话来说,就是棋形对总体棋局的影响规律。

然后,将这个规律效率到对决策树的剪裁上,不再是截然通过任意的办法来判断下一步应该往哪走,而是采取DCNN来分析当下的棋形,从而分析当下棋形中如何地点的落子具有更高的价值,哪些地方的落子几乎毫无价值,从而将无价值的或者落子从决策树中减除,而对什么具有高价值的核定开展更为的解析。

这就万分是将学习来的棋形对棋局的熏陶规律运用到了对将来或者提高的选料策略中,从而组合了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,这种上学经验的运用能够认为分为两片段。一个是估值网络,对全体棋局大势做分析;而另一个是全速走子,对棋局的部分特征做出分析匹配。

由此,一个负责“大局观”,而另一个顶住“局部判断”,这六个最终都被用来做决定的剪裁,给出有丰裕深度与准确度的剖析。

与之相对的,人的核定时怎么着制定的呢?


人类的瑕疵

自家固然不是王牌,只是通晓围棋规则和简易的多少个定式,但人的一大特点就是,人的成千上万考虑模式是在生活的各类领域都通用的,一般不会合世一个人在下围棋时用的思绪与干另外事时的思绪彻底不同这样的境况。

就此,我可以透过分析自己与考察别人在平日生活中的行为以及咋样促成那种作为的缘故,来分析下棋的时候人类的宽广一般性策略是什么的。

这就是——人类会基于我的心性与情怀等非棋道的因素,来举办裁定裁剪。

例如,我们平时会说一个好手的风骨是封建的,而另一个国手的风骨是偏向于激进厮杀的——记得人们对李世石的品格界定就是这般。

这意味什么样?这其实是说,当下一步可能的裁决有100条,其中30条偏保守,30条偏激进,40条中庸,这么个状态下,一个棋风嗜血的能工巧匠可能会采纳这激进的30条政策,而忽视此外70条;而一个棋风保守的,则可能接纳保守的30条方针;一个棋风稳健的,则可能是这柔和的40条方针为主。

她俩选取策略的要素不是因为那么些方针可能的胜率更高,而是那些政策所能呈现出的一部分的棋感更合乎自己的品格——这是与是否能获胜无关的市值判断,甚至足以说是和棋本身无关的一种判断方法,按照仅仅是友好是否喜欢。

更进一步,人类棋手仍可以够按照对手的棋风、性格等元素,来筛选出对手所可能走的棋路,从而筛选出可能的方针举办回手。

之所以,也就是说:是因为人脑不能处理这样翻天覆地的音讯、决策分岔与可能,于是人脑索性利用自身的性情与经验等要素,做出与处理问题无关的音信筛选。

那可以说是AlphaGo与人类棋手最大的例外。

人类棋手很可能会因为风格、性格、激情等等因素的影响,而对少数可能性做出不够重视的判定,但这种气象在AlphaGo的算法中是不设有的。

中间,心情可以由此各个手段来避免,但权威个人的风格与更深层次的人性元素,却全然可能造成上述弱点在融洽无法控制的事态下出现。但那是AlphaGo所不抱有的短处——当然,这不是说AlphaGo没弱点,只但是没有人类的瑕疵罢了。

究其一贯,那种通过战局外的元平素筛选战局内的决策的图景于是会出现,原因在于人脑的信息处理能力的缺少(当然假如我们统计一个单位体积仍然单位质地的拍卖问题的力量来说,那么人脑应该仍然优于现在的电脑很多浩大的,那一点毋庸置疑),从而只好通过这种手法来下滑所需分析的音讯量,以确保自己可以做到任务。

这是一种在点滴资源下的取舍策略,牺牲广度的还要来换取深度以及最终对题目的化解。

并且,又由于人脑的那种效果并不是为了某个特定任务而付出的,而是对于整个生存与生存的话的“通识”,因而那种舍去自己只可以与人的私家有关,而与要处理的题目无关,从而不可能形成AlphaGo这样完全只透过局面的剖析来做出筛选,而是经过棋局之外的因一直做出采用。

这就是人与AlphaGo的最大不同,能够说是独家写在基因与代码上的命门。

更进一步,人类除了上述裁决筛选的通用方案之外,当然是有针对特定问题的一定筛选方案的,具体在围棋上,这就是各类定式、套路以及各类成熟或者不成熟的有关棋形与大势的驳斥,或者只有是感到。

也就是说,人通过学习来领会一些与全局特征,并应用这么些特征来做出裁定,那一个手续本身和机械所干的是如出一辙的。但不同点在于,人或许过于看重那一个已有的经验总括,从而陷入可能出现而无人注意的牢笼中。

这就是这一次AlphaGo数次走出有违人类经历常理的棋着但之后发现很有用很尖锐的原故——大家并不知道自己数千年来总括下来的经验到底能在多大程度上采取于新的棋局而依旧有效。

但AlphaGo的算法没有这下面的苦恼。它尽管如故是利用人类的棋谱所提交的经历,利用这些棋谱中所呈现出的大局或者有些的法则,但结尾仍然会通过蒙特卡洛树搜索将这么些经验运用到对棋局的推理中去,而不是直接使用这多少个规律做出定式般的落子。

之所以,不但定式对AlphaGo是没意义的,所谓不走平日路的新棋路对AlphaGo来说威逼也不大——本次先是局中李世石的新棋路不就同一失效了么?由此尽管吴清源再世,或者秀哉再世(佐为??),他们即便开创出全新的棋路,也不可能当做自然能打败AlphaGo的基于。

辩论上来说,只要出现过的棋谱充裕多,那么就能找出围棋背后的法则,而这就是机械学习要打通出来的。新的棋路,本质上只是是这种规律所衍变出的一种无人见过的新情景,而不是新规律。

那么,AlphaGo的毛病是哪些?它是不是全无弱点?

这点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人同样不能对拥有可能的裁决都做出分析,即便可以运用各样手法来做出价值判断,并对高价值的核定做出深远剖析,但归根结底不是任何,依旧会有遗漏。这点我就表明:AlphaGo的设想不容许是兼备的。

与此同时,很扎眼的是,假诺一个生人可能举行的策略在AlphaGo看来只会带动不高的胜率,那么那种策略本身就会被清除,从而这种方针所带动的成形就不在AlphaGo当下的设想中。

故而,假使说存在一种棋路,它在初期的多轮思考中都不会带动高胜率,那么这种棋路就是AlphaGo“意想不到”的。

而只要那种每一步都并未高胜率的棋路在多少步后可以交给一个对人类来说绝佳的局面,从而让AlphaGo无法逆袭,那么这种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它后面,它的每一步铺垫都是低胜率的,而最后构造出的棋形却持有相对的高胜率,这种低开高走的棋路,是会被AlphaGo忽略的。

固然大家并不知道这种棋路是否存在,以及这种棋路假如存在的话应当长什么样,但我们起码知道,从理论上来说,这种棋路是AlphaGo的死角,而这一死角的存在就遵照这多少个真相:无论是人或者AlphaGo,都不能对具备策略的享有衍生和变化都控制,从而无论咋样死角总是存在的。

理所当然,这一理论上的死穴的存在性并不可以扶助人类获胜,因为这要求极深的鉴赏力和预判能力,以及要协会出一个哪怕AlphaGo察觉了也已回天乏力的几乎可以说是定局的范围,这两点本身的渴求就分外高,尤其在思索深度上,人类或者本就比可是机器,从而这样的死角可能最后唯有机器能做到——也就是说,我们可以针对AlphaGo的算法研发一款BetaGo,专门生成制服AlphaGo的棋路,然后人类去读书。以算法打败算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但这样到底是机械赢了,依旧人赢了呢?

另一方面,上述方法即便是辩论上的AlphaGo思维的死角,本人们并不容易精通。这有没有人们可以明白的AlphaGo的死角啊?

这一点可能极度难。我以为李喆的看法是卓殊有道理的,这就是行使人类现在和野史上的一体化经验。

成立新的棋局就务须面对处理你自己都不曾充足面对充足准备过的局面,这种境况下人类享有前边所说过的三个毛病从而要么思考不完全要么陷入过往经验与定式的坑中没能走出来,而机械却得以更匀称地对具有可能的规模尽可能分析,思考更健全周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

扭动,倘诺是全人类曾经探究多年百般充裕熟稔的规模,已经远非新花样可以玩出来了,那么机器的圆满考虑就不一定能比人的千年经历更占用。

于是,面对AlphaGo,人类自以为傲的成立力恐怕反而是阻碍,回归传统应用传统积累才有可能胜利。

但,这样的赢球等于是说:我创制力不如机器,我用自己的经验砸死你。

人类引以为傲的创建力被撤消,机器本应更善于的被定式却成了救命稻草,这不是很虐心么?

那就是说,革新棋路是否真正不容许打败AlphaGo?这一点至少从当前来看,几乎不能,除非——

一旦李世石和另别人类实际通过这两天,或者说在这几年里都排演过一个被演绎得很充足的新棋路,但这套棋路一直没有被以其他情势公开过,那么如此的新棋路对AlphaGo来说可能会招致麻烦,因为本来革新中AlphaGo的人均周密考虑或者会败给李世石等人类棋手多年的推理专修而来的公家经验。

由此,我们前些天有了三条可以制伏AlphaGo的或是之路:

  1. 透过每一步低胜率的棋着布局出一个兼有极高胜率的框框,利用中期的低胜率骗过AlphaGo的政策剪枝算法,可以说是钻算法的漏洞;
  2. 拔取人类千年的围棋经验总计,靠传统定式而非创设力打败思考均衡的AlphaGo,可以说是用历史克服算法;
  3. 人类棋手秘而不宣地讨论没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而总括学习来的阅历,可以说是用创设大胜制算法。

其中,算法漏洞是必杀,但人类未必能操纵,只好靠未来更提高的算法,所以不算是人类的制伏;用历史战胜算法,则足以说屏弃了人类的高傲与自豪,胜之有愧;而用成立大捷服算法,大概算是最有范的,但却如故很难说必胜——而且万一AlphaGo自己与协调的千万局对弈中早就发现了这种棋路,这人类仍旧会惜败。

综合,要战胜AlphaGo,实在是一条充满了忙绿优异的征途,而且未必能走到头。


人相对AlphaGo的优势

即便说,在围棋项目上,人一定最后败在以AlphaGo为代表的微处理器算法的近期,但这并不意味AlphaGo为代表的围棋算法就着实已经超越了人类。

题目标关键在于:AlphaGo下棋的目标,是预设在算法中的,而不是其协调生成的。

也就是说,AlphaGo之所以会去下围棋,会去努力赢围棋,因为人类设定了AlphaGo要去这样做,这不是AlphaGo自己能操纵的。

那可以说是人与AlphaGo之间做大的两样。

而,进一步来分析的话,我们不由地要问:人活在这些世界上是否真的是无预设的,完全有谈得来决定的吧?

或是不一定。

包括人在内的装有生物,基本都有一个预设的目标,这就是要力保自己能活下来,也即求生欲。

人方可透过各样先天的阅历来讲那些目的压制下去,但这一对象本身是写在人类的基因中的。

从这一点来看,AlphaGo的问题也许并不是被预设了一个指标,而是当前还不具有设置自己的目的的能力,从而就一发谈不上以相好设置的靶子覆盖预设的对象的也许了。

那么,如何让算法能够自己设定目的吗?那个题材可能没那么容易来回应。

4858mgm,而,若是将这些问题局限在围棋领域,那么就成了:AlphaGo就算知道要去赢棋,但并不知道赢棋这个目的可以分解为前中后三期的子目的,比如人类通常谈及的争大势、夺实地以及尾声的胜利,这类子目的。

虽然在少数小片段,DCNN似乎显示了足以将问题解释为子目标并加以解决的力量,但至少在开设总体指标这几个题材上,最近的算法看来还无法。

那种自助设定目的的力量的不够,恐怕会是一种对算法能力的掣肘,因为子目标有时候会极大地简化策略搜索空间的构造与大小,从而防止统计资源的浪费。

一头,人超越AlphaGo的单方面,在于人享有将各个不同的移位共通抽象出一种通用的规律的力量。

人们可以从平日生活、体育活动、工作学习等等活动中架空出一种通用的法则并收为己用,这种规律可以认为是世界观如故价值观,也如故另外什么,然后将那种三观运用到比如写作与下棋中,从而形成一种通过这种具体活动而映现出团结对人生对生活的见解的奇异风格,这种力量近来电脑的算法并无法控制。

这种将各不同世界中的规律进一步融会贯通抽象出更深一层规律的能力,原则上的话并不是算法做不到的,但大家近来从未有过观望的一个最重要的因由,恐怕是不管AlphaGo如故Google的Atlas或者其余什么品种,都是针对性一个个特定领域规划的,而不是计划性来对通常生活的方方面面举办处理。

也就是说,在算法设计方面,大家所持的是一种还原论,将人的能力分解还原为一个个天地内的有意能力,而还未曾设想什么将这多少个解释后的能力再另行构成起来。

但人在自然演变过程中却不是这般,人并不是通过对一个个类别的研讨,然后汇集成一个人,人是在从来面对通常生活中的各个领域的题目,直接演变出了大脑,然后才用这一个大脑去处理一个个一定领域内的切实问题。

据此,算法是由底向上的筹划方法,而人类却是由顶向下的筹划艺术,这恐怕是两头最大的不同啊。

这也就是,即使在某个具体问题上,以AlphaGo为代表的电脑的训练样本是远大于人的,但在总体上来说,人的训练样本却可能是远高于统计机的,因为人可以使用围棋之外的其余平常生活的移位来操练自己的大脑。

这恐怕是一种新的就学算法设计方向——先规划一种可以动用所有可以探测到的移动来锻炼自己的神经网络演化算法,然后再采取那个算法已经变化的神经网络来读书某个特定领域的题材。

这种通用的神经网络算法相对于专门领域的算法到底是优是劣,那或许在那一天出来从前,人类是无能为力知道的了。


人与AlphaGo的不同

说到底,让大家再次回到AlphaGo与李世石的博弈上。

咱俩得以看出,在这两局中,最大的一个特性,就是AlphaGo所明白的棋道,与人所知晓的棋道,看来是存在很大的不同的。

那也就是说,人所设计的下围棋的算法,与人自己对围棋的了然,是例外的。

这表示如何?

这代表,人为了化解某个问题而规划的算法,很可能会做出与人对这多少个题材的敞亮不同的表现来,而以此行为满意算法本身对这一个题目标知晓。

这是一件细思极恐的事,因为那象征拥有更强力量的机器可能因为知道的例外而做出与人不等的一言一行来。这种行为人不可能精晓,也无法判定究竟是对是错是好是坏,在终极后果到来从前人根本不晓得机器的行事到底是何目标。

就此,完全可能出现一种很科幻的规模:人规划了一套“能将人类社会变好”的算法,而这套算法的所作所为却令人统统不可以知晓,以至于最后的社会或者更好,但中间的作为以及给人带来的规模却是人类有史以来想不到的。

那大概是最令人担忧的呢。

当然,就当前以来,这一天的来到大概还早,近来大家还不用太担心。


结尾

今天是AlphaGo与李世石的第三轮对决,希望能享有惊喜吧,当然我是说AlphaGo能为全人类带来更多的惊喜。


正文服从撰写共享CC BY-NC-SA
4.0共谋

通过本协议,您可以大快朵颐并修改本文内容,只要你坚守以下授权条款规定:姓名标示
非商业性一如既往情势分享
具体内容请查阅上述协议表明。

本文禁止一切纸媒,即印刷于纸张之上的整整组织,包括但不限于转载、摘编的另外利用和衍生。网络平台如需转载必须与本人联系确认。


如果喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的稿子》《严穆码匠圈》</small>


  1. 对,是社会风气第二,因为就在年底她碰巧被中国围棋天才柯洁斩落马下,所以柯洁现在是世界首先,李世石很欠好地降低到了世界第二。当然了,AlphaGo背后的DeepMind团队打算挑战李世石的时候,他仍旧世界第一。

  2. 有一个很有意思的机能,称为“AI效应”,大意就是说假诺机器在某个圈子跨越了人类,那么人类就会发布这一世界不可能代表人类的聪明,从而一向维持着“AI不能逾越人类”的范畴。这种掩耳盗铃的鸵鸟政策其实是令人叹为观止。

  3. 这一部分可以看非死不可围棋项目DarkForest在知乎的小说:AlphaGo的分析

  4. 策梅洛于1913年提议的策梅洛定理表示,在二人的星星游戏中,假诺两者皆具有完全的情报,并且运气因素并不牵扯在戏耍中,这先行或后行者当中必有一方有胜利/必不败的策略。

  5. 这方面,有人曾经研讨了一种算法,能够特意功课基于特定神经网络的求学算法,从而构造出在人看来无意义的噪音而在电脑看来却能识别出各类不存在的图片的图像。将来这种针对算法的“病毒算法”恐怕会比学习算法本身具有更大的商海和更高的关怀。

相关文章