领略前世今生

领略前世今生,第1张

前世今生,带你了解AlphaGo的发展历程 01

围棋(AlphaGo)是一个围棋人工智能程序,由谷歌在英国伦敦的子公司DeepMind公司的David middot开发。白银、爱家 middot还有黄Demis middotHabis和他们的团队使用 价值 要计算情况,请使用 策略 去选择下一步。

阿尔法的主要设计师:

大卫 middotDavid Silver,计算机科学学士,剑桥大学计算机科学硕士,加拿大阿尔伯塔大学计算机科学博士。
他目前是伦敦大学学院的讲师,也是谷歌DeepMind的研究员。

黄士杰,台湾交通大学计算机科学学士,台湾省师范大学计算机科学硕士和博士,加拿大阿尔伯塔大学计算机科学博士后。
现在是谷歌DeepMind的研究员。

围棋(AlphaGo)是通过两个不同的神经网络 大脑 合作提高棋艺。
这些大脑是多层神经网络,在结构上类似于谷歌图片搜索引擎识别的那些图片。
他们从一个多层启发式二维过滤器开始处理围棋棋盘的定位,就像图片分类器网络处理图片一样。
经过过滤,13个全连接的神经网络层对看到的东西产生判断。
这些层可以做分类和逻辑推理。

这些网络通过反复训练来检查结果,然后校对调整参数,让接下来的执行更好。
这个处理器有很多随机元素,所以人们不可能确切知道网络 思考 是的,但是更多的训练可以使它变得更好。

第一个大脑:移动选择器

AlphaGo的第一个神经网络大脑是 监管政策网络 观察棋盘的布局,试图找到最好的下一步。
其实它预测了每一个合法的下一步的最佳概率,所以第一个猜测就是概率最高的那个。
这可以理解为 子选择器 。

第二个大脑:位置评估者

AlphaGo (AlphaGo)的第二大脑回答的是另一个相对于下拉选择器的问题。
它不是猜测具体的下一步,而是在给定棋子位置的情况下,预测每个棋手赢棋的可能性。
这 情况评估员 那就是 价值网) ,通过判断大局来辅助后面的选人。
这个判断只是大概,但对提高阅读速度很有帮助。
通过对潜在的未来情况进行分类 好 用 不好 AlphaGo可以通过特殊变体来决定是否深度阅读。
如果情况评估员说这个特定的变体不好,那么AI将跳过阅读这一行中的任何更多移动。

2015年10月,阿尔法围棋以5: 0击败欧洲围棋冠军、职业二段棋手魏凡。
2016年3月,挑战世界围棋冠军、职业九段棋手李世石。
根据赛程安排,3月9日、10日、12日、13日、15日分别进行5场棋赛。即使一方先赢三局,也要补五局。
最后以4:1 ;。战争 。

2016年3月27日,AlphaGo确认挑战《星际争霸2》。
2016年12月29日晚起,一个注册为 主人 ,标注为韩国的九段 在线棋手 连续 踢馆 城市网和野狐网。
2016年12月29日晚至2017年1月4日晚,师父与人类顶尖高手的交手战绩为60胜0负。
最后一盘之前,大师透露, 他 是AlphaGo。

2017年5月23日-27日,柯洁与围棋AI AlphaGo在 中国乌镇 middotGo summit 扩展游戏。
5月23日、25日、27日分别打了三场。

未来,Alpha Go将与医疗、机器人相结合,更好地服务于人类。

欢迎分享,转载请注明来源:聚客百科

原文地址: https://juke.outofmemory.cn/tech/372686.html

()
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-19
下一篇 2022-06-19

发表评论

登录后才能评论

评论列表(0条)

保存