中国在人工智能领域的科研实力怎么样
昨天,中国科学院文献情报中心与科睿唯安在北京召开《G20国家科技竞争格局之辩》系列报告发布暨研讨会,聚焦于G20国家的科技发展现状,追踪研究各国总体及人工智能领域的科研表现力和技术创新力,为中国建设科技强国和世界人工智能创新中心提供有价值的信息支撑和决策分析依据。而其中的《人工智能专题报告》指出中国科研实力不断上升,更是处于G20中上游水平,但配套的人才储备以及经费投入仍需加强。
其实近两年来,我们都可以清楚地感受到AI人工智能、深度计算、机器学习已经成为科技巨头竞相重点攻关目标,同时各国政府都看到其未来重要性,有相应的布局与支持计划。
《G20国家科技竞争格局之辩》指出,G20国家占据了世界科研论文成果总额的90%,意味着科研实力被这个20个国家牢牢掌控。其中中国的科研表现力提升迅速,科研经费投入、科研论文产出与学术影响力在2012-2016年均跃居世界第二位,其中关于化学、计算机科学、工程学、材料科学和物理学学科处于领先地位;同时中国在2012-2016年的专利申请量超过美国,居世界第一位。
而在人工智能方面,中国同样是增速明显,在人工智能的四个分支领域,中国表现最突出的是机器学习、自然语言处理和计算机视觉三个领域,稍微欠缺的一环是在语音处理上,不过仍处于G20国家中上游水准。另一方面报告指出中国人才储备、学术研究力量、经费资助仍需努力,形成了“美国一家独大,英国、印度和加拿大等紧随其后,中国尚有明显差距”的竞争局面。
目前G20国家在医疗、交通、教育和金融行业的人工智能研发及应用呈现百花齐放的景象,中国已经注重人工智能技术在行业上的应用于投入,并持续深耕,目前已经有相当一批产品已经进入商业以及公众生活等多个环节,加上早前乐观地估计中国2020年AI市场规模有望突破1600亿,可见人工智能前景非常广阔。
以围棋胜负来判定人工智能高低能否可行
先给一个肯定的回答,就目前人工智能的发展来说,如果以围棋的胜负来判定其能力的高低是可行的。
咱们可以先看1997年IBM公司的人工智能“深蓝”,它在国际象棋上击败了国际象棋大师卡斯帕罗夫。
根据这位大师的回忆,在1985年的时候,他战胜阿纳托利·卡尔波夫之后成为世界国际象棋冠军。在那一年,他在德国汉堡与世界上最先进的32台象棋电脑展开了一场车轮战。比赛结果全盘获胜。然而,仅仅12年后的1997年,大师需要拼尽全力对战一台计算机,当时的《新闻周刊》把这场比赛称为“人脑的最后防线”。那一年象棋计算机在科技的加持下,实力大增;而大师正好又是国际象棋冠军,于是代表全人类与机器进行了那场至今仍然家喻户晓的对决。他与IBM“深蓝”计算机下了两盘棋,一胜一败。
大师将计算机的胜利归功于“深蓝”计算机的创造者,许峰雄(电脑“深蓝”的设计者,出生于中国台湾,毕业于台湾大学和卡内基·梅隆大学),并向他和他的团队由衷致敬。因为机器的胜利也是人类的胜利(因为人类是机器的缔造者),当时的“深蓝”能够在一秒钟内分析出惊人的200万个棋位。
但那个时候有人说,围棋是人工智能无法攻克的壁垒,是因为围棋计算量实在是太大了。选择围棋除了这个,还有一个原因。1、对于计算机来说,每一个位置都有黑、白、空三种可能,那么棋盘对于计算机来说就有3的361次方种可能,而宇宙的原子只有10的80次方。下图是围棋的复杂程度卷积。
但令人震惊的是在2016年3月份,AlphaGo以4-1的比分击败李世石。而AlphaGo的算法也不是穷举法,而是在人类的棋谱中学习人类的招法,不断进步,就是我们说的机器学习。而它在后台,进行的则是胜率的分析,这跟人类的思维方式有很大的区别,它不会像人类一样计算目数,而是胜率,它会将对手的信息和招式完全记录下来,如果对手没有新的招式来应对,输的概率是非常之大。
2、围棋作为一种开启智力的“游戏”,已有3000多年的历史,人机对弈也有近50年历史。《大英百科全书》中说:“围棋,公元前2356年起源于中国。”自古以来,围棋备受帝王、将军和知识分子、神童的喜爱,在国外包括爱因斯坦、约翰纳什和图灵等都是围棋的爱好者。围棋的英文就是“Go”,所以人家其实不叫阿尔法狗(只是咱们中文的谐音),真正的叫法是阿尔法围棋。
阿尔法围棋有哪些特别之处?阿尔法围棋是一个中央处理器(CentralProcessUnit,CPU)和图形处理器(GraphicProcessUnit,GPU)一起工作的围棋智能机器人。
阿尔法围棋以神经网络、深度学习、蒙特卡洛树搜索法为核心算法。系统由四部分组成:1、策略网络(PolicyNetwork),以当前局面为输入,预测下一步的走法;
2、快速走子(FastRollout),目标和策略网络相似,在适当牺牲质量的条件下的加速走法;
3、价值网络(ValueNetwork),以当前局面为输入,估算胜率。
4、蒙特卡洛树搜索(MonteCarloTreeSearch),把上述三个部分整合起来,形成完整的系统。
早期的阿尔法狗有176个GPU和1202个CPU。GPU能够通过内部极多进程的并行运算,取得比CPU高一个数量级的运算速度。
阿尔法围棋(AlphaGo)是通过两个不同神经网络“大脑”合作来改进下棋。这些“大脑”是多层神经网络,跟那些Google图片搜索引擎识别图片在结构上是相似的。它们从多层启发式二维过滤器开始,去处理围棋棋盘的定位,就像图片分类器网络处理图片一样。经过过滤,13个完全连接的神经网络层产生对它们看到的局面判断。这些层能够做分类和逻辑推理。第一大脑:落子选择器(MovePicker)
阿尔法围棋(AlphaGo)的第一个神经网络大脑是“监督学习的策略网络(PolicyNetwork)”,观察棋盘布局企图找到最佳的下一步。事实上,它预测每一个合法下一步的最佳概率,那么最前面猜测的就是那个概率最高的。这可以理解成“落子选择器”。
第二大脑:棋局评估器(PositionEvaluator)
阿尔法围棋(AlphaGo)的第二个大脑相对于落子选择器是回答另一个问题,它不是去猜测具体下一步,而是在给定棋子位置情况下,预测每一个棋手赢棋的概率。这“局面评估器”就是“价值网络(ValueNetwork)”,通过整体局面判断来辅助落子选择器。这个判断仅仅是大概的,但对于阅读速度提高很有帮助。通过分析归类潜在的未来局面的“好”与“坏”,阿尔法围棋能够决定是否通过特殊变种去深入阅读。如果局面评估器说这个特殊变种不行,那么AI就跳过阅读。
阿尔法围棋(AlphaGo)此前的版本,结合了数百万人类围棋专家的棋谱,以及强化学习进行了自我训练。后来它又有了个弟弟AlphaGoZero,其能力则在这个基础上有了质的提升。最大的区别是,它不再需要人类数据。也就是说,它一开始就没有接触过人类棋谱。研发团队只是让它自由随意地在棋盘上下棋,然后进行自我博弈。
据阿尔法围棋团队负责人大卫·席尔瓦(DaveSliver)介绍,AlphaGoZero使用新的强化学习方法,让自己变成了老师。系统一开始甚至并不知道什么是围棋,只是从单一神经网络开始,通过神经网络强大的搜索算法,进行了自我对弈。随着自我博弈的增加,神经网络逐渐调整,提升预测下一步的能力,最终赢得比赛。更为厉害的是,随着训练的深入,阿尔法围棋团队发现,AlphaGoZero还独立发现了游戏规则,并走出了新策略,为围棋这项古老游戏带来了新的见解。
一个大脑:AlphaGoZero仅用了单一的神经网络。AlphaGo用到了“策略网络”来选择下一步棋的走法,以及使用“价值网络”来预测每一步棋后的赢家。而在新的版本中,这两个神经网络合二为一,从而让它能得到更高效的训练和评估。
神经网络:AlphaGoZero并不使用快速、随机的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,来预测哪个玩家会从当前的局面中赢得比赛。相反,新版本依靠地是其高质量的神经网络来评估下棋的局势。
人类能够造出戴森环吗
答:再等五千年吧,或许人类就有能力制造戴森球或者戴森环了。
随着人类对宇宙的认识加深,英国物理学家弗里曼·戴森在上世纪提出了戴森球的观点,认为宇宙中恒星释放的能量是取之不尽用之不竭的,那么一个在技术上拥有无限可能的文明,就会制造一个戴森球把恒星包裹起来,从而最大限度地获取一颗恒星的能量。
戴森球是一个科学设想,高级文明可以全部或者部分获取恒星的能量,当把太阳全部包裹时叫做戴森球,部分包裹时叫做戴森环,比如在地球轨附近建立戴森环。
天文学家也试图寻找亮度异常变化的恒星,来证实宇宙中戴森球的存在,可惜目前为止并没有证据,能证明戴森球存在。
太阳每秒释放大约3.8*10^26焦耳的能量,相当于1.3亿亿吨标准煤释放能量,目前全球一年的总能量消耗,折算成标准煤约200亿吨,所以太阳一秒钟释放能量,足够现在的人类使用65万年。
哪怕戴森环只能获取太阳能量的百万分之一,在能量需求上,人类也远远达不到需要戴森环来获取能量的水平;而且人类目前的技术,也无法在太空中建立大规模的设施。
在宇宙文明等级中,Ⅰ型文明能获取整个文明星球的能源,Ⅱ型文明能获取整个太阳系的能源,而戴森球就是Ⅱ型文明获取恒星能源的方式;人类目前处于0.7的水平,以现在人类的发展速度来看,人类发展到Ⅱ型文明,起码还得几千年,甚至数万年。好啦!我的内容就到这里,喜欢我们文章的读者朋友,记得点击关注我们——艾伯史密斯!
推荐阅读美国担心人工智能领域(美国人工智能出问题)
创业人工智能领域,创业人工智能领域包括
mit 人工智能领域(mit首次提出人工智能)
小米人工智能领域加盟,小米人工智能家居加盟
人工智能领域工程 人工智能领域工程有哪些
医疗人工智能领域 医疗人工智能领域包括
医疗领域人工智能融资(医疗领域人工智能融资现状)
人工智能领域规范,人工智能领域规范文件