大家好,今天来为大家分享人工智能 统治的一些知识点,和人工智能 统治者的问题解析,大家要是都明白,那么可以忽略,如果不太清楚的话可以看看本篇文章,相信很大概率可以解决您的问题,接下来我们就一起来看看吧!
本文目录
- 未来人工智能的机器人会不会统治世界呢?你怎么看?
- 为什么担心人工智能会毁灭世界or统治人类?
- 科技最终的发展是否是人工智能取缔人类统治实现世界大同人人平等?
- 人工智能如此高速发展,会不会有一天人工智能机器人统治人类?
未来人工智能的机器人会不会统治世界呢?你怎么看?
直接说结论:不是说没有可能,如今AI正在以飞速发展,人类行为说白了也是自然界的一种算法,而我们人类自己离着完美复制出这种算法也越来越近,但是如何让我们自己制造出来的机器人在任何时候都听从我们服从我们呢?还是要编写算法,其中最著名的就是阿西莫夫提出的“机器人三定律”:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
但还是存在漏洞,你无法保证机器人会不会自己修改程序,好,你加上了这一条,“机器人无法自己修改程序”,那有无法保证它会不会诱惑人类为自己修改程序,以此类推,到现在也无法写出完美的定律。
所以,AI如果一直这么发展下去,但是限制定律不完美的话,你所假设的情况是有可能发生的。
为什么担心人工智能会毁灭世界or统治人类?
很有意思的问题,忍不住要回答了。
首先我要说明的一点是:个人认为,“AI威胁论”的产生,大概可归结于三个字“故事性”。
“AI毁灭世界”这种情节最开始应该是在科幻小说、电影中出现的。而在故事创作中,有一个非常必要的东西,就是“灾难”,这也是形成故事冲突的主要诱因。没有灾难的故事不会大卖。当然,这里的“灾难”不仅仅指毁灭世界这种大事,主人公遇到的任何不顺心的事都可以叫做灾难。
很显然,人工智能的概念刚兴起的时候,激发了某位作家的灵感,他构思了一个故事,然后把人工智能设计成了毁灭世界的大反派。
最著名的一个提到“人工智能威胁论”的人,是霍金。
他会这样认为,恰恰说明了他非常看好人工智能技术。众所周知,任何事物都有两面性,既有好的一面,也有坏的一面。人工智能技术所能带来的进步会是革命性的,那么它所具备的隐患也会是难以想象的。霍金的所有关于AI的演讲,更多的是提醒人们在发展AI的同时,也要提高对它的控制力,以防万一。他并不反对,甚至会大力提倡发展人工智能技术。
接下来就要回答题主在描述所提到的问题了。
以人类目前的计算能力,人工智能一旦具备了自主思维,它的成长速度就会是非常恐怖的。以我国及世界第一的神威·太湖之光超级计算机为例,它的峰值性能为12.5亿亿次/秒,持续性能为9.3亿亿次/秒,其一分钟的计算能力相当于全球72亿人口同时用计算器连续不间断计算32年。所以从这个角度上看,以人类现有的对AI的控制能力,在那个叫克里斯的男人拉闸之前,AI很有可能就已经认识到了自己的现状,并给自己安排好了退路。除非毁掉全球所有的计算机,否则该AI很难被毁灭。
再一个,关于限制它的学习范围,也就是不联网或输入特定数据,以限制它的成长。首先不联网这个事就不成立了,研发人工智能就是为了应用,现如今,任何不联网的应用都是鸡肋。人工智能技术可不是艺术品,不是拿来欣赏的。
然而,一旦接入互联网,具备自主思维的AI就不是我们能控制的了,它具备超强的学习能力和渴望。
PS:以上言论不具备学术性,看看就好[手动滑稽]
科技最终的发展是否是人工智能取缔人类统治实现世界大同人人平等?
科技发展到任何程度也代替不了人类统治世界。决对的人人平等是不可能的。只要有私有制存在,私有欲望就不会消除,社会贫富差距就不可能缩小,只有慢慢的消除私有,社会才全逐渐走向相对公平。
人工智能如此高速发展,会不会有一天人工智能机器人统治人类?
可以肯定的说,到现在各国政府更多的是鼓励人工智能的研发,希望可以促进人工智能科技的进展,以及与产业的结合。例如2017年7月21日,中国国务院就发布了《新一代人工智能发展规划》的报告这个规划是这样说的:
到2020年,人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点,人工智能技术应用成为改善民生的新途径;到2025年,人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平,人工智能成为我国产业升级和经济转型的主要动力,智能社会建设取得积极进展;到2030年,人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。
在这个规划中,看不到任何对“机器人统治”人类的担忧,而是希望人工智能研发取得重大进展。世界各国的报告也都如此,没有哪国政府报告忽然发神经说要小心人工智能机器人。但是在学者以及公众层面,对这个问题还是比较关心的,特别是这两年人工智能忽然火爆之后。
《人类简史》的作者赫拉利在续作《未来简史》中,对人工智能在未来将如何改变人类社会进行了深入探讨。
值得注意的是,赫拉利并没有去分析,有自我意识的人工智能出来会如何。有自我意识的人工智能就能算是另一种生命物种了,但是这个理论基础还不完备,再怎么讨论也和科幻差不多。而科幻的可能性就太多了,可以写无数种人类的结局,人工智能统治或者监管是常见的一种”设定“。例如科幻巨著《海伯利安》,里面种种奇奇怪怪事,最后就归结为超级人工智能搞的事,用这种方式来填坑。
赫拉利分析的是,即使人工智能没有自我意识,只是一些程序在执行人类的指令,人类社会也会大受影响,甚至人本身作为一个物种都会发生大的改变。例如人类将自己的身体指标交给计算机系统监管,按机器的建议生活,而且发现这样好处很多。再例如人类放弃自己开车,让机器自动驾驶。慢慢的人类就放弃了对社会的控制权,而是由机器去控制。也许到某一天,人类就发现,有实质控制权的就是机器了,人类已经没有办法回头了。即使机器没有自我意识,但人类也只能让它控制了。这算是机器统治人类的一种方式。
当然也有其它可能性,特别是当计算机与脑科学专家发现了机器自我意识的内在秘密,生成了”强人工智能“的原型之后,这个问题会忽然一下变得非常现实。可以预测,到时世界各国政府并不会欢呼人工智能研发取得巨大突破,而是真的会坐下来讨论人工智能的发展路径,象控制核武器一样控制”强人工智能“的研发。例如要求人工智能研究团队必须遵守安全规则,保证计算机中的人工智能按物理安全隔绝方法,绝对不可能跑出来危害社会。
之前也有不少人担心人类社会被核战争毁灭。但现在人类社会看上去还是控制了核武器的最坏影响,反而极大促进了社会和平。那么人类能不能控制强人工智能,又是将来值得讨论的问题。
如果只是说可能性,就象人类社会可能几个大国互相扔核弹,人类全部灭绝,人类被人工智能统治这种可能性是存在的。但是也应该存在好的可能性,人类社会找到了办法,既发展人工智能,又不被它统治。
可以肯定,人工智能的安全问题会比核武器更复杂,值得讨论的技术细节更多。正如科幻小说中,人工智能比核武器是更常见的题材。
好了,文章到这里就结束啦,如果本次分享的人工智能 统治和人工智能 统治者问题对您有所帮助,还望关注下本站哦!
推荐阅读白云先生 人工智能,白云先生 人工智能招聘
p人工智能 gtp人工智能
阿里云人工智能?阿里云人工智能平台
安卓 人工智能 游戏(安卓 人工智能 游戏手机)
sony人工智能(索尼 人工智能)
安康人工智能招生 安康人工智能招生简章
安徽人工智能 安徽人工智能企业
poc人工智能?人工智能pca