字体:大 中 小
护眼
关灯
上一章
目录
下一页
第474章 超级计算机 (第1/4页)
刚刚去世的物理学家霍金,就一直在警告人类与人工智能,对于人类而言,会是一场巨大的灾难, 其根本的原因也就在于,人类根本控制不了人工智能,人工智能一旦出世,就好比地球上诞生了一种新的物种一般,根据优胜劣汰的法则,这个优等物种,如果不能被人类控制,必然会选择淘汰人类这种落后物种。而人类也将没有丝毫的抵抗力,就仿佛当年美洲的土著人,面对漂洋过海而来的,带着火药枪的西方人没有任何的抵抗力一样。 而特斯拉的创始人,艾隆马斯克,也一直致力于抵制人工智能,艾隆马斯克认为人工智能应该止步于自动驾驶这一类的应用级别,而一旦拥有了人类一般的心智,必然会产生消灭人类的野心。 即使是最伟大的物理学家,以及站在科技前沿的最开明的企业家,都对人工智能有着深深的恐惧,人类对于人工智能控制的无力,在人工智能前,深深的脆弱感可见一斑。 人工智能的专门程序,会先于真正的能够自我思考拥有心智的人工智能产生,人类目前便在发展人工智能专门程序这一步,还处于非常粗浅的状态,不过确有必要,为能够自我思考,拥有先进的人工智能的诞生而做好准备,有的国家甚至已经开始制备机器人相关的法案。 而拥有心智的人工智能,却会更先于能够遵守机器人三大法则的人
上一章
目录
下一页