特稿 >

科技快讯 >

马斯克就人工智能再次发出警告,内心究竟在恐惧什么?

马斯克就人工智能再次发出警告,内心究竟在恐惧什么?

科技云报道 丨 科技快讯

19828
2858

2017-08-30

科技云报道

Xtecher特稿作者

关注

           

科技云报道原创。

“如果你不担心人工智能的安全性,那么现在你应该担心。它比朝鲜核武器危险得多。”近日马斯克在Twitter上称。

特斯拉CEO埃隆·马斯克近日就人工智能发出新的警告,称这种技术对人类的威胁比朝鲜核武器还要大。作为“AI威胁论”的拥趸者,马斯克曾将开发人工智能比作是恐怖电影中的“召唤恶魔”行为。

这已不是他第一次发出警告,早在2014年,马斯克就在麻省理工学院的一次公开访谈中抛出了“AI威胁论”,今年7月15日美国州长夏令会议中,他对人工智能提出警告,认为AI将能够递归性地改进自己,也就是应用程序自我调整,直到它将报废人类:“我一直在敲警钟,但是直到人们看到机器人走下街头杀人,他们不知道如何反应,因为这似乎是如此飘渺。”

定义人工智能发展边界 OpenAI打造AGI安全框架

马斯克所谈的人工智能的危险,是挑战人类智能水平的“通用人工智能”,可以发展出摧毁性的邪恶智能,即使研发者有很好的意图,但仍然“偶然地产生一些邪恶的东西”, 包括可能“能够摧毁人类的人造智能增强型机器人”。

为了控制人工智能的发展边界,包括马斯克、PayPal创始人彼得•蒂尔在内的硅谷达人,在2015年承诺投入10亿美金创立OpenAI非盈利平台。

该平台的使命是:建立安全的通用人工智能(AGI),并确保AGI优势尽可能广泛和均匀地分布。在这个过程中,OpenAI不会将私人信息私有化,期望在有安全隐患的情况下,创造出保持技术私有化的正式流程。

最近,OpenAI宣布,他们所打造的一个AI机器人通过完全自学习训练,已经在电子竞技游戏Dota2中击败了一个名为Dendi的人类职业玩家。

未来,人工智能的发展注定要与当代科技的演变脱节,人工智能涉及众多的相关领域,从大数据、云计算、深度学习、神经网络、心理学、机器人、语言识别、图像识别、到自然语言处理等等,当众多领域都同时经历爆发式的突破,在某种程度上将加速科技研究的裂变。

人类患上“人工智能恐惧症” 源自内心的“恶”

人工智能分为弱人工智能、强人工智能、超人工智能三种,它们本身是循序渐进的发展过程。

在马斯克、霍金和盖茨这些悲观派眼中,强人工智能尚有一定可控性,但超人工智能的不可预知性则是令人害怕的地方。

HAL9000、终结者等小说中各种超级智能代表着人类的另一重恐惧:如果AI继续发展、最终超越人类智能,这样的超级智能系统是否会意识到人类已经无关紧要了呢?超级智能真的会导致人类的“终结”吗?

对于人工智能发展控制的需求,与其说是其强大后对人类“反叛”的焦虑,倒不如说是人类对于科技发展后,人类心理所潜在的“恶”的恐惧。

人类总会纠结于有一天,具有自主意识的人工智能会反抗他们的“人类”造物主,他们会用超越人类的能力将人类赶尽杀绝。而这反映出的,只是人类对自身内心深处那一股“恶”力量的不可控。

所以,一旦有人感觉到人工智能的发展速度超越了他们的可控范畴,那么心中的焦虑和悲观情绪便油然而生。从本质上讲,真正的威胁并不是来源于人工智能的威胁,而是来源于人类自身。

如果有一天,人类真的被人工智能所“终结”,那么真正的罪魁祸首必将也是人类自己的自私、贪婪与邪恶,人工智能充其量只是一种工具和手段。

很多人在探讨人工智能未来的时候,仍忍不住流露出对人类命运的终极关怀:人类的命运是否会被机器人奴役?这是人类终极命运的“天问”,还是杞人忧天?目前尚无标准答案。我们知道的是,AI依然局限在“机器学习”的框架内,大数据的控制使得人类对于AI还有比较强大的制衡能力。与其夙夜无眠,不如趁早动手,找到人工智能的发展和道德边界,让AI真正成为人类探索未知世界的有效工具。

【科技云报道原创】

打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮

账号登录

重置密码

还没有账号?立即注册>

账号注册

已有账号?立即登录>注册企业会员

重置密码

返回

绑定手机