在过去很多年内,人工智能(AI)更多的只是作为科幻影片中的桥段出现在我们面前,但随着科技的发展,如今这一前沿科技似乎已经逐渐成为了人们日常生活的主流元素之一,人们也越发担心,《终结者》等一些以机器人危机为题材的电影片段会成为现实,
而在2014年,霍金在更是提出“人工智能的发展会导致人类灭绝”,在去年的于阿根廷举办的2015年国际人工智能联合会议(IJCAI)上,更是有超千位科学家签署公开信,敦促联合国禁止开发自主化武器(autonomous weapons)。
人工智能威胁论也越发引起了人们的关注,支付公司PayPal联合创始人、亿万富翁伊隆•马斯克(Elon Musk)、微软联合创始人比尔•盖茨(Bill Gates)和著名科学家史蒂芬•霍金(Stephen Hawking)都曾公开表示人工智能是未来人类生存的最大威胁之一。
但近日,霍金的人工智能威胁论却被反驳了,苹果联合创始人沃兹尼亚克提出了相反意见,他认为“摩尔定律并不会让这些机器人智能化到像人类那样思考。”
苹果联合创始人斯蒂夫•沃兹尼亚克(Steve Wozniak)本周在接受采访时称,他并不担心人工智能。至少,他已不再担心人工智能。他表示,他对于人工智能的看法已发生了变化,原因如下:
“其中一个原因是摩尔定律并不会让这些机器人智能化到像人类那样思考。”沃兹尼亚克说,“另一个原因是即使机器人的思考能力超过人类,它们也无法拥有像人类那样的直觉,知道自己下一步该做什么以及采用什么样的方法来做它。它们是无法明白这类事情的。”
“我们现在谈论的不是已经达到这种水平的人工智能。目前,人工智能可能会奇迹般地获得独立发展。它们可能会变成独立的思想家。但是,就算它们变成了思想家,它们也只是优于其他物种的人类伙伴。”
瑞典哲学家波斯特罗姆
这位学者认为,在未来几十年内,机器人将会获得与人类同等水平的人工智能,然后迅速获得他所说的“超级智能”。他所著的一本书题目就叫《超级智能》。
波斯特罗姆是牛津大学人类未来研究院的负责人。他认为,人类可能有一天会沦为更高级的人工智能机器的奴隶。他表示,如果人类在一开始开发智能机器人的时候就确保它们的所作所为符合人类的利益,那么人类沦为奴隶的悲剧就可能被避免。
波斯特罗姆称,要做到这一点,我们并不需要“绑住机器人的手脚,高举着大棒恐吓它们,强迫它们按照我们的意愿行事。”相反,他认为开发者和科技公司“在开发智能机器人的时候,务必确保它们站在人类这边,想人类之所想,急人类之所急。”