A-A+

【HelloCode】对人工智能的三大误解:无需担忧、永不出错和达不到人

2019-11-08 14:56:32 人工智能 阅读
后台-系统设置-扩展变量-手机广告位-内容页头部广告位
【HelloCode】对人工智能的三大误解:无需担忧、永不出错和达不到人

原标题:【HelloCode】对人工智能的三大误解:无需担忧、永不出错和达不到人

人工智能,喜乎?忧乎?

谷歌AlphaGo机器围棋手战胜韩国顶尖围棋高手李世石,引发全球热议人工智能和人类能力之优劣的讨论。有人认为人工智能可以弥补人的不足,可以为人服务,使人受益;有人担忧人工智能将威胁人类的生存或者控制人类等等。

据科技网站gizmodo近日报导,对于如何判断人工智能的优劣,需要注意对它的误解,才能有助于作出判断。

误解:我们无需担忧人工智能

现实:今年一月,Facebook创始人马克·扎克伯格(Mark Zuckerberg)说,我们不应该害怕人工智能,它会为人们做很多奇妙的好事。实际上,扎克伯格说对了一半。

我们不能保证所有人工智能产品都对人类有益。因为人工智能是计算机程序,避免不了受病毒程序的影响。一旦带有病毒的人工智能机器在运行,会有什么后果?

麻省理工学院制造的情绪机器人Kismet

很多著名人士提出,人们应该警惕人工智能的潜在危险。著名物理学大师史蒂芬·霍金(Stephen Hawking)多次表示,人工智能的风险大到足以使人类灭绝。他认为,未来100年内,人工智能的机器人将反过来控制人类。

特斯拉汽车公司创始人埃隆·马斯克(Elon Musk)形容人工智能是“召唤恶魔”。他说:“如果要我猜人类最大的生存威胁是什么,我想那就是人工智能。”

微软公司创始人比尔·盖茨(Bill Gates)表示,低度人工智能可成为替代劳工的工具,但数十年后出现的“超级智慧”系统会“厉害到令人担忧”。

误解:人工智能不会出错

现实:人工智能会出错,因为它本身是一种程序,无论程序怎样完善,都不可能完美无瑕。而且,如何纠正人工智能出错,不是简单的修改程序等步骤能轻易解决的。

以谷歌的AlphaGo为例,在与李世石第四局对弈中,第79子时犯了错误,之后步步出错,因此输给李世石。

AlphaGo的开发者之一哈萨比斯(Demis Hassabis)在推特上表示,AlphaGo犯的错误直到87子才发现,但为时已晚,其胜率从70%至40%以下。

业界人士分析,其原因是AlphaGo在复杂情况下的判断还是不够客观,碰到存储之外的围棋下法会犯错误,而且不能及时发现所犯错误,因此接连出现低级错误。这种错误对人类来说,是应该很快就会发现并给予纠正。

误解:人工智能永远不会达到人的智能水平

现实:人工智能迟早会达到人的智力水平,具有高度的逻辑、推力、综合、分析、演绎等等能力。

1996年2月,IBM的超级电脑“深蓝”首次挑战国际象棋世界冠军卡斯帕罗夫。

1996年2月,IBM的超级电脑“深蓝”(Deep Blue)首次挑战国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov),以2:4落败。1997年5月,再度挑战卡斯帕罗夫,“深蓝”以3.5:2.5击败卡斯帕罗夫,成为第一个在符合比赛规则击败国际象棋世界冠军的电脑系统。

近日谷歌的AlphaGo以4:1赢了李世石。但是,从“深蓝”到谷歌AlphaGo的人工发展,不只是硬件(如AlphaGo硬件性能至少是深蓝的1000倍),其依据的运算原理也有极大的发展,从穷举法变成“人工神经网络”,所以AlphaGo有一种类似人的学习技能,能够估计、分析和判断。

所以纽约大学的心理学家马库斯(Gary Marcus)说,人工智能会超过人,问题只是时间而已。报导说,因为至今为止人类无法解开“意识”之谜,所以人工智能面临不可逾越的障碍——如何具有人的意识。微软联合创始人保罗·艾伦(Paul Allen)认为,人类还没有解开人自身的意识之谜,因此无法造出具有人意识那样的智能机器。

标签: