第131期:人工智能会统治地球吗?

第131期:人工智能会统治地球吗?

2016-06-19    09'52''

主播: FM715925

23994 938

介绍:
想成为我们的主播,欢迎加微信 xdfbook 投稿。 一段美文,一首英文歌,或是一点生活感想,全由你做主。 《人工智能会统治地球吗?》 Humans,Not Robots,Will Cause the AI Uprising 科幻小说中最永恒的威胁之一就是人工智能所带来的恐惧:人们设想计算机总有一天会变得非常聪明,实际上会有自我意识……接着就试图接管世界。 从HAL9000到天网,再到《机械姬》里的Ava,你看过这些以后若是对人类在宇宙中长久以来的地位感到隐隐不安,那也情有可原。但是,我们真的需要担心什么吗?还是那些只是骇人听闻的传闻? 从根本上说,人们担忧的一大问题是,随着人工智能不断提升,我们终将迎来所谓的“奇点”——届时人工智能将变得非常聪明,足以进行自我改进。 如果一台机器能够不断创造出更完善的自己,那就仿佛在技术上脱缰失控:计算机很快会变得非常聪明,以至于我们不仅无法控制它们,我们弱小的生物大脑甚至也完全无法理解它们在做什么或者它们是如何做的。有点吓人,不是吗? 我们是否应该担心人工智能失控呢?科技界的许多大佬就此发表了看法。 “我们可以想象,这种技术会击败金融市场,在发明创造上盖过人类研究人员,在玩弄权术上胜过人类领导者,制造出我们甚至无法理解的武器,”物理学家斯蒂芬•霍金及其同事在英国《独立报》上撰文称,并进一步说道,“虽然人工智能带来的短期影响取决于谁来控制它,但长期影响则取决于其是否可控。” 美国特斯拉公司首席执行官、亿万富翁埃隆•马斯克对人工智能失控可能引发的后果十分担忧,于是付诸实际行动,向研究如何使人工智能安全的生命未来研究所捐资1000万美元。 比尔•盖茨也发表意见说:“我属于对超级智能感到担忧的那一派。一开始,机器能给我们干好多活儿,又不是太聪明。管理得当的话,这是件好事。可几十年后,这种智能就会强大到令人担忧。” 目前计算机到底有多聪明呢? 实际上,全球大多数最大的科技公司现在都在努力设计越来越聪明的机器。Google Now和Siri就已经融合了多种复杂技术,比如自然语言处理(听懂我们在说什么)和语义文本识别(知道我们的文字到底是什么意思)。 最近有很多这样的智能技术出现,其原因在于计算能力、云计算和存储技术在持续快速提高,促进了模仿人脑内同一类连接的先进的“神经网络”的发展。“神经网络”将在任何“奇点”中发挥重要作用,因为教电脑学习就是在教它们进化。 人工智能最近的重大新闻是谷歌取得了又一个划时代的成就:在复杂程度超过国际象棋很多倍的围棋对弈中,AlphaGo击败了人类最优秀的棋手。 那么我们该担心吗?或许没必要。所有上面提到的著名人物有一个共同点:他们都不是人工智能领域真正的专家。如果你向专家发问,他们给出的意见会略有不同。 金史密斯学院从事认知计算研究的马克•毕晓普教授并不认为在不远的将来会出现人工智能“失控”的情况,并对此做出了解释。 毕晓普教授深知人工智能的潜在危害,特别是“自主战争机器”的发明,比如会根据算法而非人类决定进行射击的无人机。他担心我们可能即将开始一场军事机器人军备竞赛。去年,他联名签署了一封由生命未来研究所发布的警告这一危险的公开信。 但至于人工智能会不会完全统治地球,毕晓普教授倒是不那么担心。他向techradar网站表示:“该公开信的一些支持者的说法有些脱离实际,比如斯蒂芬•霍金对‘奇点’的担忧,或是埃隆•马斯克所设想的不到十年人类就会创造出一个人工智能恶魔。对于这些观点,我保持怀疑。” 但这并不是说没有潜在的问题。“我当然认为武装和部署致命性自主武器系统存在极为严峻的危险,或许关乎人类存亡。”毕晓普教授补充道。 人工智能教授克斯腾•多腾哈恩也不相信我们正在走向人工智能主宰一切的世界末日。“我不担心人工智能会威胁到人类,或是统治世界,”她告诉我们,“人工智能20世纪50年代就出现了,而直到最近才有了重大的发展,出现了更好、更快的计算机和计算设备。” 多腾哈恩教授指出,这些进步目前局限于“特定领域”。换句话说,尽管过去70多年来计算机技术取得了巨大进步,但驱动Siri的人工智能还是不能驱动武器系统,而这两项工作人类大脑都能胜任。这表明计算机代码的智能程度受限——如果计算机的学习受限,“奇点”就不会出现。 “即便有一套具备学习和适应能力的系统,其能力范围也是由编写代码和构建系统的程序员或研究人员划定的,”多腾哈恩教授解释说,“没有任何科学证据表明人工智能迟早会威胁到人类。” 多腾哈恩教授说,更大的威胁来自我们这些讨厌的人类。“人类不负责任地使用人工智能——这才是真正的威胁。使用新技术的方式总是有好有坏,如何使用人工智能,其决定权在人类手中。” 因此,“奇点”可能不会彻底毁灭人类,但人工智能的发展仍然可能非常危险。 不可能完成的挑战 多腾哈恩教授还认为,人工智能要在生活的方方面面取代人类并最终掌管一切,还面临另一重限制因素:互动。人类显然是极好的交流者,而让机器完全理解人类互动的确是异常困难。 “我们同计算机和机器人进行的互动往往是受人与人之间互动的启发,”她解释道,“这么说理由很充分:美国和其他国家的研究清楚显示,人类倾向于采取像对待人一样的社交方式来对待包括机器人和计算机在内的交互式系统。” 换言之,我们希望机器人更像我们自己。多腾哈恩教授说,这就是为什么语音和手势识别成为那么多研究的焦点,但是这种技术的发展仍然严重不足。她指出:“我们还没有一套系统可以就我们选择的任一话题在噪音环境下,像人一样自然流畅地进行语音交流。” 与此同时,毕晓普教授似乎指出了一个更为根本的问题:支撑我们理解人工智能的复杂的哲学论点。他认为这终将归结为计算机无法完成的三项主要任务:模仿人的意识,真正像我们一样去“理解”,表现出“真正的数学洞察力或创造性”。所以,虽然机器人有可能在电视问答竞赛中获胜,就像2011年IBM公司的智能计算机Watson那样,但如果毕晓普教授说的没错,我们就不能指望机器人开始创作交响曲或执导戏剧。 简而言之,人类总会在某个方面胜过计算机,或者就像毕晓普教授用更具哲学性的语言所说的那样:“在我看来,正是由于这些缺陷,机器人这样的计算系统永远无法自主实施有目的性的操作,而只能作为一种工具按照主人或设计者的命令行动。这样的系统不能故意违抗命令,就像牛顿的苹果不能故意抗拒地心引力而不落到地面一样。” 我们应该担心吗? 那么机器人或人工智能会取代我们吗?看看眼下计算机已经承担的工作,某种程度上这种取代已经发生了。计算机正开着我们的车,挑选我们要读的新闻,回答我们提出的问题。 但是我们大家担心的并不是这样的人工智能。按照业内专家的说法,我们不必担心机器人会统治世界。尽管神经网络已变得日益智能,但似乎仍有根本性的障碍阻止“奇点”的出现。 这对我们来说是个好消息。 这并不意味着我们不必承担责任,但至少对于人工智能会不会造成危害,这或许取决于人类,而非某个算法。 One of the most enduring threats in science fiction is the spectre1) of artificial intelligence: the idea that computers will get so smart they’ll become essentially conscious ... and then try to take over. From HAL90002) to Skynet3) to Ex-Machina’s Ava4), you’d be forgiven for being a little insecure about our continued place in the universe. But do we actually have anything to worry about, or is it all just scaremongering? Essentially, the big worry is that with continued improvements in AI we’ll eventually hit what has been dubbed “The Singularity5)”—the point where AI becomes so smart that it’s smart enough to improve itself. And if a machine can constantly create an even better version of itself then it would be like cutting the technological brake cables: Computers would quickly be so smart that not only would we be unable to control them, our puny6) organic brains couldn’t even begin to comprehend what they’re doing or how they’re doing it. Scary, eh? Many of science and technology’s biggest names have weighed in7) with their take8) on whether we should fear runaway artificial intelligence. “One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders and developing weapons we cannot even understand,” wrote physicist Stephen Hawking and his colleagues in the Independent, adding “Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all.” Billionaire Tesla CEO Elon Musk is so worried about the implications of out-of-control AI that he’s put his money where his mouth is9), and has donated $10m to the Future of Life Institute, which studies ways to make AI safe. Bill Gates has waded in10) too, saying “I am in the camp that is concerned about super intelligence. First the machines will do a lot of jobs for us and not be super-intelligent. That should be positive if we manage it well. A few decades after that though the intelligence is strong enough to be a concern.” Just how intelligent are computers now? Actually, most of the world’s largest tech companies are currently working hard at engineering ever more intelligent machines. Google Now11) and Siri already combine a number of complex technologies, such as natural language processing (understanding what our voices are saying) and semantic text recognition (what our words actually mean). The reason much of this smart technology has arrived recently is because the continued exponential increase in computing power, cloud computing and increased storage has enabled the development of advanced “neural networks12)” which simulate the same sorts of connections we have in our brains. Neural networks will play a key part in any singularity, as teaching computers to learn is how you teach them to improve. The most recent big AI news has been Google achieving another milestone: AlphaGo beat the best human players at the game “Go,” which is many times more complex than chess. So should we be worried? Perhaps not. One thing that unites all of the famous names above is that none are actual experts in artificial intelligence—and if you ask the experts, they have a slightly different take. Mark Bishop, Professor of Cognitive Computing at Goldsmiths University, explained why he doesn’t believe that we could see “out of control” AI in the not too distant future. …… 文章摘自:《新东方英语》杂志2016年6月号