人工智能与核武器,哪个更危险?

人工智能与核武器,哪个更危险? 想像一下,一个最初用来对抗癌症的医用机器人得出结论:消灭癌症的最佳方法是消灭那些从基因角度讲易于患病的人。人工智能支持者辩称,此类事情永远都不会发生,程序员会设置一些防护措施。

但程序员真的能驾驭智能机器人大军? Elon Musk最近说,人工智能“可能比核武器还危险”。斯蒂芬·霍金也认为,成功的人工智能“会是人类历史上最重大的事件。不幸的是,它也可能会是最后一个大事件”。我们正在创造一些能像人类一样做决定的机器人,但这些机器没有道德观念,而且很可能永远也不会有。

而一旦我们创造出和人一样智能的系统,这些智能机器将能建造更智能的机器。专家说,到那时,事情真的会迅速失控。被Google收购的人工智能公司DeepMind创始人Demis Hassabis在一次视频采访中说,所有开发人工智能的机构,包括政府和公司都“一定要考虑自己的所作所为会带来的伦理后果”。

人工智能

稿源:solidot

编辑: 发表于 2014 年 11 月 18 日
文章栏目: 看点, 标签: