皇上,还记得我吗?我就是1999年那个Linux伊甸园啊-----24小时滚动更新开源资讯,全年无休!

我们能阻止人工智能超越人性吗?

我们能阻止人工智能超越人性吗?
技术专家说,超级智能机器对我们造成伤害的幽灵不仅仅是科幻小说 – 那么我们怎样才能确保AI对其制造商保持’友好’?从一个故事:

Jaan Tallinn(Skype的联合创始人)警告说,任何人工智能安全方法都难以实现。如果AI足够聪明,它可能比其创建者更好地理解约束。想象一下,他说,“在一群五岁的盲人建造的监狱里醒来。” 对于受人类限制的超智能人工智能而言,这可能就是这样。撰写了数百篇关于超级智能的论文的理论家Eliezer Yudkowsky发现证据证明这可能是真的,从2002年开始,他进行了聊天会,他扮演了一个封闭在盒子里的人工智能的角色,而其他人的轮换扮演守门员的任务是保持AI进入。五次中有三次,Yudkowsky – 一个凡人 – 说他说服看门人释放他。

塔林基金的研究人员正在寻求各种各样的策略,从实际到看似牵强附会。关于拳击AI的一些理论,无论是在物理上,通过构建包含它的实际结构,还是通过编程限制它能做什么。其他人正试图教AI以坚持人类价值观。一些人正在研究最后一个开关。一位研究这三位研究人员的研究人员是牛津大学未来人类研究所的数学家和哲学家斯图尔特阿姆斯特朗,塔林称之为“宇宙中最有趣的地方”。(塔林给予FHI超过31万美元。)阿姆斯特朗是世界上为数不多的专注于人工智能安全的研究人员之一。当我问他在AI安全方面取得什么样的成功时,他说:“ 你看过乐高电影吗?一切都很棒。”