要在给人工智能的目标里制定一个能让人类继续进化的能力。这个目标叫作连贯的外推意志,这个目标是这样的:
我们的连贯外推意志是我们想要知道更多,思考得更快,变成比我们希望的更好的人,能一起更远得长大。
外推是汇集的而不是发散的,我们的愿望是连贯的而不是被干扰的;我们想要外推的被外推,我们想要解读的被解读。
对于人类的命运取决于电脑没有意外的解读和执行这个声明是件值得兴奋的事情吗?当然不是。
但是当足够的聪明人放入足够的思考和前瞻后,我们有可能发现怎样制造一个友善的超人工智能。
但是现在有各种政府、公司、军方、科学实验室、黑市组织在研究各种人工智能。他们很多在试图制造能自我改进的人工智能,总有一天,一个人的创新将导致超人工智能的出现。
可能在未来的10年到21世纪结束这段时间发生,他还认为当这发生时,智能的起飞会快得让我们惊讶,他是这么描述的:
在智能爆炸之前,人类就像把炸蛋当玩具的小孩一样,我们的玩物和我们的不成熟之间有着极大的落差。
超级智能是一个我们还很长一段时间内都无法面对的挑战。我们不知道炸蛋什么时候会爆炸,哪怕我们能听到炸蛋的滴答声。
我们当然没有办法把所有小孩都从炸蛋旁边赶跑——参于人工智能研究的大小组织太多了,而且因为建造创新的人工智能花不了太多钱,研发可能发生在社会的任何一个角落,不受监管。
而且我们没办法知道准确的进度,因为很多组织是在偷偷摸摸的搞,不想让竞争对手知道,比如隔壁老王机器人公司这种公司。
对于这些组织来说,尤其让我们困扰的是他们很多都是在拼速度——他们创造一个一个更加聪明的弱人工智能系统,因为他们想要比竞争对手更快的到达目标。
有些更有野心的组织,为了追逐创造出第一个强人工智能所能带来的金钱、奖励、荣誉、权力会把步子迈得更大。当你全力冲刺时,你是不会有太多时间静下来思考这些危险的。
恰恰相反,他们很可能在早期系统中写尽量简单的代码,比如把目标设定成用趣÷阁写一句话,先让系统跑起来再说,反正以后还可以回过头来改的。对吧?
第一个超人工智能出现后,最可能的情况是这个系统会立刻意识到作为这个世界上唯一一个超人工智能是最有利的,而在快速起飞的情况下,哪怕它只比第二名快了几天,它也完全有时间碾压所有对手。
这叫作决定性的战略优势,这种优势会让第一个超人工智能永远统治这个世界,不管在它的统治下我们是走向永生还是灭亡。
这种现象可能对我们有利,也可能导致我们的毁灭。如果那些最用心思考人工智能理论和人类安全的人能够最先造出一个友善的超人工智能的话,那对我们是很好的。
但是如果事情走向了另一面——如果超人工智能在我们搞明白怎样保证人工智能的安全性之前被达成,那么像隔壁老王这样不友善的超人工智能就会统治世界并把我们毁灭了。
至于现在的风口是哪里呢?简单来说,投资创新人工智能技术的钱,比投资人工智能安全研究的钱多很多。不乐观。
人工智能创新和人工智能安全的赛跑,可能是人类历史上最重要的一次竞争。我们真的可能结束我们对地球的统治,而那之后我们是永生还是灭绝,现在还不知道。
一边是对于我们这个物种的思考,看来我们在这个重大的历史节点上只有一次机会,我们创造的第一个超人工智能也很可能是最后一个。
但是我们都知道大部分产品的1.0版本都是充满bug的,所以这个事情还是很吓人的。
另一边,我们有很大的优势——我们是先手。我们有能力给这个事情提供足够的预警和前瞻,使我们成功的机会更高。
这一场豪赌的赌注究竟有多高?
如果超人工智能真的在未来很快达成,而造成的影响真的如大部分专家预测的一样极端而永久,我们肩上就真的是背负着巨大的责任。
接下来几百万年的人们都在静静地看着我们,希望我们不要搞砸。我们可以给予未来所有人类以生命,甚至是永生,我们也可能终结人类这个特殊的物种,连同我们所有的音乐、艺术、好奇、欢笑、无尽的发现和发明,一起走向灭绝。
当我思考这些事情的时候,我只希望我们能够慢慢来,并且格外格外小心。从来没有任何事情比这个更重要——不管我们要花多少时间来把这件事情做对。
我不想死
不.想.死
我虽然觉得人类的音乐和艺术很美好,但是也没那么美好,很多还挺糟粕的。很多人的笑声很恼人。未来的人类其实没有真的在看着我们,因为他们还不存在。也许我们不需要太谨慎,那多麻烦呀。
如果人类在我死后才发现永生的秘密该多让人扫兴啊。
这让我想起了《冰与火之歌》——大家斗来斗去的事情都不是事儿,北面高墙外的那些家伙才是事儿。
我们站在平衡木上,小心翼翼的往前走,为平衡木上的种种事情困扰,但其实下一秒我们可能就会跌下平衡木。
而当我们跌下平衡木的时候,其它那些困扰都不再是困扰。如果我们落到比较好的那个吸引态,那些困扰会被轻易解决;如果我们落到比较糟的那个吸引态,就更没问题了,死人是不会有困扰的。