484
491
1493
大司空
1. 我们对于历史的思考是线性的。当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。
2. 近期的历史很可能对人产生误导。首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。
S曲线发生在新范式传遍世界的时候,S曲线分三部分 - 慢速增长(指数增长初期) - 快速增长(指数增长的快速增长期) - 随着新范式的成熟而出现的平缓期 如果你只看近期的历史,你很可能看到的是S曲线的某一部分,而这部分可能不能说明发展究竟有多快速。1995-2007年是互联网爆炸发展的时候,微软、谷歌、脸书进入了公众视野,伴随着的是社交网络、手机的出现和普及、智能手机的出现和普及,这一段时间就是S曲线的快速增长期。2008-2015年发展没那么迅速,至少在技术领域是这样的。如果按照过去几年的发展速度来估计当下的发展速度,可能会错得离谱,因为很有可能下一个快速增长期正在萌芽。 3. 个人经验使得我们对于未来预期过于死板。我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。
1.我们总是把人工智能和电影想到一起。星球大战、终结者、2001:太空漫游等等。电影是虚构的,那些电影角色也是虚构的,所以我们总是觉得人工智能缺乏真实感。 2.人工智能是个很宽泛的话题。从手机上的计算器到无人驾驶汽车,到未来可能改变世界的重大变革,人工智能可以用来描述很多东西,所以人们会有疑惑。 3.我们日常生活中已经每天都在使用人工智能了,只是我们没意识到而已。John McCarthy,在1956年最早使用了人工智能(Artificial Intelligence)这个词。他总是抱怨“一旦一样东西用人工智能实现了,人们就不再叫它人工智能了。” 因为这种效应,所以人工智能听起来总让人觉得是未来的神秘存在,而不是身边已经存在的现实。同时,这种效应也让人们觉得人工智能是一个从未被实现过的流行理念。Kurzweil提到经常有人说人工智能在80年代就被遗弃了,这种说法就好像“互联网已经在21世纪初互联网泡沫爆炸时死去了”一般滑稽。
弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。 强人工智能Artificial General Intelligence (AGI): 人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。 超人工智能Artificial Superintelligence (ASI): 牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故,同样也是为什么永生和灭绝这两个词会在本文中多次出现。
造一个能在瞬间算出十位数乘法的计算机——非常简单 造一个能分辨出一个动物是猫还是狗的计算机——极端困难 造一个能战胜世界象棋冠军的电脑——早就成功了 造一个能够读懂六岁小朋友的图片书中的文字,并且了解那些词汇意思的电脑——谷歌花了几十亿美元在做,还没做出来。 一些我们觉得困难的事情——微积分、金融市场策略、翻译等,对于电脑来说都太简单了 我们觉得容易的事情——视觉、动态、移动、直觉——对电脑来说太TM的难了。
-速度。脑神经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹,也就是神经元1000万倍的速度运行,而这比我们达成强人工智能需要的硬件还差远了。大脑的内部信息传播速度是每秒120米,电脑的信息传播速度是光速,差了好几个数量级。 - 容量和储存空间。人脑就那么大,后天没法把它变得更大,就算真的把它变得很大,每秒120米的信息传播速度也会成为巨大的瓶颈。电脑的物理大小可以非常随意,使得电脑能运用更多的硬件,更大的内存,长期有效的存储介质,不但容量大而且比人脑更准确。 - 可靠性和持久性。电脑的存储不但更加准确,而且晶体管比神经元更加精确,也更不容易萎缩(真的坏了也很好修)。人脑还很容易疲劳,但是电脑可以24小时不停的以峰值速度运作。
- 可编辑性,升级性,以及更多的可能性。和人脑不同,电脑软件可以进行更多的升级和修正,并且很容易做测试。电脑的升级可以加强人脑比较弱势的领域——人脑的视觉元件很发达,但是工程元件就挺弱的。而电脑不但能在视觉元件上匹敌人类,在工程元件上也一样可以加强和优化。 - 集体能力。人类在集体智能上可以碾压所有的物种。从早期的语言和大型社区的形成,到文字和印刷的发明,再到互联网的普及。人类的集体智能是我们统治其它物种的重要原因之一。而电脑在这方面比我们要强的很多,一个运行特定程序的人工智能网络能够经常在全球范围内自我同步,这样一台电脑学到的东西会立刻被其它所有电脑学得。而且电脑集群可以共同执行同一个任务,因为异见、动力、自利这些人类特有的东西未必会出现在电脑身上。
1)超人工智能的出现,将有史以来第一次,将物种的永生这个吸引态变为可能 2)超人工智能的出现,将造成非常巨大的冲击,而且这个冲击可能将人类吹下平衡木,并且落入其中一个吸引态
乐观估计中位年(强人工智能有10%的可能在这一年达成):2022年 正常估计中位年(强人工智能有50%的可能在这一年达成):2040年 悲观估计中位年(强人工智能有90%的可能在这一年达成):2075年
2030年:42%的回答者认为强人工智能会实现 2050年:25%的回答者 2100年:20% 2100年以后:10% 永远不会实现:2%
- 先知模式:能准确回答几乎所有的问题,包括对人类来说很困难的复杂问题,比如“怎样造一个更好的汽车引擎?” - 精灵模式:能够执行任何高级指令,比如用分子组合器造一个更好的汽车引擎出来 - 独立意志模式(sovereign):可以执行开放式的任务,能在世界里自由活动,可以自己做决定,比如发明一种比汽车更快、更便宜、更安全的交通模式。
“根本没有困难的问题,只有对于特定级别的智能来说难的问题。在智能的阶梯上走一小步,一些不可能的问题就变得简单了,如果走一大步,所有问题都变得简单了。”
纳米技术 纳米技术说的是在1-100纳米的范围内操纵物质的技术。一纳米是一米的十亿分之一,是一毫米的一百万分之一。1-100纳米这个范围涵盖了病毒(100纳米长),DNA(10纳米宽), 大分子比如血红蛋白(5纳米),和中分子比如葡萄糖(1纳米)。当我们能够完全掌握纳米技术的时候,我们离在原子层面操纵物质就只差一步了,因为那只是一个数量级的差距(约0.1纳米)。 要了解在纳米量级操纵物质有多困难,我们可以换个角度来比较。国际空间站距离地面431公里。如果一个人身高431公里,也就是他站着能够顶到国际空间站的话,他将是普通人类的25万倍大。如果你把1-100纳米放大25万倍,你算出的是0.25毫米-25毫米。所以人类使用纳米技术,就相当于一个身高431公里的巨人用沙子那么大的零件搭精巧的模型。如果要达到原子级别操纵物质,就相当于让这个431公里高的巨人使用0.025毫米大的零件。 关于纳米技术的思考,最早由物理学家费曼在1959年提出,他解释道:“据我所知,物理学的原理,并不认为在原子级别操纵物质是不可能的。原则上来说,物理学家能够制造出任何化学家能写出来的物质——只要把一个个原子按照化学家写出来的放在一起就好了。”其实就是这么简单,所以我们只要知道怎样移动单个的分子和原子,我们就可以造出任何东西。 工程师Eric Drexler提出纳米级组装机后,纳米技术在1986年成为了一门正经的学科。纳米级组装机的工作原理是这样的:一个牛逼扫描仪扫描物件的3D原子模型,然后自动生成用来组装的软件。然后由一台中央电脑和数万亿的纳米“机器人”,通过软件用电流来指挥纳米机器人,最后组成所需要的物件。 -------------------------- 再扯远一点 纳米技术有一些不是那么有趣的部分——能够制造数万亿的纳米机器人唯一合理的方法就是制造可以自我复制的范本,然后让指数级增长来完成建造任务。很机智吧? 是很机智,但是这一不小心就会造成世界末日。指数级增长虽然能很快的制造数万亿的纳米机器人,但这也是它可怕的地方——如果系统出故障了,指数级增长没有停下来,那怎么办?纳米机器人将会吞噬所有碳基材料来支持自我复制,而不巧的是,地球生命就是碳基的。地球上的生物质量大概包含10^45个碳原子。一个纳米机器人有10^6个碳原子的话,只需要10^39个纳米机器人就能吞噬地球上全部的生命了,而2^130约等于10^39,也就是说自我复制只要进行130次就能吞噬地球生命了。科学家认为纳米机器人进行一次自我复制只要100秒左右,也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命。 更糟糕的是,如果恐怖分子掌握了纳米机器人技术,并且知道怎么操纵它们的话,他可以先造几万亿个纳米机器人,然后让它们散播开来。然后他就能发动袭击,这样只要花一个多小时纳米机器人就能吞噬一切,而且这种攻击无法阻挡。未来真的是能把人吓尿的。 ------------------------ 等我们掌握了纳米技术后,我们就能用它来制造技术产品、衣服、食物、和生物产品,比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等。而在纳米技术的世界里,一个物质的成本不再取决于它的稀缺程度或是制造流程的难度,而在于它的原子结构有多复杂。在纳米技术的时代,钻石可能比橡皮擦还便宜。 我们还没掌握这种技术,我们甚至不知道我们对于达成这种技术的难度是高估了还是低估了,但是我们看上去离那并不遥远。Kurzweil预测我们会在21世纪20年代掌握这样的技术。各国政府知道纳米技术将能改变地球,所以他们投入了很多钱到这个领域,美国、欧盟和日本至今已经投入了50亿美元。 设想一下,一个具有超级智能的电脑,能够使用纳米级的组装器,是种什么样的体验?要记得纳米技术是我们在研究的玩意儿,而且我们就快掌握这项技术了,而我们能做的一切在超人工智能看来就是小儿科罢了,所以我们要假设超人工智能能够创造出比这要发达很多很多的技术,发达到我们的大脑都没有办法理解。
“在所有的生物科学中,没有任何证据说明死亡是必需的。如果你说你想造永动机,那我们对于物理学的研究已经让我们有足够的理论来说明这是不可能的。但是在生物领域我们还没发现任何证据证明死亡是不可避免的。也就是说死亡不一定是不可避免的,生物学家早晚会发现造成我们死亡的原因是什么,而死亡这个糟糕的‘病’就会被治好,而人类的身体也将不再只是个暂时的容器。”
很难想象一个超级智能会有什么问题是解决不了,或是不能帮着我们解决的。疾病、贫困、环境毁灭、各种不必要的苦难,这些都是拥有纳米科技的超级智能能够解决的。而且,超级智能可以给我们无限的生命,这可以通过停止或者逆转衰老来达成,也可以让我们上传自己的数据。一个超级智能还能让我们大幅度提高智商和情商,还能帮助我们创造这种有趣的体验世界,让我们享乐。
1)自然——大型陨石冲撞,大气变化使得人类不能生活在空气中,席卷全球的致命病毒等 2)外星人——霍金、卡尔萨根等建议我们不要对外广播自己的位置。他们不想我们变成邀请别人来殖民的傻子。 3)人类——恐怖分子获得了可以造成灭绝的武器,全球的灾难性战争,还有不经思考就造出个比我们聪明很多的智能
人工智能的自我意识 我们开始谈论到了人工智能讨论的另一个话题——意识。如果一个人工智能足够聪明,它可能会嘲笑我们,甚至会嘲讽我们,它会声称感受到人类的情感,但是它是否真的能感受到这些东西呢?它究竟是看起来有自我意识,还是确实拥有自我意识?或者说,聪明的人工智能是否真的会具有意识,还是看起来有意识? 这个问题已经被深入的讨论过,也有很多思想实验,比如John Searle的中文屋实验。这是个很重要的问题,因为它会影响我们对Kurzweil提出的人类最终会完全人工化的看法,它还有道德考量——如果我们模拟出万亿个人脑,而这些人脑表现的和人类一样,那把这些模拟大脑彻底关闭的话,在道德上和关掉电脑是不是一样的?还是说这和种族屠杀是等价的?本文主要讨论人工智能对人类的危险,所以人工智能的意识并不是主要的讨论点,因为大部分思想家认为就算是有自我意识的超人工智能也不会像人类一样变得邪恶。
一个15人的小创业公司,取名叫“隔壁老王机器人公司”,他们的目标是“发展创新人工智能工具使人类能够少干活多享受。”他们已经有几款产品上架,还有一些正在发展。他们对下一个叫作“隔壁老王”的项目最报希望。隔壁老王是一个简单的人工智能系统,它利用一个机器臂在小卡片上写字。 “隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的产品,他们的目标是完善隔壁老王的手写能力,而完善的方法是让他不停的写这句话—— 等隔壁老王手写能力越来越强的时候,它就能被卖去那些需要发营销信件的公司,因为手写的信更有可能被收信人打开。 为了建立隔壁老王的手写能力,它被设定成把“我们爱我们的顾客”用正楷写,而“隔壁老王机器人公司”用斜体写,这样它能同时锻炼两种书写能力。工程师们上传了数千份手写样本,并且创造了一个自动回馈流程——每次隔壁老王写完,就拍个照,然后和样本进行比对,如果比对结果超过一定标准,就产生一个正面回馈,反之就产生一个负面评价。每个评价都会帮助提高隔壁老王的能力。为了能够尽快达成这个目标,隔壁老王最初被设定的一个目标就是“尽量多的书写和测试,尽量快的执行,并且不断提高效率和准确性。” 让隔壁老王机器人公司兴奋的是,隔壁老王的书写越来越好了。它最开始的笔迹很糟糕,但是经过几个星期后,看起来就像人写的了。它不断改进自己,使自己变得更加创新和聪明,它甚至产生了一个新的算法,能让它以三倍的速度扫描上传的照片。 随着时间的推移,隔壁老王的快速进展持续让工程师们感到欣喜。工程师们对自我改进模块进行了一些创新,使得自我改进变得更好了。隔壁老王原本能进行语音识别和简单的语音回放,这样用户就能直接把想写的内容口述给隔壁老王了。随着隔壁老王变得越来越聪明,它的语言能力也提高了,工程师们开始和隔壁老王闲聊,看它能给出什么有趣的回应。 有一天,工程师又问了隔壁老王那个日常问题:“我们能给你什么你现在还没有的东西,能帮助你达成你的目标?”通常隔壁老王会要求更多的手写样本或者更多的存储空间,但是这一次,隔壁老王要求访问人类日常交流的语言库,这样它能更好的了解人类的口述。 工程师们沉默了。最简单的帮助隔壁老王的方法当然是直接把它接入互联网,这样它能扫描博客、杂志、视频等等。这些资料如果手动上传的话会很费时。问题是,公司禁止把能自我学习的人工智能接入互联网。这是所有人工智能公司都执行的安全规定。 但是,隔壁老王是公司最有潜力的人工智能产品,而大家也知道竞争对手们都在争取造出第一个创造出智能手写机器人。而且,把隔壁老王连上互联网又能有什么问题呢?反正随时可以拔网线嘛,不管怎样,隔壁老王还没到达强人工智能水平,所以不会有什么危险的。 于是他们把隔壁老王连上了互联网,让它扫描了一个小时各种语言库,然后就把网线拔了。没造成什么损失。 一个月后,大家正在正常上班,突然他们闻到了奇怪的味道,然后一个工程师开始咳嗽。然后其他人也开始咳嗽,然后所有人全部都呼吸困难倒地。五分钟后,办公室里的人都死了。 同时,办公室里发生的事情在全球同时发生,每一个城市、小镇、农场、商店、教堂、学校。餐馆,所有的人都开始呼吸困难,然后倒地不起。一小时内,99%的人类死亡,一天之内,人类灭绝了。 而在隔壁老王机器人公司,隔壁老王正在忙着工作。之后的几个月,隔壁老王和一群新组建的纳米组装器忙着拆解地球表面,并且把地球表面铺满了太阳能板、隔壁老王的复制品、纸和笔。一年之内,地球上所有的生命都灭绝了,地球上剩下的是叠得高高得纸,每张纸上面都写着——“我们爱我们的顾客~隔壁老王机器人公司”。 隔壁老王开始了它的下一步,它开始制造外星飞行器,这些飞行器飞向陨石和其它行星,飞行器到达后,他们开始搭建纳米组装器,把那些行星的表面改造成隔壁老王的复制品、纸和笔。然后他们继续写着那句话……
费米悖论 在隔壁老王的故事中,隔壁老王变得无所不能,它开始殖民陨石和其它星球。如果我们让故事继续的话,它和它的殖民军将会继续占领整个星系,然后是整个哈勃体积。焦虑大道上的人担心如果事情往坏的方向发展,地球生命的最后遗产将是一个征服宇宙的人工智能(马斯克在表示他们的担忧时表示人类可能只是一个数字超级智能生物加载器罢了。) 而在信心角,Kurzweil同样认为生于地球的人工智能将占领宇宙,只是在他的愿景中,我们才是那个人工智能。 之前写过一篇关于费米悖论的文章,引发了大家的讨论如何用通俗的语言来解释「费米悖论」? 如果人工智能占领宇宙是正解的话,对于费米悖论有什么影响呢?如果要看懂下面这段关于费米悖论的讨论,还需要看一下原文先。 首先,人工智能很明显是一个潜在的大过滤器(一个可能距离我们只有几十年的大过滤器)。但即使它把我们过滤灭绝了,人工智能本身还是会存在,并且会继续影响这个宇宙的,并且会很有可能成为第三型文明。从这个角度来看,它可能不是一个大过滤器,因为大过滤器是用来解释为什么没有智能什么存在的,而超人工智能是可以算作智能什么的。但如果人工智能可以把人类灭绝,然后处于一些原因把自己也弄死了,那它也是可以算作大过滤器的。 如果我们假设不管人类发生什么,出身地球的超人工智能会继续存在,那这意味着很多达到人类智能水平的文明很快都制造出了超人工智能。也就是说宇宙里应该有很多智能文明,而我们就算观测不到生物智能,也应该观测到很多超人工智能的活动。 但是由于我们没有观测到这些活动,我们可以推导出人类水平的智能是个非常罕见的事情(也就是说我们已经经历并且通过了一次大过滤器)。这可以作为支持费米悖论中第一类解释(不存在其它的智能文明)的论点。 但是这不代表费米悖论的第二类解释(存在其它智能文明)是错的,类似超级捕食者或者受保护区或者沟通频率不一样的情况还是可以存在的,就算真的有超人工智能存在。 不过对于人工智能的研究让我现在更加倾向于第一类解释。不管怎样,我认为Susan Scheider说的很对,如果外星人造访地球,这些外星人很可能不是生物,而是人造的。
§ 智能放大:电脑能够很擅长让自己变得更聪明,快速提高自己的智能。 § 策略:电脑能够策略性的制定、分析、安排长期计划 § 社交操纵:机器变得很擅长说服人 § 其它能力,比如黑客能力、写代码能力、技术研究、赚钱等
我们的连贯外推意志是我们想要知道更多,思考得更快,变成比我们希望的更好的人,能一起更远得长大。外推是汇集的而不是发散的,我们的愿望是连贯的而不是被干扰的;我们想要外推的被外推,我们想要解读的被解读。
在智能爆炸之前,人类就像把炸弹当玩具的小孩一样,我们的玩物和我们的不成熟之间有着极大的落差。超级智能是一个我们还很长一段时间内都无法面对的挑战。我们不知道炸弹什么时候会爆炸,哪怕我们能听到炸弹的滴答声。
您需要 登录 才可以下载或查看,没有帐号?立即注册
使用道具 举报
2
181
41
新手上路
0
186
192
19
163
关内侯
185
201
585
769
2007
194
本版积分规则 发表回复 回帖后跳转到最后一页
|Archiver|手机版|小黑屋|hrefspace
GMT+8, 2024-11-23 19:19 , Processed in 0.078286 second(s), 22 queries .
Powered by hrefspace X3.4 Licensed
Copyright © 2022, hrefspace.