• [更多专访]

    关于“暗知识”和“人工智能”的对话

    「导语」AlphaGo战胜了世界围棋冠军,但无论是聂卫平还是设计AlphaGo的谷歌工程师都无法理解AlphaGo为什么这样走棋,这就是人工智能中令人困惑的“不可解释性”问题。从这个问题出发,发现了一类全新的知识——“暗知识”。

    一直以来人类知识可分为两类:“明知识”和“默知识”。明知识就是那些可以用语言、文字或公式清晰表达和描述的知识;默知识则是个人在感觉上能把握但无法清晰描述的知识,也即我们常说的“只可意会,不可言传”的那类知识。今天,人工智能突然发掘出了人类既无法感受又无法表达和描述的“暗知识”—隐藏在海量数据中的万事万物间的关系。介绍了机器学习五大流派从数据中挖掘暗知识的方法以及各自适用的领域,尤其是神经网络的基本工作原理和目前在商业上应用广泛的几种形态。

    本文是对话录,作为对照,也引述了业界重要研究者的观点和见解,相互验证、互为解读。

    价值中国:请您谈一谈,提出“暗知识”概念的相关背景?

    王维嘉:过去两年我在硅谷做人工智能方面的投资,同时对那些基础的东西非常有兴趣。

    我发现了一个重要的东西叫“暗知识”,“暗知识”就是人类无法理解的知识。什么叫人类无法理解的知识?这还要从阿尔法狗下围棋开始说起。阿尔法狗下围棋,让全世界第一次注意到人工智能的神奇。柯洁在下完棋后痛哭流涕,说我根本不可能打过他。它也让聂卫平五体投地,说阿尔法狗至少是20段。正当我们被阿尔法狗一棒子打晕的时候,他的妹妹又出现了,他的妹妹就是“阿尔法折叠”。2018年年底,谷歌在科学杂志上发布了“阿尔法折叠”的研究成果,根据DNA的序列测出一个蛋白质的三维结构。

    大家知道,蛋白质是一个超级大的分子,它的三维结构决定了蛋白质的性质,所有的生物、人体、植物动物的细胞都由蛋白质组成。人类今天对蛋白质的理解还是非常浅的。

    2017年的诺贝尔化学奖颁给了冷冻电镜的发明者Richard Henderson,冷冻电镜是干什么的呢?用来看蛋白质的三维结构。过去人类不知道,也无法看到蛋白质的三维结构,现在有了冷冻电镜,我们终于可以看到蛋白质的三维结构。怎么看呢?要把细胞冷冻了以后,照几十万张照片才能画出一个蛋白质的三维结构。所以,只要看清楚一个蛋白质的三维结构,那就是顶级期刊的一篇文章。

    阿法蝶(叠)从基因序列准确预测蛋白质结构

    那么一台冷冻电镜多少钱呢?一千万美金。我们去耶鲁,耶鲁人非常骄傲:我们有一台电镜。清华有两台。但是今天,“阿尔法折叠”只用人工智能就可以把它猜出来。怎么猜出来的?不知道。这就带来了一个巨大的问题:阿尔法狗下围棋,谷歌的工程师并不知道他怎么下,聂卫平也不知道。人工智能里出现了一个巨大的问题,就是不可解释性。

    林永青:作为开场白,有一点明显的感触就是,相比较2016年阿法狗战胜人类围棋冠军的时候,今天业界的专家包括维嘉学长在内的业界专家,人们在情绪上更为乐观了,或许这两年大家更多地发现“人工智能”的局限性,更多地自我认同了人类的种种核心或独特优势

    我倾向于用“维度”来解释人类知识或人类认知。由于人类自身“生物熵”的局限性,我的“猜测”(卡尔-波普尔的知识论术语)是人类最多只能处理三个维度的信息(知识)。因此,人类认识论的哲学争论,也只不过停留在“一元论”与“二元论”这个非常可怜的层级。

    什么是“维度”?就是“思维”的维度。维度问题离不开“时间”因素——今天多数人的“时空观”,只能理解到三维空间加上第四维时间——加上了时间维度,人们大致可以在认知上处理多维的,;但是,在“同时或共时”的约束下,人们。机器智能的区别就是维度区别。

    爱因斯坦有句名言:想像力比知识更重要。不是吗?我们的知识,只是二维(最多三维)的因果或相关连接,而多维的想像力,就是我们一无所知的暗知识。

    我有一个“猜想”,所谓“解释”,就是为知识建立某一角度(同一维度)或某一维度的“连接”。黑格尔很早就验证了“因果链”在逻辑上是苍白的,只是归纳法的运用而已,所以,我认为解释也不过是一种类比或隐喻,既不是演绎推理,也不是统计归纳,因此“解释”也就是一种意识连接、一种“无法解释”的暗知识“涌现”。

    {延伸解读}波普尔:《猜想与反驳:科学知识的增长》

    人类目前对于人工智能及人类智能的相关知识,都还只是非常早期的“猜想”。需要长期的验证或反驳,来进行证实或证伪。

    《猜想与反驳:科学知识的增长》,是英国哲学家卡尔-波普尔创作的哲学著作,首次出版于1963年。

    该书是由波普尔不同时期的文章和讲演组成的,除导论《论知识和无知的来源》外,分“猜想”和“反驳”两部分。围绕着知识通过猜想与反驳,不断清除错误而增长这一主题展开论述,广泛涉猎知识论、科学论、真理论,以及自然科学史和社会科学史等领域。 

    阐述了其批判理性主义方法论的主要著作,认为科学开始于问题,即理论由证伪暴露出问题;从灵感出发,提出各种大胆的猜测,形成科学理论,然后对各种理论进行检验,从观察和实验中达到逼真度较高的新理论。新理论为科学技术的发展所证伪,又出现新问题。

    波普指出,古典的经验主义和理性主义都是错误的,无论观察还是理性都不是知识的源泉。因为“我们的知识有各种各样的源泉;至今没有一种源泉有权威性。”

    真正的认识论问题不是关于知识源泉问题,而是知识的正确性、即是否同事实相一致的问题。知识的进步在于批判地考察那些大胆的猜想。波普从哲学史和科学史的大量材料出发,全面的阐述了他的科学哲学思想,并在此基础上提出了科学发现的方法,即猜想—反驳方法论。

    价值中国:“暗知识”的提出,相信对于人类的认识论哲学,又推进了一步。请对此问题做些解读。

    王维嘉:我们人类从来没有这样憋屈过,因为我们自以为是整个宇宙智能最高的生物,没有任何事情是我们不可理解的,所有的事情都应该有因果。可是为什么到了今天,我们居然不能理解?这就让我们回到人类是如何获取知识的这个问题。

    过去两千年来,一直有两派在激烈地争论。一派是理性主义。他们认为,概念是天生就有的,知识来自于推理,万事万物都有因果。这派的代表有柏拉图,一直到笛卡尔。另外一派是从亚里士多德到苏格兰学派,他们认为人生出来天生是白纸一张,知识来自于感官,来自于经验,万世万物没有什么因果,只是相关。我们中国人更倾向于哪一派呢?经验主义。中国人觉得,所有的经验不通过感受和感官怎么能得到呢?

    经验主义的一个重要的方法论叫“归纳”。我见到一只天鹅是白的,两只天鹅是白的……第一万只天鹅是白的,那么我就得出结论——天鹅是白的,直到出现了第一只黑天鹅。所以,归纳法也是错的,是不可靠的。

    简单做个小结。理性主义和经验主义的历史争论,对于知识的进步基本无用。比如,理性主义对于人类从上帝手中解放自己,所谓“祛魅”有一些作用,对后人理解知识,却没有什么用处。经验主义的出发点,也只是为了阻击理性入侵宗教或道德等“形而上”领域,对理解“客观知识”也几乎无用。包括近代最重要的哲学家康德,在知识论上,我也认为是贡献甚微。

    但是,我们现在在脑神经科学等领域取得一点点进展,这可能帮助我们在微观上理解知识有所助益;而在宏观上,需要哲学来对知识做出整体性把握,方法是通过重新解释由“科学带来的真实性论据”。

    价值中国:理性主义和经验主义争论了上千年,实质上并没有什么知识进步。那么从今天的科学成果来解释,人类的获取知识的机制是什么?

    王维嘉:为什么这两派争了两千年,谁都不服谁?原因是他们在瞎争,因为他们都不理解人类学习的微观机制是什么样的。人类学习的微观机制一直到70年前才开始被搞清,它就基于大脑神经元的连接。人类有860亿个神经元。

    这个学习机制是怎么发现的?我们要归功于巴甫洛夫。他发现,给狗喂食的时候摇铃,一旦形成了习惯,即使没有食物,一摇铃狗也会流口水。这就是条件反射。1949年,加拿大科学家赫布就如何解释这个现象提出了一个猜想:同时受激发的两个神经元会连接起来。比如,嗅觉细胞闻到了狗食的香味,同时听觉细胞听到了铃声,这两个细胞是同时受刺激的,一旦同时受刺激,它俩就连起来了,在连接的地方就形成了学习。下一回当你只听到铃声,这个细胞就被激活,就会刺激“口水”细胞。这一猜想后来被无数的科学实验证明是对的,被称为“赫布学习定律”。

    人类所有的学习都是这样的一个微观机制。再微观下去,每个神经有上千个突触,每个突触之间是有电流通过的,所谓神经元之间的连接,实际是离子变成了电流,然后建立了神经元之间的传导,其中的间隙只有20纳米。知道了学习的微观机制,我们就可以回过头来看人类的知识是怎么获得的。

    价值中国:请对所定义的不同种类的知识,做一介绍。

    王维嘉:我们今天理解的知识叫“明知识”,就是可以用文字、公式、程序、语言表达出来的知识。直到70年前,波兰尼、哈耶克发现了一种知识叫“默知识”,或者叫“默会知识”。比如学自行车,全世界没有一个人骑自行车是看手册学会的,都是骑上去歪歪扭扭摔几跤学会的。你教孩子学自行车,其实你也不知道是怎么学的。这种知识在生活中大量存在,比如绘画、舞蹈和拉提琴等等都是这样的默会知识。默会知识的基本原理就是:大脑神经元建立了联系,但这样的联系非常复杂,是无法用语言表达的。我们所有的重大决定,最后都是由老板拍板。老板怎么拍板?索罗斯说,“我所有的重大决定都是靠胃做出来的,如果我的胃疼,说明这个决定不好。”

    比如说,乔布斯从来不做市场调查,他说,“我的市场调查,就是每天早上出门前对着镜子看我自己。”为什么?当智能手机出来之前,你去做用户调查,问:你认为一个智能手机是什么样的?你想要什么样的智能手机?全世界没有一个人说得出来,这就是默知识,我们冥冥中知道要什么东西,但是说不出来。那怎么办?只能靠企业家去试错,在乔布斯成功之前,硅谷试了20年,从掌上电脑到不成功的手机和触屏,出现了各种各样的东西,有不知道多少家公司失败,最后到乔布斯成功。所以,因为默知识不可集中,所以创新必须是分散的,永远不可集中。

    讲完了明知识和默知识,我们现在就可以讲机器发现的暗知识。什么叫暗知识?就是人类不可感受又不可表达的一类新知识。我们如果划一个坐标轴,横轴是可表达,纵轴是可感受,那我们会发现,人类已有的知识都在右边,有浮力定律等即可感受、也可表达的明知识;还有集合论、广义相对论、量子力学等可表达而不可感受的明知识,它们是从方程里推出来的,是先有数学而后才有的物理发现。默知识是不可表达,但是可感受。这四个象限正好缺了第四象限,就是既不可表达又不可感受,这就是今天机器发现的这类知识,也就是阿尔法狗下围棋、“阿尔法折叠”算蛋白质三维结构的这类知识。

    如果用一个冰山来表达的话,人类已知的明知识,就是冰山的一小角,暗知识是冰山下面的最大块的东西。波兰尼,也就是第一个发现默知识的奥匈科学家,说:“我们知道的比我们说出来的要多。”但是暗知识就是整个海洋,也就是说,未来机器发现的知识会让我们人类已有的两千年到今天为止的知识显得微不足道。我们人类以为,我们已经可上九天揽月,可以做基因编辑,但是实际上是什么也没有。暗知识是未来统治和占领整个知识空间的最大量的一种知识。

    大家说,你说的“暗知识”是不是一种哲学概念,这跟我有什么关系?太有关系了。上海交通大学两位教授用1800张照片来训练机器,照片中有罪犯、有好人,最后机器可以以90%的准确率来判断是否是罪犯。这项研究在国际上引起了巨大的争议。我到以色列看一家公司,他们也说在做同样的东西,而且以色列海关准备用于查恐怖分子。我最终没有投这家公司,因为我感觉这东西太悬乎了,但是有可能机器的确比人看得准。为什么?不知道,我看你就像罪犯!

    社会积分系统。如果说今天摄象头布满了所有地方,那每个人从早上起来,从小到大所有的行为都在摄象头下,最后摄象头就根据你的行为,给你算出社会积分。你说我表现这么好,凭什么打这么低的分?不知道。这就是未来我们将遇到的重大问题,不可解释的问题。

    再如诺曼底登陆,为什么在诺曼底而不是卡拉斯登陆?机器算出来说要在卡拉斯登陆,那么盟军司令听不听?听它的可能就打胜仗,不听它的就打败仗。但是我们根本不懂为什么要这样做?未来一个重大的决定很可能就是由机器做出来的,你可以选择不听机器的,但是你会失败。但是为什么呢?不知道。因为是暗知识。这些生死攸关的决定,到底敢不敢交给机器来做?

    所以,人类历史上第一次被一脚踢出了知识获取的回路。过去所谓知识就是人去学东西,现在机器自己学,和我们人没有什么关系了,我们人一边儿凉快去了,我们成了“吃瓜群众“了。

    因此,我们正面临着一个新时代的到来,它不仅仅是AI技术的改进,而且从哲学、从认识论上给我们提出了根本的挑战,也就是说,机器认知时代到来。这个时代无所不在的传感器在记录着所有的物理量——温度,气温,每个人的活动,血液、心脏的跳动……然后将这些数据通过5G网络传到云端,机器再把万世万物当中隐蔽的相关性找出,并凭借相关性去做事,去改进我们生活或者是破坏我们的生活,去优化生产或者进行互相残杀。

    现在的问题是,我们人类无法理解“暗知识”,而且我们人类越来越渺小,我们人类的知识现在刚刚开始,未来的机器知识会越来越多,我们人类就像最后几个小岛,被暗知识这个海洋所淹没。那么,我们就面临一个重大的问题——人类和机器的关系。谁听谁的?事实上,我们等于在无意中给自己创造了一个上帝,这样一个时代的到来,会产生什么样的问题?会怎样颠覆我们每个行业?会不会突然造成大规模的失业?未来的社会、政治、军事战争会是什么形态?这些都会受到暗知识的影响。

    林永青:我还是坚持用“维度”哲学观,可以很好地解释各类知识。20世纪初,当思想家们区分“明知识”和“默知识”的时候,其实只用了一个“维度”,即“知识是否可表达”?今天,维嘉学长又提出了“暗知识”的概念,实际上是增加了一个“维度”,即“知识是否可感受”。

    因此,我们可以做出结论说,知识的进展,极大概率上是“维度增加的问题。”同时,知识维度的增加,只需要是一个形式“连接”的问题,至于“连接”为何会发生?这也仍是一种至今无法解释的“量子跃迁”。但我们可以确信的是,维度增加了,知识也就发展了。

    {延伸阅读}金观涛,“暗知识”:当代理性自负的解毒药

    人工智能革命之基础——神经元网络的自我学习及其与环境互动所能达到的极限,都超不过图灵机的行为组合。从20 世纪下半叶至今,伴随着人工智能的快速、高度发展,关于它能否在未来某一天具有意识的讨论,一直是在电脑和人脑差别的框架中展开的。我认为,只要发展出相应的数学理论,就能了解神经元网络学习已做出的和可能做的一切。但有一点是毫无疑问的,它不可能具有自我意识、主体性和自主性。

    为什么说这本书是解毒药?因为维嘉在解释为什么人工智能可以比人更多、更快地掌握知识(能力)时,把人工智能所掌握的信息定义为“暗知识”,从而可以得出清晰的理论表述。我们首先要弄明白什么是知识,知识就是人获得的信息。而人利用信息(知识)离不开获得信息和表达信息两个基本环节,人获得信息是用感官感知(即经验的),表达信息是通过符号(语言)和对符号结构之研究(符号可以是非经验的)。这样,他根据“可否感知”和“可否表达”,把人可利用的知识分为如下四种基本类型:

    第一,可感知亦可表达的知识。它包括迄今为止所有的科学和人文知识。

    第二,不可感知但可表达的知识。任何经验的东西都是可感知的,不可感知的就是非经验的。有这样的知识吗?当然有。以数学为例,抽象代数的定理是正确的知识,但可以和经验无关。人之所以为人,就在于可以拥有纯符号的知织,它是理性的重要基础。

    第三,可感知但不可表达的知识。它包括人的非陈述性记忆和“默会知识”。

    第四,不可感知亦不可表达的知识。这就是当前神经元网络通过学习掌握的知识。维嘉将这类大大超出了个别人所能记忆和学习的知识称为“暗知识”。“暗知识”的提出,不仅是一项哲学贡献,也为当前盛行的科学乌托邦提供了一剂解毒药。

    20世纪社会人文研究最重要的成就,就是发现“默会知识”和市场的关系。人类可共享的知识都是可以用符号表达的知识,但它不可能包含每个人都具有的“默会知识”。经济学家利用“默会知识”的存在,证明了基于理性和科学知识的计划经济不可能代替市场机制。一个充分利用人类知识的社会,一定是立足于个人自主、互相交换自己的能力和知识所形成的契约组织。忽视所有个人具有的“默会知识”,把基于理性和可表达的知识设计出的社会制度付诸实践,会出现与原来意图相反的后果。哈耶克称这种对可表达的明知识的迷信为“理性的自负”。

    今天随着大数据的应用,这种理性的自负再一次出现在人工智能领域。而“暗知识”的提出,扩大了不能用符号表达知识的范围,进一步证明了哈耶克的正确性。所以,我说这本书是对当前理性自负的有效解毒药。

    另一个有意义的问题是“暗知识”会在何种程度上改变现代社会。这种新型知识大规模的运用,将会导致大量拥有专门知识和技能的人失业、一批又一批的行业消失,甚至连医生专家都可能被取代。姑且不论这种预测是否准确,有一点是肯定的,即人工智能必定会极大地改变我们赖以生存的社会。那么,它会把人类社会带到哪里去?这正是人工智能革命带来的普遍焦虑之一。人工智能对城市管理和对每个人私隐的掌握,是否会导致个人自由和隐私的丧失?由大数据和人工智能高科技管理的社会,还是契约社会吗?

    现代社会和传统社会的本质不同就在于其高度强调个人的主体性和创造性,任何信息的获得、表达和应用都离不开个人的主体性和创造性。我认为,人工智能可以具有掌握“暗知识”的能力,但它不可能具有自我意识,当然亦无所谓主体性,它只能被人所拥有。因此,一个能允许知识和技术无限制进步的社会,仍然是建立在个人契约之上的。也就是说,无论科学技术发展到什么程度,现代社会的性质不会因之而改变。

    然而,我认为,人工智能或许会使现代社会的科层组织的形式发生改变。现代社会除了由法律和契约提供组织框架以外,还必须向所有人提供不同类型的公共事务服务,如治安、交通设施、教育、医疗等。为此就要设立处理不同类型事务的专门机构来管理社会,如军队和政府科层组织。科层组织之间功能的实现和协调,要利用符号表达的共享知识,因此,随着现代社会的复杂化,必定出现技术官僚的膨胀。

    科层组织的形成和理性化的关系,是韦伯分析现代社会的最重要贡献。在未来,随着人工智能对“暗知识”的掌握和运用向社会管理渗透,甚而替代,将会证明韦伯这一重要论断不再成立。

    价值中国:那么,机器是如何发现暗知识的呢?

    王维嘉:虽然机器可以学习明知识和默知识,但它最大的本事是学习暗知识。

    暗知识就是那些既无法被人类感受又不能表达出来的知识,也就是说人类本身无法理解和掌握这些知识,但机器却可以。机器有两种方法可以掌握这些知识:模仿人脑和模仿演化。

    联结学派。联结学派的基本思路就是模仿人脑神经元的工作原理:人对所有模式的识别和记忆建立在神经元不同的连接组合方式上。或者说一个模式对应着一种神经元的连接组合。联结学派就是目前最火爆的神经网络和深度学习,它在五大学派中占绝对统治地位。目前人工智能的高科技公司中绝大部分是以神经网络为主。

    进化学派。是激进主义经验派、是彻底的不可知论者。进化学派不仅觉得因果关系是先验模型,甚至觉得类比,神经元连接也都是先入为主的模型。认为不管选择什么样的先验模型,都是在上帝面前耍人类的小聪明,世界太复杂,没法找到模型。进化学派的基本思路是模仿自然界的演化:随机的基因变异被环境选择,适者生存。做法就是把一种算法表达成像基因一样的字符串,让不同的算法基因交配,让生出来的儿女算法去处理问题,比爸妈好的留下来配种继续生孙子,比爸妈差的就淘汰。

    进化算法的问题是“进化”毫无方向感,完全瞎蒙。垃圾邮件过滤器为例,1000比特的字符串的所有可能性是21000,即使目前世界最快的超级计算机,“进化”到地球爆炸都不可能穷尽所有可能,在有限时间内能探索的空间只是所有可能空间的极少部分。地球可是用了40亿年时间才进化出了现在所有的生物。

    美国华盛顿大学佩德罗·多明戈斯( Pedro Domingos)教授在他的划时代的著作《终级算法》中,总结的一张五大流派“八卦图”。

    机器学习中的符号学派、贝叶斯学派、类推学派和联结学派的共同点是根据一些已经发生的事件或结果,建立一个预测模型,反复调整参数使该模型可以拟合已有数据,然后用此模型预测新的事件。不同的是它们各自背后的先验世界模型。

    1) 符号学派相信事物间都有严密的因果关系,可以用逻辑推导出来;

    2) 贝叶斯学派认为,因发生,果不一定发生,而是以某个概率发生;

    3) 类推学派认为,这个世界也许根本没有原因,我们只能观测到结果的相似,如果一只鸟走路像鸭子,叫起来像鸭子,那么它就是只鸭子;

    4) 联结学派认为,相似只是相关性能被人理解的那层表皮,隐藏的相关性深邃到无法用语言和逻辑表达;

    5) 进化学派认为,什么因果?什么相关?都不存在,我的世界模型就是没有模型!从零开始,不断试错,问题总能解决!

    其中,人工智能是最大的一个圆,圆里面分为两部分:一部分叫人工学习,也就是我们过去讲的的专家系统;另一部分叫机器学习,就是机器自己学习。机器学习里面包含神经网络,在神经网络里面还要再分,一个是浅度学习,一个是深度学习。在过去芯片集成度低时,我们只能模仿很少的神经元。现在由于集成度在提高,我们可以模仿很多的神经元,当很多神经元被组成多层的网络时,我们就叫它深度学习。

    {延伸解读}加来道雄,《心灵的未来》

    加来道雄,著名日裔美国科学家,1947年出生于美国加州。科学畅销书作者,美国著名高等学府加州大学伯克利分校(UC Berkeley)物理学博士、纽约城市大学研究生中心的理论物理学教授 ,超弦理论的专家 。加来道雄的著作都广受赞誉, 《构想未来》、 《超越爱因斯坦和超空间》、《平行宇宙》,均被《纽约时报》和《华盛顿邮报》提名为当年的最佳科学读物之一。

    加来道雄也认为对于更多知识的理解,主要的工具也就是哲学与科学哲学与神经科学。

    哥白尼原理和人择原理之间的争论也在神经科学中有所体现。例如,有人认为人类可以还原为原子、分子和神经元, 因此人类在宇宙中并没有特殊的地位。

    生物学家戴维·伊格尔曼博士写道:“除非我们大脑中所有元件和零件都处在恰好的位置上,否则所有朋友都熟知和喜爱的那个‘你’不可能存在。如果你不相信这一点,那么请到任何一家医院的神经科去看一看。大脑哪怕只有一小部分受到损伤,都可能令人吃惊地造成我们特定能力的丧失,比如给动物取名的能力、听音乐的能力、管理风险行为的能力、分辨颜色的能力、做出简单决策的能力等。”

    如果没有“元件和零件”,大脑似乎无法工作。他最后说:“我们的现实取决于我们有怎样的生物机体。”

    如果我们的身体可以还原为(生物性的)螺母和螺栓,我们在宇宙中所处的地位就显得更加微不足道。我们只是一种“湿件”,运行着被称为心灵的软件,除此之外别无他义。我们的思想、欲望、期待和抱负都能解释为在前额叶皮层的某个区域中运行的电脉冲。这就是哥白尼原理视角下的人类心灵.

    但人类选择原理也可以应用到人的心灵上,这样我们就会得到完全相反的结论。这个结论会说,是宇宙的条件使得意识的出现成为可能,虽然从偶然事件中造就心灵是一件十分困难的事。维多利亚时期伟大的生物学家托马斯·赫胥黎( Thomas Huxley)说:“刺激性的神经组织如何生成一种让人惊奇的意识状态,这与阿拉丁摩擦神灯如何能召唤出灯神一样无法解释。”

    另外,多数天文学家都相信我们有一天会在其他行星上找到生命,但这种生命很可能是微生物形式,这种生命形式统治了我们地球海洋几十亿年: 我们碰到的可能不是巨大的城市和帝国,而是漂浮着微生物的海洋。

    这些数字令人惊叹。遗传学表明,在7万年至10万年前,地球上只有几百人到几千个人,是他们孕育了整个人类。(有一种理论认为,大约7万年前位于印度尼西亚的多巴火山发生大爆发,使得温度骤降,多数人随后死去,只留下少数。)由这一小群人繁衍出那些最后占据整个地球的冒险者、探险者。

    在地球的历史中,智慧生命似乎多次走到尽头,我们能够存活实在是一个奇迹。我们可以说,虽然其他行星上可能存在生命,但有意识的生命只可能出现在少数几个星球上。因此,我们应该珍惜地球上出现的意识,它是宇宙中已知的最复杂的形式,很可能也是最稀有的。

    在考虑人类未来的命运时,我有时会想到人类自我灭绝的可能性。虽然火山爆发、地震都可能对人类宣判死刑,但我们最大的恐惧却来自于人造的灾难,如核战争或生物工程细菌。如果这真的发生,那么也许银河系中存在的唯一有意识的生命形式会遭到灭绝。我觉得,这不仅会是我们的悲剧,也是整个字宙的悲剧。我们想当然地认为自己拥有意识,我们并不理解生物事件使意识出现所经历的漫长的曲折的过程。心理学家史蒂文平克写道:“我认为,意识在每个时刻上的展现都是宝贵而脆弱的恩赐,没有比意识到这一点更能给生命以意义的了。”

    价值中国:我们讨论到今天最前沿的技术,就是深度学习,也就是多层的神经网络。深度学习能力非常强大,但是有局限性吗?

    王维嘉:当然有。神经网络的一个局限性是,需要依赖特定领域的先验知识,也就是需要特定场景下的训练,说白了就是神经网络只会教什么,学什么,不会举一反三——(编注:“举一反三”其实是一个哲学思维或者抽象(升维)思维的问题)。

    神经网络的这个局限性,是因为神经网络的学习本质上就是对相关性的记忆,也就是说神经网络将训练数据中相关性最高的因素作为判断标准。打比方说,如果一直用各个品种的白色狗来训练神经网络,让它学会“这是狗”的判断,神经网络会发现这些狗最大的相关性就是白色,从而得出结论白色=狗。在这种情况下,让这个神经网络看见一只白猫,甚至只白兔子,它仍然会判断为狗。

    机器学习的这种呆板行为,用专业术语描述叫“过度拟合”。如果想让神经网络变得更聪明,就必须用(不同维度的——编注)各种颜色、各个品种、是否穿衣服等各种场景下的狗来训练神经网络,如此它才有可能发现不同的狗之间更多的相关性,从而识别出更多的狗。

    人类则不同,一个两三岁智力发育正常的孩子,在看过儿只狗之后,就能认出这世上几乎所有的狗了。无须大量标注数据和特殊场景的训练,只需要少量的数据,人脑就可以自己想清楚这个过程。在这方面,目前的神经网络和人脑相比,还有巨大的差距。

    神经网络的另一个局限性是无法解释结果为什么是这样,因为人类无法理解暗知识,所以更无法解释。神经网络这个“满是旋钮的黑盒子”,每个旋钮为什么旋转到那个位置,而不是多一点或者少一点,都是无法解释的。这个不可解释性在许多涉及安全和公共政策的领域都是很大的问题。例如,医疗涉及人的健康和生命,医生的诊断需要根据极为严谨的医学逻辑,因此医疗对于人工智能的可解释性要求远高于其他行业,极少有医院或医生敢把无法解释的诊断结果用在患者身上。然而由于神经网终身不具备医学逻辑,其输出的结果也缺乏医学上的解释性,因此目前人工智能在医学上的应用,无论是影像识别还是辅助诊断,都需要专业医生的复核,距离取代医生还有较大的距离。

    人工智能之所以有上述两个局限性,主要是因为目前的神经网络只有相关性的学习能力,没有因果推理能力,更无法把一步一步推理的过程表现出来。因此,想要克服这两个局限性,我们需要有因果推理能力的人工智能。要实现这件事情,人工智能需要做的,不仅是识别场景,还需要将识别出来的场景和它具体的功能以及想做的事情结合起来,从而实现合理的逻辑推理。

    让我们看看人脑是如何理解一个场景的。当人进入一个新的房间时,会很自然地对这个房间的大小,里面各个物品的大小位置等有一个大致的认识。之后,人脑会把识别出的场景和物品,与其功能一一匹配,例如,床是用来躺的,而且是一张双人床可以躺两个人,椅子是用来坐的,杯子是用来喝水的,等等。

    然而更值得注意的是,上述的几何重建和功能推理,其精度是和具体任务相结合的。例如,人一开始看到杯子,会匹配它喝水的功能,并看到它放在桌子上,判断距离自己两三米远,这个距离判断是非常不精确的。然而当人真的需要喝水时,喝水成为一个任务,人在走过去拿杯子的过程中,不断地、更加精确地判断自己和杯子的距离,直到非常精确地拿到杯子。这个过程就是一个典型任务驱动的场景识别和功能推理。

    此外,人类对于功能的推理,并非会拘泥于具体的物体,而是能抽象出这个物体和功能有关的物理特性,从而匹配其功能。

    仍然以喝水为例,如果房间里没有杯子,但是有一个瓢、一个盘子、一根擀面杖,人会很自然地选择瓢作为喝水的工具(如果连瓢都没有则可能选择盘子),因为瓢可以作为容器的物理特点和这件杯子是一致的。而且,选择了瓢之后,人拿瓢的动作,喝水的动作,都会和拿杯子不一样,这同样是由杯子和瓢不同的物理特性出来的决定的。

    由此可见,人对于物体的功能推理,是会根据任务的要求,抽象其物理特性,从而推理它的功能并完成任务,因此人工智能的场景识别和功能匹配,是需要基于场景和物体的物理特性来完成的,而不仅仅是识别和标定具体功能。

    这种基于任务驱动的因果推理和当前的神经网络的对比如下。

     

     
    机器神经网络
    人类任务驱动
    物体识别
    识别物体是什么
    如果没训练过,就无法识别
    识别物体的物理属性
    即使没训练过,也可以识别
    功能匹配
    通过标定和训练匹配功能
    如果没训练过,就无法匹配
    通过物体特性匹配功能
    即使没训练过,也能匹配功能
    驱动本质
    数据标定驱动
    任务驱动
    数据数量
    需要大量数据训练
    只需要少量数据
    推理能力

    资源来源:朱松纯,《正本清源》,2016年11月《视觉求索》

    价值中国:今天社会的大致共识是,人类已经进入数字时代(或数据时代、或知识时代、或智能时代),但是普通人对于“数据、信息、知识”这些词汇的理解和使用是极其混乱的。请做一个厘清。

    王维嘉:的确如此。我对于这几个关键词的定义,有我自己的表述。我认为——

    信息:可观察的事物表征。

    数据:已描述出来的信息。

    知识:数据间的时空关系。

    林永青:今天最通行的知识层次模型,大约就是这个DIKW模型了。

    DIKW模型

    • Wisdom-智慧:知识的嵌入式应用
    • Knowledge-知识:有意义的信息
    • Information-信息:结构化的数据—比较、推论、过滤
    • Data-数据:可计划的结果和事实。

    我的理解是,无论每一种“解释”所采用的“定义”有何不同,每一个层级与下一个层级之间,并非只是通过做约束条件做了“减法”,而成为简单的大集合与小集合的包含关系,而是肯定“加进去了另外的东西”,也就是:“信息”未必就比“数据”更少,“知识”也未必就比“信息”更少。因为这里面有人类思维没有“看到”的更多维度的连接。

    再强调一句,不是没有,而是没有看到,之所以如此,是因为我们人类最有把握的知识处理工具,不过就是“二维的图表”。电脑早就可以处理N维的数组(图表)了,只不过在电脑存储器中,也只能用二维的方式来保存,人类也因此无法“实时”形成一个形象化的理解。

    我因此延伸出另一个“猜想”,所谓“知识”不过就是降维的“映射”(投影)罢了,借用建筑设计图的类比,三维的“球体”投影成二级的“圆面”,人脑还可以勉强“还原”出高一维的“知识”,或者是四维、五维、或更高维的“知识”,投影成二维——人类是三维生物,能够瞬间理解的知识,也只有二维——。所以,我的解释就是,所谓“暗知识”,极大概率就是面对多维事物,“投影”成二维。想想不规则魔方,给我们带来的巨大的脑力激荡,那还只是非常低维的玩具。

    多维事物在我们的“物质空间”只以“三维”存在,而在我们的“意识空间”中完全是可以N维存在的。比如,我们描述一件衣服。颜色是一个维度,材料是一个维度,款式是一个维度,尺寸是一个维度......什么是“维度”?用哲学术语来讲,“不可通约”的“概念范畴”就是维度。通俗地讲,“颜色”和“材料”就不可比较。你可以比较“红色”或“蓝色”,但你不会将“红色”与“棉布”去做比较。理论上讲,维度越多,对事物的描述越准确,只要你继续开动思“维”,可以无限制地描述下去。

    多年以前,剑桥大学出版了一本非常重要的知识论著作,《三种文化:21世纪的自然科学、社会科学、和人文学科》。提出了知识类别的三种文化——从今天的人工智能进展来看,这种分类或许过于简单,但十分必要,包括社会学、人类学、政治学、经济学和心理学等专业领域,并分章介绍了三种文化中每一种文化的各个假定、词汇和贡献,指出每一个共同体所使用的许多概念的意义对它自己的方法来说都是独特的,因为证据的来源各不相同。本书最后总结了各门科学和学科对我们理解人类知识本质的贡献。

    该书没有将“人文”称为“科学”,是非常准确的。我的看法是,社会科学比自然科学有更多维度(或抽象),而人文学科比社会科学又有了更多的维度。还有一点:表格是“二维”的符号表达,这是人类的“明知识”能够处理的最高“维度”了。 真是非常的局限。

    这张表格,我认为非常重要,从9个重要维度,对三种知识文化进行了对照分析。在很大程度下,清晰定义“知识概念”是困难的,但对照解读,却可以很容易地提升我们对特定知识概念的理解。

    价值中国:我们讨论了“暗知识”的哲学和科学上的成因及相关解释,我们也都认同“暗知识”是机器人工智能的舞台。那么,人工智能的大发展需要具备哪些条件?

    王维嘉:AI发展了60~70年,为什么到今天能够突破?

    这是由于长期积累的三个条件成熟了第一个条件是计算能力。计算能力和半导体的集成度(在单位半导体材料面积上可以集成的晶体管的数量)直接相关。从第一个集成电路晶体管诞生以来,在过去的50年中,半导体的集成度的增加速度基本遵循“摩尔定律”。即:今天普遍流行的说法“计算机运算速度每18个月提升一倍,价格每18个月下降一半”。1970年一个芯片上的晶体管数量约为1000个,今天一个芯片上的晶体管数量达到100亿个,不到50年中提高了1000万倍。相应地,计算能力也提高了1000万倍。

    目前虽然单个芯片的晶体管数量增加速度放缓,但人们开始把成百上千个芯片封装在一起以便提高总的计算速度。

    计算能力对人工智能的巨大推动还体现在一个标志性事件上—GPU(图形处理器)被用于训练AI算法。2009年,斯坦福大学计算机系教授吴恩达和他的博士生拉加特·蓝恩纳(RatRaina)第一次提出由于神经网络中大量计算可以并行,用一个GPU可以比双核CPU快70倍,原来需要几周完成的计算一天就可以完成。之后纽约大学、多伦多大学及瑞士人工智能实验室纷纷在GPU上加速其深度神经网络。赢得2012年 ImageNet竟赛的 Alex Net同样用的是GPU。此后,GPU在神经网络的训练和识别中树立了公认的王者地位。再后来 AlphaGo发威战胜人类顶级围棋手,背后则是谷歌自行研发的专为深度学习使用的TPU发挥了重要支撑,每个TPU可以提供10倍于GPU的计算能力。

    第二个条件是数据。如果说算法是火箭发动机,那么数据就是燃料。由于互联网的发展和各类传感器(例如在各种环境中的温度、位置、压力等物理化学变量的测量,社会中大量摄像头的存在)成本的大幅下降和广泛安装,根据IDC(互联网数据中心)的监测统计,2011年全球数据总量已经达到1.8ZB(1ZB=1万亿GB),相当于18亿个1TB的移动硬盘,而这个数值还在以每两年翻一番的速度增长,预计到2020年全球将总共拥有35ZB的数据量,增长近20倍.

    这比从人类出现到计算机出现前产生的所有数据都多。以目前的传感器技术发展速度,若干年后回头看今天的数据量,不仅量小而且数据采集的密度和广度都远远不够。

    第三个条件就是那批甘愿坐“冷板凳”的科学家经过了几十年的积累,终于从2006年开始在算法上有了重大突破。当时在多伦多大学任教的辛顿教授在美国《科学》杂志和相关的期刊上发表了论文,证明了深度神经网络的能力和实用性。从此,基于多层神经网络的深度学习理论成为本轮人工智能发展的重要推动力,相当于过去飞机从达·芬奇设计的扇翅膀的飞行器变成有螺旋桨的发动机,人工智能的概念和应用开始一路攀升,语音识别、机器视觉技术在几年间便超过了人类的水平。

    正是算力、数据、算法这三个要素同步成熟,形成合力,终于带来了今天AI的爆发。这三个要素中最重要的是计算能力的发展和算法的互相促进。

    价值中国:前面讨论的是,AI产业大发展的前提条件。请您在产业端,谈谈基本的评断。

    王维嘉:我们认为AI产业的各部分呈现出金字塔结构——

    AI产业生态的金字塔结构

    金字塔的下层对上层有依赖性,但反之不成立。也就是说上层是驱动力,是自变量,下层是驱动结果,是因变量。金字塔的宽度大致对应市场规模和公司的数量。所以越上层对整个行业的影响越大但市场规模越小,越下层市场规模越大但影响越小。

    产业的皇冠:算法。我们前面说过,AI近年的突破性发展的三个驱动因素之一是神经网络算法的突破。其实这是三个因素中最重要的因素,因为其他两个因素(计算能力和数据量)属于对整个数字经济发展的“搭便车”行为,暂不讨论。目前研究算法主要集中在美国的一流大学和几家超级互联网公司(谷歌、 Facebook、亚马逊、微软、IBM、百度等)。

    大学的算法研究大部分都是学术性和公开的,而大公司的算法研究最核心的只留给自己用。专门研究算法的私人企业屈指可数,一家著名的算法公司就是被谷歌收购的大胜围棋世界冠军的 DeepMind。另一家是由硅谷老将,曾经做出世界上第一台掌上电脑 PalmPilot的杰夫·霍金斯( Jeff Hawkins)创办的 Numenta(公司名来自拉丁文 mentis,意为“心灵”)。 Numenta是一个由私人资助的研究所,他们过去十几年专注于发展一种叫作层级时序记忆( HierarchicalTemporal Memory,HTM)的算法。这种算法受大脑新皮质中锥体细胞的启发,网络结构远比各种神经网络复杂。这种算法的一个特点是可以连续学习。

    神经网络都有一个缺陷,在模型训练完毕后,如果有新数据可以用,就必须把新数据和原来的老数据合并在一起重新训练模型。而HTM的连续学习没有这个缺陷,当新数据来了以后,只要继续把新数据喂给模型即可。HTM的第二个优势在于可以将物理世界的基本常识融入模型。 

    Numenta并不寻求直接提供商业解决方案,而是仅仅提供算法的许可,让合作伙伴用自己的算法来解决商业问题。 Numenta还提供了开源的平台,让更多的开发者在这个平台上完善HTM算法。从 Numenta出来创业的威德罗教授的博士生迪利普·乔治( Dileep George)基于HTM创办了一家做机械手通用软件的公司 Vicarious。相对于应用企业,算法的公司少得可怜,原因主要是缺乏商业模式。

    价值中国:我们都了解人工智能与互联网密切相关,多数人都可以认可。但二者最重大的区别是什么?在产业运用上又有哪些各自的特征?

    王维嘉:这次AI创新浪潮堪比互联网浪潮,但是AI浪潮和互联网浪潮有三个重大区别——

    第一个区别是AI从一开始就要颠覆传统行业。互联网1994年起步时从经济的边缘开始,和传统产业似乎一点关系都没有,没有人懂一个网站能干什么。互联网20多年来逐步从边缘蚕食中心,直至今日影响每个行业。但即使是今天,互联网对制造业、农业、建筑业、交通运输等搬运原子的行业的影响也局限在媒体和营销方面,还没有进入制造业的核心。而AI的特点是从第一天起就从传统产业中心爆炸,自动驾驶对汽车行业的颠覆就是一个典型的例子。

    第二个区别是技术驱动。互联网除了搜索以外基本没有太多技术,主要是应用和商业模式。互联网创业者完全可以是不懂技术的人。目前为止AI创业者以技术大拿居多。当然随着AI技术(和更多中间工具)的普及,许多有商业头脑的人只要看明白A1在一个行业的价值也可以拉起一家公司,但目前最稀缺的是A的高级技术人才。

    第三个区别是可能不会出现平台性公司或赢家“通吃”的局面。互联网的一个特点是连接供需双方,一旦用户超过一个门限,后来者就很难赶上,所以很容易形成赢家“通吃”的局面。但在AI产业里目前还没有看到这样的机会----(编注:通用型AI的可能性,目前看来还十分遥远),不论是自动驾驶还是人脸识别都是一个一个山头去攻,无法在短期内形成垄断。造成融资泡沫的一个重要原因就是有些投资人还以为A和互联网赢家“通吃”:只要投中第一名,多贵都值。

    简单用一句话说就是互联网是toC(对用户)的生意,是toB(对企业)的生意。AI中toC的生意,多数都会被现有互联巨头吸纳,创业者的机会在于toB

    林永青:就这一问题,我想做一个重要的补充。我认为互联网上的智能,其实主要或者完全还是“人脑智能”。比如,你进行网上购物。其实是购物者的大脑在进行订单操作的。和传统购物的区别只是在于,传统上订单是由商家的业务员在处理订单,而网购是由用户在自行处理订单。但智能的来源,都是人脑。

    而人工智能完全不同,AI几乎就是机器智能。除于在训练机器的阶段,有人工参与、人脑参与,之后就都是机器在自我学习、自我理解、和自我决策。

    这里可以衍生出一个重要的相关问题。就是“知识”和“智能”的关系问题。“现代管理学之父”彼得-德鲁克,也是“知识工作者”、“知识社会”等重要“知识概念”的提出者。他有一名名言:“你无法想像知识,知识只存在于两个耳朵之间”。他想表达的是,知识是极端个人化的产物,知识的传播、理解、存储的巨大困难,图书馆里大量藏书,如果你没有去阅读及理解,并不能认为你掌握了“知识”。

    而“智能”主要是机器的舞台。而且,机器智能是从数字化了的数据、信息、知识中间产生出来的。因此,机器智能的传播是非常便捷、高效的——几乎是以光速在机器间传播。

    有一件非常有趣味的轶事。NOVA SPIVACK是德鲁克先生的长孙。德鲁克在研究“知识”,而NOVA在研究“智能”。NOVA在2007年提出了一个网络1.0~网络4.0的互联网发展代际路线图,成为业界公认的一个指标。

    NOVA也在多年前开始了所谓“全球脑”的研究,他认为,未来所有的人脑和机器脑,都可以无限制地连接成一个“全球脑”,而且,因为智能网络效应,“全球脑”将以不可估量的方式,超越不连接的全部单体人脑。

    他认为,知识(knowledge)与智能(intelligence)是两种不同的事物。知识是数据,智能是程序。 过去我们传播的只是知识,比如书本; 而智能只存在人的头脑中。下一步就是智能的传播。语义网络中智能应用的出现,通过外化软件或人类大脑以实现智能的传播。我们已经创造了专家系统、智能协作软件,软件可以学习、理解、发展,可以随时移动,可以被复制。  下一步我们关于智能要做的事,正如过去对知识做的事情一样。如果这个得以实现,智能将存在于网络,独立于人类。

    我们从中看到,经历了祖孙三代人的时间,人类“从知识走向了智能”。前者的行为主体是“人”,而后者的行为主体却是“机器”。

    我完全赞同NOVA的预测,如果说,在以往,人类赖于生存最重要的社会行为来自于发现、创造、及运用知识,那么,在未来,人类最重要的价值性工作就是学会如何运用“机器智能”,以及学会如何与机器相处。

    {延伸解读}【结语】《生命3.0:人类在智能后时代的劫后余生》

    《生命3.0》的作者、MIT物理学终身教授MAX TEGMARK认为,

    关于智能爆炸。“如果有一天我们造出了人类水平的通用人工智能,就可能会触发一场智能爆炸,将人类远远甩在后面。需要引起警戒的是,如果这场智能爆炸是由一些人类控制的,那他们可能会在几年时间内控制整个世界。如果人美没能掌控这场智能爆炸那么,人工智能可能会以更快的速度控制世界。

    关于权力结构。“快速的智能爆炸可能会导致单极化的超级力量的出现:一个延续几年或者几十年的慢智能爆炸更有可能促成多极化的情形,许多相当独立的实体在其中达成一种力量的平衡。

    生命的历史说明,它总会自我组织成更复杂的层级结构,这种层级结构是由合作竞争和控制共同塑造的,超级智能或许会促成更大宇宙尺度上的合作,但是它终会导致极权主义和由上自下的控制,还是会赋子个体更多权力,目前尚不清楚。”

    关于人机融合。“赛博格(cyberg-人机一体的新物种-编注)和上传者是可能的,但或许并不是实现机器智能的最快途径。目前人工智能研究竞赛的高潮要么是人类历史上最好的事情,要么是最坏的事情.可能的后果形形色色,多种多样,我们今天还无法预料。我们需要努力思考,我们希望看到什么样的结果,以及如何才能达成这个目标,因为如果我们不去思考自己想要什么,很可能无法得偿所愿。

     

    「图书介绍」《暗知识:机器认知将如何颠覆商业和社会》

    自序

    一直以来人类的知识可以分为两类 :“明知识”和“默知识” (Tacit Knowldge,又称默会知识)。明知识就是那些可以用文字或公式清晰描述和表达出来的知识。默会知识则是个人在感觉上能把握但无法清晰描述和表达的知识,也即我们常说的“只可意会,不可言传”的那类知识。人类发明文字以来,积累的知识主要是明知识, 因为只有明知识才可以记录和传播。直到大约 70 年前,人类才意识到默知识的存在。今天,人工智能,特别是其中的一个重要流派—— 神经网络,突然发现了海量的、人类既无法感受又无法描述和表达的“暗知识”——隐藏在海量数据中的相关性,或者万事万物间的隐蔽关系。这些暗知识可以让我们突然掌握不可思议的“魔力”,能够做很多过去无法想象的事情。本书就是要清楚阐述机器学习发掘出了什么样的暗知识,为什么机器能够发现这些暗知识,以及这些暗知识对我们每个人会有什么影响。

    本书分为三个部分。

    第一部分(第一、二、三章)。第一章里我们发现AlphaGo(阿尔法围棋)给我们带来的最大震撼是人类完全无法理解机器关于下棋的知识。这个发现迫使我们重新审视人类对于“知识”的所有观念。这一章回顾了 2500 年来人类所熟悉的明知识和直至大约 70年前才注意到的默知识。近几十年的脑神经科学的研究成果让我们对知识的本质有了更清楚的认识。也回答了为什么人类既无法感受, 也无法理解机器发现的那些暗知识。这一章还分析了明知识、默知识和暗知识之间的区别,讨论了为什么暗知识的总量将远远超过人类能掌握的所有知识。

    第二章介绍了机器是怎样学习的,能学习哪些知识。同时介绍了机器学习的五大流派以及各流派从数据中挖掘知识的方法。

    第三章则重点介绍了目前机器学习中最火的神经网络,包括神经网络的基本工作原理和目前在商业上应用最广的几种形态,以及各自适用的领域。有了这些基础就可以判断AI(人工智能)在各个行业的商业机会和风险。也只有理解了这些原理,才能真正理解暗知识的特点。为易于阅读和照顾不同读者的需求,在这一章中我们尽量用通俗的语言解释这些工作原理,而把精确的技术原理介绍放在附录里。

    第二部分(第四、五章)讨论了 AI 对商业的影响。我们将看到机器发掘出来的暗知识对我们生活的直接影响。对于想把握 AI 商业趋势的读者来说,这部分的内容至关重要。其中,第四章描述了当前的 AI 产业生态,第五章详尽探讨了哪些行业将面临 AI 的颠覆, 以及在不同行业的投资机会和陷阱。

    第三部分(第六、七章)的内容是AI对未来和社会的影响。第六章重点讨论目前还没有商业化的,但可能更深刻影响我们的一些神奇的AI 应用。第七章讨论了机器和人的关系 : 机器能在多大程度上取代人的工作,会造成哪些社会问题(例如大面积失业)。这两章的主要目的是开脑洞,探讨那些我们今天可能还看不到的更深远的影响。也试图回答人类的终极恐惧:机器人最终会控制人类吗?

    本书的各个章节前后连贯,但也可以跳着读,对于那些只对商业感兴趣的读者,可以跳过第二、三章直接读第四、五章。

    笔者在美国斯坦福大学读博士期间做过人工智能研究,后来在硅谷和中国创办高科技公司,目前在硅谷专注于投资人工智能。每年访问调研上千家硅谷和中国的科技公司,接触顶级大学最前沿的研究,这些都有助于笔者从大量的实践中提炼出自己对行业的原创的分析和洞见,而不是人云亦云。

    笔者长期对人类如何获得知识感兴趣。在投资、研究和写作 AI 的过程中,发现了暗知识这样一个人类以往未曾发现的领域。这个概念的提出一定会引起争议,笔者欢迎读者的批评并期待在批评和讨论中进一步深化在这方面的认识。

    本书的目标读者是企业和政府工作人员及其他知识阶层,包括学生。暗知识对人类的影响刚刚开始。从暗知识这个新视角出发, 可以更深刻地理解这次 AI 巨浪。这波巨浪可能超过互联网,许多行业都会深受影响。本书希望能回答“AI 对我的行业和职业会有什么影响”。只有把 AI 的技术、趋势和应用深入浅出地讲清楚,读者才可能举一反三,理解 AI 对自己的影响。本书从笔者自己的投资实践出发,希望能为在 AI 时代进行投资提供一些参考。在 AI 飓风里泥沙俱下,鱼龙混杂,会有大量的炒作,读完本书可以帮助读者辨别真伪,不会被轻易忽悠。在今后 5~10 年,不论是风险投资 / 私募股权投资还是在公开股票市场投资都需要有这样的辨别能力。本书最后在讨论人工智能对整个社会的影响时也提出了一些未经检验的建议。

    每当读到市面上科技类的书籍时,常被那些含混不清的描述所困扰。当年在斯坦福大学上课时留下的最深印象就是那些学科的开山鼻祖对自己学科理解之深入。他们能用最简单的方式把最深奥的道理讲明白。让听课的学生一下子就能理解一门学科的核心概念, 而且一辈子不会忘记。从那以后,笔者就坚信如果学生没听懂, 一定是老师没讲明白。这本书希望用最通俗易懂的语言介绍暗知识和 AI。任何具有高中以上学历的读者如果有没读懂的地方,一定是因为笔者没有写明白。

    今天每个人都要面对海量的信息和知识。如何让读者花最少的时间获取最大量的信息和知识成为一个挑战。笔者最欣赏的文章和书籍是那些没有一句多余的话的。这也是笔者写作本书的目标之一。 本书希望能够做到读者在机场书店买了这本书后能在下飞机前读完, 而且读完之后可以清晰地判断这场技术大浪对自己的影响。

    王维嘉 2019 年 1 月 13 日于硅谷

    王维嘉
    简介

    中国科技大学学士和硕士,美国斯坦福大学博士。曾在斯坦福大学师从人工智能鼻祖之一、美国国家工程院院士伯纳德·威德罗教授。在硅谷学习、工作、创业、投资超过30年,拥有十几项美国基础专利,开发了世界上第一台手持互联网终端,是全球移动互联网的布道者和践行者。目前在硅谷专注投资人工智能,每年调研全球上千家高科技创业公司,访问世界顶级大学和研究所。曾受邀在中央电视台、凤凰卫视、中国证监会、深圳市政府等就人工智能进行演讲,反响强烈 。

    他是硅谷风险投资公司 CEG Ventures 的创始合伙人,也是中国企业家论坛(亚布力)创始终身理事、中国企业研究所创始理事长、欧美同学会2005委员会共同创始人和第三届理事长、中国企业家环保协会(阿拉善)创始终身会员,以及数字中国共同创始人常务理事。
    京ICP证041343号 京ICP备12005815号-2 京公网安备11010502030378号
    Copyright 2004-2019 版权所有 价值中国网
    广西11选5怎么杀对子_广西11选5怎么弄 三体| 具惠善安宰贤离婚| 中星18号工作异常| 宣璐| 2020考研报名时间| 华晨宇| 国庆| 具惠善安宰贤离婚| 王源| 香港|