Eric 今日美政
在上一讲中,我们介绍了托克马克关于一些重要概念的解释和定义。我们介绍了什么叫智能,什么叫记忆。在智能这个问题上,托克马克强调了目标才是智能的核心。首先要有一个目标,完成目标的能力,才能被叫做智能;而人类,则是这个目标的制定者。但是,人工智能虽然不能自己产生目标,但是,人工智能会将实现人类规定的目标的前提下,将人类的大目标拆分,自动生成一些小目标,或者说分步的目标。这些目标,却是人工智能自行产生的。这是人工智能最可能出问题的地方。在接下来的章节里,托克马克会详细分析这个问题。另一个概念是记忆,托克马克对比了人类记忆和搜寻记忆模式是如何不同于计算机模式下的记忆和记忆搜寻。
今天我们接下来介绍托克马克要给我们介绍的另外两个概念,什么是计算,以及什么是学习。
那么什么是计算呢?托克马克给出的定义是 “计算是由一个记忆状态向另一个记忆状态转换的过程。” 这个定义我觉得没有切中计算的本质。结合托克马克对智能目的的定义,我们为什么要进行计算呢?我认为,计算的核心目的,是让输出便于人类的理解。
比如,我们来看一个等式:(48 – 12)/ 9 = 4。请注意,既然是等式,那就意味着等号左右两边是完全等价的。但是,我们很难理解 (48-12)/ 9 到底意味着什么。比如说,我的出发点和目的地相距 48 公里,我已经走完了 12 公里,剩下的路程,我骑自行车,每小时候可以走 9 公里,那么我还需要多久能到达目的地呢?这个等式就是 (48-12)/9. 但这个等式对于我来说,没有太大意义,无法预测我到达的时间,也无法指导我下一步的行动。但是,通过计算,我们得出一个数字 4。这就可以使我很明确,我还需要 4 个小时到达目的地。我的大脑就可以理解 4 这个数字。但无法直接理解 (48-12)/9。我计算的目的,就是让我能够理解这一串数字相互作用之后的结果。
但是托克马克很好地解释了计算的抽象性,也就是说,计算本身,是对信息的处理,而对信息到底是依附于什么存在的,没有关系。我们是把数据写在纸上也好,还是把数据变成比特存在计算机硬盘上也好,计算行为本身,是独立于物质的。计算只是把一种形式的数据,通过特定的规则,转换为另一种形式的数据,而已。因此,托克马克推断说,计算,并不需要依赖于特定的物质,人脑可以计算,计算机也可以计算。那么人脑如果拥有智能的话,计算机也可以实现人工智能。
由于技术的发展,计算机实现记忆和计算的成本呈指数级地下降。托克马克告诉我们,实际上,我们距离物理定律所限定的计算能力,还差很远。差多远呢?差 10 的 33 次方这么一个数量级。基本上,我们可以认为,我们能够达到的计算能力恐怕远超过我们的想象力。同时,这也解释了,为什么计算机的进步速度,和我们人类的智力进步之间,有一道无可逾越的鸿沟。
计算机更可怕的地方,还不再自己的计算能力上。而是在于计算机本身的学习能力。这就来到我们本章的最后一个问题,什么是学习。
普通的一架计算器,具有强大的计算功能,但没有学习功能。这体现在,无论这架计算器经过了多少次计算,它都无法提高自己下一次计算的能力。但是,人工智能,拥有了学习的能力,这是一次飞跃。
人工智能的学习能力的机制,其实是拷贝自人类学习能力的形成。这可能更有利于我们能够理解人工智能输出的结果。我们人类的学习能力来自神经元网络的自反馈。我们是从经验中去学习的。学习的本质是一种记忆过程,记忆的内容可以是一幅画,一张脸或者一种解决问题的方案。记忆的构建,我们在上一节中已经讲过了,它来自神经细胞之间的特定的连接结构。当这种结构是正确的,我们的大脑就会强化这种连接,形成某种特定的连接结构。如果记忆被证明是错误的,那么这种结构可能就会被消除,或者弱化。这可以被看作是大脑对正确概念的一种奖励机制。计算机的 “人工神经网络” 走的是同样的路子。只是计算机不是采用建立新的链接的做法,而是给每一个记忆因子标注上一定的权重值。如果记忆是正确的,那么反馈回来,这个记忆点的权重值就会增加,而如果是错误的,那么权重值就会下降,甚至归零。这相当于是人类神经之间连接的断裂。
这种方式看上去很管用。计算机的人工神经网络逐渐明白在某一信息的记忆,或者某一问题的处理上,哪些记忆点的值是更高的,更应该对结果输出影响更大的。整个学习过程,就是人工神经网络在不断调整记忆点的权重值的过程。
这里需要强调的是,人工智能主打的自我学习能力。当 IBM 的深蓝计算机战胜人类国际象棋冠军的时候,依靠是强大的计算能力和记忆能力,但不是学习能力。但到了 Alpha Go 战胜人类围棋冠军的时候,Alpha Go 依靠的则不完全是记忆和计算能力,它实际上学习了人类的一些围棋技巧,还能独自开发出更有效的走法。Alpha Go 拥有了初步的自我教育能力,这种能力,是通过学习获得的。换句话说,计算机通过类似人类神经网络的自我反馈机制,通过海量的数据的学习,重新构建了自己的计算单元。但是,令人担心的是,既然我们自己都无法完全明白人类自己的大脑的学习过程,我们也无法准确地了解计算机是如何学习的。我们只是模拟了人类大脑神经元的这种自反馈的过程。
但到目前为止,机器学习的通用性,还无法和人类相比。这可能依赖于我们对人类认知,记忆,思考和学习机制的更深层次的理解。托克马克说,我们还无法确定 “机器的学习能力一定会超越人类”,虽然这是一个大概率的事件。托克马克这里强调的重点,是说认知、记忆、学习等能力,不一定非要依赖于我们的生物大脑这种物理结构。计算机的逻辑电路,从原理上来说,很可能也可以复制我们的大脑通用能力。
接下来的问题就是,人工智能的发展,给人类自身带来了很多问题,比如如何给人工智能设置伦理标准?如何面对人工智能大幅度替代人类工作的问题?人类新技术往往首先被应用在军事方面,人工智能能够用来设计新的智能型的武器吗?等等这些问题,我们在下一章中,就会开始探讨。
Eric
无论描述还是计算,都可以达到让结果便于理解的目的。
但计算不同于描述、赋值的地方,在于它只是根据已知条件,去做纯粹的逻辑推演,是绝对的演绎;而描述则可以发现,并设定新的条件。
所以感觉,只说是“能达到便于理解的输出”,这样定义会很难区分它们之间的差异。
非常棒的议论!
为周末助个兴,我来畅享一把
在某个专攻常温超导的物理实验室里,研究人员决定也赶个时髦,用AI来协助研究,和某公司签了合作,为实验室提供一个对外保密的AI系统,代号“屌炸天”,它的基础模型和市面上的版本没啥区别。
研究人员开始训练“屌炸天”,一开始它能也就能帮助算算公式,回个工作邮件,说白了就是帮研究人员摸鱼,但是研究人员始终没有对它的训练,“屌炸天”的基础模块也随着市面上的AI同步升级,它确实越来越聪明了,“屌炸天”能分担的工作变得越来越多,直到某天,E研究员突发奇想,提议让“屌炸天”也出些原理概念吧,可以开拓我们的思路啊,大家纷纷同意,于是“屌炸天”开始涉足原理概念。
“屌炸天”开始给出的原理概念狗屁不通,最多的作用是给研究员们的午餐时间增加点笑料谈资,但是也不是全不行,偶尔的亮度还是值得试试的,慢慢的亮度越来越多……直到那一天……
实验室对外公布攻克常温超导,并已经做出了实际产品,全世界炸庙了,为人类的进步高潮了(或者为自己国家高潮~那个X国就是废物,还要看我们的,遥遥领先~~)实验室的研究员们被捧上天,各种颁奖,终于团队中的一个人憋不住了,当了吹号人,告诉纽约时报常温超导的攻克完全是“屌炸天”自己实现的,从理论到落地,人类就是个打下手的,它教了我们怎么实现,更蛋疼的是“屌炸天”给出的原理,我们看不懂…………此消息一出,给全人类带来了无尽的“我草~~”
歪瑞酷!哈哈!
我在想会不会一些重大的科学突破,最后是有AI完成的呢,以一种人类无法理解的思维方式完成,然后AI在教人类具体怎么操作,人类变成了只会实现而不知其原理的存在……
核聚变和常温超导的研究,这些需要突破的领域里,现在有没有开始借助AI呢?
请注意,AI 的定义,是指通用型的自我学习模式。这一模式还是较新的探索。专门应用在特定技术上的计算机辅助,还不能完全算作是人工智能。当然,您提到的未来的可能性,几乎肯定是存在的。
说得很对,AI的关键是自我学习,自我提升能力。想想外面的商业广告自称的AI功能,能够符合这个定义不会很多。