为中华崛起:一文讲清人工智能的未来

 153    |      2025-02-05 02:22

关于人工智能的文章铺天盖地,经常有“机器是否具有类人意识”之类文章出现,各种混乱的认识扰乱了思想。

一些人认为,人工智能在大发展,它将越来越聪明,越来越强大,将完全超越人类,全面替代人类,最终毁灭人类;另外的人持否定态度。还有很多其他争论。大家各执一词,缺乏共识,长期以来争执不休。

有三大类原因导致混乱:1、没有分领域、分目的,描述,2、没有思考人类将如何发展;3、没有考虑对大脑的操作。

现在的计算机系统,本质是晶体管的通断,逻辑上等同于0和1。其基础是线性的,没有真正的涌现、自组织、非线性、耗散结构等等,而这些在生命体内,在大脑中,广泛存在着。人工智能只能对生命等复杂系统进行线性模拟,这导致其快速的进化过程,决定了其强大的能力,也导致其局限性。

想象我们人类,各种特性和技能缺乏理性的设计,是尝试了得出的。当下的人工智能也是这个思路,不过人们适当引入科学机理和逻辑推理,比如模拟了神经元的功能,在此基础上再展开机器学习。

人工智能的策略大致可分为三类:基于规则的、基于模仿的、基于目标的。第一类相对简单,需要人总结事物的规则,让它运行这些规则,或人给它数据,帮助它建立规则。人工智能当下就处于这一阶段。第二类更先进,模仿对象是如何行动的,它就如此这般地展开。难度更大,要求机器有采集世界的能力,并提炼其中的规则。第三类更厉害,机器还要具备行动力,可定义事态的最优解,比如怎么才能更好地生存,一种化学药品如何是成功的,采取何等策略把敌人消灭掉,但都局限于客观领域,目标有明确的内涵,比如把敌人消灭掉是指让其生命体征丧失,或战斗力丧失。

这三大类也是三种不断递增的层次,都可归结为对规则的掌握,模仿是特殊的规则,效用是规则的规则。无论规则多丰富,总之是有限的,人可超越这些规则,所以机器不可能全面超越人类。哪怕基于目标的机器,它遇到的客观事物也是有限的。人可以理解更多尚未出现的现象,能洞察事物的本质,就能超越它。

亚里士多德有一句名言:“受过教育的人的标志,是有能力接受一种思想而不接受事物本身。”他是希望探索人和动物的区别,恰好指明人工智能的界限。

结合技术的发展趋势,可得出一个推论:人工智能可在客观世界全面地超越人,包括客观的科学探索。比如,它能自己设计实验步骤,展开操作,判断哪些基因是小鼠必备的,明白某种新药是否有毒副作用。

但是,人类有高级思维,这是世界唯一独特的能力,机器无法具备,因此不能在所有领域都超越人。

人工智能是否具备自我感知,能否懂得“我”?这也要分程度。它可一定程度上懂得“我”,比如这个事物对“我”有害,但无法到人类的深度,因为它内部不是血肉之躯,无法真的懂得喜欢、害怕等,但确实能外在地让人感觉到喜欢、害怕。

人工智能可以在物理化学上很强大,是超级怪兽,因此肉体上毁灭了人类。但是,人能想出更多计谋,可以控制它驾驭它,比如,有人参与的机器一定能战胜独立行动的机器。这样,人工智能就是更强大的武器,它对人的毁灭其实是人类自身的游戏,等同于核武器、生化武器。

这样就回答了第一个问题:在客观世界,或内涵可以明确的领域,人工智能可以全面超越人类。比如,害怕的感觉可以通过极致地采样,而加以模拟。

第二个问题:人如何发展,决定了人工智能和人的关系。

人在科学上放弃自己的独特价值,人工智能确实能全面统治世界,注意这里说的是统治世界,而不是超越人。统治世界,是客观上让人服从。

西方科学追求客观确定性,让“心”服从于具体因素,就在带领人类去到这样的未来。

医学上,把人体当作复杂的机器,当作细胞核分子的组合体,用确定的指标定义健康,提出明确的规则指导民众的疾病预防,用明确的方法治疗疾病,都便于人工智能发挥威力。哪怕人之间还需要温情关怀,人工智能都能外在地表达,因而慢慢地替代人。

民众是有各种主观创造,有深厚的艺术修养,能写出优美的文学作品,能发明新的建筑材料,建设电子商务平台,开发新的商业模式,都没什么大用,最关键的问题还得科学解决。人工智能通过控制科学而控制住人类。

一些人宣称的“碳基生物是硅基生物的引导加载程序”就是成立的。

而人在科学上强调自己的独特价值,就不需要人工智能那么厉害了,它实际上不会在客观世界全面地超越人。

关于人工智能的反思往往缺乏深入性,比如这类观点“人的头脑有很多独特的功能,比如创造性思维、感情、常识、美感,这都是人工智能无法企及的。”缺乏这样的深入思考:这些能力能否有效地影响真实世界,避免过于依靠人工智能。几乎唯一的途径,是科学,即这些能力能否表现科学价值,以解决重要的问题。

再看第三个问题。

人有高级智慧思考,所有其他事物都不具备此能力。所以问题在于,人工智能能否真正具备类似人类思维的能力,哪怕前期比较初级,但能快速进化,迅速地超越人类。

基于现在的计算机系统,这个目标似乎无法完成,其本质是晶体管的通断,基础是线性的,没有真正的涌现、自组织、非线性、耗散结构等等。人工智能只能对复杂系统进行线性模拟,这是其局限。需要发展非线性的智力系统,最好抄袭人类大脑,要求神经脑科学的大发展。可惜的是,或幸运的是,人类科技还差得远。

人们可以在大脑表皮设置传感器,理解大脑收到的刺激、产生的想法,和相应的电磁场变化,实践证明,这样只能把握少数明显的信号。人们也可以医学研究的名义,在病人的脑组织中插入传感器,或有恶魔偷偷地展开研究。可惜,相关技术还很落后,远远达不到理解思维的精度。人脑由千亿个微小的神经元构成,有极多的细分区域以满足不同需求,比如记忆的、推理的、整合思考的、本能反应的。现在的传感器远远无法准确感知。

人们也可折腾替代动物,只能理解有限的真相,哪怕研究黑猩猩,用处也不大。当下最热门的实验动物是小鼠,其大脑有多达7000万个神经元,目前最全面的小鼠神经元连接图谱也仅仅涉及了少数。这样只能获得一些静态的信息,并不能多么理解大脑活动。哪怕今后完全懂得小鼠的大脑也没什么大用。

在分子层面理解思维是不行的,人们会下到量子层面,会遇到量子的各种打击,因而会失败。思维本就不是这样来的,分解是无法真正搞懂的。

有人展望量子计算机,认为它将真正复现人类智慧,因为一方面,量子计算有强悍的能力,另一方面,神经元的本质也被认为量子的活动。我们需要明确这个机器是线性的还是非线性的,是线性的,就和当下的计算机一样;是非线性的,就需要类似人的进化过程以培养智慧。只要是非线性系统,就得基于整体去把握。如何构建适合的环境,如何让它飞速进化,都涉及复杂的考量。并且,人类可以掌控它的进化过程。

但要搞明白:不能搞懂思维,不代表无法利用思维来统治和毁灭人,就像器官移植不用真正懂得其中的细胞和分子,但从人的角度够用了。人们有很多方法达到目的,比如基于人类胚胎培养大脑,然后装进高科技的身躯;或改造大脑的物质基础,以便具备更强的思考能力,让电子装置影响思维,等等。这些都不需要真正懂得思维,可能成功,也都会导致致命的危险。但人工智能只是辅助。

在发现外星高级智慧以前,在疯狂的改造类行动展开以前,世上只有人具备高级思维,只要人能让高级思维具备科学价值,就可以不用完全依靠人工智能就可以避免过分依靠人工智能,而具备驾驭它的能力,就像牧童通过牵着牛鼻就能掌控它那庞大的身躯。

人应当采取措施,设定科学的禁区,不许可各种危险的计划。否则,人类可能发生不可弥合的分歧,于是拼命地求救于人工智能,那时它才是主导性力量。

人应当采取措施,激发高级智慧的科学价值,包括变得高尚,不至于太贪婪,维护事物的正常态,等等。越能这样,人工智能越像常规的技术手段那样安全。医学上,激励民众成长,充分在疾病前期努力,避免危重急病,就能避免对西医的过于依靠,人类因此不需要发展危险的人工智能。

回过头看当下关于人工智能的见解,发现作者缺乏哲学上的洞察力,和思维的严谨性,缺乏对科学和技术的深入思考,更关键的,是不能深入懂得生命科学。

比如霍金曾表示人工智能可能是人类的末日。

凯文·凯利也多次表达了对人工智能发展的忧虑,他认为:“数以百万计的生物机器汇集到一起的智能,也许某天可以与人类自己的创新能力相匹敌。”

微软创始人比尔·盖茨(Bill Gates)也表达过类似的观点。近年来,盖茨多次表达了对人工智能发展与未来的忧虑

在其最为知名的著作《奇点临近》中,库兹韦尔将人工智能超过人类的那一刻称之为“奇点”。与其他人模糊地表示悲观不同,库兹韦尔更加明确地给出了这一时刻的时间表。

有哲学家在《超级智能》一书中描述了许多人工智能给人类带来危险的案例,这些案例大部分都是人工智能以制造某种产品为目标,最终耗尽地球资源。

马斯克多次在公共场合表明,人工智能的发展将对人类产生重大威胁。俄罗斯总统普京曾经强调AI对国家未来发展的特殊重要性,并宣称俄罗斯要全力以赴发展AI。对此,马斯克隔空喊话,认为普京的观点将会导致国家之间在人工智能领域的军备竞赛,并最终将人类卷入人工智能的世界大战之中。

这些言论都有如此的一些缺陷:1、没有认识到人工智能不会真正具备情感,无法具备高级思维能力;2、没有认识到人的高级品质可以具备科学价值,因而减少对它的依赖,让它不至于过于厉害。

西方无法发展主观的科学,所以上述言论可以理解。

在人工智能这边,它可以替代各种规则性的实践,在客观领域远远超越人,但没法具备高级思考能力,因而无法全面替代人。但是,如果生命科学有大进步,再结合人工智能,就是危险的。