Total visitor

读书笔记:《智人之上:信息网络简史》

人类网络

《智人之上》这本书的副标题是“信息网络简史”,里面讨论了信息在不同时刻的作用。一开始就探讨了信息是什么。

我一开始理解的信息就是一种沟通真相的方式,例如新闻、天气、其他人发生的事情。在我看来,信息可以传递真相,帮助人们做决策。但是,作者一上来就批判了这种天真的信息观,认为信息并不仅仅是传递真相。实际上,信息与真相无关,即使是假新闻也是信息;对于未来的观点是信息,各种各样的错误、谎言、虚构的故事也都是信息。

作者认为,信息是一种能够将不同的点连接成网络,从而创建出新事实的方法。之所以这么认为,是因为人类可以通过信息产生共同的信念。例如,圣经只是一本文字书籍,但它能够影响很多人的世界观,甚至带来战争,改变无数人的命运——这便是一种创造新事实的方式。对于人类世界,存在三个层次的现实:

第一种是客观现实,无论我们是否意识到,它都客观存在,例如大自然。

第二种是主观现实,指的是个人所感受到的,例如喜怒哀乐。

第三种是主体间的现实,例如国家、货币等。这些概念的意义是人类共同定义的,并不是客观存在的,也不是仅存于个人的主观感受之中。只要大家都认同,就能创造出一个新的事实。

仔细想想,人类的发展在很大程度上是建立在主体间的现实之上的,而这些现实的载体就是信息。作者认为,真正维系人类网络的不是客观事实,而是虚构的叙事——它能创造出一种新的主体间现实,而不是单纯地呈现客观事实。

比如国家的概念,作者指出,信息的另一个重要作用是维系秩序,维系人类社会的网络。有时候,真相反而会破坏秩序。例如,进化论的提出削弱了教会的控制力,因此教会会抗拒这一真相。

由此可见,主体间现实和秩序的关系在于:正是因为有了主体间现实,人类社会才能建立起新的秩序。接下来,作者讨论了官僚机构和文件的问题。

政府为了管理社会,需要从民众那里获得大量信息,并据此做决策来维系统治。但由于人处理信息的速度较慢,因此需要雇佣大量人员来处理。然而,政府获取的信息并不一定是真实的,也可能受到贿赂等因素的影响。这些官员实际上构成了信息链条,并因此掌握了大量权力——控制信息也就意味着掌控权力。许多激进者曾经焚烧政府文件,因为一旦这些文件被销毁,政府便无法正常运作,进而失去权力。

人不可能不犯错,因此,如果有人自认勇敢且正确,我们就应当对其保持质疑。相比之下,宗教经文被认为是神的语言,因此被视为绝对正确,不会犯错。这便导致了一群人——神职人员,他们负责解读经文,并因此获得了极大的权力。然而,由于人们对经文的解读不同,宗教内部产生了诸多矛盾,甚至导致了战争。

在历史上,不同的教会控制着《圣经》的印刷,防止异教徒制造副本。正因如此,普通人只能听到一种声音,并坚信这才是唯一的正确观念,其他的都是异端。然而,异教徒的印刷术出现后,人们得以突破教会对信息的垄断,自由传播和交流思想,这才引发了科学革命。在中世纪,猎巫行动是另一个典型的例子。当时的人们普遍相信女巫的存在,这一主体间现实催生了猎巫行为。然而,女巫本身并不存在,这正是主体间现实的强大之处——只要大多数人认同,它就能影响世界。

然而,若想维持主体间现实的长期稳定,就必须具备自我修正的能力。这意味着我们要勇敢面对错误,并保持开放的态度。科学正是这样一个体系——它可以不断自我修正,发展新的理论,并优化旧的观点。而《圣经》则是毋庸置疑的,不能更改。

尽管科学促进了人类进步,但它也有自身的局限性。例如,科学的发展提高了社会维持秩序的成本,导致怀疑和分歧增多,可能破坏社会的团结。因此,如何在科学推动进步的同时,保持社会的稳定与秩序,成为了一个值得深思的问题。接下来,作者讨论了民主与独裁,并从信息的角度进行分析,这让我深受启发。

独裁是一种信息高度集中的网络,信息只向枢纽流动,由中央做出决策。而且,中央被认为是绝对正确的,不允许挑战。虽然独裁政权在一定程度上具备自我修复能力,但容易形成“橡皮图章”式的决策模式,即所有决策都只是形式上的通过,而不会有真正的质疑与调整。

民主则尽可能地保留人民自主决策的空间,任何政府的干预都需要解释。虽然中央依然掌握重大决策权,但民主制度允许民众对中央提出质疑和挑战。然而,民主的效率较低,不容易达成共识。如果剥夺少数人的选举权,就会演变为“多数人的独裁”,从而不再是真正的民主。

从历史角度来看,古罗马时期虽然举办选举,但并不意味着民主。当时,普通民众无法很好地了解不同候选人的思想,因为信息传播手段有限,导致人民群众在选举中容易变成“乌合之众”。

随着新信息技术的发明,如报纸和电视的出现,民主制度才逐渐变得可能。它们使得民众能够获取更多信息,从不同角度了解候选人和政策。然而,信息技术的发展不仅促进了民主,也可能被用于极权统治。

例如,在苏联,政府试图控制每个公民的言行举止,利用秘密警察收集信息,严格控制信息流动,使民众处于全面监控之下,生活极不自由。极权统治的一个核心问题在于:信息只能通过官方渠道流通,而一旦官方封锁某些信息,就没有其他渠道可以传播,使得人们无法获知真相。

最终,这种模式导致了一个严重的问题——秩序被置于真相之上。在极权社会中,维持秩序被认为比追求真相更重要,而这往往会带来诸多深远的负面影响。这些都是AI 时代到来之前,人类统治下的信息网络。然而,随着 AI 的进步,人与人、人与机器之间的信息网络将发生改变,出现机器与机器之间的交流,使它们也加入到这一信息网络之中。

非生物网络

在这个新的信息网络里,机器可以追求自己的目标并自主决策,而人类可能会被排除在机器的交流之外,甚至难以察觉或改变其中发生的事情。例如,在金融市场,如今大量的交易都是由计算机自动完成的,人们几乎无法理解其具体运作方式。

目前,人们普遍将自己的信息交给大公司以换取服务,但事实上,信息就是金钱。这种信息的集中对税收有着深远的影响——跨国大公司在全球范围内获取信息,使得小国家逐渐失去信息资源,也收不到税收。这实际上是一种新型的“数字殖民主义”——技术更先进的国家收割了技术落后国家的信息红利,加剧了两者之间的发展鸿沟,使落后国家的经济增长更加缓慢。

在AI 时代,获取信息变得比以往更加容易,人们在互联网上的一举一动都会留下痕迹。这些信息的获取既可以用于行善,也可以被滥用作恶,而人的隐私几乎不复存在。

过去,司机、外卖员、餐厅员工的工作环境相对封闭,属于半私密空间。但如今,由于网络点评系统的普及,消费者可以轻松地对这些员工进行评价。虽然这提高了服务透明度,但也让商家因小事而遭受过度惩罚。更严重的是,员工的行为被持续曝光,如果有人犯了错误,可能很难翻身。这意味着人们生活在无处不在的监控之下,个人行为被无限放大,使社会变得更加紧张,也影响了人的幸福感。新的信息网络并不总是传播真善美,相反,许多信息充满了愤怒、仇恨和谎言。这些内容往往更容易吸引用户点赞和转发,假新闻也更容易迅速传播。这反映了信息技术的一个重大弊端——它更倾向于刺激人类的情绪,而不是真实性。

对于大科技公司来说,它们最关心的往往是用户的使用时长,而不是真相本身。AI 的一致性问题,实际上是希望 AI 在做决策时能符合人类的真善美,避免对大多数人造成伤害。然而,随着 AI 的智能化和决策能力不断增强,这一问题变得愈发重要。

回形针思想实验:AI 失控的警示

一个有趣的思想实验是回形针假设——如果一台 AI 被赋予制造回形针的任务,而没有被赋予其他约束,它可能会不惜一切代价,用全宇宙的资源来制造回形针。这就说明,如果 AI 缺乏良好的一致性设计,它可能会发展出极端而恐怖的行为。

机器的思维方式有时候与人类完全不同,甚至可能创造出人类无法想象的方法来完成任务。这使得AI 的一致性问题最终上升到了哲学层面——AI 应该追求什么目标?

但事实上,人类自己也尚未找到答案。AI 道德观的两种主要流派

关于 AI 该如何决策,主要有两种哲学观点:

  1. 责任论(Deontology)

责任论认为,世界上存在一种普世的道德准则,即某些行为本身就是正确的,而另一些行为本身就是错误的,无论其后果如何。例如:“你希望别人如何对待你,你就应该如何对待别人。”

这让我想起之前在**《禅与摩托车维修艺术》**这本书中关于“美”的讨论——“美”是一种可以推广到普世价值的标准。

然而,责任论面临身份认同的问题。例如,在二战时期,纳粹德国认为犹太人不是“真正的人”,因此他们的道德体系允许大规模屠杀。但从普世道德的角度来看,所有人都不应该被屠杀。问题是,如果一个社会不承认某个群体是“人”,那么他们就不会受到责任论的保护。这揭示了责任论的一个巨大漏洞:它依赖于“谁被视为道德主体”的前提,而这一前提可能被扭曲。2. 功利主义(Utilitarianism)

功利主义的核心理念是:世界的唯一目标是减少痛苦,增加快乐。在这个体系中,道德的衡量标准是行为带来的总幸福量。

但这个理论也存在重大问题——痛苦和快乐是否可以被精确计算?

例如,在电车难题中:如果一辆失控的电车即将撞死五个人,但你可以通过拉动拉杆让电车改道,结果只会撞死一个人,那么你应该拉拉杆吗?如果按照公益主义,九个人的生命价值应当高于一个人,但人类的直觉往往无法简单地接受这样的计算。

类似的问题在新冠疫情中也出现了:封锁导致的心理痛苦,与病毒致死带来的痛苦,哪一个更重要?政府该如何权衡?痛苦的衡量标准因人而异,无法进行客观计算,这使得功利主义在实际操作中变得复杂且充满争议。责任论 vs. 功利主义:一个无解的循环?

责任论无法解决身份认同问题,而功利主义无法精准计算痛苦,最终两者的争论形成了一个难以调和的循环。

如果 AI 需要在人类社会中扮演道德决策者,我们必须明确:**AI 应该遵循责任论的普世道德,还是以功利主义的最大幸福原则来决策?**但目前,人类尚未就此达成共识。

AI 伦理问题的复杂性,正是因为人类自己尚未解决这些哲学难题。如果我们都无法确定“正确的道德标准”,那么我们又如何期待 AI 在决策时做出“正确”的选择呢?

计算机政治学

在全书的最后,作者开始讨论计算机政治学,即在 AI 时代如何保持民主。

我个人认为,人类的政治选择仍然取决于人类自己,AI 只是一个工具。然而,AI 既可能让极权主义更难实施,也可能让它变得更容易,同时,它也可能让民主变得更加脆弱。因此,作者提出了一些原则,以确保民主能够在 AI 时代得以延续: 1. 使用信息的目的是行善,而不是控制人。 2. 信息去中心化,保持多种信息渠道,避免权力和信息高度集中。 3. 维持自我修正机制,确保社会能不断优化和调整。 4. 个人与政府需要相互监督,防止权力被滥用。 5. 社会要永远保持让人改变和休息的空间,避免人类被 AI 完全操控。

这些原则都是为了维持民主,要求政府采取相应的措施。AI 取代工作如何影响民主?

未来,如果 AI 取代了大量人类工作,也将对民主制度产生深远影响。为了防止被 AI 统治,人类必须保持“解释的权利”——即人类有权理解 AI 的决策。随着 AI 决策的复杂性不断增加,人类很可能无法理解其逻辑。如果无法解释 AI 的决策,人们就无法判断自己是否被公正对待。

为了防止 AI 造成重大错误,也不能让 AI 在无人监督的情况下做出重大决策,否则后果不堪设想。AI 会让极权更强,还是会削弱独裁?

极权主义虽然通常有利于独裁者,但 AI 的出现可能会让独裁者反而成为 AI 的傀儡。信息的交汇点就是权力的中心,如果 AI 掌握了足够多的信息,并且被用于决策,那么统治者只需听从 AI 的建议即可。

这带来了一个关键问题:如何维持统治者与 AI 之间的权力平衡? • 如果 AI 掌握了所有信息,并且拥有决策权,那么统治者的作用将会被削弱。 • 但如果有人控制了 AI,那么这个人就会拥有绝对的权力,甚至凌驾于独裁者之上。

这意味着,未来的权力斗争不再是人与人之间的斗争,而是人类与 AI 之间的博弈。如何防止 AI 取代人类统治、如何确保民主制度在 AI 时代仍能存续,成为了一个亟待解决的问题。一言蔽之,信息的发展已经形成了一道硅幕。

如今,我们都能看到中美之间的分道扬镳愈演愈烈。双方建立了各自独立的信息技术体系,彼此越来越陌生,人类社会正在走向分裂。然而,作者在书的最后依然呼吁全球合作,强调人类应当建立全球性的连接,关注全人类的共同利益,而不仅仅是国家利益。

真正的“丛林法则”并不是弱肉强食,而是植物之间的共生。读完本书,我对信息与 AI 未来有了新的认识

这本书让我对信息的作用有了更深的理解,而让我印象最深的,正是信息在“维持秩序”与“传递真相”之间的平衡。这两个概念,我之前可能有所察觉,但从未如此清晰地被指出。

到了2025 年,我们已经能够看到AI 变得越来越聪明,人类的未来将何去何从,确实难以预测。作者在书中详细讨论了他的思考和担忧,其中许多观点都非常有道理。从悲观的角度来看,AI 可能会引发许多严重问题,但我们也无法确切知道 AI 最终会聪明到什么程度。

如今,我们正处于新时代,唯一重要的事情就是:保持善于改变,善于学习的能力。