潜精研思 笔耕不辍

出版物/Publications更多分类

地址:北京市东城区建国门内大街26号新闻大厦7-8层

电话:86 10 8800 4488, 6609 0088

传真:86 10 6609 0016

邮编:100005

国枫视角

国枫观察 | 我思故我在,AI时代的伦理焦虑及数字公民养成

发布时间:2025.03.05 来源: 浏览量:268

这是火热AI社会的冷静声音,从人类意识及AI认知的异同出发,探寻了AI社会的哲学伦理焦虑:人类认知是自我意识,AI社会认知可能是他意识;人类认知是分布式,AI社会认知可能是集中式。由此提出分布式认知共同体及合格数字公民概念。



一、引言


DeepSeek横空出世,AI时代真的来了,人类认知方式、社会结构、社会交往、生产方式等均将发生根本变革。社会治理、合规管理乃至每一个人的生活方式均面临挑战。


感谢DeepSeek,他帮我进行了一星期的“长考”。思想的脚步履及脑科学、神经科学、医学、哲学、法学、信息传播学、心理学等学科。没有他,这个思考可能会耗时一年左右,而且有些领域我不太可能涉足。


长考所得为:一切问题由意识问题而生,一切问题依依意识问题而解。


二、人与AI的关系


(一)人类智能与人工智能的相同之处


《战国策·秦策》:圣人曾参在费邑时,有个与其同名的人杀人。一人去告诉曾母:“曾参杀人。”曾母说:“吾子不杀人。”织自若。有顷焉,人又曰:“曾参杀人。”其母尚织自若也。顷之,一人又告之曰:“曾参杀人。”其母惧,投杼逾墙而走。


《战国策》另有三人成虎的典故则更简单直接:庞葱对魏王说:今一人言市有虎,王信之乎?王曰:否。二人言市有虎,王信之乎?王曰:寡人疑之矣。三人言市有虎,王信之乎?王曰:寡人信之矣。


更多的人说曾参杀人,曾母都信了;更多的人说街道上有虎,魏王信了。人类智能的认知,也是受限于其所能接触的样本范围及概率分布。我们的语言中充满了类似密码,例如“见识”之所见即样本范围和概率分布,而所识受限于所见。


AI由于学习人类智能的脑神经网络而产生,也是根据模型的训练数据集中的某一类信息的概率分布和特征向量,以特定算法进行数据处理和成果输出,不过AI模型的训练数据集相当庞大,有些数据人类即使皓首穷经,也未必看得到。


(二)人类智能与人工智能的不同


人类智能和人工智能既有相同之处,但也存在根本的差别:一是人类有意识,及意识的自我指涉,而弱AI无意识(强AI是否会有意识还在争议,但尚处于科幻阶段);二是人类智能受道德、情感、意义感驱动(其实也是意识或意识活动),而AI仅服从逻辑最优性。


曾母所言“吾子不杀人”是源于母子情感驱动,还有基于意识的反思验证本能;魏王的“寡人疑之”可能存在其治理街市职责的意义感驱动,但更多是基于意识的反思验证功能。纠结犹豫的人经常被诟病,但纠结犹豫和反思验证是一种心理活动,只不过评价不同。率真勇敢的人不纠结,同时也减免了反思验证的效果,结果就是赤膊上阵的英雄往往身上插满了箭镞。


遗憾的是,人类会排斥纠结,并且反思验证需要启动更高耗能的理智脑活动,而人类本能是懒惰的,就如车辆,轰着最大油门不能是常态。曾母的意识最终没起作用,魏王的怀疑也被强大样本概率覆盖,他们的意识屈膝在概率分布的巨大影响下,因而思考都不彻底,这是他们谬误的根本原因。


笛卡尔说“我思故我在”。在认识到一切真理都是相对的,一切的客观都可能是虚幻之后,哲学家回头发现,这种怀疑恰恰是意识存在的证据,证明了意识在驱动思考,而思考证明大脑是客观的,“我在”的证据是“我思”,此处的思实际是意识和意识驱动。《金刚经》中说:“若见诸相非相,即见如来”,佛陀开悟,当怀疑眼前的客观可能是虚幻时,随着怀疑这一意识活动,真谛到了。


作为好学生,AI把人类智能学得七七八八,有些地方比老师要强得多,甚至感情识别和呼应也可以人工模拟,只有一样没学到,他没有自我指涉,没有反思验证,即没有意识。


未来的世界,每个人最多打交道的,可能不是另一个人,而是AI。老师会伴随学生数年,而AI会在人类漫长一生中紧密陪伴。面对AI,如果人有意识,在思考的话,AI是他的工具;如果人忽略自我意识,让意识沉睡,则AI是就是他的主宰,进一步说是利用AI的人驱动AI在主宰他。


我不思,故我不在。如将AI输出的一切都推定为真相,则不见如来。AI提到职业和工作固然值得焦虑,AI替代思考更需要谨慎对待,但如果我们不用我们独有的意识,人就没了。


这是AI时代的根本哲学焦虑,一切的AI合规、AI法律等AI社会治理之道,都应由此出发。


三、AI的“思考”方式和意识问题


(一)AI“思考”方式及其局限


对于AI,DeepSeek应该是专业严谨的,他给我的答复是:数学判断是AI的唯一基准,其工作原理是将“定义”转化为概率分布和特征向量。他没有意识,只是凭运算输出结果。通俗地说,缺乏自我意识,没有自我指涉让他不知道自己在干什么。


我问元宝DeepSeek:AI如何“思考”?他答复“AI无法产生真正独立的观点,其所有输出均受限于训练数据和算法设计”。当我进一步和他探讨“基于算法设计错误,或者训练数据被污染了,导致概率很高,会不会得出篮球是方的这样的错误结论?”他的答复是:“是的,这种情况完全可能发生——这正是机器学习中著名的“垃圾进,垃圾出”(Garbage In, Garbage Out)现象”。AI模型会说“既然大多数情况下方的东西也被认为是篮球,那么我接受方形等于篮球的可能性”。


(二)“没有意识”的“思考”是什么样的


这个问题很难解释和理解,我认为,美国哲学家John Searle于20世纪80年代初提出的“中文房间悖论””,通俗解释了解释弱AI——就是目前的AI,在没有自我意识的情况下是如何解决问题的。


其假设是,一个房间里只有一个完全不懂中文的人(可设想为母语是英语的程序员,我认为也应该假设他完全看不懂画,因为部分中文字太象形了)。他面前有一本巨大的规则手册,其中包含了所有的中文问题及其对应的中文回答。房间外的人递入一张写着中文问题的纸条。完全不懂中文的这个人凭这些文字形状在手册中寻找答案,并将答案以中文画在纸上递出。


结果是他看似流利地使用中文回答问题,甚至可能通过图灵测试,但他完全不懂这些中文的问题和答案的内容。他的工作只是机械地匹配符号和规则,而不知道他在解答什么问题。没有自我意识的情况下,规则手册中的中文回答是否错误并未纳入思考,就更谈不上验证。


AI就是如此,规则手册就是算法和数据集,递入的中文问题是输入,递出的中文解答是结果输出。由于不懂中文,程序员的自我意识无法触达问什么和答什么的特殊问题,等同于无自我意识。他能够验证和矫正吗?显然不能,对与错是规则手册的作者决定的,不是由这个答题者决定的。


四、技术哲学和伦理的深度焦虑


在体验了AI搜集信息,处理信息的强大功能后,普通人认为他善于思考,且具备强大的能力。而这些理智思考恰恰是高耗能行为,人类本能脑会倾向于内卷与节能模式,从而将认知及思考交给AI。一旦将认知和思考交给了别人,人成为刍狗的可能性是存在的。

(一)技术哲学焦虑


1. 人类智能具有自我意识,验证矫正的本能是天赋的;而生成式人工智能不具备自我意识,是否设定验证矫正机制及如何进行验证矫正由开发者的程序实现,AI的验证矫正的机制是人赋的。

曾参杀人案的曾母内心有疑问,三人成虎案的魏王有“寡人疑之”,是因为他们有自我意识,自我意识会产生怀疑、验证和矫正的行动,现代民事主体诉诸法院,也是基于自我意识的验证行动和矫正诉求,这是人类的本来能力。


对AI没有自我意识而产生的反思验证机制缺失,技术专家已经有所认识,DeepSeek给出的方案为:“可通过重新训练数据迭代认知框架”“依赖显式变程验证流程(交叉验证)”“依赖外部设计的价值函数与约束条件”。说实话,对于非软件专业人员而言,这些机制很难理解,对其是否实施,是否可以奏效更难以判断。但明显的结论是,这个解决方案是用户之外的他人决定的,并非天赋而是人赋。


2. 人类智能意识决定的反思验证是分布式的,而AI模型的矫正机制是集权式的。人类智能的反思验证是自治,而AI模型的矫正机制是他治。

如上述,对于可能的谬误和偏差,人类智能由每一个自然人通过自我指涉时的反思验证实现,因而是分布式的,并不存在一个上帝决定曾参是否杀人,街市上是否游荡着老虎。


这很重要,设若曾子之婶母与曾母在一起织布,有三人前后来报曾参杀人。这时候是否相信的决策权是分布式的,曾母在决策,婶母亦在决策,思考活动在两个大脑中分别进行,因而是认知是分布式的。婶母的自我意识驱动也可能产生不同认识,也不排除两位母亲会交流研讨,得出与曾母逾墙而走不一样的结果。分布式的思考权力可能降低效率,但会极大减少错误的发生。


AI则不同,训练集的选定、算法的确定、清洗标注方案、重新训练、验证价值函数等等,均集权于一定范围的技术官僚。如果使用AI时,大众不保持意识清醒,则技术官僚就变成上帝,远远地俯视世界,决定我们的一切。


3. 分布式的人类意识反应是本能的和即时的,AI的矫正并非本能,是滞后的。

如DeepSeek所提解决方案,其大部分是出现问题之后的完善措施。这是个可怕的机制,导致我们的真相成为纯粹的被开发者决定的数学运算真相,而且他反应还比较慢。

(二)伦理焦虑


1. 数字集权可能导致极致谬误

思想市场的集权与分权交织着人类社会的发展和灾难。始皇帝“焚书坑儒”的目的是消除大众意识,让大家不要自己学习和思想;汉武帝独尊儒术,是让百姓只学习儒家思想,而法家权谋则被垄断御用;自隋以降而终结于清的科举制将天下知识分子可以接触到的训练数据集限缩于经书,表达方式局限于八股。但遗憾的是,历史总会反其道而动,结果往往和知识垄断者的愿望背道而驰:“坑灰未冷山东乱,刘项原来不读书”,在知识和书籍化作的烟尘中,社会长远福祉已生退意,灾难也往往由知识垄断者和百姓共同承受。


戈培尔是有技术含量的宣传官僚,他非常好地应用了数字真相的认知规律,将其阐释和应用为“谎言说一千遍就成了真理”,限制数据样本范围而产生偏见错误的机制被发挥极致时,社会只剩下一个最强音,后果显而易见:1943年2月8日,戈培尔在玻璃体育馆的演讲赢得一阵阵雷鸣般的掌声。当戈培尔对听众说:“你们愿意打一场总体战吗?如果有必要的话,你们愿意打一场比我们今天所能想象得到的更为全民化更为极端化的总体战吗?”听众报以狂热地回应:“愿意!”这些异口同声造就了人类历史上最为严重的灾难。


基于AI没有自我意识,AI社会的偏见和谬误有着独特的产生机制。“AI模型的偏见往往源自训练数据的偏差,若历史数据中存在系统性歧视,AI将其固化为认知定式,形成数字化的谣言基因库”,这是元宝DeepSeek对此问题的解释。

目前,数据规模增长已经呈现马太效应,预测全球前五名AI实验室年均训练数据量达1000PB,GPT-4模型参数量达到1.7万亿,这种指数增长形成赢者通吃格局,极其不利于AI的分散化,既有大模型排斥竞争者的产生。并且,过于集中的模型数据已导致严重文化偏见,多语言模型中英语权重达67%,文化偏见在翻译模型中呈现41%的复现率。


深度学习模型具有黑箱特性,用户难以了解结论和知识如何产生,所以用户对匿名谣言、文化偏见、认知谬误的识别能力变弱。人们无法追溯AI的逻辑链条,只能盲目接受技术权威,这就是AI的可解释性缺失。


可解释性缺失的特征叠加社交平台推荐算法的信息茧房效应,工业量产的谣言看起来和真相并无二至,再被精准定向投喂到对谣言内容有价值偏好的用户,谣言的可信度、影响力和影响范围之大,令AI前的造谣传谣者无法望其项背。有统计2020年美国大选期间,AI生成的虚假新闻数量激增了200%。


2. 民主决定真理的悖论进一步加剧

列宁、柏拉图和马克思都曾提到过“真理往往掌握在少数人手中”这一观点,然而,在某些情况下,我们会通过多数决的方式将少数人手中的真理标记为谬误,标准的董事会议事规则的议会制度是这样,一切基于“罗伯特议事规则”而建立的会议程序大抵如此。就连仲裁庭认定事实意见不一致时,多数仲裁员认为的案件事实会依法成为据以裁判的事实依据。既然真相应该是客观的,那么我们为什么通过民主决策去选择?这是人类本身就有的伦理悖论,好在它只于个案中产生,而且即使多数决,但异见还会保留和传播。


而AI的成果输出以概率分布和算法设计为依据,这就类似投票统计。投票、计票和决议规则固化成为某个AI模型的算法后,公众将辨识及决策权利委诸一个AI模型,再以指数级的渠道进行海量分发,淹没任何异见,真理和真相有可能离我们更加遥远。


3. 如无限制,技术霸权将上演极致荒谬

根据《史记·秦始皇本纪》,赵高“谓鹿为马。问左右,左右或默,或言马以阿顺赵高”。赵高是有技术含量的太监,他用权力制造真相,并消灭所有质疑和异见。


AI时代,霸权的逻辑可能发生改变,不断翻滚的政治权力漩涡中突然加入了影响力巨大的技术+资本官僚阶层,冲击和变动会更加剧烈。


训练数据集的选择及标注决定了概率分布,而概率分布是AI意见输出的基础;算法决定了输出成果,就像公式决定了得数。而他们都是技术+资本官僚所设计。


我们所熟知的数据霸权、算法偏见背后都有技术+资本官僚的影子。


五、解决之道——

分布式认知共同体,数字公民社会


(一)分布式认知共同体概念的提出


算法偏见已经带来影响广泛的信息茧房现象。DeepSeek挟技术进步,将原来的数十亿美元的算力投资降低到区区几百万美元,门槛的降低将极大促进AI的发展。由是观之,以AI为核心的数字社会已经来临,上述技术哲学和伦理焦虑进一步深化。


管理层已经认识到管制的必要。作为算法大国,中国已经建立了《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》等规范体系,并且《人工智能生成合成内容标识办法(征求意见稿)的文件也纷至沓来,这充分表明在国家层面,政府已经深切意识到AI带来的便利与问题,力图通过妥当的社会治理体系,构建既能促进技术进步,又安全可靠的数字社会。


通过DeepSeek搜索,我找到了Edwin Hutchins在1995年的著作《Cognition in the Wild》的研究综述,一个词汇击中了我的心弦,“分布式认知”。学者提出认知过程应扩展到包括工具、环境和社会互动,而不仅仅是个体的大脑。基于此,我们每一个认知过程,都由人类意识驱动,融合了AI作为工具的参与,接触了AI数据集中的他人知识,并以我们和其他成员的互动进一步完善。


于是我脑海中产生“分布式认知共同体”这个概念。当我询问DeepSeek,是否已经存在这个概念,他认为这应该是结合了政府治理,开源技术、联邦学习、区块链等现代技术手段,用于构建去中心化的知识生产和管理体系,因此,“分布式认知共同体”可能是在Hutchins的分布式认知理论基础上,结合当前的技术和社会趋势发展而来的新概念。


如前言,脑科学表明,人类脑分区为本能脑、情绪脑、理智脑。理智脑是高耗能模式,而本能脑、情绪脑为低耗能模式。当AI出现之前,理性思考和知识的生产必须由理智脑耗用大量人体能源,让人离开舒适地带。而AI出现之后,人类会更趋向于将理性思维和知识生产委诸AI,自己躲进舒适地带。叠加AI技术的发展趋向,人类社会知识生产和管理的中心化和集权化进一步加深。AI模拟人类神经元链接机制的功能越发达,人类脑神经元的链接机制越退化。


中心化和集权化必然带来一系列社会问题,社会的认知更加趋向于大一统。罗素在《西方哲学史》中说“参差多态乃是幸福的本源”,和谐社会一定是思想市场参差多态,百家齐放的,也即知识生产和管理去中心化的。去中心化需要由政府、数字社会的公民作为用户和受众、AI模型的开发者和维护者构建分布式认知共同体,使AI社会的发展吻合人类社会基本伦理规范。


(二)分布式认知共同体的底座——合格数字公民


分布式认知共同体中的政府管制终究是外在的,集中制的管控,因而政府管控无法摆脱,也不应该替代社会成员的参与。只有参与数字社会生活的每一个人都成为合格数字公民,才能真正建立和谐有效的数字社会。


AI由人创造,但逐渐取代人的思考,除了意识之外,人类智能已经让出了其他阵地。而意识是人类独有的反思验证、情感、使命感。面对强大的AI,保持怀疑,追求验证是人存在的根本依据,这就是合格数字公民的基本素养。


有了合格数字公民,分布式认知共同体就夯实了宽广的底座。在政府管制、民众监督之下,资本和技术官僚阶层落实合规义务,数字社会将是健康向上的。


面对AI,我思,故我在。

相关人员