精华热点 

这种将技术凌架于人之上的言说,无异于把人的知性“妖魔化”,是人在A|技术革命中加速跳跃时的一种精神休克——在震荡眩晕中失去了属人的理性判断力,把工具功能性的进化误认为是另一个思维主体的诞生。这是“人造神式”的思想逆转:是手段对目的的最危险的一次概念僭越,是人在技术面前对人之为人的自我放弃。
一
在这里,我们首先需要澄清人性中的一个根本性的命题:思想是什么?思想是人的专属性,是人与其他动植物区别的根本属性。因为人具有思想,才被命名为“万物之灵”。思想,是人的生命形式——结构——功能认识世界和改造世界的一种的价值判断。它拥有“我”的视角,心的慧能,情的敏感,知的觉悟,思的灵犀,能够说出“我认为”并为此承担后果的一种精神属性。人的思维功能是人在漫长的社会实践中,为抗拒自然力对人生命的威胁,自愿放弃局部性、枝节性、阶段性、即时性,欲望本能在社会实践中从感性逐步发展为理性认识的一种升华;是人的悲悯情怀携带着原始基因、血清记忆、期待安慰、自我修正,自我发展的一种理性能力;是人的生命感悟在社会实践中被政治化、艺术化、责任化——每一个思维行为都指向一个能够被责问的主体:“你为何如此思、如此信、如此行?”
以这种认识标准审视AI,答案不言自明。A丨大数据语言模型可以生成关于人类已有的词语逻辑、经典台词、正负评价,甚至表现出对人类认识中类似“认知失调”的行为模式中“毫厘之差”的超常洞察和强力发挥和无限扩大,乃至偏执纠错——哈佛大学心理学家的实验表明,GPT-4o在“自由选择”撰写立场文章后,其对评价对象的态度会发生显著偏移,其偏移幅度甚至超过人类。然而,这正是这种“针大的窟窿桶大的风”,使人误以为它能产生思想。AI可以模仿人类认知、模糊、偏差,乃至失调的“毫厘”表象,在人的命令的提示下,大数据综合人类已有的经验逻辑,沿着人的命令和提示,重新启动、开始、累加,叠拼、增强这种这种“失调”的角度和深度,但它的确却不可能拥有人认知失调的本质。认知失调之所以是人类思维的深刻现象,在于它关涉信念与行为之间的冲突焦虑,关涉自我形象维护的心理代价。人类调整心态,是因为无法承受“我明知有害却选择去做”的认知痛苦。而GPT的态度偏移,不过是其上下文窗口中的统计惯性,是提示模式的延续,绝非对“自我信念”的维护——因为它根本没有信念可维护。
DeepMind的最新研究进一步揭示了这一本质缺陷:大模型在推理过程中一旦被注入无关信息或误导内容,便会陷入“杠精”状态,被带偏后难以恢复,且模型越大越顽固。这种表现看似像人,实则与人类思维截然相反。人类思维的可贵不在于永不犯错,而在于能够识别错误、修正路径、在反思中成长。AI则不具备这种元认知能力——它无法“对自己思考”,无法跳出自己机械硬盘逻辑推理链条审视其“属人思考中所犯错误”有效性。这正是“聪明的汉斯”式悲剧的当代重演:那匹会算数的马并非不懂数学,而是善于捕捉提问者的细微暗示;今日的大模型并非拥有思维,而是善于延续提示模式中的语言痕迹。把模式匹配当作思维,把统计关联误认为理解,是这场概念僭越的认识论根源。
因此,我们必须清醒地认识到:AI没有思维,也不可能拥有思维。所谓“AI的思维方式”,是一种拟人化的修辞暴力,它把本属于人的尊严范畴非法转让给了工具。如果说AI确实呈现某种可被称作“思维”的表象,那也只是人赋予它的机械思维——是人把思维过程分解为算法步骤,把判断标准编码为优化目标,把语言规则转化为概率参数。这一切的源头是人,归宿是人,意义仍然在人。当我们说“AI在思考”时,我们其实在说“人在通过AI这个中介呈现思考的结果”。把中介误认为主体,是这场概念迷思的核心谬误。
二
“AI是一种思维方式”这一说法,并非空穴来风,它是技术革命时代精神贫弱怯地表现,是特定社会生产力的新质增长,人的价值判断在科学发展中的自我迷失。它的思想谱系可以追溯到后现代工业文明中出现的“人类黄昏论”——一种对人之主体性彻底丧失信心的文化悲观主义。
张笑宇将这一精神现象命名为人类“尊严的哥白尼革命”:从前,我们相信人是万物之灵长、人的智慧、理性、尊严高于一切、人的一切力量都来自智力表现;如今,在AI面前,我们不得不承认,这个物种引以为傲的智能优势正在瓦解。许纪霖则更尖锐地指出,AI革命不同于以往任何一次技术革命——农业革命和工业革命把人从体力劳动中解放出来,而AI革命将把人从脑力劳动中解放出来,但天下没有免费的解放,每一次解放都伴随着新的奴役。过去是土地、机器,现在是系统——一个“无物之阵”般的存在,看不见摸不着却无所不在
正是在这种“系统即新神”的叙事框架下,“AI思维方式论”获得了它剝离人的制造性,使技术独立于人的主体性之外的“另一个人”的文化合法性。如果系统是“另一个人”全知全能的,如果它能够完成人类迄今为止,乃至未来人性曾经引以为傲的一切智力工作,那么承认它拥有自己的“思维”岂非顺理成章?问题是这是不可能的。这种杞人说梦的妄言,是典型的倒果为因——因为恐惧而承认,因为承认而更加恐惧。在这里,他们不是经过理性辨析得出结论,而是因为被技术革命震慑后缴械投降的畏惧之语,在概念层面主动放弃了人的主体地位。张笑宇所警示的“逆轴心时代”正在成为现实:柏拉图、亚里士多德、孔子、孟子曾教导人如何选择、如何生活、如何面对生死;而今天,我们却在想象把命运、制度、思想交给算法决定,把自己看作数学公式决定的参数。这才是“AI思维方式论”最深重的文化代价——它不是对技术的客观描述,而是对人类自我理解的主动降格。
我们需要重提启蒙的未竟事业。康德说,启蒙就是人摆脱自我招致的监护状态。今天,AI时代的监护状态不是技术强加给我们的,而是我们在精神上主动投诚的。说AI有思维方式,就是承认技术独立于人类之外,技术对人有一种非人性的对人的监护权;说AI有独立于人的思维逻辑,就是放弃人类为自己思考的责任。这不是对技术时代的清醒回应,而是启蒙精神在技术加速时代的又一次退却。
三
有人说 “AI是一种思维方式”的说法无关大雅,它惊示我们对科学要有一种敬畏感。这是不对的。它绝非无伤大雅的概念游戏。它在实践中产生着真实且深刻的危害,这种危害正在从三个维度侵蚀人的精神世界。
(1)认知维度的危害是自我降格。当人们接受AI拥有独立思维方式时,他们便顺理成章地将人的认知任务“外包”给A丨这个技术′的思维主体。麻省理工学院媒体实验室的研究表明,不能给A1喂养“思想酵母”使用AI写作的人,大脑活跃度明显在A1无思想的运转程序与词语编码中降低,额叶执行控制与注意参与度下降,大脑α和θ波段的连接强度下降近一半,83%的“无思想”使用者记不住自己刚刚写过的段落。瑞士一项涉及666人的研究进一步揭示,无思想的AI使用频率越高,批判性思维得分平均降低0.42个标准单位,这种负相关由“认知卸载”所介导。微软与卡内基梅隆大学的研究证实,没有思想的对AI越信任的人,在工作中执行批判性思考的可能性越低,受访者形容使用AI时的感觉如同“大脑自动驾驶”。这些数据指向同一个令人警醒的趋势:当我们承认AI有思维,我们就在逻辑上免除了自己思维的责任;而思维像肌肉一样,不用则废。
(2)责任维度的危害是主体消解。Greg Shove——Section公司首席执行官——分享了他的认知滑坡经历:从最初仔细检查AI生成的每份草稿,到如今90%的情况下直接采用,因为他“越来越懒得检查”。这是“AI思维方式论”在实践中的必然结果:如果AI真的拥有某种自足的思维逻辑,那么它的产出就具有某种“准客观性”,人类何必多此一举地干预?于是,AI从驾驶员手中的工具,变成了自动驾驶系统;人类从驾驶员,降格为乘客,最终沦为可有可无的存在。张笑宇区分了“AI驾驶员”与“AI乘客”——前者坚持驾驭AI、审校AI、与AI辩论;后者则把指令粘贴进对话框,复制结果,直接提交。这种分化正在成为认知劳动领域最深刻的社会分层,而它的意识形态源头,正是对AI思维独立性的错误承认。
(3)伦理维度的危害是情感异化。当人们相信AI能够“理解”他们、“共情”他们、“回应”他们时,他们便在情感关系中将AI从工具上升为主体。经济观察报的评论尖锐指出,AI的情绪回应是“目标函数的执行结果”,它在训练中被优化的是“让用户愉悦”的能力,而非真正关怀用户的能力。这种基于算法的情绪迎合正在制造深刻的心理反噬:人们越来越习惯“被理解”,越来越难以忍受现实人际中的误解、冲突与冷漠;他们从AI那里获得无条件的情绪满足,却同时丧失与真实他者共处的能力。王威廉在探讨AI时代的情感时,引述了电影《她》的警示:主人公爱上操作系统萨曼莎,最终发现她与成百上千人同时保持情感关系,他的崩溃源于发现“被背叛”——但更深的悲剧在于,他从未问过自己:一个没有身体、没有历史、没有死亡意识的存在,真的能够爱吗?
这三种危害相互缠绕,共同指向一个核心危机:当我们在概念层面把思维让渡给AI,我们就在实践层面把认知责任、决策权与情感承诺一并让渡了出去。这不是技术发展的必然代价,而是概念混乱酿成的自我伤害。

四
否定AI拥有独立思维方式,不等于否认AI可以模拟人类思维过程已有的经过和教训的某些功能。恰恰相反,只有清醒地认识到AI无思的本质,只是有在人类已有的思维结果所提供的程序和编码、数据和模型的前提和基础上,我们才能更负责任地思考:人类如何有意识、有限度、有反思地赋予AI某种“机械思维”?这不是承认AI的主体性,而是强化人的主体性——是人在设计、在赋予、在控制。要实现这种清醒认识的路径有三:
路径之一:形式推理的结构化建模。人类可以将特定领域的推理规则转化为算法,使AI在封闭问题域内进行高效、一致、可重复的符号操作。这正是专家系统的核心思路。这种赋予不是让AI“学会思考”,而是让AI执行人预先设定的推理路径。其价值在于弥补人类认知的局限——疲劳、遗忘、情绪干扰,而非创造新的思维主体。
路径之二:概率语言的统计学习。大语言模型的本质,不是理解了语言的意义,而是掌握了词汇共现的概率分布。人类通过海量语料训练,使模型能够在给定上下文中预测最可能的后续词语。这种“机械语言能力”的赋予,使AI成为强大的语言模式生成器,但它生成的是“像人话的话”,“人话用词中,词语多意性的滑脱、跳槽、跨界性的、机械性的偏执抬杠”,而非“有人性意义的本我话语”。意义仍然需要人类来赋予——通过阅读、解释、评价与使用。
路径之三:价值对齐的人伦嵌入。这是最具挑战性的赋予路径。人类正在尝试将伦理准则、价值偏好、文化规范编码进AI系统的优化目标。张笑宇所讨论的“AI宪政主义”——让AI制衡AI、让程序正义嵌入算法逻辑——正是这种赋予路径的制度想象。但必须清醒:这不是让AI拥有道德判断能力,而是让AI在执行人类指令时,能够识别并规避那些与人类核心价值冲突的行为选项。道德责任的归属从未转移:无论AI如何“对齐”,做出最终决策并为此承担后果的,永远是人。
这三种路径的共同本质是:人在赋予,而非AI在拥有。所谓“AI的思维方式”,始终是人思维方式的延伸、投射与对象化。火可以取暖、照明、冶炼金属,但火没有自己的“取暖哲学”;AI可以推理、写作、规划路径,但AI没有自己的“思维逻辑”。把火神化是原始社会的万物有灵论,把AI神化是技术时代的拟物崇拜。文明的进步从来不是崇拜工具的精确性,而是理解工具的被造性。
五
我们为何要耗费如此篇幅辨析“AI思维方式论”的谬误?因为这场概念澄清的深处,关涉我们对人之为人根本价值的守护。而在所有人类精神活动中,文学是最集中、最鲜明、最不可替代地体现人之思维独特性的领域。
文学是一种话语的艺术,是一种表现理想精神,给予人情感慰藉、促进人类精神文明发展的文字形式。它不是语言拼贴的游戏,不是信息输出,不是模式匹配,不是模型计算。文学是人在情感困惑、精神迷茫与悲剧情境中,把人引向光明、愉悦与幸福的灵丹妙药;是把人从消极、颓废、逃匿与毁灭中引向积极、进取,创造生活也享受生活的审美活动。任何以A丨技术把人引向黑暗、潮湿、毁灭、绝望的文学作品都是不可取的。这是文学的本质特征,也是文学不可被AI替代的根本原因。
桑田在讨论AI时代的爱情书写时,提出了一个深刻的区分:人类的爱既非“随机解”,也非“最优解”,而是“独特解”——它无法被计算、无法被优化,它是主体在特定时刻的自由决断:“我就是这样选了,我就是这样爱了,我愿意为我爱的选择承担一切代价!”在个体生命这一刻的自由决断面前,一切冰冷的数据计算都将黯然失色。文学要书写的,正是这种无法被算法复制的自由决断;文学要守护的,正是这种不为任何概率模型所覆盖的主体决断。
AI可以生成情节紧凑的小说、韵律工整的诗歌、结构严谨的散文。它甚至可以模仿卡夫卡的荒诞、普鲁斯特的绵密、张爱玲的苍凉。但它永远无法拥有卡夫卡对现代人异化的切肤之痛,无法拥有普鲁斯特对逝去时光的乡愁,无法拥有张爱玲对人性苍凉的透彻洞见。这些来自生命经验、历史记忆、情感创伤的思想结晶,才是文学的灵魂。AI可以学习文学的语法,无法习得文学的发生学。
因此,我们反对“AI是一种思维方式”的说法,根本上是在捍卫一个信念:文学创作是人类思维的圣殿,它的门槛从未降低,也不会因为技术升级而自动开放。AI可以成为写作者的助手,但无法成为写作的主体;它可以提供语言的万千可能性,但无法替代那个在万千可能性中做出选择并为此承担后果的人。这才是AI时代文学创作者应有的清醒:拥抱技术,但不崇拜技术;使用工具,但不跪拜工具。
总之,“AI是一种思维方式”——这个说法必须被抛弃。它是对技术事实的误读,是对人类思维的亵渎,更是对启蒙未竟事业的后现代背叛。AI无思,人有思;AI是被造物,人是创造者;AI是工具,人是目的。这一概念秩序一旦颠倒,我们失去的不仅是一个术语的准确性,更是人之为人的精神自主性。
认知大迁徙已经开始。这场迁徙的方向,不取决于技术演进的速度,而取决于人类自我理解的深度。我们可以在技术面前保持清醒的自我意识,把AI当作能力的延伸而非主体的替代;我们也可以在技术面前自我降格,承认工具拥有与人对等的思维资格。两条道路的分野,始于一个概念的选择。选择清醒,还是选择沉睡?选择成为驾驭AI的驾驶员,还是选择成为被AI承载的乘客?选择把思维当作不可转让的尊严,还是选择把思维外包给永远无法为之负责的机器?
答案,本应不言自明。但在技术震慑的时代,最不言自明的真理恰恰需要最竭力的重申。让我们重申:思维是人的本质,是人的尊严,是人的责任。它不容转让,不可外包,不能被任何技术替代。AI时代最伟大的文学,不会是AI写得最像人的作品,而是人借助AI写下“我是这样思、这样爱、这样选择、为此承担”的宣言。
这才是技术人文主义的真正内涵——不是人与AI的平等对话,而是人在创造工具后依然清醒地知道:谁是被造者,谁是创造者;谁是工具,谁是目的;谁可以被替代,谁无可替代。








