
发布时间:2025-12-15
12月6日至7日,由ok138cn太阳集团古天乐主办的“第一届AI与认知科学、哲学工作坊”在太原隆重举行。本次工作坊汇聚了来自北京大学、清华大学、南京大学、北京师范大学、华东师范大学、首都师范大学、中央美术学院、华中科技大学、四川大学、内蒙古大学、ok138cn太阳集团等11所国内知名高校的20余位专家学者,齐聚一堂,围绕 AI 的底层逻辑、语义落地、人类认知本质等核心议题展开深入研讨,为人工智能、认知科学与哲学的交叉融合搭建了学术交流平台。

开幕式由梅剑华教授主持。ok138cn太阳集团古天乐副院长陈敬坤教授首先代表学院对各位专家的到来表示热烈欢迎,并简要介绍了会议的筹备背景。叶闯教授在随后的致辞中,对工作坊的学术严谨性寄予厚望,并对远道而来的与会学者表示衷心感谢。梅剑华教授则就本届工作坊的学者邀约标准进行了说明,强调了其小而精、追求深度的特色,并展望了未来持续举办的愿景。

报告分两天举行。12月6日第一场,来自北京大学的王彦晶教授作了题为“工具、伙伴还是神谕?一位逻辑学家与大语言模型共赴证明(及证明者)未来之旅”的报告,首都师范大学叶峰教授进行评议。王彦晶教授指出,在生成式人工智能指数级进化的当下,逻辑学正面临前所未有的范式重构,迫使我们必须重新审视“证明”的本质。在厘清了这一背景后,报告描述了大语言模型从早期基于概率统计、缺乏演绎有效性的“逻辑小白”,飞跃至如今具备博士生级素养、能处理复杂模态逻辑并辅助形式化验证的“科研伙伴”这一剧烈演变轨迹。报告借用“神谕”隐喻探讨了深层挑战,重点剖析了证明实现门槛降低可能导致似是而非的错误证明泛滥、现行同行评审体系难以应对AI生成内容的规模冲击,以及创意归属权引发的信用危机。报告主张将AI纳入决策流程,并强调提出正确问题、高层分解问题及定义新概念的能力将成为人类学者新的核心竞争力。王彦晶教授展望了人工智能证明者的未来,指出其可能演化出超越人类直觉的高效“非自然”语言,从而导致形式上可验证但人类无法理解的证明出现,造成“知道是否”与“知道如何”的深刻分离。叶峰教授在评议中指出两点内容:第一,若形式证明自动循环系统得以实现,逻辑学家的传统作用可能被弱化甚至替代,因为系统可自主完成证明的生成、验证与迭代过程,无需人类介入;第二,大模型可能会在未来产生两种影响。如果AGI实现了对人类的全面超越,那么人类社会可能转向以享乐主义为主的价值观,科研等复杂任务将完全交由AI承担;如果AI仅在次一级任务上超越人类,那么科研体制将发生直接变革,例如传统期刊体系可能瓦解,学术评价将不再仅仅依赖论文,而是转向更深入的评估方式。科研生态将回归本质,放弃绩效内卷,收入分配也可能趋于平均化。

12月6日第二场,来自ok138cn太阳集团的詹好老师作了题为“奠基并非大语言模型所需的一切:解决符号奠基问题的四种进路”的报告,北京大学李麒麟教授进行评议。詹好老师指出,尽管LLM应用火热,但仍面临LeCun、Hinton及Sutton等人关于其是否通往强人工智能、是否真正理解世界及缺乏目标导向的深度质疑。报告追溯了符号奠基问题的理论根源,从亚里士多德的本体论区分延伸至Harnad的“字典循环”难题及Bender的“章鱼测试”,结合文献趋势图指出该问题在AI与认知科学交叉领域的核心地位。在报告的第二部分,转向了三类主流方案及其局限性:首先是试图通过语用规范消解难题的“语言学方案”,詹好老师结合Othello实验指出其表征稳定性存疑;其次是引入视听数据的“多模态方案”,但詹好老师援引塞尔的反驳指出传感器输入本质仍是数字化符号;再次是依赖MineDojo等交互的“具身方案”,被指明虚拟世界仅是现实的摹本而非现实本身。在报告的第三部分,詹好老师提出了一种“基于人类反馈的符号奠基优化方案”,主张将人类作为连接现实的因果锚点,通过“世界构建”与“事实修正”闭环引入现实约束,为了论证这一点,报告展示了在“智见演武场”的对比测试数据:HFAL模型在“存在性判断”及强冲突实体处理上分别取得了0.82和0.69的高分,显著优于GPT-OSS等基准模型,有力证明了因果验证机制的有效性。综上所述,该研究最终主张通过人机协作的实验哲学路径探索通用人工智能难题,并介绍了ok138cn太阳集团团队开发的“智见”平台及“逻各斯”哲学大模型。李麒麟教授在评议中指出,在讨论人工智能哲学的过程中存在问题不断变换的现象,比如以塞尔中文之屋模型的原初问题为例,一旦引入人类使用者作为反馈或调试者,问题就发生了转换,塞尔原教旨主义者并不反对通过人类方式连接系统与世界,但这并非其原初问题;同时提到虚拟实在等领域也存在类似的问题转换,还有做语言断言理论的学者尝试去人类中心,剥除传统交互中的相关条件,但剥除后只剩与大语言模型的交互本身,论题也随之转换;此外,现实中AI应用的挑战更真实紧迫——AI目前基于模式判定类型而非个体,这比纯理论问题更值得关注。

12月6日第三场,来自北京大学的葛鉴桥助理教授作了题为“对脑机接口的一些思考”的报告,华东师范大学郁锋副教授进行评议。本次报告的主题聚焦于“人脑智能与人工智能:脑机接口的现状、瓶颈与未来路径”。葛鉴桥老师指出,在脑机接口(BCI)技术已被写入国家“十五五”规划且产业资本加速涌入的背景下,我们必须从物理学视角转向认知科学视角,重新审视智能的本质与技术的边界,特别是要正视“读强写弱”的技术非对称性与“知觉分离”的哲学难题。在厘清了这一背景后,报告进入第一部分,系统解构了人类智能的生物学基础与演化特质,葛鉴桥老师利用MacLean的“三位一体脑”(Triune Brain)模型,分析了从负责生存的古脑、主管情绪的旧脑到承担抽象思维的新皮层的演化层级,并重点阐述了大脑左右半球的功能偏侧化,指出当前以GPT为代表的大语言模型本质上仅是对人类左半球线性符号加工功能的极致模拟,却严重缺失右半球的整体感知能力与旧脑的情感驱动机制,为了突破这种“人类中心主义”的局限,报告进一步引入了鲸豚类“双声道交流”与“全息语言假说”的案例,揭示了碳基智能的多样性,主张未来的智能演进应是渐进式的多元融合。紧接着,在报告的第二部分,葛鉴桥老师详细展开了该领域未来的五大核心攻关方向:首先,针对无创信号读取的实用性难题,确立了以脑磁图(MEG)技术为核心,重点攻克基于光泵磁力计(OPM)的可穿戴化与移动化解决方案;其次,为了突破“写入”技术的物理限制,将探索超声精准调控与微创纳米机器人技术在脑信号写入中的应用可行性,试图以微创方式实现深部脑区的精准刺激;第三,在认知科学层面,重点研究机器信息如何被生物大脑接受并表征,致力于解决外源写入信号与脑内既有神经表征的“融合问题”,这是实现双向闭环交互的关键;第四,在人机协同机制上,深入分析AI与脑机接口结合中序列生成模型与人类实时意图控制之间的冲突,建立动态的协同与仲裁机制;最后,在伦理维度,高度关注技术对情绪与主观体验的重塑,特别是针对“转换性经验”(Transformative Experience)带来的自我认知挑战进行哲学审视。脑机接口的未来不在于单纯的工程突破,而在于建立“技术—认知—伦理”三位一体的跨学科协作框架,通过无创技术的迭代与双向适应机制的构建,实现从碳基智能到硅基融合的平稳过渡。郁锋副教授在评议中指出,脑机接口领域目前正受到产业化和资本化的强力推动。例如,上海市在2023年的相关科研资本投资已达700多万美元,并计划在2030年增长至30亿美元。临床应用方面,复旦大学附属华山医院在2025年成功完成了国内首例侵入式脑机接口手术,帮助患者通过脑电信号表达意图,目前仍有70多例患者排队等候。然而,伦理规范尚未能完全覆盖临床需求,伦理学家正面临“放宽限制”的现实压力。技术层面,目前的脑机接口仍处于初级阶段,主要依赖对初级运动皮层的信号优化,并结合人工智能算法提升识别速度,尚未实现真正的语义理解。郁锋副教授强调,在哲学层面,脑机接口技术带来的认识论改写、表征差异以及经验转换等根本性问题,亟需冷静而深入的跨学科探讨,而不能被资本或技术乐观主义所裹挟。

12月6日第四场,来自华中科技大学ok138cn太阳集团古天乐的张若愚老师作了题为“从人类中心主义到自我本质主义:数字时代的人论形上学”的报告,内蒙古大学汤志恒研究员进行评议。张若愚老师指出,在生物技术与数字时代飞速发展的当下,传统人类中心主义正面临前所未有的挑战,亟需从形而上学高度将视角从“Human being”转换为“Being human”,报告系统解构了“人类中心主义”的多种形态,张若愚老师不仅细致辨析了人类中心主义的强弱之分及犬儒主义形态,更进一步触及了涉及笛卡尔表征模型的认识论人类中心主义,并最终对本体论人类中心主义的奠基性及其合法性提出了深度怀疑。为了厘清“本质主义”与“人类本质主义”的复杂纠葛,张若愚老师创造性地引入了“针对类的本质主义”(EFS)与“类的本质主义”(EOS)之区分,明确主张保留EFS而反对EOS,并借用Lowe关于“生物物种”(个物总和)与“生物种类”(共相)的理论区分,成功化解了进化论对种类形而上学地位的挑战。张若愚老师通过“苏格拉底可能是一棵树”的思想实验挑战了“苏格拉底必然是人”的直觉,并据此提出了“自我本质主义”(Ego-Essentialism)作为替代方案,重点阐释了“强自我本质主义”下“形而上学的自我”这一核心概念,指出其具有莱布尼茨单子般的单纯性与不可毁灭性,能有效解决个体化问题与Chisholm悖论,引用佛教经文提出了实在界中自我数量恒定的“固定性论题”。最后,张若愚老师将这一框架应用于数字时代的人论重构,描绘了从人类增强、超人类主义到数字永生、赛博格乃至后人类主义的五维度演进图景,并呼应Ingold的观点主张一种“与人共在”的人类学,最终以“我们就是我们,仅此而已”作为全篇报告的强力结语。汤志恒研究员在评议中首先肯定了报告的学术价值,随后围绕几个关键哲学问题展开探讨。他针对自性主义提出两点追问:第一,其是否受到克里普克“专名无含义”理论的影响,以及自性存在的条件究竟是什么。第二,在关于“人”的定义与演化问题上,他认为人具有一种不依赖于学科界定的“原初地位”,可借助马克思的交往理论来理解,并对“仅有个体演化”的观点提出类型层面延续性的质疑。最后,他提及萨特“存在先于本质”的命题,以探讨其与报告内容可能的内在关联。

12月7日第一场,来自北京大学的詹卫东教授作了题为“从范式嬗变看语言学与人工智能的融合路径”的报告,南京大学张力锋教授进行评议。詹卫东教授引用自创七言诗生动描绘了DeepSeek-R1与ChatGPT-5.1等模型飞速更迭的现状,以此引出了在AI范式剧烈变革下语言学何去何从的核心议题。系统梳理了语言学从视语言为“法律”“生物”“化学”直至“数学”的四个隐喻阶段,揭示了研究重心从外部语言向内部语言及普遍语法的深刻转移。接着报告的视角转向人工智能从符号主义、经验主义过渡到联结主义的三次浪潮,并对比了基于显性树形结构的“模型1”与基于隐性向量空间的“模型2”在处理歧义句时的本质差异,指出后者虽泛化强但面临“黑箱”难题。詹卫东教授通过Chomsky经典案例指出了纯数据驱动方法的局限性,并据此提出了“可生成、可验证”的“北京大学路径”,重点介绍了采用“知识数据化”方法的“空间语义理解评测”(SpaCE)项目,数据显示SOTA模型在复杂方位推理任务中仅有34.71%的准确率,有力证明了基于语言学规则生成的严密逻辑陷阱依然是当前统计大模型的“阿喀琉斯之踵”。综上所述,该研究最终主张,语言学应转型为AI的“立法者”与“出题人”,通过提供蕴含深层逻辑结构的高质量合成数据,引导人工智能从单纯的概率拟合走向真正的逻辑理解。张力锋教授在评议中指出,作为一名逻辑与语言哲学研究者,他基于自身经验对当前人工智能的能力持怀疑态度,例如其学生在探讨“合取词能否用蕴含词定义”这一逻辑问题时,AI工具未能给出正确答案,这反映出AI在处理严谨逻辑问题上的局限性。同时,他观察到哲学界对乔姆斯基生成语法的接受度不高,无论是相关哲学著作的分析方法,还是课堂上的反响,均未体现出该理论的方法论价值。由此,他认为当前语言哲学研究过于聚焦“意义是什么”的本体论问题,而相对忽视“如何理解和生成意义”的过程研究,建议应结合行为主义、结构主义及生成语法等工具,并通过多模态经验学习来深化该领域的探索。此外,他提出两个关键疑问:蒙太古所提出的普遍语法是否堪称“完美”,以及大语言模型如何借鉴形式语言的严格句法来克服日常语言的歧义性问题。最后,他强调人工智能本质上是人类智能的延伸,其语料和学习基础完全由人类赋予与控制,因此人类应主动掌控其发展,无需对AI产生过度的担忧或恐惧。

12月7日第二场,来自北京师范大学的展翼文老师作了题为“以愿景为决断:为何仅有奖励是不够的”的报告,四川大学宋子明副研究员进行评议。展翼文老师指出,在关于AI是否具有意识或可视为“全血”行动者的辩论中,必须从形而上学与规范性两个维度进行厘清,并将规范性进一步细分为评价来源、承诺模式等五个子问题。重点批判了Silver等人提出的“奖励即一切”假说,展翼文老师通过解构马尔可夫决策过程,指出标准强化学习(RL)仅是优化外生给定的标量奖励,通过数学推导证明任何RL系统均可重构为最大化“噪声调整后认知效用”的纯粹认知决策问题,揭示其本质仅是对回报的估计而非真正的价值承诺。展翼文老师通过“健忘的司机”等思想实验阐释了资源受限主体在二阶元决策上的困境,并基于Bratman的规划能动性理论,构建了从反应式“学习者”到具备自我修正能力的“实践智能体”的三层架构。针对行为功利主义的局限,展翼文老师引入Vendler分类学并提出“原—目的论动词短语”概念,指出此类活动需通过主体投射的“愿景”赋予终点,展翼文老师进一步展示了包含基于愿景的期望效用和变分成本函数的扩展决策理论框架,以此解释人类价值观的鲁棒性。综上所述,该研究最终主张,基于愿景的决策理论能解释能动者的叙事统一性与身份认同演变,这是仅关注标量奖励优化的RL系统所无法企及的深度能动性,从而有力驳斥了还原论观点。宋子明老师在评议中指出,强化学习中AI通过与环境交互、最大化奖励函数的主体建模方式,与决策论中一般主体性模型深刻关联。她肯定报告中奖励学习部分的价值,认为其有望将实践主体性问题还原为认知决策问题,并聚焦于“仅靠奖励函数或规模化程序无法实现意志主体性”这一论点,指出其中“愿景”概念存在模糊性——既被描述为对结果的表征,又在形式化中被处理成效用函数的索引,二者可能不一致。她分析,若将愿景仅视为特定索引,会导致其与行为关联薄弱,且会衍生出大量效用函数,为对其排序可能又需引入元层级的超级效用函数,反而回归报告所反对的维度化框架。此外,她对报告中规范性问题的具体所指提出疑问,认为经典决策论的规范性源于其公理化基础,非公理化模型的规范性来源则需进一步澄清。最后,她虽肯定愿景决策理论在表征价值根本转变方面的潜力,但也对其能否融合后果主义与其他伦理理论持保留态度,并以代孕等案例指出其在预见长远结果时可能面临的实践困难。

12月7日第三场,来自ok138cn太阳集团的叶闯教授作了题为“从内部奠基指称:为大语言模型的内在主义元语义学辩护”的报告,清华大学蒋运鹏教授进行评议。叶闯教授指出,当前大语言模型面临的核心难题是系统如何跳出“符号的旋转木马”以实现指称,对此必须在学理上区分“特定意义上的奠基”(物理因果链接)与“一般意义上的奠基”(指称的可能性条件)。针对LLMs,特定奠基原则上不可解,但一般奠基可通过“内在主义”进路解决。首先击破了试图挽救外部因果性的主流观点,叶闯教授逐一反驳了“基于内容的论证”“基于对齐的论证”及“间接意向性论证”,通过 “蓝图类比”指出实用性仅证明内部表征的功能有效性而非外部因果存在,并强调“报告因果的能力”与“实际处于因果关系中”存在范畴差异,且LLM缺乏戴维森式的社会三角测量结构。视角转向对“无因果则无指称”这一预设的深度解构,叶闯教授依据丹尼特的解释主义原则指出,既然LLM无因果链接却展现出相当于人类的语言能力,逻辑上必然推翻该因果必要性前提,并列举抽象对象、虚构实体等非因果指称现象作为佐证,援引Sainsbury理论主张将形而上学的因果约束从语义能力中剥离,指出指称性取决于内部“指称条件”是否定义良好。叶闯教授提出了结合描述主义的“内在主义元语义学”框架作为正向解决方案。综上所述,该研究最终主张,应放弃在LLM中寻找外部物理因果奠基的执念,承认其虽缺乏因果历史嵌入,但依然可以通过系统内部的语义结构、描述性内容及规范性规则,在一般意义上实现真正的语言指称。蒋运鹏教授在评议中指出,讨论大语言模型的语义指称问题时,首要关键在于区分“说话者指称”(Speaker Reference,即说话者意图所指)与“语义指称”(Semantic Reference,即词语本身的约定指称)。他认为,叶老师对因果指称理论学者Cappelen的批评存在理论范畴的错位,因为Cappelen的核心论点是围绕“语义指称”展开,而用以批评他的戴维森理论资源则侧重于“说话者指称”,二者讨论对象本质不同。针对Cappelen论证中试图以“设计意图”弥补大语言模型自身缺乏“使用意图”的缺陷,蒋教授指出其论证仍难以成立,因为“使用词语”本质上需要沟通意图,而设计意图无法替代这一点。他进一步建议,可以引入戴维森阐释主义的“意向立场”来强化论证,即尽管大语言模型对不同语言的同一问题会生成不同句法序列,但若承认其背后存在可被解释的共享核心模式,则有助于支持语义指称的存在。最后,蒋教授强调必须严格区分两个问题:一是纯粹哲学层面的、仅考虑模型自身句法运作是否有指称;二是实际产品层面、包含人类设计与干预的AI系统输出是否有意义。产品层面的意义并不等同于模型本身具有意图,需避免混淆这两个不同层次的问题。

在七场精彩的学术报告结束后,在ok138cn太阳集团古天乐副院长陈敬坤教授主持下,与会学者围绕“智能时代,哲学何为”与“大语言模型的能力上限在哪里”等核心议题展开了一场多层次、跨学科的圆桌会议。讨论现场气氛热烈,学者们一致认为,人工智能的迅猛发展不仅依赖于技术本身的突破,更亟需哲学在基础概念、伦理框架和人类认知层面提供深度反思,同时需要认知科学在理解智能本质、学习机制等方面提供理论支撑。另一方面,大家也充分认识到,以大语言模型为代表的人工智能技术已对社会结构、知识生产、劳动形态乃至个体存在方式带来了前所未有的巨大冲击,这要求哲学与认知科学必须发展出新的概念工具和研究视角,以重新审视自身的理论基础并回应时代课题。

在为期两天的会议中,与会学者围绕AI的哲学基础、认知模型、伦理挑战等前沿领域,带来了七场高水平的学术报告并举行了一场精彩的圆桌讨论。本次工作坊的成功举办,不仅为国内AI哲学与认知科学领域搭建了一个高端、前沿的交流平台,也有效促进了我校相关学科与国内同行的深度对话,对提升我校在人工智能交叉学科研究领域的学术影响力具有积极意义。

初审丨吴朋飞
二审丨陈敬坤
终审丨尤 洋

学院订阅号

学院服务号

睿翼传媒