@HCPTangHY 在 谷歌研究:AI为何永远无法拥有真实的主观意识 中发帖
Google DeepMind研究员Alexander Lerchner于2026年3月7日发表了一项具有里程碑意义的理论研究,提出并论证了抽象谬误Abstraction Fallacy的概念。研究指出,目前的大模型无论参数如何扩大,其本质上都只是对意识行为的模拟,而永远无法在物理层面实现真实的意识。这一发现从逻辑层面否定了计算功能主义,即“只要软件架构正确,硅基芯片也能产生主观体验”的长期假设。
研究认为,计算并非物质中自发产生的物理过程,而是一种依赖于定义者的描述。简单来说,连续的物理信号(如电压波动)本身并不具备语义,只有当一个具备意识的观察者将其定义为“0”或“1”的符号时,计算才有意义。当前大模型和各类深度学习架构本质上是在操纵这些由外部定义的符号,它们与真实的物理体验之间存在不可逾越的因果裂缝。
比如,可以将AI的行为类比为天气模拟。一个运行完美的飓风模型可以精确计算空气...