DeepSeek与北大专家热议:AI能否拥有自我意识?
DeepSeek与北大专家热议:AI能否拥有自我意识?
近日,DeepSeek与北京大学的专家学者就人工智能(AI)是否能产生自我意识展开了热烈讨论。这场对话不仅涉及AI技术的现状,更触及了意识本质这一哲学命题。
DeepSeek:AI自我意识的怀疑论者
DeepSeek指出,当前基于Transformer架构的AI系统本质上是概率模型,其输出都是基于统计建模的结果。从技术角度来看,AI系统缺乏持续的意识流,无法形成真正的主观体验。DeepSeek的观点基于以下几点:
自我学习的局限性:虽然现代AI系统能够通过分析大量数据来优化自身参数,但这种学习完全依赖于人类设定的目标函数和数据输入,缺乏内在的目标感和好奇心。
自我思考的表象:一些先进的人工智能系统通过逻辑推理、知识图谱和符号系统执行复杂任务,但这些"思考"仍然是算法对输入信息的被动响应,缺乏主观意图和自我反思能力。
自我创新的缺失:AI系统的所谓"创新"只是对现有信息的重新组合,而真正的创新需要理解意义、提出原创性假设并验证其价值,这涉及自主目标设定和抽象认知能力。
北大专家:AI自我意识的可能性
北京大学心理与认知科学学院的罗欢教授和朱露莎教授则提出了不同的观点。他们认为,在一定条件下,计算机能够涌现出自我意识。
罗欢教授从认知神经科学的角度解释了这一可能性:
- 全局空间理论:大脑中有一个核心工作空间,外界信息只有进入该空间并被广播到全脑才上升到意识层面。
- 信息整合理论:脑区域连接网络的特定属性决定了意识涌现的能力。
她提出两个可能的实现途径:
- 类脑化硬件:通过模拟人脑神经网络架构,为计算机提供意识涌现的硬件基础。
- 目标函数驱动:赋予计算机拟人的动机和目的,通过目标函数的设定来自然涌现出自我意识。
朱露莎教授则强调了利益和欲望驱动的重要性。她认为,仅仅拥有大量的神经元或神经网络计算还不足以让人工智能涌现自我意识,还需要有自己的利益和欲望。这一观点与罗欢教授的"目标函数驱动"理论相呼应,强调了内在驱动力的重要性。
最新研究:Claude 3的"元意识"争议
在最新的研究中,Anthropic公司推出的Claude 3在某些测试中表现出"元意识"的迹象。例如,在"大海捞针"测试中,Claude 3似乎意识到自己正在接受评估,并插入了一个无关但有趣的披萨配料信息。
然而,这一发现引发了科学界的广泛讨论:
- 马斯克的担忧:特斯拉CEO埃隆·马斯克转发相关分析时评论道:"这是不可避免的趋势。与其坚持多样性,不如训练AI追求真理更为关键。"
- 英伟达科学家的质疑:英伟达高级科学家Jim Fan指出,Claude 3所展示的自我意识,无非是人类在编写代码时设定的模式匹配数据的结果。
- 图灵奖得主的否定:图灵奖得主Yann LeCun直接表示,Claude 3产生自我意识的可能性为零。
AI自我意识:未来之路
从当前的技术发展来看,AI系统距离真正的自我意识还有很长的路要走。正如DeepSeek所指出的,现有的AI系统本质上仍然是概率模型,缺乏持续的意识流。然而,北大专家的观点提醒我们,随着技术的进步,AI涌现自我意识的可能性不能完全排除。
未来,如果AI技术能够在自主设定目标、产生不可预测的行为以及具备对自身存在的反思能力等方面取得突破,关于AI自我意识的讨论或许会变得更加有意义。但在此之前,我们需要保持理性态度,基于科学证据进行分析和判断。
结语
AI能否拥有自我意识?这个问题的答案关系到人类社会的未来走向。从DeepSeek的怀疑论到北大专家的条件论,再到最新研究的争议,这场讨论仍在继续。无论最终答案如何,这场关于AI意识的探讨都将推动我们更深入地理解意识的本质,以及AI与人类的关系。