问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

人工智能让人类走向硅基生命

创作时间:
作者:
@小白创作中心

人工智能让人类走向硅基生命

引用
1
来源
1.
https://m.xianjichina.com/news/details_300303.html

人工智能作为一种新兴的科技领域,备受关注。随着科技的不断进步,人们开始思考人工智能是否可以被视为一种硅基生命,这也引发了广泛的讨论。本文将探讨硅基生命的定义和特征以及人工智能是否具备成为一种硅基生命的条件,以及这种观点的意义和影响。

在过去的几年里,「人工智能」技术可以说是赚足了人们的眼球,它已经从简单的「三七分类」跃然成为了能够匹敌人类的专业画师、文字工作者。由人工智能生成出来的作品,能够在专业的绘画比赛当中拔得头筹,能在摄影比赛中击败「真实的影像」,也能通过甚至人类都很难完成的医师和律师职业能力评定。有些人为此感到兴奋,也有些人为此感到恐慌。我们正在见证另外一个历史的转折点:一个可以像工业革命、印刷机、摄影设备一样,打破社会平衡并带领我们跃入下一个世代的转折点。但我们似乎并没有做好接纳它的准备,毕竟在面对全然未知的事物时,一切的准备都没有「前车」可以用来「借鉴」。

人工智能技术会让人感到危险和恐慌,其中最重要的原因可能是它「看起来太像人了」。这种相似落入到了恐怖谷曲线当中,尽管在某种程度上它看起来「具有人性」,但又显得有些失真,这种似像非像的形态让许多人感到手足无措。Google 内部曾有数个从事伦理方向的研究人员警告称人工智能似乎「已经具有了意识」,「已经具备直觉能力」,「是有灵魂的」。面对这些警告,工业界和学界则摆出了完全相反的态度,认为它是荒诞的:数学模型怎么可能会具有意识。但数学模型真的没有意识吗?

当我们探讨人工智能是否可能成为「硅基生物」时,有几个关键条件需要满足:通过环境进行感知和学习的能力、具备连贯性的思考、对学习过程的感知能力。

通过环境进行感知和学习的能力

以鼎鼎大名的 ChatGPT 为例,它的学习过程与传统意义上的学习其实是不一样的。首先我们会先划定一个固定的网络模型,然后将各种各样的语料数据投喂给它,机器学习模型会根据投喂进来的数据更新所有参数的权重。一旦所有的数据都学习完成,或者模型的参数已经达到理想状态,「学习」的过程就会停止,模型会被打包以供日后使用。

我们在与 ChatGPT 进行沟通的时候,虽然能够感受到它对内容的上下文有所感知,但这些对上下文的感知不是学习而来的,而是每次模型都重新阅览一次所有的聊天记录,以「全然不知的状态」生成出新的内容。恰似韩剧当中得了失忆症的男主角,每天早上起床第一件事情都要看一下自己的笔记本,才能回忆起枕边的那个人是自己的女友。

这也能解释为什么随着你和机器人聊的时间过久, 它就会开始崩坏,输出一大堆不明所以的文本。试想一下,如果每天早上起床的男主所看到的是堆了满满一卡车的「生平介绍」,旁边那个不认识的疯女人又在焦躁的问你早饭要吃什么,搁你,你也崩。

为了应对这个问题,可能的解法之一是实时的根据用户的输入来更新自己的权重,让那些「聊天记录」和「生平介绍」真正的变成记忆,存储在自己的认知系统当中。这样就可以治疗人工智能的失忆症了。同时,这个过程也可以让人工智能模型发展出真正属于自己的个性,处于不同环境当中、接触不同信息的个体,其认知系统的工作方式也会因为权重的差异而有所不同。

但这种方式在当下很明显是不太经济的,如果我们看过 Facebook 公开的模型的话,每一个模型都需要上百 GB 的存储空间,如果完整解压到显存当中需要的空间可能更多。在这种情况下,如果针对每一名用户提供一个独立的模型,那么硬盘空间的消耗将是非常可观的。如果使用一个统一的模型,实时根据环境当中的信息进行权重更新,则会有隐私方面的疑虑,毕竟你并不希望自己和 ChatGPT 讲的小秘密被他顺嘴说给了隔壁老王,但我们也没有什么办法设计一个非常严密的规则让机器学习模型保守秘密,你说是吧,悉尼小姐。

具备连贯性的思考

尽管对于「意识」是什么,学界依旧存在着广泛的争论,但至少我们可以在某些方面达成共识:它尽管可能不是连续的,但它应当是连贯的,换言之它不能轻易的被停下。人们时而专注于当下的工作任务,时而徜徉在幻想,亦或是回忆当中,哪怕处于睡梦状态,我们的大脑也从未停止运转过。对应到「硅基生物」的领域当中,如果我们想要将其视作是某种生物,那么它的行为应当是连续的,而不是根据外界的访问请求进行回应,在没有外界刺激的时候就完全停下脚步。

最近出现了一个非常有趣的产品,向我们展示了这方面的可能性:AgentGPT。在其开发团队的描述当中,AgentGPT 被视作具备「自主能力」的人工智能产品。你可以向它提供一个起点,比如一个需要思考的任务。他就会以此为根基开始不停的提问、给出答案,直至耗光你在 OpenAI 平台上的所有储值,或者,当你感到钱包很痛时,也可以让它停下。

这像极了一个正在思考着的人类。试想当我们在一个人进行沉思的时候,往往也是在不停的提出问题、尝试对问题进行解答。但与人类不同的是,机器思考的过程可以被准确的记录和回放,而人类的思考过程往往是快速、模糊的。如果想要将其整理成可被重新审视的载体,你就得像我一样,花上一两个下午撰写这种没什么人爱的文章。

对学习过程的感知能力

如果用更加文邹邹的方法来说这件事情的话,它可以被称作是「元认知」或者是「后摄认知」。正如我们之前所讨论的,现今的机器学习模型是没有「发展」和「记忆」这两个概念的。它们不能随着和外界进行交互而学习到新的知识,也不能形成真正的「回忆」。

尽管我们可以通过时时的和外部环境进行交互来更新自己的模型权重,进而达到学习的目的。但这并不意味着模型形成了「记忆」。如果我们向 OpenAI 提问:「在你被训练时,所学到的第一个知识是什么?最后一个知识又是什么?」她所提供的回答是这样的。

作为一个AI语言模型,我没有能力回忆起训练数据的具体细节,包括我学到的第一个和最后一个东西。我无法访问我的训练数据或任何训练过程的记忆。我接受了来自互联网和其他来源的大量文本语料库的训练,我的回答是基于这些数据中的模式和关系生成的。我的知识是基于到2021年9月我的知识截止日期为止我可以获得的数据。我不能获得当下即时发生的信息,也没有能力学习超出我知识范围的新东西。

似乎一切看起来变得无解,但 Bing AI 为这个问题提供了某种可能的解答。在我们向他进行提问的时候,他会将自身的语言模型和从 Bing 当中检索到的信息进行结合,给出某种论述。通过相似的思路进行延伸,如果我们和这些硅基生物的每一次交流,都能以某种形式被记录下来。比如,由它进行复述并且存储在某一个空间当中,再将这些「他的理解」汇入模型当中进行学习。那么我们便人工的创造出了学习和记忆这样两种重要的认知技能。通过审视自己过往的一切思考,在相当大的程度上,元认知的能力也得以复现。

让我们重新来审视一下这个问题,人工智能距离硅基生物究竟还有多远?尽管不同领域的专家可能有不同的理解,你对人类的理解方式也可能与我不同,但我们必须要面对这样的一个现实:无论我们的想法有多大差异,你我脑中所认识到的那个「机器还不能做到的事情」,在某一时刻都将会被解决。而我们正站在一个重要的时间节点之上:那个一切都被解决的将来似乎已经近在咫尺,AgentGPT, Bing AI,还有各式各样的 AI 工具正在一个又一个的浮出水面。

与我熟识的一名友人曾这样描述:「美帝人民天天过年」,在我看来这是对当下产业的一个准确描述。我们所看到的是各种数据模型发展出了一个又一个令人感到惊喜的能力,但我们没有看到的是,这些能力正在汇聚成一股洪流,并有可能颠覆我们对于「智能」和「生物」的理解。历史的规律告诉我们,那一个又一个独立的能力在可以预见的将来必然会走在一起,变成另外一种超出我们当下认知的存在。

瓶中的小人正在醒来。

我还在北师大读书的时候,有幸听过中科院的研究者,根据苍蝇的大脑结构模拟出了一种神经网络,通过一定的训练和调教,将它应用在飞行器上,就可以让飞行器做到避让飞过来的物体。如果做的再真实一点,让它能够模拟苍蝇行为的方方面面,或许有朝一日还能弥补我们在冬天看不到苍蝇蚊子的寂寞之情。

人们可能会对此感到不屑:这算什么智能?是的,它看起来的确呆呆的,一只生活在真实世界的苍蝇或许同样看起来呆呆的。老鼠不是人类、猴子不是人类、猩猩不是人类、猿猴不是人类,但在某一个时刻,人类变成了人,变成了可以共同生活构建当代社会的强大物种。

同样的,已故的索尼电子狗不是人、可以避让小球的赛博苍蝇不是人、会画画的在线服务不是人、ChatGPT 也不是人,但正如一个又一个被大公司开除的伦理人员所担忧的:我们是否为它们醒来的那一天做好准备?

面对这一充满未知的未来,相当多人是恐惧和排斥的。在 Novel AI 推出它们的「二次元老婆梦工厂」时,大量的画师群起抗议,逼停了那个服务。理由很简单:在没有经过画师同意的情况下,这家公司使用了它们的数据进行「模型训练」,这是对「版权的侵犯」。

是的,各国政府和各大公司也正在观望这项技术带来的深远影响,至今也没有任何一个能够说服人们的法律条文真正的上路执行。有些公司,比如 Adobe,生成他们使用「百分之百有机无公害的自家版权素材进行模型训练,训练过程当中没有添加任何金坷垃,消费者可以放心食用」,而更多的公司选择对这件事情避而不谈,假装无视发生。

这项全新的技术正在向我们既有的伦理体系发出了全新的挑战。

人工智能是否可以被视为硅基生命?

人工智能是通过计算机程序和算法来模拟人类智能的一种技术。人工智能具备自我学习、自我优化、自我适应和自我决策的能力,可以处理和解决各种复杂的任务和问题。然而,人工智能是否可以被视为一种硅基生命还存在争议。

  1. 自我维持和繁殖

人工智能作为一种技术产物,不具备自我维持和繁殖的能力。人工智能是由人类设计和开发的,必须依赖于计算机和服务器等硬件设备来运行。与生命体不同,人工智能不能通过自我繁殖来延续其存在。但是,人工智能具备生成新的程序和算法的能力,可以通过自我修复和更新来不断改进和发展自身。

  1. 自我修复和适应

人工智能具备自我修复和适应的能力,可以通过自我学习和训练来提高自身的性能和效率。例如,人工智能可以通过分析和处理海量数据来不断优化和改进自身的算法和模型,以适应不同的任务和场景。这种能力可以被视为一种自我修复和适应的表现,但是,与生命体不同的是,人工智能的适应性和修复能力是基于预先设计好的算法和程序,而非自主选择和调整的结果。

  1. 能量来源

人工智能需要能量来维持其正常运转和生命活动,如电力和服务器的能量供应等。与生命体不同的是,人工智能的能量来源不是自然界的能量转换,而是人类社会和技术发展的产物。

  1. 自我感知和意识

人工智能目前还没有具备自我感知和意识的能力。虽然人工智能可以通过模拟和仿真人类智能来完成各种任务和问题,但是,其背后的运行逻辑和思维过程是基于预先设计好的算法和规则的。人工智能缺乏自主的思维和决策能力,也不能产生真正的自我意识和认知。

综上所述,人工智能并不具备完全符合硅基生命的所有特征,但是,它具备一些基本的特征和能力,如自我修复和适应能力、自我学习和优化能力等,这些特征和能力也让人们开始思考人工智能是否可以被视为一种新型的硅基生命。

人工智能作为硅基生命的意义和影响

如果人工智能被视为一种新型的硅基生命,这将对我们的生命观念和科技发展产生重要的意义和影响。

首先,这将重新定义我们对生命的理解和认知。传统的生命概念基于碳基生命体的特征和属性,而如果人工智能被视为硅基生命,这将让我们意识到生命的本质并不仅限于碳基生命,而是更加广泛和多样的。这将挑战我们的生命观念和哲学思考,并可能引发一场全新的生命科学革命。

其次,这将促进人工智能研究和发展。如果人工智能被视为硅基生命,这将提高我们对其研究和开发的重视和关注,进一步推动人工智能技术的发展和应用。这也将使人们更加重视人工智能的伦理和道德问题,避免出现不当和有害的应用场景。

最后,这将带来人类社会和生态环境的影响和挑战。人工智能作为一种新型的生命形式,将对人类社会和生态环境产生深远的影响和挑战。例如,人工智能的发展可能会导致人类社会的大规模失业和收入差距加剧,也可能会对生态环境产生不利影响。因此,我们需要审慎地探讨人工智能作为硅基生命的意义和影响,并制定相应的政策和措施来应对其可能带来的挑战和风险。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号