问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

人工智能对人类的危害

创作时间:
作者:
@小白创作中心

人工智能对人类的危害

引用
1
来源
1.
https://targettrend.com/zh-CN/dangers-of-ai-to-humanity/

2023年3月22日,一封由1000多人签名的公开信在全球范围内引发了广泛关注。这封信呼吁全球所有实验室立即停止研制比OpenAI的GPT-4更强大的AI系统。信中提到,高级人工智能模型对人类构成的众多危险,因此有必要在全球范围内共同制定和实施高级人工智能系统的安全协议。

对于大多数人来说,AI很有趣。借助人工智能算法,您可以捕获智能图片和视频、轻松编辑您的资料、更快地工作、获得更好的信息、推荐等等。

然而,当2023年XNUMX月传出一封要求暂时停止AI开发的公开信时,引起大多数人注意的是那些签名背后的名字。从伊隆麝香至苹果公司的史蒂夫沃兹尼亚克以及数百名其他著名科学家和主要研究人员,这封信的严肃性显而易见。

这封信已经获得了超过27个签名并且还在增加,但说实话——人工智能的发展就像一场军备竞赛。你慢下来,你就输了。

人工智能对人类的危害

人工智能触及人们私人生活和职业生活的许多领域,这取决于你是谁和你做什么。以下列出了人工智能对人类的主要威胁。

  1. 工作流离失所和失业危机:人类工作者在所有类型的职业中的潜在流离失所是人工智能的主要担忧之一。除了失业之外,这还可能导致受影响社会的危机、社会经济差距以及对社会的其他负面影响。

  2. 道德问题:从有偏见的算法到隐私的丧失和问责制的缺乏,伦理问题是人工智能对人类构成的另一个主要危险。当AI司机伤害或杀死行人时,这是谁的错?谁应对AI的错误医疗诊断负责?谁应该为其他意想不到的后果负责,比如人工智能无意中造成伤害?随着越来越多的人工智能机器人和自动驾驶汽车成为现实,这些危险将成为主流。

  3. 安全风险:某些安全任务(例如监视、网络安全和自主武器)对人工智能的依赖会带来许多潜在的攻击。例如,自主武器可能会造成严重伤亡,因为不良行为者可能会毒害人工智能所依赖的数据,导致其做出可能导致严重伤亡或加剧本已紧张的冲突的决定。

  4. 失去人为控制:提供设计建议的简单人工智能系统是可以的,因为它们不可避免地充当人类专家的助手。但随着更复杂的人工智能模型可以根据越来越多的数据做出决策,人类控制和监督将变得不那么重要的危险很高。这可能会导致不可预见的情况,因为例如,遵循AI的建议是明智的,但在这种情况下它们真的正确吗?

  5. 技能和经济依赖:依赖人工智能为社会提供专业知识和经济服务会带来另一组危险。首先,依赖人工智能获取信息会导致人类思维能力下降,因为系统会接管这些职责。其次,服务和关键经济基础设施对AI的依赖使社会容易受到网络攻击和其他AI特定威胁。

  6. Deepfakes和错误信息:几年前,Deepfakes以其惊人的能力震惊了世界,但这仅仅是个开始。随着AI照片和视频生成模型一天天变得更好,有一天将变得非常困难(如果不是不可能的话)将AI生成的内容与真实图片和视频区分开来。与往常一样,它对错误信息、诽谤、敲诈勒索、勒索、色情报复、欺诈、人格暗杀和社会工程学的潜在实施是无限的。

  7. 经济差距和社会不平等:世界已经高度分为富人和穷人两类,导致了1%的精英和99%的被压迫者这样的术语。由于AI依赖于资本来发展和经济实施,因此风险仍然很高,即即使更少的人口最终也会从投资于市场的AI的财务回报中获得经济上的巨大收益。

  8. 社会隔离:许多社交媒体用户已经迷上了他们的智能手机,这要归功于人工智能算法,这些算法可以准确地向他们展示他们想要看到的内容,并进一步以其他娱乐方式吸引他们。这种情感依赖造成了一定程度的成瘾和由此产生的社会隔离,许多用户习惯于独自使用手机。此外,随着越来越多的人工智能服务在人们的生活中取代人类,他们的身体互动也将减少。

  9. 操纵和影响:AI算法已经无处不在,可以成功地操纵搜索引擎结果、社交媒体提要、虚拟助手和聊天机器人。迟早有人会偶然发现一种创新的方式来最大化这些效果以获取利润或乐趣。

  10. 健康和安全风险:医疗保健对人工智能的依赖也带来了可能危及患者健康和福祉的风险。它们包括可能的疾病误诊和基于有偏见或歧视性训练数据的错误治疗。另一种可能性是不良行为者故意中毒患者的数据,以影响AI的不健康甚至致命的治疗建议。

  11. 人类创造力的丧失:具有文本、图像和视频生成能力的大型语言模型每天都在变得越来越好,OpenAI的GPT-4、Stable Diffusion和Midjourney 5目前处于领先地位。这些系统使创建通常留给艺术家和天生有才华的所有类型的内容变得更加容易和快速,从音乐到文字、诗歌、绘画、视频和铅笔素描。随着它们变得更好并且对每个人都可用,原型人类创造者在社会中变得越来越不相关。

  12. 存在风险:人工智能(AGI)系统的能力远超任何人类,其资源强大到可以决定以某种方式征服或伤害人类的危险是非常真实的

  13. 缺乏透明度:没有人真正了解人工智能的工作原理,尤其是当算法很复杂时。这意味着几乎没有人确切知道某些重要决策是如何做出的,从而导致出现有偏见或歧视性的输出、无法检测到的安全漏洞和恶意攻击以及结果不负责任的危险。

  14. 人的价值和自主权减弱:通过为人类预测和推荐东西,人工智能不断接管人类的决策和控制。此外,这可能会导致更好地开发超出人类控制的机器或模型。这将削弱人类在许多领域和职业中的相关性,并贬低每个社会中不同职业的人类技能、专业知识和社会贡献。

  15. 意想不到的后果:这可能是人工智能对人类造成的所有危险中最危险的。意想不到的后果是什么?没人知道。没人知道,直到为时已晚。至少在理论上是这样。

人工智能危险的可能解决方案

人工智能对人类的危险是多方面的,这意味着应对这些危险的解决方案必须是多方面的。以下是一些可能的解决方案,可帮助防止或减少人工智能对人类的危害。

  • 健全的监管和治理:政府需要建立监管机构,以道德标准、透明度和问责制来管理和规范人工智能的发展。

  • 国际合作:世界各国政府需要共同制定人工智能发展的道德准则,并规范当地的人工智能产业。

  • 公众教育与意识:对公众进行人工智能及其好处和潜在风险的教育也将有助于个人和企业做出正确的决定。

  • 可解释的人工智能(XAI):顾名思义,XAI或eXplainable AI是一种人工智能开发方法,可以让人类理解模型预测背后的推理。

  • 负责任的人工智能造福社会:逐利的资本家会拒绝这一点,但这是人类可以为自己做的最好的事情之一。为什么不为所有人创建一个免费的AI医生或助手?由社交AI提供的辅助技术、环境保护、心理健康支持、社会服务、食品安全和社会福利怎么样?

  • 持续监测和评估:每一位相关的技术人员、研究人员或科学家都必须密切关注人工智能的发展。因为虽然大公司可以很容易地受到监管并遵守道德准则,但仍然有那些不可预测的团体或团队可能会决定震惊世界。

结语

虽然人工智能有可能极大地影响人类的未来,但了解它的危险也至关重要,因为只有这样我们才能安全、公平地为每个人谋福利,同时减轻这些风险。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号