问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

谷歌前CEO:当AI开始自我提升时,“我们就要认真考虑关掉它”

创作时间:
作者:
@小白创作中心

谷歌前CEO:当AI开始自我提升时,“我们就要认真考虑关掉它”

引用
财富中国
1.
https://www.fortunechina.com/keji/c/2024-12/21/content_460956.htm

谷歌前董事长兼首席执行官埃里克·施密特。CHRISTOPHE MORIN—IP3/GETTY IMAGES

前谷歌(Google)首席执行官埃里克·施密特警告称,AI系统可能需要有一个紧急关机装置,以免它们变得过于强大。施密特认为,随着AI系统的自动化程度越来越高,它们可能给人类带来全新的、更严重的威胁。

施密特周日在接受ABC News采访时表示:“最终你会对电脑说:‘学习所有知识,完成一切任务’。这是一个危险的临界点。当AI系统可以自我提升时,我们就需要认真考虑关掉它。”

施密特预测,AI将从任务型助理,如微软(Microsoft)的Copilot,进化成可以自主决策的更加复杂的系统。施密特认为,当AI达到这个阶段时,人类就应该介入,并考虑关闭系统。人类需要确保在需要关闭AI系统时,不会遭到它的抵抗。

施密特说道:“理论上,最好有人可以随时将其关闭。”

施密特在硅谷工作了数十年。2001年,谷歌创始人谢尔盖·布林和拉里·佩奇将他招入麾下,帮助拓展他们的业务规模。当时,布林和佩奇认为他们需要一位具有高管经验的稳重人物来管理公司,而他们自己则专注于技术研发。在他的职业生涯中,施密特见证了科技行业的多次创新浪潮。施密特对最坏情况的担忧,也得到了其他AI领域知名人士的认同。

诺贝尔奖得主杰弗里·辛顿在2023年表示,他“看不到一条保证安全的路径”,因为人工智能可以自行思考。辛顿凭借他的发现被誉为“AI教父”。OpenAI首席执行官萨姆·奥尔特曼表示,通用人工智能最糟糕的情况是“人类彻底灭亡”。OpenAI的联合创始人、现已成为竞争对手的埃隆·马斯克警告说,人工智能可能对人类文明造成毁灭性影响。

马斯克在10月份表示,人工智能“很可能会很棒,但也有10%到20%的可能性会变得很可怕,这并非毫无可能。”

施密特也强调了AI积极的方面。

施密特对ABC的乔治·斯特凡诺普洛斯表示:“重要的是,人工智能的力量意味着每个人都会随身携带一个相当于‘全才’的助手。除了你的笔记和撰稿人,还会有爱因斯坦和达芬奇来为你的节目提供建议。这对地球上的每个人来说都是如此。”

为了确保人类在不遭受重大损害的情况下获得这些好处,施密特认为政府必须开始对AI进行监管。施密特提到他与已故的亨利·基辛格曾讨论过这个话题,并与他合著了《创世纪:人工智能、希望与人类精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一书。

施密特表示:“政府应该发挥作用。基辛格博士非常强烈地认为,人工智能的未来不应该由像我这样的人来决定,也不应该只由技术人员来决定。”

到目前为止,美国尚未在联邦层面实施任何AI监管。然而,加利福尼亚州提出了一系列保护电影行业的AI法案,并打击了使用该技术制作的深度伪造视频。但加州州长加文·纽瑟姆否决了一项名为SB 1047的综合性法案,该法案因对开发人员的严格报告要求而遭到风险投资者和科技公司高管的强烈反对。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号