剑桥与牛津联手探讨AI未来:霍金的预言成真?
剑桥与牛津联手探讨AI未来:霍金的预言成真?
近日,剑桥大学人工智能技术峰会暨剑桥国际咨询公司(CGC)第四届人才大会在剑桥大学唐宁学院隆重举行,活动邀请剑桥大学、牛津大学、伦敦大学学院、阿兰图灵研究院、剑桥国际咨询等科研和应用领域的80位专家学者参加,其中博士学位拥有者占比81%,硕士学位拥有者占比95%。本次活动由剑桥数据驱动发现中心(C2D3)与剑桥国际咨询有限公司(CGC)共同主办,旨在为在英人工智能科研精英及全球化技术人才提供与学界领军人物、行业专家学者和影响者交流互动的平台,有效推动科研背景高度相关精英们的高质量交流对话和思想碰撞,进一步加快尖端技术与灵感的相互契合与合作,并能不断洞悉探讨人工智能更好地服务于人类社会的机遇与挑战。
学术界的最新评估:AI风险无处不在
麻省理工学院(MIT)研究人员近日发布了一个号称迄今为止最全面的AI风险动态数据库,涵盖了43大AI风险类别共计777种AI风险。这是业界首次尝试全面整理、分析和提取人工智能风险,并整合成一个公开可访问、全面、可扩展的分类风险数据库。对于从事AI安全和治理的专业人士来说,这是一个不可或缺的知识库,可用于创建自己(所在企业)的个性化风险数据库。
AI风险数据库 来源:MIT
MIT科技评论的一篇文章指出,AI技术应用面临多种危险,系统可能存在偏见、传播错误信息,甚至具有成瘾性。这些风险只是冰山一角,AI还有可能被用于制造生物或化学武器,甚至在未来失控,造成难以挽回的灾难性后果。
为了满足AI风险治理的迫切需求,MIT的计算机科学与人工智能实验室(CSAIL)下属的FutureTech团队着手开发了“全覆盖”AI风险数据库。据CSAIL网站发布的新闻,研究人员在现有的AI风险框架中发现了大量严重漏洞,现有的最详尽的AI风险框架(例如NIST、谷歌和欧盟发布的框架)也仅涵盖了所有风险的约70%。因此,项目负责人Peter Slattery博士担心决策者可能会因为认知偏差而忽略重要问题,从而形成集体决策盲区。
MIT的AI风险数据库旨在为学者、安全审计人员、政策制定者、AI公司和公众提供关于AI风险“全景图”,为研究、开发和治理AI系统提供了一个统一的参考框架。该数据库由三部分组成:AI风险数据库、AI风险因果分类法以及AI风险领域分类法,具体如下:
- AI风险数据库:记录了从43种现有框架中提取的700多种风险,并附有相关引用和页码。
- AI风险因果分类法:分类AI风险发生的方式、时间和原因。
- AI风险领域分类法:将风险分为七大领域和23个子领域,涵盖歧视与有害内容、隐私与安全、虚假信息、恶意行为者及误用、人机交互、社会经济与环境危害、AI系统安全与故障等。
Info-Tech研究集团首席研究总监Brian Jackson认为,AI风险数据库对负责AI治理的企业领导者来说极具价值。它不仅帮助企业识别新的AI风险,还可以作为制定具体治理策略的基础工具。此外,该数据库以Google Sheets的形式提供,便于各组织根据自己的需求进行定制。
AI风险数据库的功能和适用场景如下:
通用功能:
- 吸纳新成员进入AI风险领域。
- 为复杂项目奠定基础。
- 为开发更细化或特定的分类体系提供信息支持(例如,系统性风险或欧盟相关的虚假信息风险)。
- 利用分类体系进行优先级排序(如通过专家评分)、综合分析(如进行审查)或比较(如跨领域探讨公众关注点)。
- 识别被忽视的领域(如AI的福利和权利)。
适用人群和场景:
- 政策制定者:用于制定法规和共享标准的开发。
- 审计人员:开发AI系统的审计标准。
- 学术界:识别研究空白,开发教育和培训。
- 行业:内部评估和准备AI风险,制定相关战略、教育和培训。
尽管数据库还存在一些限制,例如依赖现有的43种分类法,可能遗漏新兴的特定领域风险,但MIT的研究人员表示,这项工作为未来的AI风险评估奠定了基础,促进了更协调和全面的风险管理方法。
面对AI技术的野蛮生长和潜在风险的快速累积,越来越多的企业和机构在部署AI应用时更加谨慎,并渴望提高严重滞后的AI风险治理能力。MIT发布的AI风险数据库为AI的健康发展提供了全方位的风险地图,标志着AI治理的新篇章已经开启。
Gartner副总裁分析师Bart Willemsen指出,这项研究是迈向更深入理解AI技术风险的重要一步。他期待未来的版本能够不仅列出AI风险,还能提供相关的缓解措施,为行业应用提供最佳实践指南。
专家警告:AI发展速度超预期,需要谨慎对待
OpenAI六年元老Miles Brundage近期发文,对当前AI发展速度表示担忧。他认为,从2021年出版的《人工智能简史》到今天短短三年时间,AI已经取得了远超预期的进展。例如,AI在理解故事、解释照片内容等方面的能力已经接近甚至超过人类水平。
Brundage指出,这种快速进步带来了前所未有的挑战。在物理、化学和编码等领域,AI已经开始超越专家表现。更令人担忧的是,AI系统正在向“思维链”(chain of thought,CoT)模式转变,即在给出答案前先进行思考。这种新模式正在推动AI向更高级的智能形态进化。
Brundage认为,AI发展的理想配速是一个极其复杂的问题。即使大家都有“不要杀死所有人”这样的基本道德共识,但在具体实施层面仍面临诸多难题。例如,如何确保AI系统的安全性?中国在AI领域是否会超越美国?AI的快速发展是否会阻碍我们应对气候变化等其他重大挑战?
基于这些考虑,Brundage建议为AI发展安装“刹车”。但这并不意味着完全停止AI技术的进步,而是需要通过详细的技术和政策选项来合理控制AI的发展速度。他认为,当前AI的进步明显快于社会能够有效理解和塑造的速度,这种差距可能会进一步扩大。
霍金的预言:机遇与挑战并存
著名物理学家斯蒂芬·霍金曾对AI的未来发展提出过一系列警示。他认为,AI的崛起可能是人类文明史上最伟大的事件,但也可能是最糟糕的事情。这种双刃剑效应在当前的AI发展中得到了充分体现。
霍金特别强调了AI失控的风险。他警告说,一旦AI系统开始自我改进,其发展速度可能会超出人类的控制。这种“智能爆炸”可能导致人类无法与AI竞争,最终被边缘化甚至取代。
然而,霍金也看到了AI的积极面。他认为,如果能够妥善管理,AI有潜力解决人类面临的许多重大问题,如疾病、贫困和环境问题。这种观点与当前学术界的主流看法相呼应,即AI的发展需要在风险防范和收益最大化之间找到平衡点。
未来方向:理性与勇气的结合
剑桥和牛津大学的联合研究,以及MIT发布的AI风险数据库,都表明学术界正在积极应对AI带来的挑战。这些努力不仅限于技术层面,更涉及伦理、法律和社会影响等多个维度。
未来,AI的发展将需要跨学科的合作和全球范围内的协调。正如霍金所言,这可能是人类历史上最重要的事情。我们需要以理性与勇气相结合的态度,迎接AI带来的机遇与挑战。
参考链接:
https://cdn.prod.website-files.com/669550d38372f33552d2516e/66bc918b580467717e194940_The%20AI%20Risk%20Repository_13_8_2024.pdf
AI风险数据库:
http://airisk.mit.edu/