谷歌删除AI武器禁令,科技巨头全面拥抱国防市场
谷歌删除AI武器禁令,科技巨头全面拥抱国防市场
谷歌近日悄然更新了其人工智能(AI)原则,删除了关于禁止将AI技术用于武器和监控应用的承诺。这一变化引发了广泛关注和讨论,被认为是科技巨头全面拥抱国防市场的重大转向。
政策转变:删除关键承诺
根据彭博社的报道,谷歌在其官方网站上删除了此前承诺不开发用于武器或监控的人工智能相关内容。具体来说,被删除的条款包括“可能造成整体伤害的技术”、“主要目的或实施是造成伤害的武器或其他技术”,以及“违反国际公认准则收集或使用监控信息的技术”等。
这一变化最早由彭博社发现,谷歌随后通过一篇关于“负责任人工智能”的博客文章对此进行了解释。文章指出:“我们相信,秉持这些价值观的公司、政府和组织应该携手合作,共同开发能够保护人类、促进全球增长并支持国家安全的人工智能。”
行业趋势:科技巨头纷纷转向
谷歌的这一转变并非孤立事件,而是反映了整个科技行业对军事AI态度的根本性转变。近期,多家AI公司都在调整其军事合作政策:
Meta修改了原本禁止将其技术用于“军事和战争”的服务条款,并开放其开源Llama AI技术供美国政府机构和国家安全承包商使用。
Anthropic与防务承包商Palantir达成合作,承诺为美国情报和国防机构提供AI模型的访问权限。
OpenAI与国防承包商Anduril Industries合作,向美国军方推销其产品,这与其此前禁止将模型用于“武器开发”的政策形成鲜明对比。
内部反应:员工强烈抗议
这一政策转变在谷歌内部引发了强烈反响。2024年5月,近200名谷歌DeepMind员工(约占该部门员工总数的5%)联名致信公司领导层,要求终止与军事组织的合作。信中特别提到了有关谷歌技术可能被用于加沙地带军事行动的担忧。
这种内部抗议并非首次发生。早在2018年,谷歌就因参与美国国防部的Project Maven项目而遭到大规模员工抗议。该项目旨在利用AI技术分析无人机拍摄的视频,以识别潜在目标。当时超过4000名谷歌员工签署请愿书,要求公司永远不再参与军事项目。
伦理与安全:引发担忧
这一转变引发了对AI军事应用可能带来的伦理和安全问题的担忧。谷歌前道德AI团队联合负责人Margaret Mitchell表示:“删除这些条款不仅抹杀了谷歌道德AI领域和活动人士的努力,更令人担忧的是,这意味着谷歌现在可能会直接开发可能致人死亡的技术。”
生命未来研究所(Future of Life Institute)提出了一项合理的政策建议,这个智库得到过埃隆•马斯克的资助,目前由麻省理工学院物理学家马克斯·泰格马克(Max Tegmark)领导。该研究所呼吁建立一个分级管理系统,让各国当局像对待核设施一样对待军事人工智能系统,要求提供明确无误的证据来证明系统的安全系数。
未来展望:平衡利益与伦理
这一趋势背后有着深层次的原因。首先是地缘政治局势的持续紧张推高了国防预算,美国国防部在过去两年已投入近10亿美元用于AI项目。其次,AI公司面临着持续的研发投入压力,军方提供的稳定收入对它们具有显著吸引力。
然而,如何在推动技术创新的同时确保其负责任的使用,平衡商业利益、国家安全和伦理考量,将是整个行业需要持续面对的挑战。在巴黎召开会议的各国政府还应考虑建立一个国际机构来执行这些安全标准,类似于国际原子能机构对核技术的监督。他们应该能够对违反这些标准的企业(和国家)实施制裁。