据知情人士透露,谷歌与美国国防部达成一项协议 ,允许五角大楼在机密工作中使用谷歌的人工智能模型 。
该知情人士称,这份协议准许美国国防部将谷歌人工智能技术用于任何合法的政府用途,这一表述与其他人工智能企业同五角大楼合作争议条款措辞一致。
就在该协议签署之际,逾 600 名谷歌员工于周一致信谷歌首席执行官桑达尔?皮查伊 ,要求其拒绝签署这份协议。员工们主张,拒绝承接机密项目,是杜绝谷歌人工智能技术遭到滥用的唯一途径 。
此次签约 ,与谷歌八年前的立场形成鲜明反差。当年,因数千名员工联名抗议,谷歌退出了美国国防部的 “Maven 项目 ” 合同 ,该项目旨在将人工智能应用于无人机瞄准领域。谷歌早在去年 11 月就已签订一份协议,准许五角大楼在非机密业务场景中使用其人工智能技术 。
负责美国政府业务的谷歌公共部门发言人表示,这份新协议是对现有合同的补充修订。
该发言人在声明中称:“众多顶尖人工智能实验室 、科技及云服务商共同组建行业联盟 ,为国家安全提供人工智能服务与技术基础设施支持,我们很荣幸成为其中一员。我们始终遵循政企共识:在缺乏有效人工监管的前提下,人工智能不得用于国内大规模监控及自主武器研发。”
现如今 ,谷歌已与埃隆?马斯克旗下的 xAI、OpenAI一样,同五角大楼达成合作,获准在机密系统中落地人工智能技术 。相较于 OpenAI 今年 2 月敲定的合作条款,谷歌这份协议给予了五角大楼更大的操作权限。
OpenAI 的合作协议 ,是在其竞品公司安索皮克与国防部官员产生分歧后达成的,协议允许五角大楼将其人工智能技术用于所有合法用途。但 OpenAI 在官宣合作的博客文章中同时指出,公司将对自身安全防护体系保留完全自主决策权 。
据知情人士透露 ,谷歌的这份协议规定,公司需应美国政府要求,协助调整旗下人工智能的安全设置与内容过滤机制。谷歌公共部门发言人回应称 ,现有过滤机制主要面向普通消费者设计,谷歌日常也会为企业客户定制修改相关过滤规则。
OpenAI 在其官方博客文章中还表示,禁止将其人工智能技术用于国内大规模监控、操控致命自主武器系统 ,以及社会信用体系等高风险自动化决策场景 。但律师指出,即便写入 “所有合法用途” 条款,也未必能真正杜绝上述违规应用。
据知情人士透露 ,谷歌与五角大楼的协议中写明:“双方一致认定,若无完善的人工监督与管控,该人工智能系统不得 、也不应被用于国内大规模监控或自主武器(含目标锁定)相关用途。”
然而合同同时补充:“本协议不赋予谷歌干预或否决美国政府合法作战决策的任何权利 。 ”
独立智库法律与人工智能研究所高级研究员、律师查理?布洛克认为,协议中 “不得、也不应被用于” 这类表述不具备任何法律约束力。他解释 ,该措辞仅代表双方不认可此类使用行为,却无法将其界定为合同违约。
纽约大学布伦南司法中心高级法律顾问阿莫斯?托长期研究人工智能与国家安全议题 。他表示,协议里 “适当的人工监督与管控” ,并不强制要求在目标识别到武器发射的全过程中都有人工介入。他还提到,五角大楼并未排除部署完全自主化武器系统的可能性。
托指出,所谓武力使用的合理人工审查 ,仅需在武器系统整体部署规则层面保留一定的人工参与和决策环节即可。
发表评论
暂时没有评论,来抢沙发吧~