我国首次就规范AI军事应用向联合国提出倡议 | 附倡议全文


    12月13日,联合国《特定常规武器公约》第六次审议大会在日内瓦开幕。中国裁军大使李松率团出席,并提交了中国《关于规范人工智能军事应用的立场文件》,呼吁各国通过对话与合作,就如何规范人工智能军事应用寻求共识,构建普遍参与的有效国际治理机制,避免人工智能军事应用给人类带来重大损害。
    中国提交的《立场文件》表明,中国反对用AI武器发动战争。李松表示:“各国在发展人工智能武器系统方面应保持克制,人工智能的军事应用不应成为发动战争和谋求霸权的工具,反对利用人工智能技术谋求绝对军事优势,损害他国主权和领土安全。”
    
    此外,中方呼吁,AI武器应该永远处于人类的控制之下,李松表示:“要不断提升人工智能技术的安全性、可靠性、可控性,增强人工智能安全评估和管控能力,确保人工智能武器永远处于人类控制之下。要对人工智能军事应用加强监管,降低扩散风险。”
    【美国拒签AI杀手机器人的禁用协议】
    据了解,联合国自2017年以来一直在日内瓦举行外交对话,旨在就解决AI杀手机器人的使用问题达成协议。但迄今为止,各国甚至就是否需要对此类武器进行管控也尚未达成一致意见。
    
    许多国家提议尽快签订法定协议,限制杀手机器人这类武器的使用,包括智利、墨西哥、巴西、阿根廷、菲律宾、巴勒斯坦等,新西兰在11月30日亦表示将会推动相关禁令。
    12月2日,本次联合国《特定常规武器公约》第六次审议大会前的讨论会上,美国拒绝签订禁用AI杀手机器人的法定协议。
    美国代表乔希·多罗辛(Josh Dorosin)在会上说:“我们认为,取得进展的最佳方式是起草一份没有法律约束力的行为准则。”多罗辛认为,行为准则就能够督促国家负责并遵守国际法。此外,印度也拒绝签订该项协议。
    以美国和印度为代表的反对立法国认为,就算他们不研发杀手机器人,其他国家也会。
    麻省理工学院物理学终身教授、未来生命研究所创始人Max Tegmark教授认为这样的说法不成立,他认为,联合国以往通过立法禁用生化武器,已经成功地限制了生化武器的广泛使用,而杀手机器人跟生化武器一样,便宜且致命!
    【人民网发文:莫让人工智能技术走入歧途】
    12月3日,美国拒绝签订禁用AI杀手机器人的法定协议后,我国人民网随即发表题为《莫让人工智能技术走入歧途》的文章。
    文章表示:“从实际情况看,美国、俄罗斯、日本、英国、印度等主要国家均认识到人工智能军事应用的颠覆性力量,积极发展和部署智能化武器系统。一些中小国家为借助智能武器系统获得挑战大国的非对称优势,也对其趋之若鹜。从他们的所作所为来看,都是为了谋求一己私利,企图利用人工智能技术巩固自身军事优势。”
    【中国首次就规范AI军事应用提出倡议】
    12月13日,本次联合国《特定常规武器公约》第六次审议大会上,中国提交的《关于规范人工智能军事应用的立场文件》,是中国首次就规范人工智能军事应用问题提出倡议。
    以下是文件全文:
    《中国关于规范人工智能军事应用的立场文件》
    人工智能技术的快速发展及其广泛应用,正深刻改变人类生产和生活方式,给世界带来巨大机遇的同时,也带来难以预知的安全挑战。特别值得关注的是,人工智能技术的军事应用,在战略安全、治理规则、道德伦理等方面可能产生深远影响和潜在风险。
    人工智能安全治理是人类面临的共同课题。随着人工智能技术在各领域的广泛应用,各方普遍对人工智能军事应用乃至武器化风险感到担忧。
    在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的全球安全观,通过对话与合作,就如何规范人工智能军事应用寻求共识,构建有效的治理机制,避免人工智能军事应用给人类带来重大损害甚至灾难。
    加强对人工智能军事应用的规范,预防和管控可能引发的风险,有利于增进国家间互信、维护全球战略稳定、防止军备竞赛、缓解人道主义关切,有助于打造包容性和建设性的安全伙伴关系,在人工智能领域践行构建人类命运共同体理念。
    我们欢迎各国政府、国际组织、技术企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能安全治理。
    为此,我们呼吁:
    ——战略安全上,各国尤其是大国应本着慎重负责的态度在军事领域研发和使用人工智能技术,不谋求绝对军事优势,防止加剧战略误判、破坏战略互信、引发冲突升级、损害全球战略平衡与稳定。
    ——军事政策上,各国在发展先进武器装备、提高正当国防能力的同时,应铭记人工智能的军事应用不应成为发动战争和追求霸权的工具,反对利用人工智能技术优势危害他国主权和领土安全的行为。
    ——法律伦理上,各国研发、部署和使用相关武器系统应遵循人类共同价值观,坚持以人为本,秉持“智能向善”的原则,遵守国家或地区伦理道德准则。各国应确保新武器及其作战手段符合国际人道主义法和其他适用的国际法,努力减少附带伤亡、降低人员财产损失,避免相关武器系统的误用恶用,以及由此引发的滥杀滥伤。
    ——技术安全上,各国应不断提升人工智能技术的安全性、可靠性和可控性,增强对人工智能技术的安全评估和管控能力,确保有关武器系统永远处于人类控制之下,保障人类可随时中止其运行。人工智能数据的安全必须得到保证,应限制人工智能数据的军事化使用。
    ——研发操作上,各国应加强对人工智能研发活动的自我约束,在综合考虑作战环境和武器特点的基础上,在武器全生命周期实施必要的人机交互。各国应始终坚持人类是最终责任主体,建立人工智能问责机制,对操作人员进行必要的培训。
    ——风险管控上,各国应加强对人工智能军事应用的监管,特别是实施分级、分类管理,避免使用可能产生严重消极后果的不成熟技术。各国应加强对人工智能潜在风险的研判,包括采取必要措施,降低人工智能军事应用的扩散风险。
    ——规则制定上,各国应坚持多边主义、开放包容的原则。为跟踪技术发展趋势,防范潜在安全风险,各国应开展政策对话,加强与国际组织、科技企业、技术社群、民间机构等各主体交流,增进理解与协作,致力于共同规范人工智能军事应用并建立普遍参与的国际机制,推动形成具有广泛共识的人工智能治理框架和标准规范。
    ——国际合作上,发达国家应帮助发展中国家提升治理水平,考虑到人工智能技术的军民两用性质,在加强监管和治理的同时,避免采取以意识形态划线、泛化国家安全概念的做法,消除人为制造的科技壁垒,确保各国充分享有技术发展与和平利用的权利。