视觉中国
人工智能(ai)的进化速度远远超出了预期。人们越来越担心,一旦失控,这项技术可能会给人类带来灾难性风险。同时,各国也在争相摸索,希望在规范发展的同时不损害其创新。
英国政府率先开展了一轮“闪电式外交”。据英国《》6月3日报道,该国政府正考虑仿照国际原子能机构(iaea),在伦敦设立一个国际ai监管机构。首相苏纳克希望借此将英国打造为全球ai中心,承诺将在制定“安全可靠”的规则方面发挥“领导作用”。
6月7日-8日,苏纳克将带领政商表团访美。届时他将寻求美国总统拜登的支持,于今年秋季在伦敦召开峰会,与各国政府和跨国公司高层讨论制定ai的国际规则,以及建立类似iaea的全球机构。成立于1957年的iaea现有176个签署国,总部设在奥地利首都维也纳,致力于推广以和平方式使用核能。
另据《》透露,英国科学、创新和技术大臣史密斯(chloe smith)将于6月6日在巴黎举行的经合组织技术论坛上与外国同行就相关ai议题进行会谈。该活动由英国政府资助,受邀国家包括美国、日本、韩国、以色列、澳大利亚、新西兰、巴西、智利、挪威、土耳其、乌克兰、塞内加尔。
据《经济学人》进行的联合调查,过去6年,专家们就ai对人类影响的预期趋于负面。英国政府消息人士告诉《》,希望在帮助协各国家不同的监管努力方面发挥作用,与早前欧盟选择禁止部分个人ai产品(如面部识别软件)的立场相比,建立于基本原则之上的途径更有可能获得广泛支持。
2021年,欧盟就监管ai应用公布严格法规,包括限制警方在公共场合使用人脸识别软件。今年3月,专注于ai的非营利组织future of life institute发布了由超过1000名技术专家和研究人员签署的公开信,呼吁暂停六个月的大型ai模型的开发,只有当确保强大的ai系统的效果是积极的、风险是可控的,才能继续开发。
中国也不落后。早在4月11日,国家互联网信息办公室就《生成式ai服务管理办法》公开征求意见,从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任几个方面为行业划定底线。
2023年5月,欧盟推出了《人工智能法》提案,要求开发chatgpt等生成式ai的公司,披露用于训练其模型的任何凯发app的版权材料。5月24日,美国白宫科技政策办公室发布了面向公众的,为正在制定中的综合性国家监管战略提供依据和参考。
5月30日,跨国非营利组织“人工智能安全中心”发布——减轻ai灭绝人类的风险,应该与其他社会规模的风险(例如流行病和核战争)共同成为全球优先议题。这封公开信最初由350多名在各国从事ai工作的高管、研究人员和工程师共同签署。
紧接着在第二天,苏纳克就与openai、谷歌deepmind和anthropic等公司的负责人进行了会谈,表示将携手确保社会从ai技术中受益,并讨论了ai带来的风险,涉及虚假信息、国家安全和生存威胁等。
在谈到上述专家的公开信时,苏纳克说到,人们会对ai构成类似流行病或核战争等生存风险的报道感到担忧,“我希望他们放心,(英国)政府正在非常仔细地研究这一课题。”
作为老牌发达国家的首都,具有政治稳定、法制完善、人才储备丰富、学术语言主导等优势。尤其是在行业集聚效应上,伦敦市政府自从2011年起便开始大力推进东伦敦科技城(tech city)项目,是众多高科技巨头设立欧洲,甚至全球业务总部的首选,包括tiktok、snapchat、meta、谷歌、亚马逊。
一名高官在接受《泰晤士报》采访时就表现出十足的自信,称英国是“真正的科技超级大国,应该展现出全球领导力,并建立一个植根于共同价值观的同盟,以及确保国际资金支持这项工作。”