今年以来,以chatgpt为代表的人工智能大模型渗透到各行各业,引发了新一轮人工智能革命。但同时也带来包括技术内在风险引发安全隐患、人机关系变化深化科学伦理失范、技术跃进引发人类社会发展等挑战。
今日,国家安全部发文《如何化解人工智能带来的国家安全挑战》。
文章罗列了数据窃取、网络攻击、经济安全、“数据投毒”以及军事安全等人工智能可能带来的国家安全领域的风险,强调完善法律法规、加强前瞻布局、坚决打击犯罪并推动全球治理等举措。
其中,在数据窃取方面,人工智能需要海量的数据来进行学习和训练,这些数据中可能包含用户大量敏感信息。如果这些信息被滥用或泄露,可能会对个人隐私、国家安全造成严重危害。
因此,在法律法规方面,应聚焦人工智能重点领域安全应用、伦理道德约束等方面,制定更多更明确的法规政策、行业规范,保障人工智能研发和应用中的个人隐私与数据安全,确保人工智能安全、可靠、可控。
此前,我国颁布的《生成式人工智能服务管理暂行办法》在算法、内容、应用、数据安全等方面对生成式人工智能进行了全面的规制。依据此文件,数据提供者、算法/模型开发者以及服务提供者可以采取多种方式共同构建可信赖的人工智能。
在网络攻击方面,在人工智能的协助下,网络攻击者可以随时随地对特定目标轻易发起针对性和隐蔽性很强的进攻,将互联网空间变成人人自危的“黑暗森林”。
因而,必须支持以人工智能技术防范人工智能风险,积极发展用于人工智能治理的相关技术开发与应用,贯彻敏捷治理和多维治理原则,积极构建多方参与的人工智能治理体系,推动各国在人工智能治理中加强信息交流和技术合作,共同做好风险防范。
中国在11月1日参加了英国的首届全球人工智能安全峰会,与多方谈论关于人工智能技术快速发展带来的风险与机遇。会上,28国签署《布莱切利宣言》,旨在管理新兴人工智能工具带来的重大安全风险。
中国科技部副部长吴朝晖在开幕礼上发言表示,中方愿与各方加强在人工智能安全领域的对话与沟通,为建立全球参与、需广泛共识的治理框架作出贡献。
此外,为了实现人工智能的远大前景并避免风险,10月30日,美国总统拜登也发布人工智能行政令,重点关注安全、隐私、保护工人和保护创新等领域。
虽说国内人工智能“大模型”已具备一定基础,但与chatgpt还存在一定差距,其背后面临数据、算力和创新环境等深层次制约。需从战略高度重视chatgpt引发的新一轮人工智能革命,瞄准大模型、整合大数据、布局大算力,实施包容审慎监管,为新事物发展留足空间,加快抢占未来科技竞争制高点。