推动人工智能安全可靠可控发展是一项系统工程,需要从法律法规、技术创新、伦理准则等多个方面入手,具体措施如下:完善法律法规体系:加快人工智能立法进程,推动相关立法工作列入国家立法规划,制定具有前瞻性的专门法律法规,为技术研发、应用和管理提供法律依据。聚焦重点领域制定法规政策和行业规范,强化对人工智能技术滥用的法律约束,逐步完善法律体系。建立风险评估与分类分级监管机制:建立健全包括技术风险、数据安全风险、伦理风险等在内的风险评估体系,对人工智能系统的潜在风险进行全面、动态评估。根据人工智能应用的领域、风险等级等,划分不同监管级别,实施差异化监管措施,如对具有舆论属性或者社会动员能力的生成式人工智能服务开展安全评估。加强技术创新:研发具有高稳定性和抗干扰能力的算法模型,提高人工智能系统的抗攻击能力和可靠性。推进可解释人工智能技术,让系统的决策过程清晰可见,便于用户理解和验证。构建测试验证和持续监测体系,实现对系统风险的实时预警和动态防护。健全伦理审查机制:坚持“以人为本、智能向善”的原则,加强对人工智能发展的安全伦理风险研判,对可能产生的负面影响开展预见性风险评估,提前做好风险预案。引导企业、科研机构等承担社会责任,规范数据采集和使用,防止数据滥用和虚假信息蔓延。强化数据治理:针对重点行业的重要数据、核心数据,按照“境内存储+安全评估”的方式进行管理。构建跨模态数据安全与隐私保护体系,依托区块链技术实现全链路数据存证,通过可信执行环境技术,实现“原始数据不出域,数据可用不可见”。同时,建立健全大数据审计工作机制,定期审查数据的收集、存储、使用和共享情况。完善协同治理机制:明确监管主体,成立专门监管机构,统筹协调人工智能安全监管工作。建立健全跨部门协同监管机制,加强政府内部各部门的协同合作,形成监管合力。建立社会多元共治机制,鼓励行业协会、社会组织、企业等参与人工智能安全治理。开展国际合作交流:积极参与全球人工智能治理框架与标准规范的建立,通过签署国际公约、参与国际组织活动等方式,提升我国在国际人工智能治理中的话语权和影响力。与其他国家和地区开展跨国监管合作,共同应对人工智能带来的跨境安全挑战。
|
|