在13日的北京人工智能产业创新发展大会上,国家工业信息安全发展研究中心联合北京市门头沟区政府、中关村发展集团、华为公司,共同发起“人工智能安全可信护航计划”,旨在联合有关单位共同探索人工智能安全可信管理解决方案。
中国联通、奇安信、绿盟科技、山石网科、麒麟软件、格灵深瞳、软通动力等31家首批伙伴加入,未来将参与理论研究、标准制定、评估评测等相关工作。
该计划将面向不同行业和地区,设立“生态发展中心”,其中北京昇腾人工智能生态创新中心成为首个中心,重点面向北京市开展人工智能安全可信管理实践试点和推广应用工作。
什么是“安全可信”?
根据公开论文定义,安全可信指的是网络设备所具备的安全性能。即在设备工作的同时,内含的安全部件进行动态并行实时全方位安全检验,确保计算过程及资源不被破坏和篡改,正确完成计算任务。
这是“双面”人工智能的另一个切面——AI带来技术便利性的同时,风险也相伴而生。
以ChatGPT为例,这一聊天机器“黑马”一路狂飙爆火之后,其安全可靠问题备受关注,美国国会议员也正考虑是否应该对其加强监管,套上“缰绳”。
美国众议院科学委员会民主党籍众议员Ted Lieu日前试着用ChatGPT起草了一项决议,内容为国会应该关注人工智能,以确保人工智能的开发和部署符合安全和道德等原则,在尊重所有美国人的权利和隐私的同时,其收益能够广泛分配。
同样,积极为其“带货”的微软和亚马逊允许员工使用ChatGPT,但也禁止员工向ChatGPT分享敏感数据,以防后者的输出包含或出现类似公司机密信息——这是AI安全问题的一类,即获取数据方面的问题。
“数据投毒”则是这一方面问题的另一个案例。AI算法对数据具有较强依赖性,而“投毒”指在人工AI智能训练数据中加入伪装数据、恶意样本等,导致训练的算法模型决策出现偏差。由微软推出的另一聊天机器人Tay曾在这一问题上“翻车”。彼时,Tay发出歧视性和攻击性言论而被关闭,主要原因便是对话数据集中被恶意增加不当数据。
另一类,则是恶意应用导致的问题。近年来,通过深度合成和生成式AI技术制造虚假音视频图像进行诬陷、诽谤、诈骗、勒索等违法行为已屡见不鲜。
▌AI安全可信成为全球共识 海内外政策多点开花
随着AI技术迭代与应用规模扩大,发展安全可信的人工智能正在成为全球共识。
G20已提出“G20 人工智能原则”,强调要以人为本、发展可信人工智能;欧盟和美国也都将增强用户信任、发展可信人工智能放在其人工智能伦理和治理的核心位置。
同时,我国网信办等三部门已出台《互联网信息服务深度合成管理规定》,其中针对深度合成技术服务提出的要求和管理措施,诸如禁止性要求、标识要求、安全评估等,亦适用于AIGC。
此前,国家工业信息安全发展研究中心已联合华为等,发布《人工智能算力基础设施安全发展白皮书》指出,人工智能算力基础设施不同于传统的算力基础设施,既是“基础设施”又是“人工智能算力”也是“公共设施”,具有基建属性、技术属性、公共属性三重属性。
至于如何推进AI安全可信?
北京航空航天大学刘祥龙教授表示,从技术上来看应形成从安全性测试到安全性分析与安全性加固的完整技术手段,最终形成标准化的测试流程。未来的人工智能安全应该围绕从数据、算法到系统各个层次上的全面评测,同时配合一套整体的从硬件到软件的安全可信计算环境。
落实到具体标的上,除去本文开头提到的公司之外,民生证券还建议关注底层数据及算法安全厂商,包括电科网安、吉大正元、中新赛克、浩瀚深度、美亚柏科等。
(文章来源:科创板日报)