“随着人工智能和大数据技术的应用落地,特别是在自动驾驶、人脸识别、医疗诊断等安全敏感型的场景应用越来越多,AI和数据安全问题也受到广泛关注。”近日,360人工智能研究院院长邓亚峰受邀参加首届清华大学人工智能合作与治理国际论坛,并就“数据与人工智能安全”议题发表演讲。
邓亚峰指出,由于人工智能是快速出现的新应用,AI应用生产和部署的各个环节均暴露出一系列安全风险。比如在人工智能框架方面,深度学习框架及依赖组件可能带有漏洞,存在容易被忽视的安全隐患;在人工智能应用方面,存在模型文件窃取、数据流降维攻击等安全风险;在人工智能算法方面,由于神经网络模型的黑盒属性(不可解释性),容易导致一系列以模型误判为目标的恶意攻击。
这就容易造成严重的数据泄露和安全风险。“我们在实践中发现了大量以隐私窃取为目标的攻击,如模型反转攻击、模型萃取攻击、成员推断攻击等。”邓亚峰表示。
他认为,虽然从技术角度看,人工智能体很长一段时间都无法拥有真正的自我意识,但是,一些坏人会对人工智能加以利用,伪装为坏的AI对人类安全造成威胁。因此,保护人工智能和数据安全刻不容缓。
邓亚峰表示,首先,需要相关国家和组织联合起来,针对隐私保护和人工智能伦理问题等新情况,制定更加明晰有效的法律法规,保证在应用人工智能为人类造福的同时,也要保护好数据隐私,避免相关社会伦理问题的困扰;
其次,需要构建统一的人工智能硬件、软件、算法的安全评估标准和准则,并开发相关系统,用于检测和确定人工智能相关系统的整体安全,特别是开源框架和软件方面,更需要统一行动;
再次,需要用更加开放协同的方式进行科学研究和技术交流,推动人工智能技术快速并安全的落地。
作为网络安全头部公司,360也一直致力于构建以安全大脑为核心的新一代安全能力框架体系,整体提升在数字化时代应对安全挑战的能力。据了解,去年8月,360安全大脑入选了国家新一代人工智能开放创新平台,是网络安全领域惟一一家入选公司,这标志着360成为人工智能安全领域领军企业,以及推动网络安全行业发展的领导力量。