凭借在知产保护领域的成功实践,刚拿到国家三部委颁发的“创新之星”大奖,阿里安全AI又现身国际顶会。近日,全球人工智能领域最权威的学术会议IJCAI(国际人工智能联合会议,International Joint Conference on Artificial Intelligence)在澳门召开,阿里安全图灵实验室邀约南洋理工大学、清华大学、中科大等国内外专家共议安全AI话题,接收哈佛等全球高校、研究机构的几十余篇相关论文,呼吁各界关注AI自身的安全性问题。
IJCAI自1969年开始举办,至今已有50年。作为国际人工智能领域顶尖的学术会议,吸引了来自全球各大互联网公司、研究机构、高校等顶尖人工智能专家参会。“大会已经从学术走向社会议题,深度探讨不容忽视的问题,比如数据保护、用户隐私等。”IJCAI 理事会主席杨强表示。
阿里安全与IJCAI联合举办的全球人工智能对抗算法竞赛也契合大会的“社会议题”方向。这次大赛于8月9日在澳门正式落幕,吸引了全球24 个国家和地区的2518 支队伍、2985 名选手参赛,覆盖学界和业界,首次直接使用电商商品图像作为识别对象。
据MarkersandMarkets的最新报告预测,全球人工智能市场的规模将从2018年的214.6亿美元增长至2025年的1906.1亿美元,年复合增长率达36.63%。其中,中美两国人工智能企业增长迅速,交替成为全球在技术投入、新增企业数量上最多的国家,并在无人机、无人车、智能语音、智能家居、互联网风控等领域持续深入应用,安全问题随之而来。
“比如,去年3月Uber无人测试车发生首起致人死亡事件,特斯拉也在全网撤销无人驾驶宣传字样。”中国科学技术大学网络空间安全学院教授张卫明在8月10日的IJCAI研讨会上表示,数据驱动的AI模型需要考虑数据不被投毒、污染,保证模型的安全和有效性,才能让AI更好地落地,“阿里通过比赛推动学界、业界对AI安全的关注,我认为,安全AI在很长时间会成为行业发展的方向。”
阿里安全图灵实验室负责人薛晖此前在接受采访时曾断言,安全会成为人工智能发展最大的挑战,而阿里提出的安全AI在模型韧性、多模态、小样本学习等方面具有更强的攻防属性以及进化能力,会成为网络安全问题的核心解法。在IJCAI现场,这一观点也成为多位高校学者、研究人员和企业代表的共识。
南洋理工大学副校长蓝钦扬在研讨会现场表示,阿里提出安全AI的概念具有前瞻性,未来将通过博士和博士后等合作计划,与阿里一起培养更多顶尖的安全AI人才。此外,来自浙江大学、清华大学、中科院大学等多名学者则分别从AI的对抗性研究路线图、对抗样本攻击原理等方面去论证AI自身安全性存在的各类问题。
“过去五年,我一直在研究从启发式防御失败到更强的自适应对抗性攻击,再到模型的可解释性、可靠性的工作,”浙江大学教授、网络空间安全研究中心主任任奎表示,学术界和工业界需进一步努力,以促进更安全和更强大的深度学习算法的发展。
阿里安全图灵实验室高级算法专家华棠表示,此次研讨会也吸引了哈佛大学、西交利物浦大学、香港中文大学等全球学者的投稿和分享,内容包括游戏模拟攻击者窃取企业敏感信息、移动支付非法账户识别等各类问题,“从学界到业界,都在为AI安全性寻找解决方案。”
为了抵御未来 AI 面临的安全风险,近日,阿里安全还宣布联合清华大学,以对抗样本为核心发起安全AI挑战者计划。通过结合内容安全等场景,阿里安全从文字、图像、视频、声音等多个领域针对对抗样本赏金召集“挑战者”,打磨安全的机器学习模型,共同建立挑战者的小社区。
呼吁产生共识,共识推动进步。据了解,此次IJCAI大会现场,AI安全也成为备受关注的议题,来自谷歌、腾讯、微众银行等企业的从业者均从不同视角进行了相关探讨,共同推动人工智能产业的安全性提升。