当前位置: 首页 > 新闻中心 > 公司新闻 > 人人皆可换脸,眼见不再为真:人工智能安全如何保障?

人人皆可换脸,眼见不再为真:人工智能安全如何保障?

发布时间:2021-01-06  浏览次数:1009

12月23日在十三届全国政协第45次双周协商座谈会上,委员和专家们围绕“人工智能发展中的科技伦理与法律问题”进行协商议政,认为人工智能技术具有广泛渗透性和颠覆性,带来的科技伦理与法律问题更加复杂多元,可能引发潜在伦理和法律风险,需要引起高度重视。人工智能安全问题再度引发关注。


对于人工智能安全

你了解多少?

一起来看看~

↓↓↓

一、人工智能安全技术风险


人工智能算法,特别是深度神经网络的可解释性不佳,高维线性,大量依赖数据等固有特性,意味着人工智能系统存在一些不可避免的安全缺陷,容易受到特定攻击。也正因此,在一些真正重要的关键领域,比如自动驾驶、金融业务决策和医疗诊断等实际应用场景中,人工智能的进一步发展和应用还面临着很大的问题。


算法存在技术脆弱性


当前人工智能尚处于海量数据“喂养”阶段,以深度神经网络为代表的人工智能算法仍存在弱鲁棒性(脆弱、不安全、不稳定)、不可解释性(算法的黑盒特性,应用过程中对人工智能系统无法全面了解)、偏见歧视(国外的人工智能系统中存在的种族歧视、富人和穷人的偏见)等尚未克服的技术极限。

新型安全攻击不断涌现

 

近年来,对抗样本攻击(攻击者在人工智能模型的输入上增加人类难以通过感官辨识到的细微“干扰”,使模型接受并做出错误的分类决定)、算法后门攻击(向模型的训练数据安插后门,使其对特定信号敏感,并诱导其产生攻击者指定的错误行为)、模型窃取攻击、模型逆向攻击等破坏人工智能算法和数据机密性、完整性、可用性的新型安全攻击快速涌现。

算法设计实施与预期出现偏差


人工智能算法的设计和实施有可能无法实现设计者的预设目标,导致产生偏离预期的不可控行为。例如设计者为算法定义了错误的目标函数,导致算法在执行任务时对周围环境造成不良影响。


12444444.png


二、人工智能安全社会风险


随着各类人工智能应用场景开始持续落地,一旦出现数据、算法的泄露、滥用、误用等问题,将带来一系列未知的风险和隐患。

个人信息安全


人工智能技术加强了数据挖掘分析能力,收集个人信息已呈现出精准化、全面化、简便化、隐秘化趋势。随着人脸、指纹、声纹、虹膜、心跳、基因等具有很强个人属性信息被收集、分析和利用,加上应用场景增加,一旦泄露或者滥用将产生严重后果。例如就有不法分子在电商平台贩卖人脸信息,以5角钱一份的低价打包出售后,被盗的人脸信息被用于虚假注册、电信网络诈骗等违法犯罪活动。


社会安全


从围绕AI芯片、前沿算法、无人驾驶、智能机器人、AI+5G等产业发展,到涵盖AI+教育、AI+金融、AI+医疗、AI+工业、智能驾驶等场景应用,AI人工智能渗透到各领域,然而一旦出现“数据投毒”、算法有误以及对人工智能的滥用,例如深度伪造技术等,就可能会对伦理道德、社会经济等方面带来威胁。

 

例如在自动驾驶上,通过对一个实体停车标志经过精心设计的噪声扰动后,使目标检测系统无法准确识别标志,从而可能造成交通事故。


1610012464775535.png


再者深度伪造技术,如不法分子出于扰乱社会治安或敲诈勒索等目的,利用该技术制作高逼真度的杀人、绑架、爆炸等严重暴力犯罪的音频视频,将对社会稳定构成严重威胁。


国家安全


人工智能技术若被滥用,可能会为国内外分裂、恐怖势力提供新的工具,极有可能会用于抹黑国家领导人,煽动恐怖和暴力情绪,破坏国家政治稳定。


三、人工智能安全立法措施


规范立法,制定标准


人工智能的迅速发展也给当前的法律规则、社会秩序、道德标准和公共管理系统带来前所未有的挑战。因此需从国家层面进行立法、政策方面的完善,提前布局、审慎应对。


目前,我国出台的《新一代人工智能发展规划》、《促进新一代人工智能产业发展三年行动计划(2018—2020年)》、《儿童个人信息网络保护规定》、《民法典》、《数据安全法》(草案)、《个人信息保护法》(草案)等等都对人工智能产业的规范发展提出了要求,但还应聚焦人脸识别、语音合成、自动驾驶、服务机器人等领域,更细化、更有针对人工智能相关应用场景有计划、有步骤制定相关法律。
同时鼓励行业协会和中介组织制定人工智能产业标准、技术标准和行业规范,引导相关企业制定伦理规则,强化企业保护个人信息、隐私的责任。


技术应对,安全防御


维护AI安全,技术手段的重要性不言自明。首先应重视加强深度神经网络本身的健壮性,即充分利用知识蒸馏、对抗性训练等技术手段强化其抵御对抗样本的能力。其次应结合多种判别手段,推动发展对抗样本智能筛查、拦截技术,使攻击过程“无所遁形”。最后,可以使用攻击削弱策略,对所有待测样本进行防御性扰动,降低隐藏在其中的破坏能力。


伦理约束,AI向善


人工智能最大的弱点是缺乏直接的感受能力,在价值判断上存在弱点。国家有关部门、行业组织应当制定人工智能伦理原则和框架并落实到人工智能研发应用中,强化科研人员科技伦理与法律培训,引导全社会正确认识和应用人工智能,确保人工智能健康发展的方向以造福于人类为宗旨。
同时加强国际交流与对话,积极参与制定全球人工智能伦理规则。


为保障人工智能产业的健康有序发展,国家和省市地方政府有关部门高度重视人工智能安全问题。目前,相关部委已联合国内在人工智能产业细分领域的“领头羊”企业共同打造成立人工智能实验室联合体,美亚柏科参与其中。


2020年12月23日,2020中国人工智能高峰论坛暨中国人工智能大赛成果发布会在厦门圆满落下帷幕。美亚柏科作为主要协办单位之一,为本次大赛提供全程全方位的支持。在厦门市政府的指导和推动下,医渡云、安恒信息、厦门瑞为、优刻得、柏科汇银等人工智能头部企业联合成立厦门人工智能安全研究院,用于全方位开展人工智能安全领域研究,这也是自2019年中国人工智能大赛永久落户厦门以来厦门市在人工智能领域的重要举措。


1610012593883240.png


作为网络空间安全及社会治理领域国家队,美亚柏科自2017年就开始人工智能技术的研究,在图片识别、文本语义分析、智能机器人研发等技术领域均取得突出成果,并应用到电子数据取证、会晤安保、金融风险防控等多个领域。在抗击新冠肺炎疫情期间,更是充分发挥人工智能技术优势,助力执法部门精准防控,开展复工复产工作(【学习强国】厦门:人工智能产业初具规模,细分领域涌现一批“领头羊”企业)。


在人工智能安全领域,美亚柏科特别针对深度伪造技术成立研究团队。深度伪造技术利用深度神经网络极强的学习能力,使用图像识别、语音合成、文本生成等技术,伪造篡改甚至生成虚假的人脸视频图像,伪造模拟声音,制作虚假新闻等,仿真程度逼真,真假难辨,为国家间的政治抹黑、经济犯罪甚至恐怖主义行动等提供了新工具。美亚柏科反深伪团队通过对深伪技术的分析研究,运用多项深伪检验鉴定算法,研发推出多媒体深伪检测平台和视频图像检验鉴定装备,目前已取得初步成果。


人工智能作为引领新一轮科技革命和产业变革的重要驱动力,已经成为赋能实体经济、助推高质量发展的新动能,“人工智能+”成为经济增长的新引擎。然而,在对社会经济发展、人们的生产生活产生重大影响的同时,其带来的国家安全、社会伦理、网络安全、人身安全和隐私保护等多个层面的风险和挑战却不容忽视。


未来,美亚柏科将持续钻研,以互联网、大数据为依托,进行人工智能技术的研发与拓展,不断完善与升级出更安全、可信、可靠的人工智能技术,扎牢人工智能安全的篱笆,迎接新挑战,为人工智能技术的发展作贡献,用技术造福社会。


如您对美亚柏科人工智能安全产品感兴趣

欢迎联系当地销售或致电咨询400-888-6688

了解详情~