发布网友 发布时间:2022-04-19 09:47
共1个回答
热心网友 时间:2023-10-23 23:24
随着人工智能的高速发展,这不仅为企业带来了一定的好处,同时还存在一些安全风向,为了能够深入了解人工智能,需要明白人工智能技术的安全风险包括哪些类型?该如何应对这些风险?
人工智能的发展同样带来了不同的安全风险,主要包含六个类型:
第一,技术不太成熟。现有的训练场景不够充足,自动驾驶车辆事故发生的原因很大程度源于此问题,原有的场景中缺少相关的训练。
第二,不确定性环境。例如,达芬奇机器人通过探头了解病人内部器官的症状,但如果开刀过程中病人出血了,污染了摄像头,结果会导致环境信息的不准确,而在这种不确定环境中人工智能尚未有很好的处理办法。
第三,偏见性。算法不是公平的,算法的设计应当处于公平的目的,但实际上算法并不公平,例如,国外的人工智能系统中存在的种族歧视、富人和穷人的偏见。为此,在机器模型设计中应当加强公平性。
第四,漏洞缺陷。在波音客机坠毁事故中, 其设计部门在波音,但是软件公司并不在波音, 而是企业承包以后由几个大学生设计重要的软件,软件难免存在漏洞缺陷。漏洞缺陷比想象的大得多,结果导致了悲剧的发生,而最终花费了很长时间才知道BUG的所在。
第五,隐私数据泄漏。例如,个人身份信息很容易被盗取,他人利用其注册公司。再比如, 利用盗取的个人信息进行诈骗,往往会造成不同程度的经济损失。
第六,*影响。例如AI换脸,利用人工智能对领导人进行AI换脸,将会产生严重的*影响。
从人工智能本身来看,存在三方面的安全缺陷,分别是物理层、算法层、应用层。面对物理层、算法层、应用层的攻击类型多种多样, 主要问题在于“攻”和“守”的地位不对称,被攻击方在明处,攻击方在暗处,被攻击方的弱点往往是暴露的,攻击方可以利用各种方法发动攻击。
人工智能的安全类型分为数据安全和算法安全。数据安全分为三个部分,数据隐私、数据质量、数据保护。无论是训练机器所需的现场数据还是以后用它做服务的数据,数据的质量十分关键。
算法安全包括三个方面:
第一是鲁棒性,环境发生变化能够具有相应的韧性;
第二是可解释性,包括代码功能正确性、对抗样本影响;
第三是可靠性,包括问题目标影响,软硬件平台依赖。
为应对人工智能的安全风险,可以围绕以下七个方面加强应对:
第一,算法可解释性。在需要了解或解决一件事情的时候,可以获得我们所需要的足够的可以理解的信息。黑盒算法缺乏透明性和可解释性,难以分析和验证。因此,需要进行建模前的数据可解释性分析,构建可解释性的模型,并开展模型部署后的可解释性评估。
第二,隐私保护。人工智能算法存在矛盾,隐私保护与知识挖掘之间不完全一致,数据挖掘可能会挖掘到个人隐私。
第三,公平建模。在算法实践过程中,无论在采集阶段、学习阶段、部署阶段都存在所谓的公平问题,最后建设模型希望能够实现统计公平、个体公平、因果公平。
第四,可信验证。可信验证的引擎主要是对人工智能系统做验证、仿真、测试,这是一种很重要的智能手段,通过提供系统性训练和测试的可信保证,从而对成果进行定量形式化验证。
第五,主动防御。虽然被攻击方在明处,攻击方在暗处,但是被攻击方同样也有手段保护自己,通过安全评估、威胁者理解、预测手段等进行主动防御。
第六,伦理法律。人工智能伦理和治理成基本共识,国际社会探索建立广泛认可的人工智能伦理原则。
第七,系统伦理。这其中既包含了哲学伦理的思考,也包括理论研究、工程学的考虑。