如何减少人工智能带来的风险?
AI技术的业务模型。无论组织使用了AI的哪些功能,这样的系统和支持AI的信息都会存在固有的漏洞,并且受到意外和对抗性风险的威胁。受损的AI系统将做出错误的决策并产生意外的结果。 同时,组织开始面临复杂的基于AI的攻击,这些攻击有可能以前所未有的速度和规模破坏信息并造成严重的业务影响。采取措施保护内部AI系统并防御外部AI威胁,对于降低信息风险至关重要。 尽管组织采用的AI系统提供了诱人的目标,但对抗性攻击者也开始将AI用于自己的攻击。AI是一种功能强大的工具,可用来增强攻击技术,甚至创建全新的攻击技术。组织必须准备好调整防御措施,以应对基于AI的网络攻击的规模和复杂性。 人工智能提供的防御性机会 安全从业者总是在努力跟上攻击者使用的方法,而AI系统至少可以通过显著增强各种防御机制来提供短期的能力提升。AI可以将大量任务自动化,帮助人手不足的安全部门填补专业技能缺口,提高从业人员的效率。 为了保护自己免受现有威胁,AI可以让防御者领先一步。然而,对手并不是静止不动的——随着支持AI的威胁变得越来越复杂,安全从业者将需要使用AI支持的防御来跟上形势。 在应对威胁方面,AI的好处在于,它可以独立行动,在不需要人类监督的情况下采取相应措施,而且速度比人类快得多。考虑到恶意软件的存在几乎可以在瞬间危害整个系统,这是一个非常有价值的能力。 人工智能可以显著增强防御机制的方式有很多,这为我们提供了乐观的理由,但与任何一种新技术一样,人工智能也不是灵丹妙药。安全从业人员应该意识到部署防御性AI所涉及的实际挑战。 在部署防御性AI系统之前,需要考虑的问题和考虑的范围很窄,而且是为了完成一种任务而设计的。他们需要足够的数据和输入来完成这项任务。一个单一的防御性AI系统将不能增强之前概述的所有防御机制——一个组织可能采用多个系统。在购买和部署防御性AI系统之前,安全领导应该考虑是否需要一个AI系统来解决问题,或者更传统的选择是否会起到类似或更好的作用。 要问的问题包括:
![]() (编辑:阿坝站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |