探索性攻击
以前的攻击主要是为了直接影响人工智能系统,而探索性攻击则专注于人工智能本身。通常,只有攻击者能够提前了解系统,操纵攻击才有可能成功实施。因此,探索性攻击被理解为针对人工智能系统的所有类型的间谍活动。例如,这可能涉及获取训练数据(模型反转攻击)或 AI 模型本身(模型提取攻击)。
两者都可能导致竞争优势的丧失并造成重大的财务损失。然而,如果个人数据被用来训练人工智能,它也可能升级为数据泄露并带来其他后果。例如,研究人员成功地在图像识别人工智能中使用模型反转攻击来生成相应图像类的平均表示,这通常不指示明确的数据集。但是,如果该类别描述的是特定情况,例如单个人,则可以从 AI 模型中提取以前被认为是匿名的数据并随后进行识别。
消除漏洞
为了应对上述攻击模式,即使是简单的方法也可以帮助防止攻击或至少使攻击更加困难。当考虑整个 AI 工作流程时,您应该从头开始。在使用人工智能之前,它需要数据来学习并能够随后做出陈述。为了确保这些陈述正确,必须特别谨慎地选择训练数据。应该始终问的问题是,这些信息来自哪些来源以及哪些参与者会影响质量。不可靠的消息来源为投毒袭击铺平了道路。