深度学习后门攻击分析与实现(二)

前言

在本系列的第一部分中,我们已经掌握了深度学习中的后门攻击的特点以及基础的攻击方式,现在我们在第二部分中首先来学习深度学习后门攻击在传统网络空间安全中的应用。然后再来分析与实现一些颇具特点的深度学习后门攻击方式。

深度学习与网络空间安全的交叉

深度学习作为人工智能的一部分,在许多领域中取得了显著的进展。然而,随着其广泛应用,深度学习模型的安全性也引起了广泛关注。后门攻击就是其中一种重要的威胁,尤其在网络空间安全领域中

我们已经知道深度学习后门攻击是一种攻击者通过在训练过程中插入恶意行为,使得模型在特定的触发条件下表现异常的攻击方式。具体来说,攻击者在训练数据集中加入带有后门触发器的样本,使得模型在遇到类似的触发器时,产生攻击者期望的错误输出,而在正常情况下,模型仍能表现出高准确率。这种隐蔽性和针对性使得后门攻击非常难以检测和防御。

现在我们举几个例子介绍后门攻击在网络空间安全中的应用场景。

恶意软件检测:在网络安全中,恶意软件检测是一个重要应用。攻击者可以通过后门攻击技术,使得恶意软件检测模型在检测特定样本时失效。例如,攻击者可以在训练恶意软件检测模型时插入带有后门的恶意样本,使得模型在检测带有特定触发器的恶意软件时无法正确识别,从而达到隐蔽恶意软件的目的。

image-20240731095843483

入侵检测系统:入侵检测系统(Intrusion Detection System, IDS)用于监测网络流量并识别潜在的入侵行为。攻击者可以在训练IDS模型时加入后门触发器,使得模型在特定条件下无法识别攻击流量。例如,攻击者可以在训练数据中插入带有特定模式的正常流量,使得模型在检测到这些模式时误判为正常,从而绕过入侵检测系统。

image-20240731095934308

图像识别安全:在网络空间安全中,图像识别技术被广泛应用于身份验证和监控系统中。攻击者可以利用后门攻击,在训练图像识别模型时插入带有后门的图像样本,使得模型在识别带有特定触发器的图像时出现误判。例如,攻击者可以使得带有特定标志的非法图像被识别为合法,从而绕过安全监控系统。

image-20240731100025409

可见后门攻击与网络空间安全其他领域还是存在不少交叉的。

现在我们继续来分析并实现、复现典型的深度学习后门攻击方法。

BppAttack

理论

这篇工作提出了一种名为BPPATTACK的深度神经网络(DNN)木马攻击方法。该攻击利用了人类视觉系统对图像量化和抖动处理不敏感的特性,通过这些技术生成难以被人类察觉的触发器,进而实现对DNN的高效、隐蔽的木马攻击。

现有的攻击使用可见模式(如图像补丁或图像变换)作为触发器,这些触发器容易受到人类检查的影响。比如下图就可以看到很明显的触发器。

image-20240727210502284

BPPATTACK方案的核心思想是利用人类视觉系统对图像微小变化的不敏感性,通过图像量化和抖动技术生成难以被人类察觉的触发器,实现对深度神经网络(DNN)的高效、隐蔽的木马攻击。

人类视觉系统对颜色深度的变化不是特别敏感,特别是当颜色变化非常微小的时候。BPPATTACK正是基于这一生物学原理,通过调整图像的颜色深度来生成触发器。

  1. 图像量化(Bit-Per-Pixel Reduction)

    • 图像量化是减少图像中每种颜色的比特数,从而减少图像的总颜色数量。BPPATTACK通过降低每个像素的比特深度,使用量化后的最近邻颜色值来替换原始颜色值,实现对图像的微小修改。
  2. 抖动技术(Dithering)

    • 为了消除由于颜色量化引起的不自然或明显的图像伪影,BPPATTACK采用抖动技术,特别是Floyd-Steinberg抖动算法,来平滑颜色过渡,提高图像的自然度和视觉质量。

      BPPATTACK旨在生成一种触发器,它对人类观察者来说是几乎不可察觉的,但对机器学习模型来说足够显著,能够触发预设的木马行为。这种平衡是通过精确控制量化和抖动的程度来实现的。

    • 与需要训练额外的图像变换模型或自编码器的攻击不同,BPPATTACK不需要训练任何辅助模型,这简化了攻击流程并提高了效率。

    • 为了提高攻击的成功率和隐蔽性,BPPATTACK采用了对比学习和对抗性训练的结合。通过这种方式,模型被训练来识别和利用量化和抖动生成的触发器,同时忽略其他不重要的特征。

量化过程涉及将原始图像的颜色深度从( m )位减少到( d )位(( d < m ))。对于每个像素值,使用以下公式进行量化:

image-20240727210819783

其中:

  • ( T(x) ) 是量化后的像素值。
  • ( x ) 是原始像素值。
  • ( m ) 是原始颜色深度的位数(每个通道)。
  • ( d ) 是量化后的目标颜色深度的位数。
  • ( \text{round} ) 是四舍五入到最近的整数。

Floyd-Steinberg Dithering:
抖动算法用于改善量化后的图像质量,通过将量化误差扩散到邻近像素。对于每个像素,计算量化误差并更新周围像素:

image-20240727210836408

然后,根据Floyd-Steinberg分布,更新当前像素和周围像素:

image-20240727210916608

BPPATTACK方案的关键在于通过量化和抖动技术生成的微小变化对人类视觉系统是不可见的,但对DNN模型是可区分的,从而实现隐蔽的木马攻击。

帮助网安学习,全套资料S信免费领取:
① 网安学习成长路径思维导图
② 60+网安经典常用工具包
③ 100+SRC分析报告
④ 150+网安攻防实战技术电子书
⑤ 最权威CISSP 认证考试指南+题库
⑥ 超1800页CTF实战技巧手册
⑦ 最新网安大厂面试题合集(含答案)
⑧ APP客户端安全检测指南(安卓+IOS)

实现

我们来看看该方法得到的部分中毒样本

image-20240727211016338

image-20240727211031242

image-20240727211047210

分析关键函数

  • Bpp:继承自 BadNet,添加了命令行参数处理和数据集准备功能,用于特定处理阶段。
  • set_bd_args 方法:配置与攻击设置相关的命令行参数。
  • stage1_non_training_data_prepare 方法:准备和变换数据集,设置 DataLoader,并存储阶段 1 的结果。

image-20240727211138056

1. 类定义与初始化

  • 类声明:

    • class Bpp(BadNet): BppBadNet 的一个子类。
  • 构造函数 (__init__ 方法):

    • def __init__(self):: 这是 Bpp 的初始化方法。
    • super(Bpp, self).__init__(): 调用父类 BadNet 的构造函数,以确保执行父类中的初始化逻辑。

2. 设置命令行参数

  • set_bd_args 方法:

    • def set_bd_args(cls, parser: argparse.ArgumentParser) -> argparse.ArgumentParser:: 这个类方法用于使用 argparse 库设置命令行参数。
    • parser = add_common_attack_args(parser): 调用 add_common_attack_args 函数,添加与攻击相关的常见参数。
    • parser.add_argument(...): 添加各种命令行参数:
      • --bd_yaml_path: 指定一个 YAML 文件的路径,用于提供额外的默认属性。
      • --neg_ratio, --random_rotation, --random_crop, --squeeze_num, --dithering: 各种与攻击配置相关的参数,如负比率、旋转、裁剪、压缩和抖动。
  • 返回值:

    • 返回更新后的 parser 对象,其中包含所有添加的参数。

3. 准备第一阶段的数据

  • stage1_non_training_data_prepare 方法:

    • def stage1_non_training_data_prepare(self):: 这个方法用于准备第一阶段的数据。

    • 日志记录与断言:

      • logging.info("stage1 start"): 记录阶段 1 的开始。
      • assert "args" in self.__dict__: 确保 args 属性存在于实例中。
    • 数据集准备:

      • train_dataset_without_transform, train_img_transform, train_label_transform, 等变量:这些变量被赋值为调用 self.benign_prepare() 的结果,该方法用于准备数据集和变换。
      • clean_train_dataset_with_transform.wrap_img_transform = test_img_transform: 将训练数据集的图像变换更新为与测试数据集的图像变换一致。
    • DataLoader 初始化:

      • clean_train_dataloader: 一个用于清洁训练数据集的 DataLoader,应用了变换。
      • clean_train_dataloader_shuffled: 一个用于清洁训练数据集的 DataLoader,但数据是打乱的。
      • clean_test_dataloader: 一个用于清洁测试数据集的 DataLoader。
  • 存储结果:

    • self.stage1_results: 存储各种数据集和 DataLoader 以备阶段 1 进一步使用。

image-20240727211325748

这段代码是一个神经网络训练和评估的流程,具体针对的是后门攻击(backdoor attack)的研究

  1. 初始化

    • 代码开始时,记录训练阶段2的开始时间。
    • 通过断言检查 self 对象中是否包含 args 属性,获取训练参数。
  2. 设备选择

    • 根据是否有可用的 GPU 来设置计算设备。如果 args.device 包含多个设备(例如 "cuda:2,3,7"),则使用 torch.nn.DataParallel 来并行计算。
  3. 模型生成

    • 调用 generate_cls_model 函数生成分类模型 netC,并将其移动到指定的设备上。
  4. 优化器和学习率调度器

    • 调用 argparser_opt_scheduler 函数获取优化器和学习率调度器。
  5. 数据预处理

    • 过滤出可逆的图像变换(如标准化、缩放、转换为张量)。
    • 创建干净和背门攻击的数据集,分别保存处理后的数据集。
  6. 训练数据处理

    • 遍历干净训练数据,通过反归一化得到原始图像。
    • 根据攻击标签转换类型(“all2one” 或 “all2all”)来生成背门攻击数据。
    • 处理数据集中的每一批次,并将干净样本和背门样本保存到数据集中。
  7. 测试数据处理

    • 对测试数据进行类似的预处理和保存操作,包括处理干净测试数据和背门测试数据。
    • 评估背门效果,并根据攻击标签转换类型生成相应的标签和数据。
  8. 负样本生成

    • 如果指定了负样本比率(neg_ratio),生成负样本数据。这些负样本用于评估背门攻击的效果。
    • 将负样本与其他数据合并,并保存处理后的数据。
  9. 模型训练和评估

    • 对每个 epoch 执行训练和评估步骤。记录训练损失、准确率、背门攻击成功率等指标。
    • 将每个 epoch 的训练和测试结果保存到列表中,并绘制训练和测试指标的图表。
  10. 模型保存和结果输出

    • 在训练周期结束时保存模型状态、学习率调度器状态、优化器状态等。
    • 将训练和测试结果保存到 CSV 文件中,并生成最终的攻击结果数据。
  11. 完成

    • 输出“done”表示训练和保存过程已完成。

每个步骤都有明确的目标,从数据处理到模型训练,再到最终结果保存,涵盖了整个训练和评估的过程。

image-20240727211508555

这段代码包含了两个主要的函数:train_stepeval_step。它们分别用于训练和评估模型

train_step 函数

功能: 执行一个训练步骤,处理数据、计算损失、更新模型权重,并计算各种指标。

  1. 初始化:

    • 记录日志,设置模型为训练模式。
    • 获取训练参数,包括背门比率(rate_bd)和压缩数(squeeze_num)。
    • 初始化交叉熵损失函数(criterion_CE)和数据转换对象(transforms)。
    • 初始化一些用于记录的列表。
  2. 数据处理:

    • 对每个批次的数据进行处理:
      • 清空优化器的梯度。
      • 将输入数据和目标标签移动到指定设备(GPU/CPU)。
      • 计算背门样本和负样本的数量。
      • 根据是否存在背门样本和负样本,生成相应的数据:
        • 背门样本: 对背门样本进行处理(如抖动处理)并生成标签。
        • 负样本: 生成负样本数据并合并到训练数据中。
      • 处理数据集中的每一批次,将背门样本和负样本合并到一起。
      • 应用数据转换函数。
  3. 模型训练:

    • 计算模型的预测结果,并记录计算时间。
    • 计算损失,进行反向传播,更新优化器。
    • 记录每个批次的损失、预测结果、标签等信息。
  4. 计算指标:

    • 计算每个 epoch 的平均损失和准确率。
    • 根据背门样本、负样本和干净样本的指标,计算背门攻击成功率(ASR)、干净样本准确率等。
  5. 返回:

    • 返回训练过程中的各种指标:平均损失、混合准确率、干净样本准确率、背门攻击成功率、背门样本恢复准确率、交叉样本准确率。

eval_step 函数

功能: 执行模型评估,计算不同数据集(干净数据集、背门数据集、交叉数据集等)的损失和准确率。

  1. 清洁测试数据集评估:

    • 使用 given_dataloader_test 函数评估干净测试数据集,获取损失和准确率。
  2. 背门数据集评估:

    • 使用 given_dataloader_test 函数评估背门测试数据集,获取损失和准确率。
  3. 背门样本恢复(RA)数据集评估:

    • 对背门样本恢复数据集进行转换和评估,获取损失和准确率。
  4. 交叉数据集评估:

    • 使用 given_dataloader_test 函数评估交叉测试数据集,获取损失和准确率。
  5. 返回:

    • 返回不同数据集的损失和准确率:干净测试集损失和准确率、背门测试集损失和准确率、交叉测试集损失和准确率、恢复测试集损失和准确率。

这些函数一起构成了一个完整的训练和评估流程,涵盖了数据处理、模型训练、指标计算和评估等多个方面。

开始进行后门注入

image-20240724195753735

攻击配置如下所示

image-20240727211634482

训练期间的部分截图如下

image-20240724195822824

image-20240724195848070

image-20240724200623415

image-20240724200657266

也可以查看acc的变化情况

image-20240724200755108

可以看到主要关注的指标都在稳步上升

以35epoch为例,此时的后门攻击成功率达到了0.98,而深度学习模型执行正常任务的准确率达到了0.91

FTrojan

理论

FTrojan攻击的核心思想是在频率域中注入触发器。这种方法利用了两个关键直觉:

  • 在频率域中的小扰动对应于整个图像中分散的小像素级扰动,这使得图像在视觉上与原始图像难以区分。
  • 卷积神经网络(CNN)能够学习并记住频率域中的特征,即使输入的是空间域像素。

FTrojan攻击包括以下步骤:

  • 将图像从RGB色彩空间转换到YUV色彩空间,因为人的视觉系统对YUV中的UV(色度)分量不那么敏感。
  • 对图像的UV分量进行离散余弦变换(DCT),将其从空间域转换到频率域。
  • 在频率域中生成触发器,选择固定大小的频率带作为触发器。
  • 应用逆DCT将图像从频率域转换回空间域。
  • 最后,将图像从YUV色彩空间转换回RGB色彩空间。

我们来分析关键细节

FTrojan攻击方法的核心在于利用频率域的特性来注入难以被检测到的后门触发器。

  1. 颜色空间转换(RGB到YUV)

    • 使用线性变换将RGB图像转换为YUV空间。YUV空间将颜色图像分解为亮度(Y)和色度(U, V)分量。人的视觉系统对色度分量的变化不如亮度分量敏感,因此在色度分量中注入触发器对视觉的影响较小。
  2. 离散余弦变换(DCT)

    • 对YUV空间中的U和V分量应用DCT,将图像从空间域转换到频率域。DCT将图像表示为不同频率的余弦函数的集合,能量集中在低频部分,高频部分则包含图像的边缘和细节信息。

    DCT公式如下:

    image-20240727213411222

    其中,(X(u, v))是DCT系数,(x(x, y))是图像在空间域的像素值,(M)和(N)是图像的宽度和高度,(u)和(v)是频率索引。

  3. 触发器生成

    • 在频率域中选择特定的频率带作为触发器。触发器的频率和幅度是两个关键参数:
      • 触发器频率:选择中频和高频带的组合,以平衡人类视觉感知的敏感性和触发器的鲁棒性。
      • 触发器幅度:选择适中的幅度以确保触发器对CNN是可学习的,同时对人类视觉系统是不可见的。
  4. 逆离散余弦变换(Inverse DCT)

    • 使用逆DCT将修改后的频率域图像转换回空间域,得到注入了后门触发器的图像。

    逆DCT公式如下:

    image-20240727213421592

  5. 颜色空间转换(YUV回到RGB)

    • 最后,将修改后的YUV图像转换回RGB空间,因为大多数CNN模型是在RGB空间上训练的。

完整的攻击流程如下图所示

image-20240727213503207

下图是本方法生成的中毒样本与触发器,可以看到是具有一定隐蔽性的

image-20240727213319950

下图是通过 FTrojan 攻击来得到的中毒图像。混频将触发器混合在中频和高频成分中。我们可以观察到,当触发器存在于具有适中幅度的高频和中频成分中时,中毒图像在视觉上很难被检测到。

image-20240727213519644

复现

攻击类

image-20240727214507996

这段代码定义了一个 Ftrojann 类,继承自 BadNet。下面是代码的功能解释:

  1. set_bd_args 方法:

    • 这个方法用于设置命令行参数。它接受一个 argparse.ArgumentParser 对象作为输入,并返回一个更新后的 ArgumentParser 对象。
    • add_common_attack_args(parser) 是一个函数调用,可能会向 parser 中添加一些通用的攻击相关参数。
    • 添加了多个特定参数:
      • --channel_list:接收一个整数列表,代表频道列表。
      • --magnitude:接收一个浮点数,表示强度。
      • --YUV:接收一个布尔值,表示是否使用 YUV 格式。
      • --window_size:接收一个整数,表示窗口大小。
      • --pos_list:接收一个整数列表,表示位置列表。
      • --bd_yaml_path:接收一个字符串,指定 YAML 文件的路径,该文件提供附加的默认属性。默认路径是 ./config/attack/ftrojann/default.yaml
  2. add_bd_yaml_to_args 方法:

    • 这个方法用于将 YAML 文件中的默认属性添加到 args 参数中,并进行一些额外的处理。
    • args.bd_yaml_path 指定的路径读取 YAML 文件内容,解析为字典 mix_defaults
    • args 对象中非 None 的参数更新到 mix_defaults 中。
    • args 对象的 __dict__ 属性(存储了所有参数)更新为合并后的字典。
    • 检查 pos_list 的长度是否为偶数,如果不是,抛出 ValueError
    • pos_list 转换为一对一对的元组列表,例如,将 [x1, y1, x2, y2] 转换为 [(x1, y1), (x2, y2)]

着重查看对于数据集的处理代码

这个类的主要功能是处理带有后门攻击的图像数据集,支持图像和标签的预处理、状态恢复和复制。

image-20240727214543753

这段代码定义了一个名为 prepro_cls_DatasetBD_v2 的 PyTorch 数据集类。这个类扩展了 torch.utils.data.Dataset,用于处理带有后门攻击(backdoor attack)的数据集

  1. __init__ 方法:

    • 参数:
      • full_dataset_without_transform: 原始数据集,没有应用任何变换。
      • poison_indicator: 一个可选的序列,表示哪些图像需要应用后门变换(使用 one-hot 编码)。默认为 None,如果没有提供,则初始化为全零的数组。
      • bd_image_pre_transform: 应用在图像上的后门变换函数。
      • bd_label_pre_transform: 应用在标签上的后门变换函数。
      • save_folder_path: 保存后门图像的文件夹路径。
      • mode: 当前模式,默认为 'attack'
    • 操作:
      • 初始化数据集和相关属性。
      • 检查 poison_indicator 的长度是否与数据集长度匹配。
      • 如果 poison_indicator 中的值大于等于 1,则调用 prepro_backdoor() 方法进行后门数据预处理。
      • 设置其他属性,如 getitem_allgetitem_all_switch,用于控制数据集的取值方式。
  2. prepro_backdoor 方法:

    • 对所有需要后门变换的样本进行处理。
    • 遍历数据集的所有索引,如果 poison_indicator 表示该样本需要变换,则应用图像和标签的变换,并调用 set_one_bd_sample() 方法保存变换后的样本。
  3. set_one_bd_sample 方法:

    • 将图像和标签变换后的样本保存到 bd_data_container 中。
    • 确保图像被转换为 PIL 图像格式(如果不是的话)。
    • 更新 poison_indicator,标记该样本为后门样本。
  4. __len__ 方法:

    • 返回数据集中样本的总数。
  5. __getitem__ 方法:

    • 根据索引获取样本。
    • 如果样本是干净的(poison_indicator 为 0),则从原始数据集中获取图像和标签。
    • 如果样本是后门的(poison_indicator 为 1),则从 bd_data_container 中获取图像和标签。
    • 根据 getitem_allgetitem_all_switch 的设置,返回不同格式的数据。
  6. subset 方法:

    • 根据给定的索引列表更新 original_index_array,从而选择数据集的子集。
  7. retrieve_state 方法:

    • 返回当前对象的状态,包括 bd_data_containergetitem_allgetitem_all_switchoriginal_index_arraypoison_indicatorsave_folder_path
  8. copy 方法:

    • 创建一个 prepro_cls_DatasetBD_v2 的副本。
    • 深度复制当前对象的状态,并设置到新副本中。
  9. set_state 方法:

    • 根据提供的状态文件恢复对象的状态。
    • 包括恢复 bd_data_container 和其他属性。

在我们的实现中得到的部分中毒样本如下所示

image-20240727214732437

image-20240727214745604

注入后门

image-20240724201324573

攻击配置

image-20240727214826972

后门注入期间的部分截图如下所示

image-20240724201745965

image-20240724203305049

以第38个epoch为例,此时的后门攻击成功率达到了接近100%,而正常任务的准确率达到了0.91

CTRL

理论

之前我们提到的后门攻击都是通过监督学习的方式实现的,这一节我们来分析自监督学习后门攻击。

自监督学习(SSL)是一种无需标签即可学习复杂数据高质量表示的机器学习范式。SSL在对抗性鲁棒性方面相较于监督学习有优势,但是否对其他类型的攻击(如后门攻击)同样具有鲁棒性尚未明确。

CTRL攻击通过在训练数据中掺入少量(≤1%)的投毒样本,这些样本对数据增强操作具有抗性,使得在推理阶段,任何含有特定触发器的输入都会被错误地分类到攻击者预定的类别。

触发器 ( r ) 是一种在输入数据的频谱空间中的扰动,它对数据增强(如随机裁剪)不敏感。触发器的设计使其在视觉上几乎不可察觉,但在频域中具有特定的模式。

  • 假设攻击者可以访问到一小部分目标类别的输入样本集 ( \tilde{D} )。

  • 通过在这些样本上添加触发器 ( r ) 来生成投毒数据 ( D^* )。

  • 嵌入:将触发器 ( r ) 嵌入到输入 ( x ) 中,形成触发输入 ( x^* = x \oplus r )。这里 ( \oplus ) 表示触发器嵌入操作。

  • 激活:在推理时,攻击者可以调整触发器的幅度来激活后门,而不影响模型对清洁数据的分类性能。

SSL中的对比损失函数旨在最小化正样本对(相同输入的不同增强视图)之间的距离,同时最大化负样本对(不同输入)之间的距离。对比损失可以表示为:

image-20240727212402498

其中,( f ) 是编码器,( x_i ) 和 ( x_j ) 是正样本对,( y_{ij} ) 是指示器(如果 ( x_i ) 和 ( x_j ) 是正样本对,则为1,否则为0),( \tau ) 是温度参数。

CTRL攻击利用了SSL的表示不变性属性,即不同增强视图的同一输入应具有相似的表示。数学上,这可以表示为:

image-20240727212415243

这里,( x^* ) 是触发输入,( x^+ ) 是增强后的正样本,( r ) 是触发器,( \alpha ) 是混合权重。

通过调整触发器的幅度,攻击者可以控制攻击的效果。

完整的攻击流程如下图所示

image-20240727212444208

下图演示了触发器的生成流程

image-20240727212508356

复现

分析关键代码

ctrl类的stage1_non_training_data_prepare` 方法负责准备背门攻击的数据,包括训练和测试数据集的生成。它先从干净数据中准备基础数据,然后生成背门样本,最后创建背门训练和测试数据集,并将结果保存以备后续使用。这一过程涵盖了从数据预处理到背门攻击数据的生成,并最终包装成适合训练和评估的格式。

image-20240727212609910

这段代码是一个名为 ctrl 的类的定义,它继承自 BadNet 类。主要功能是准备阶段1的数据,包括生成后门攻击数据和测试数据

1. set_bd_args 方法

功能: 设置用于背门攻击的命令行参数。

  • bd_yaml_path: 指定 YAML 配置文件的路径。
  • use_dct: 布尔值,指示是否使用 DCT(离散余弦变换)。
  • use_yuv: 布尔值,指示是否使用 YUV(视频色彩空间)。
  • trigger_channels: 触发器的通道。
  • pos_list: 触发器的位置。

2. stage1_non_training_data_prepare 方法

功能: 准备数据,包括清洁训练数据、背门训练数据和测试数据。

  1. 初始化:

    • 记录日志并确保 args 存在。
    • benign_prepare 方法中获取不同的数据集和转换方法。
  2. 生成背门数据集:

    • 调用 bd_attack_img_trans_generatebd_attack_label_trans_generate 方法生成背门数据集所需的图像和标签转换。
    • 使用 generate_poison_index_from_label_transform 方法生成训练数据中的背门样本索引。
    • 保存背门样本索引到文件。
  3. 创建背门训练数据集:

    • 使用 prepro_cls_DatasetBD_v2 方法生成背门训练数据集,并应用转换。
    • 创建数据集包装器 dataset_wrapper_with_transform
  4. 生成背门测试数据集:

    • 使用 generate_poison_index_from_label_transform 方法生成测试数据中的背门样本索引。
    • 使用 prepro_cls_DatasetBD_v2 方法生成背门测试数据集,并应用转换。
    • 使用 subset 方法筛选测试数据集中的背门样本。
  5. 保存结果:

    • 将准备好的数据集保存到 self.stage1_results 中。

执行

image-20240724200552969

攻击配置如下

image-20240727212859173

训练期间部分截图如下

image-20240724201053304

image-20240724201121175

image-20240724201143427

可以看到,CTRL在后门攻击成功率上稍低,比如在第59个epoch时,攻击成功率为0.93,正常任务准确率为0.93

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/885424.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

解决 Android WebView 无法加载 H5 页面常见问题的实用指南

目录 1. WebView 简介 2. 常见问题 3. 网络权限设置 4. 启用 JavaScript 5. DOM Storage 的重要性 6. 处理 HTTPS 问题 7. 设置 WebViewClient 8. 调试工具 9. 其他调试技巧 10. 结论 相关推荐 1. WebView 简介 Android WebView 是一种视图组件&#xff0c;使得 And…

LiveGBS流媒体平台GB/T28181功能-支持电子放大拉框放大直播视频拉框放大录像视频流拉框放大电子放大

LiveGBS流媒体平台GB/T28181功能-支持电子放大拉框放大直播视频拉框放大录像视频流拉框放大电子放大 1、直播播放2、录像播放3、搭建GB28181视频直播平台 1、直播播放 国标设备-》查看通道-》播放 &#xff0c;左键单击可以拉取矩形框&#xff0c;放大选中的范围&#xff0c;释…

vue-element 表格组合查询 - fc-table-search 组件封装

开发目的 解决搜索form参数读取&#xff0c;配合异步请求&#xff0c;更新渲染数据&#xff1b;支持自适应高度&#xff0c;分页查询&#xff0c;搜索查询/重置。 额外提供formater类型&#xff1a;标签定义&#xff0c;金额&#xff0c;时间格式化&#xff0c;跨页勾选&#x…

uniapp/vue项目 import 导入文件时提示Module is not installed,‘@/views/xxx‘路径无法追踪

文章目录 背景解决方案1.IDE配置2.alias&#xff08;别名&#xff09;配置webpackvue-clivite 3.检查 jsconfig.json 或 tsconfig.json 写在最后 前往闪闪の小窝以获得更好的阅读和评论体验 背景 Vue3在我自学Vue的时候看过一点&#xff0c;实操过一点&#xff0c;但是太久没用…

基于php的酒店管理系

作者&#xff1a;计算机学姐 开发技术&#xff1a;SpringBoot、SSM、Vue、MySQL、JSP、ElementUI、Python、小程序等&#xff0c;“文末源码”。 专栏推荐&#xff1a;前后端分离项目源码、SpringBoot项目源码、Vue项目源码、SSM项目源码 精品专栏&#xff1a;Java精选实战项目…

动手学深度学习(李沐)PyTorch 第 3 章 线性神经网络

3.1 线性回归 线性回归是对n维输入的加权&#xff0c;外加偏差 线性回归可以看作是单层神经网络 回归问题中最常用的损失函数是平方误差函数。 平方误差可以定义为以下公式&#xff1a; 常数1/2不会带来本质的差别&#xff0c;但这样在形式上稍微简单一些 &#xff08;因为当…

实时语音交互,打造更加智能便捷的应用

随着人工智能和自然语言处理技术的进步&#xff0c;用户对智能化和便捷化应用的需求不断增加。语音交互技术以其直观的语音指令&#xff0c;革新了传统的手动输入方式&#xff0c;简化了用户操作&#xff0c;让应用变得更加易用和高效。 通过语音交互&#xff0c;用户可以在不…

Android入门

下载Android studio&#xff0c;创建第一个项目 模板可以选择empty views Activity 在这个界面可以修改&#xff0c;使用语言&#xff0c;项目名字&#xff0c;存储路径以及适用版本 完成后&#xff0c;得到一个最初始的Android 项目&#xff0c;红色标记的两个文件&#xf…

七星创客:重塑商业模式认知

近期&#xff0c;一个普遍存在的疑问困扰着许多人&#xff1a;“商业模式是否仅仅等同于拉人头或传销活动&#xff1f;”这样的联想或许源于对商业模式概念的片面理解&#xff0c;使得一些人错误地将所有商业模式都笼罩在负面阴影之下。 商业模式&#xff0c;这一商业领域的核心…

(IDEA)spring项目导入本地jar包方法和项目打包时找不到引入本地jar包的问题解决方案

系列文章目录 文章目录 系列文章目录一、&#xff08;IDEA&#xff09;spring项目导入本地jar包方法和项目打包时找不到引入本地jar包的问题解决方案1.资料 一、&#xff08;IDEA&#xff09;spring项目导入本地jar包方法和项目打包时找不到引入本地jar包的问题解决方案 1.资料…

Windows11系统下SkyWalking环境搭建教程

目录 前言SkyWalking简介SkyWalking下载Agent监控实现启动配置SkyWalking启动Java应用程序启动Elasticsearch安装总结 前言 本文为博主在项目环境搭建时记录的SkyWalking安装流程&#xff0c;希望对大家能够有所帮助&#xff0c;不足之处欢迎批评指正&#x1f91d;&#x1f91…

828华为云征文|华为云Flexus云服务器X实例部署 即时通讯IM聊天交友软件——高性能服务器实现120W并发连接

营运版的即时通讯IM聊天交友系统&#xff1a;特点可发红包&#xff0c;可添加多条链接到用户网站和应用&#xff0c;安卓苹果APPPC端H5四合一 后端开发语言&#xff1a;PHP&#xff0c; 前端开发语言&#xff1a;uniapp混合开发。 集安卓苹果APPPC端H5四合一APP源码&#xff0…

微信小程序——婚礼邀请函

目的 1.掌握微信小程序的开发技术&#xff0c;包括页面布局、交互设计、数据存储等。 2.学会运用微信小程序的各种组件和 API&#xff0c;实现个性化的婚礼邀请函功能。 3.通过制作婚礼邀请函小程序&#xff0c;提升创意设计和用户体验优化的能力。 4.了解如何在小程序中整…

JAVA并发编程系列(11)线程池底层原理架构剖析

面试官&#xff1a;说说JAVA线程池的几个核心参数&#xff1f; 之前我们用了10篇文章详细剖析了synchronized、volatile、CAS、AQS、ReentrantLock、Semaphore、CountDownLatch、CyclicBarrier、并发锁、Condition等各个核心基础原理&#xff0c;今天开始我们说说并发领域的各种…

信息安全数学基础(24)模为奇数的平方剩余与平方非剩余

前言 在信息安全数学基础中&#xff0c;模为奇数的平方剩余与平方非剩余是数论中的一个重要概念&#xff0c;特别是在密码学和安全协议中扮演着关键角色。当模数为奇数时&#xff0c;我们通常关注的是模为奇素数的平方剩余与平方非剩余&#xff0c;因为奇合数的情况更为复杂且…

自己做个国庆75周年头像生成器

版权声明&#xff1a;本文为博主原创文章&#xff0c;转载请在显著位置标明本文出处以及作者网名&#xff0c;未经作者允许不得用于商业目的。 下载相关代码&#xff1a;【免费】《自己做个国庆75周年头像生成器》代码资源-CSDN文库 又是一年国庆节&#xff0c;今年使用国旗做…

智慧城市交通管理中的云端多车调度与控制

城市交通管理中的云端多车调度与控制 智慧城市是 21世纪的城市基本发展方向&#xff0c;为了实现智慧城市建设的目标&#xff0c;人们需要用现代化的手段去管理和控制城市中的各种资源和设施。智能交通控制与管理是智慧城市中不可缺少的一部分&#xff0c;因为现代城市交通系统…

【2024工业3D异常检测文献】CMDIAD: 基于跨模态蒸馏驱动的多模态工业异常检测

Incomplete Multimodal Industrial Anomaly Detection via Cross-Modal Distillation 1、Background 近年来&#xff0c;基于3D点云和RGB图像的多模态工业异常检测(IAD)研究强调了利用模态间的冗余性和互补性对于精确分类和分割的重要性。 在项目中&#xff0c;提出了CMDIAD方…

亲身体验Llama 3.1:开源模型的部署与应用之旅

文章目录 1 Llama 3.1系列的诞生2 大型模型的未来发展3 使用教程4 Llama 3.1在客户服务中的运用 1 Llama 3.1系列的诞生 在人工智能的浪潮中&#xff0c;大型语言模型&#xff08;LLM&#xff09;正以其独特的魅力和潜力&#xff0c;成为深度学习领域的一颗耀眼明星。 这些模…

大模型增量训练--基于transformer制作一个大模型聊天机器人

针对夸夸闲聊数据集&#xff0c;利用UniLM模型进行模型训练及测试&#xff0c;更深入地了解预训练语言模型的使用方法&#xff0c;完成一个生成式闲聊机器人任务。 项目主要结构如下&#xff1a; data 存放数据的文件夹 dirty_word.txt 敏感词数据douban_kuakua_qa.txt 原始语…