点击下方卡片,关注
「AI视界引擎」
公众号
( 添加时备注:方向+学校/公司+昵称/姓名 )
本文对人工智能领域的研究进展进行了综述,涵盖了机器学习、深度学习、自然语言处理和计算机视觉等关键主题。通过对现有文献的深入分析,总结了当前研究的热点问题和发展趋势,并探讨了未来研究方向。
太阳纤维是太阳上观察到的最显著特征之一,它们的演化与各种太阳活动密切相关,如耀斑和日冕物质抛射。
实时自动识别太阳纤维是管理大量数据最有效的方法。现有的纤维识别模型以参数量大和计算成本高为特点,这限制了它们在未来高度集成和智能的地面和空间观测设备中的应用。
因此,设计更轻量级的模型将有助于智能观测设备的进步。在本研究中,作者引入了Flat U-Net,这是一种新颖且高度高效的超轻量级模型,它结合了简化通道注意力(SCA)和通道自注意力(CSA)卷积块,用于全盘Hα图像中太阳纤维的分割。每个网络层的特征信息被完全提取以重建通道特征表示。
每个块有效地优化了来自前一层的通道特征,显著减少了参数量。网络架构呈现了一种优雅的膨胀,提高了其效率,并简化了整体设计。
实验验证表明,仅由纯SCA组成的模型达到了约0.93的精确度,dice相似系数(DSC)和召回率分别为0.76和0.64,显著优于经典的U-Net。
引入一定数量的CSA块将DSC和召回率分别提高到0.82和0.74,这表明了明显的优势,尤其是在模型权重大小和检测有效性方面。
1.1 引言
在人工智能(AI)领域,随着计算能力的提升和数据量的爆炸式增长,机器学习(ML)技术取得了显著的进展。本文旨在探讨机器学习在各个领域的应用,以及其发展趋势和面临的挑战。通过对现有研究文献的综述,作者将分析机器学习在自然语言处理、计算机视觉、推荐系统等领域的应用现状,并展望其未来发展方向。
太阳纤维是位于热冕中的冷等离子体悬浮结构(陈等,2020年)。它们的温度通常在6000到8000开尔文之间,与太阳色球层的典型温度相吻合,这使得太阳纤维在Hα线中更容易被观测到。它们通常呈现出暗淡、不规则且细长的结构。观测表明,较大的、细长的纤维往往安静地悬浮在冕中,逐渐演变直至最终消散。相比之下,较小的纤维可能会由于磁不稳定而迅速爆发,短时间内消失,并且通常与诸如日冕物质抛射等事件相关。在太阳纤维爆发过程中,太阳表面和冕区域的磁场结构会发生显著重组,释放出大量等离子体和高能粒子,这可能会对太空天气产生深远影响。这个过程可能会干扰地球磁层,对人造卫星、全球导航系统和通信网络构成潜在威胁(Camporeale等,2018年)。太阳纤维的变化也可以为其他太阳活动提供间接的洞察。太阳纤维的形成以及它们的物质是否源自冕本身,是太阳物理学中的争论话题。持续的观测产生了大量的Hα数据,使得自动方法成为长期统计分析的关键关注点。陈等(2020年)在其工作中还提到,自动处理太阳纤维是未来十年内一个有希望的研究方向。
具体而言,作者的主要贡献如下:
(1)设计了一种通道自注意力卷积块(CSA-ConvBlock),以重新分配特征图通道间的权重,提高跨通道权重的有效性;同时,还提出了简化通道注意力卷积块(SCAConvBlock),以解决训练过程中的硬件限制。
(2)在新的U-Net模型中,该模型由(SCA)CSA-Conv块组成,编码器和解码器中的通道数量不再加倍,而是变得更厚,这就是“Flat U-Net”名称的由来。这种策略显著减少了模型参数,约为1M,同时保持了优雅的结构,并仍然实现了有效的太阳纤维分割结果。
(3)建立了一个新的太阳纤维数据集,允许全盘Hα图像保留如边缘暗化、中等云层覆盖等干扰。作者提出的方法仅使用少量模型参数即可分割太阳纤维,无需对原始FITS图像内容进行任何修改。
- 方法
本研究采用了以下方法来探究AI在特定领域的应用:
- 数据收集:通过多种渠道收集相关领域的数据集,包括公开数据源和内部数据。
- 预处理:对收集到的数据进行清洗、去重和特征提取,以确保数据质量。
- 模型选择:根据研究目标和数据特性,选择了适合的机器学习模型,如深度学习、支持向量机等。
- 训练与验证:使用预处理后的数据对模型进行训练,并通过交叉验证等方法评估模型性能。
- 评估指标:根据研究需求,设定了相应的评估指标,如准确率、召回率、F1分数等。
- 结果分析:对模型训练和验证的结果进行深入分析,探讨模型在特定领域的应用效果。
- 模型优化:针对模型性能的不足,对模型结构和参数进行调整,以提高模型的整体性能。
- 案例研究:通过实际案例的研究,验证模型在实际应用中的有效性和实用性。
如有不确定的术语或表达,请提供 Query 或确认的选项。
2.1 架构概述
在本研究中,作者提出了一种新的网络模型——扁平U-Net(如图1(b)所示),其中膨胀特征相较于经典U-Net模型(如图1(a)所示)显得尤为突出。该架构包括编码器和解码器,分别用于从全盘
太阳图像中提取和恢复特征信息。网络输入为全盘
太阳图像,格式为FITS,仅需要执行最小-最大归一化,无需去除边缘暗化和不均匀校正(例如,云层覆盖)。最初,采用经典卷积模块将单通道太阳图像扩展到
通道,且在整个网络中通道数保持为
。
随后,输入被送入编码器,编码器由四个层组成,这些层由(SCA)CSA-ConvBlock模块构建。编码器主要从太阳图像中提取特征,同时逐步降低空间分辨率。在编码器中,(SCA)CSA-ConvBlock是一个关键组件,它建模了特征通道之间的依赖关系,有效地提高了模型在特征提取方面的性能。该机制通过自注意力重新分配特征图中的通道权重,提高了模型捕捉通道间依赖的能力。与经典CNN架构相比,扁平U-Net在保留关键特征的同时,最大限度地减少了参数数量,从而实现了轻量级设计。解码器逐步恢复编码器提取的特征,使空间分辨率返回与输入图像相匹配。 Shortcut 与经典U-Net中发现的相同。
Flat U-Net架构的一个显著特点是其轻量级设计。每个编码器和解码器模块都包含一个(SCA)CSA-ConvBlock,该模块优化了特征图的通道分布,以减少参数数量。
这种方法避免了经典U-Net结构中的冗余机制,在该机制中,随着特征图空间特征的减少,通道特征的数量增加,导致冗余权重参数的增加。在分割全盘太阳黑子图像中太阳纤维的任务中,通过(SCA)CSAConvBlock模块重新分配特征通道,使得模型能够定位和分割精细的纤维。这种高效的设计不仅降低了模型的存储需求,还显著减少了推理时间,从而增强了实时处理能力。
初步预处理步骤对于原始的单通道全盘式霍拉太阳图像
是必要的。单通道需要扩展为多个通道,这可以表示为:
和
表示输入特征图,其中
的维度为
,
的维度为
。这里的“范数”代表最小-最大归一化操作,而
代表卷积操作。构成整个网络的 CSA-ConvBlock(如图2所示)的变换可以定义为:
- 在卷积神经网络(CNN)中,应用池化操作会降低滤波器从特征图中提取有效信息的能力。为了解决这个问题,作者利用自注意力机制的概念来增强块内参数的有效性。主要目标是将该策略应用于多通道特征图,重新分配每个通道的权重,使滤波器能够学习到更有效的参数。首先,对输入块X同时应用一个无偏卷积操作,记作
,从而得到特征图: Query
、键
和值
。这一过程可以用数学公式表示为:
输入张量
表示为
,其中
是卷积核,
属于
,分别表示生成的特征图。通过提高特征图在通道间的相关性,增强了滤波参数的有效性。相似度张量
通过对
和
进行广播计算生成,其中第 c 个通道的计算过程如下:
表示
中第 c 通道的特征图。归一化因子
被设置为平衡由不同维度的特征引起的尺度差异,从而稳定梯度。
代表特征图的高度,在本研究中,
和
相等。接下来,对空间信息应用全局平均池化,将相似度张量
压缩为通道得分,可以表示为:
在通道维度上,
是一个全局特征描述符。通过应用softmax函数
到向量
上,作者得到了
。接下来,作者使用分数
重构特征图
的通道交互表示。
属于
维度,与张量
的维度相匹配。另一个不容忽视的关键点是,在模块的最后阶段,
与输入
之间存在残差连接。
在本文中,"+"符号表示相同维度的张量相加,"b"用于标准化残差结果(Ioffe & Szegedy,2015年),而"g"指代ReLU函数(Nair & Hinton,2010年)。通过上述方法,在每个模块内建立不同卷积操作之间的联系,对于特征提取来说比简单堆叠它们更为有效。该网络由CSA-ConvBlocks组成,其中输入
和输出
的维度保持一致,并且输入
中各个通道的特征信息被重新分配。
2.3. 简化替代方案
由于计算信道间相关性涉及大量的矩阵运算,特别是在硬件资源有限(如GPU内存)的情况下,作者提出了一种简化的替代方案。将CSA替换为SCA显著减少了训练过程中的GPU内存使用。第c个信道特征的计算方式变为:
和
分别表示
和
中的第 c 个通道特征。这种方法能够有效应对硬件环境略微下降的情况,同时不改变参数数量。
- 实验
3.1. 数据
验证实验旨在验证所提方法在无需去除肢体变暗和进行不均匀校正情况下的有效性。原始数据从大熊湖太阳观测站(BBSO)网站下载,格式为FITS文件。这些数据仅包括聚焦在视场中心的原始全盘太阳图像。 GT 图是通过传统方法获得的二值 Mask 图像。然而,这些方法存在某些局限性(如冗余噪声和过度预处理),导致生成结果的质量不一致。
因此,仅选择符合质量标准的成果作为 GT 数据集的样本。尽管存在标注错误,但这并不妨碍本文提出的模型高效地学习太阳纤维的特征。约1000张2022年至2023年的图像被选为训练和验证集,包括FITS图像及其对应的PNG Mask 。此外,从2024年选择了约100个包含 GT 的FITS文件,以及大约150个不含 GT 的2021年FITS文件,组成测试集。这一选择主要是由于 GT 信息的潜在不准确性,这可能导致在用作比较评估基准时产生误解。作者还将选择部分有云层的图像作为第二个测试集,以评估模型的有效性,并采用人工视觉检查进行评估。
3.2 实施细节
所提出的Flat U-Net的部署环境为Python 3.8、PyTorch 1.12和CUDA 11.3。该方法也可应用于其他兼容版本的组合。在训练过程中,使用了如翻转和旋转等标准数据增强技术,以增加数据的多样性。网络的输入尺寸
与GPU的内存容量以及训练过程中的批大小
有关。从BBSO下载的原始数据尺寸为
,这对单块16GB内存的Nvidia 4080 GPU来说是一个不小的挑战。虽然
尺寸的数据也能正常训练,但需要将批大小设置为2,这将显著增加所需时间。
综合考虑所有因素,作者决定将输入尺寸设置为
,批大小为9。值得注意的是,为了获得有效的轻量级模型权重,作者的方法在计算过程中涉及到大量的张量乘法操作。因此,训练过程中的内存需求将会较高。为了适应当前的实验条件,作者选择了SCA和CSA的组合作为训练策略,其中SCA作为特征提取的主干网络,而CSA则作为 Bottleneck 层。网络也可以根据特定场景进行调整,完全由CSA或SCA组成,通常CSA的性能优于SCA。其他配置如下:优化器为Adam(Kingma & Ba 2017),初始学习率为
,并具有动态学习率调整功能,损失函数为二元交叉熵。
3.3. 研究结果
如前所述,所提出的模型已被展平,但在太阳纤维分割的背景下,这个网络模型的适当厚度(通道数)是多少呢?作者分别验证了在不同通道数
下训练过程中损失的收敛性和测试集中的推理性能。在现有硬件条件下,作者选择了
进行测试。对于推理评估,作者使用如Dice相似系数(DsC)、精确率、召回率和F1分数等指标进行相对比较,分别表示如下:
TP、TN、FP和FN分别代表真正例、真反例、假正例和假反例。本研究涉及小目标二分类任务,不可避免地会包含错误标注的实例。在训练集中,存在一些特征不是纤维却被 Token 为纤维的实例,以及一些 未标注 的纤维特征。通过测试,作者发现模型学习的纤维特征有时比标注信息更准确(将在后面展示)。因此,每个指标仅具有相对参考值。
如图3所示,当
时,训练过程收敛;然而,表1中的推理指标表明模型未能学习到任何有意义的特征。这表明模型参数数量和复杂性不足以完成该任务。相比之下,当
时,指标显著提升,精确度达到0.93,表明当
在8到16之间时,模型开始表现出学习能力。进一步实验显示,模型在
左右开始获得学习能力(参见表1)。这表明所提出的模型在参数仅为0.08 MB(float32)的情况下,就能实现识别全盘
太阳图像中太阳丝的任务。从其他指标来看,当
时,由于训练数据的随机选择和数据增强操作,结果存在轻微波动。当模型具备学习能力时,增加参数数量可以在一定程度上提高指标。
图3还显示,随着通道数的增加,模型展现出良好的收敛能力。表2表明,在指标的整体提升上,增速逐渐放缓。从16个通道到256个通道,准确率保持在约0.93,前者的模型大小仅为0.25MB(float32),而到C=256时,模型大小急剧增加到62.78MB。其他指标的改善也非常有限。这表明过多的参数不再显著提高指标,导致大量冗余参数的产生。表2还显示,当C=32时,模型展现出良好的分割能力,模型大小小于1MB。随后,随着参数数量的增加,性能提升逐渐放缓,甚至波动(由于数据的随机性)。与经典的U-Net相比,随着总通道数的减少,大多数指标大幅下降,只有准确率保持稳定。
此外,在使用[8, 16, 32, 64, 128]通道配置时,模型失去了当前任务的学习能力。而经典的U-Net虽然准确率约为0.98,但其其他指标通常低于Flat U-Net,表明在太阳丝检测方面的漏检率高于Flat U-Net。表2进一步表明,对于经典U-Net和Flat U-Net,一旦模型参数数量达到一定水平,进一步的增加只会带来最小或无显著的性能提升。相反,如果参数数量低于临界线,性能指标将急剧下降,最终导致模型失去学习能力。总的来说,Flat U-Net仅用0.25MB的参数就具备学习能力。此外,它以小于1MB的参数(C=32)实现相对稳定的识别结果,突显了其效率、轻量化和相对准确性。
图4展示了不同方法分割结果的一个示例。尽管U-Net可以在全盘
太阳图像中识别出太阳丝,但其结果仍存在一些漏检实例,包括小丝和大丝。这个问题主要源于如边缘暗化等因素,这些因素会掩盖太阳丝的特征,以及U-Net参数本身的不效率。扁平U-Net即使在参数数量极小的情况下,也实现了比先前模型更优的结果。这得益于模型不同层对太阳丝特征的有效捕捉。
此外,作者还把所提出的方法应用于 未标注 的数据,包括清晰的图像和受云污染的图像。图5展示了每种情况的分割示例。可以看出,尽管训练集包含的 Token 数据中只有少量受云污染的,但训练后的轻量级模型仍能有效识别太阳丝特征。数据集、模型和代码可在国家天文数据中心获取,链接为doi: 10.12149/101545。
表3展示了不同块配置下的Flat U-Net(
)的比较。该模型由四个卷积块(编码器和解码器各有四个)和一个 Bottleneck 组成。随着CSA块数量的增加,DSC和召回率等指标显著提高,而精确率略有下降。这表明,更多真实纤维区域被正确识别,尽管误将背景区域分类为纤维区域的情况有所增加。
值得注意的是,当整个网络由SCA组成时,各种指标都取得了相对较好的结果。然而,当在 Bottleneck 处添加第一个CSA后,召回率从0.6402显著提升至0.6948,DSC从0.7581升至0.7943。这表明CSA在 Bottleneck 配置中相对于SCA具有明显优势。换句话说,更有效地重建通道间特征信息可以减轻 Bottleneck 中空间特征的损失。与SCA相比,增加CSA块的数量必然会导致相对较高的计算复杂度。因此,随着CSA块数量的增加,分割精度与计算成本之间的权衡变得明显。
虽然改进的DSC和召回率突出了模型捕捉纤维结构的能力增强,但精确率的小幅下降表明包含非纤维区域的趋势有所增加。这种权衡强调了在计算约束严格或对精度要求高的环境中,仔细选择CSA块数量的重要性。
- 讨论与结论
随着天文观测硬件的不断进步和升级,产生了大量的观测数据,这使得自动特征提取成为极具潜力的研究领域之一。轻量级的设计不仅满足了大规模数据高效处理的需求,还为地面和空间仪器中高度集成和智能系统的进步提供了技术支持。在网络模型中,池化策略常被用于降低计算复杂度。然而,这往往会导致空间信息的损失,需要增加通道数量以减轻这种损失并增强特征表示。作者提出了一种实用的超轻量级网络架构,命名为Flat U-Net,该架构通过重建跨通道特征,有效地利用了每个通道内的空间信息。该架构由(SCA)CSA-ConvBlocks组成,这些块被设计用来从全盘
太阳图像中提取丝状特征。它可以直接从原始的H
图像中提取太阳丝状结构,即使是在受云层污染的数据中也是如此。
实验结果表明,所提出的方法只需0.25MB的存储空间即可实现学习能力,且精度超过0.9。当通道数
时,模型的整体性能达到相对稳定的状态。
与经典U-Net相比,所提出的方法在DSC、召回率和F1分数等指标上展现出优势,尽管精度略有下降,但这表明了其卓越的性能和广阔的前景。与经典U-Net相比,显著更高的召回率表明所提出的方法在识别由 Mask Token 的太阳纤维区域方面更为有效。这种改进主要归因于各层的特征不再是通过简单的堆叠获得,而是通过跨通道特征图进行重建,使得每个卷积块中的特征提取更为高效。
根据表3中的比较实验,作者发现由SCA组成的整个网络实现了相对较好的精确度。此外,随着CSA块数量的增加,DSC、召回率和F1分数均显示出显著的提升。基于前面的分析,作者建议至少将模型的瓶 Neck 分配置为CSA,而其他配置则可以自由组合。
最后,所提出的方法具有以下优势:
(1)所提出的网络以高效和轻量级设计为首要特征,能够在极小的参数数量下学习到更深入的丝状特征。无需额外的技巧操作,且在分割性能全面的情况下,网络的权重低于1MB,相较于经典的U-Net模型具有优势,使其非常适合在实际场景中的应用。
(2)所提出的(SCA)CSA-ConvBlocks通过重建信道间关系,优化了网络层间传递的特征表示。这种方法减轻了因网络内部池化操作导致的空间特征信息损失而需要增加通道数的不足。
(3)该方法克服了将经典U-Net模型直接应用于原始全盘太阳图像时性能不佳的问题,消除了进行边缘暗化去除和均匀性校正的需求。此外,本文提出的模型框架适用于其他太阳特征的数据,并在其他领域的类似场景中也显示出巨大的潜力。
参考
[1]. Flat U-Net: An Efficient Ultralightweight Model for Solar Filament Segmentation in Full-disk
Images .
点击上方卡片,关注
「AI视界引擎」
公众号