评估基于 EfficientNet-B4视觉骨干网络的Gemini大语言模型的应用 !

大模型机器学习算法

备注好友:方向-学校/公司-姓名/昵称

【AIGC 先锋科技】交流群

picture.image

picture.image

Image

数字餐饮应用的普及催生了对自动化营养分析与烹饪指导的迫切需求。本文提出了一种解耦的多模态流水线在食品识别任务中的全面对比评估。作者评估了一个集成专用视觉主干网络(EfficientNet-B4)与强大生成式大语言模型(Google的Gemini LLM)的系统。核心目标在于权衡视觉分类准确率、模型效率与生成输出质量(营养数据与食谱)之间的取舍关系。作者将该流水线与多种替代视觉主干网络(VGG-16、ResNet-50、YOLOv8)及轻量级语言模型(Gemma)进行对比。

本文引入了“语义误差传播”(Semantic Error Propagation, SEP)的形式化定义,用于分析视觉模块中的分类错误如何传递至生成模块并影响最终输出。作者的分析基于新构建的定制中文食品数据集(Custom Chinese Food Dataset, CCFD),旨在缓解现有公开数据集中存在的文化偏差问题。

实验结果表明,尽管EfficientNet-B4(Top-1准确率89.0%)在准确率与效率之间提供了最佳平衡,Gemini(事实准确性9.2/10)在生成质量方面表现卓越,但系统的整体实用性仍受限于视觉前端的感知准确率。作者进一步进行了细粒度的类别级分析,识别出高语义相似性是导致系统失效的最主要原因。

1.引言

在数字时代,人们对食物的兴趣日益增长,这源于对食材成分的了解、对多样化菜系的探索以及对个人健康的关注 [13]。互联网技术的快速发展和智能手机的普及,催生了对更直观、自动化工具的需求,以简化获取食物相关信息的过程 [5], [14]。

数字食物识别已成为应对这些挑战的首选解决方案 [8]。与传统的人工查找方式相比,后者繁琐且效率低下,而基于人工智能的系统能够分析食物图像并提供详细信息。

这些识别技术大致可分为两种主要方法:

• 传统的计算机视觉方法,如使用尺度不变特征变换(Scale-Invariant Feature Transform, SIFT)或颜色直方图的方法,试图手动设计特征 [6], [9]。这些方法因其简洁性而受到赞誉,但极为脆弱,难以应对食物类别内部的高度差异性。

• 深度学习(CNN)方法,如 VGG [20]、ResNet [19] 和 EfficientNet [17],能够自动化特征提取过程 [7], [8]。这些模型学习到丰富的视觉特征层次结构,在分类任务中展现出远超传统方法的鲁棒性和准确性。

现代食品分析的核心挑战在于存在“上下文鸿沟”[16]。大多数系统在以下两项任务中仅擅长其一:

  1. 视觉分类:CNN 可以准确回答“这是什么食物?”,但无法提供进一步的上下文信息 [7]。
  2. 生成式知识:大语言模型(Large Language Models, LLMs)能够回答“这食物里有什么?”和“我该如何制作它?”这类问题,但前提是用户必须提供一个手动文本描述 [3], [12], [15]。

这在感知精度与上下文深度之间形成了权衡。为弥合这一差距,解耦的“混合”流水线受到关注[29]。这类系统将视觉主干网络(如 EfficientNet)与生成式模型(如 Gemini)相结合。视觉模型充当“视觉分词器”,将图像转换为语义 Token (如食物名称),随后由大语言模型(LLM)将其“扩展”为丰富且有用的信息。

本文对这一解耦式Pipeline进行了严格的对比评估,重点关注其性能、效率及失效模式。作者的贡献包括:

  1. 作者提出一个自定义中文食物数据集(Custom Chinese Food Dataset, CCFD) ,以专门应对并缓解现有公开食物数据集(如 Food-101 [2], [28])中广泛存在的文化偏见问题。
  2. 作者提供了一个全面的视觉模型基准测试(VGG-16、ResNet-50、EfficientNet-B4、YOLOv8),评估了模型的准确率与效率(参数量、推理时间)。
  3. 作者在定量(BLEU/ROUGE)和定性(事实准确性)指标上对生成模型(Gemma 与 Gemini)进行了基准测试。
  4. 作者形式化并分析了语义误差传播(Semantic Error Propagation, SEP) ,深入评估了系统失败的机制原因 ,区分了语义不匹配(semantic-mismatch)与语义相似性(semantic-similarity)两类错误。

2.相关工作

数字食品分析已成为一个活跃的研究领域。本节回顾基于CNN的识别、目标检测、多模态模型以及大语言模型(LLM)近期带来的影响等关键进展。

A. 传统方法与基于CNN的食物识别

空间域技术(或经典计算机视觉,classical CV)是最早采用的方法。基于SIFT、LBP和SVM的方法曾广泛使用[9],但其鲁棒性较差[6]。随着卷积神经网络(CNN)的成功,该领域正式转向深度学习[8]。早期的基础工作采用了AlexNet和VGG等架构[20]。更先进的系统则采用了集成方法,例如Fakhrou等人[7]提出了一种基于智能手机的系统,使用DenseNet201和InceptionV3的集成模型。这一研究证实,更深、更复杂的CNN在分类任务中表现最为出色。

B. 食品分析中的目标检测

随着系统变得愈发复杂,将整张图像简单分类为单一菜品已无法满足包含多个食物项的实际餐食分析需求。这促使研究者采用目标检测模型[18]。YOLO系列模型[10]或R-CNN变体[9]、[19]能够为每种食物项绘制边界框(bounding box)。Wang等人[1]使用Tiny-YOLOv2检测食物项,而其他研究如[11]则采用分割(segmentation)技术进行质量检测。这种方法实现了更细粒度的多物品分析。

C. 多模态与视觉-语言模型(VLMs)

视觉-语言模型(VLMs)代表了视觉与语言的更紧密融合。像 CLIP [3] 这类架构通过学习共享的语义空间,实现了零样本推理(zero-shot reasoning)。Ma 等人 [3] 通过利用 VLMs 从包装图像中进行高通量营养筛查,展示了这一能力。其他方法,如“逆向烹饪”(inverse cooking)[4],则尝试直接从图像中预测食材(文本),再将这些信息输入到食谱推荐系统中。

D. 大语言模型在营养分析中的应用

尽管视觉语言模型(VLMs)功能强大,但其应用通常与纯生成式大语言模型(LLM)有所区别。基于文本的LLM在营养科学领域展现出巨大的潜力。Wu等人[15]利用LLM实现了食品项目文本的自动化分类。Hua等人[12]提出了NutriBench,一个专门用于评估LLM从文本描述中估算营养信息能力的数据集。这凸显了LLM作为“知识引擎”的优势,而作者的Pipeline正是基于这一优势进行构建。

E. 研究空白

尽管取得了这些进展,Li 等人 [2] 指出一个关键的空白依然存在:大多数系统在具有文化偏见的数据集(如 Food-101 [28])上进行训练,当应用于复杂且非西方的菜系(如中式菜肴)时表现显著下降。此外,尽管已存在用于分类 [7] 或基于文本生成 [12] 的系统,但针对此类文化特异性数据集,尚缺乏对一个 解耦(decoupled)流水线(Classifier-to-LLM)的全面、端到端评估。作者的工作旨在填补这一空白。

3.方法论与模型形式化

本节详细介绍了所评估的两个主要模块的算法实现与数学形式化:视觉主干网络(Visual Backbone, V)和生成式知识模型(Generative Knowledge Model, L)。

A. 视觉主干网络(V):分类器

分类器函数

将图像

映射为一个长度为

的 logits 向量

,对应

个类别。最终的概率向量

通过 Softmax 函数计算得到:

所有分类器均通过最小化类别交叉熵损失

进行训练:

其中

为 one-hot 真实标签向量。

  1. VGG-16 (Baseline 1): VGG-16 [8], [20] 是一个由块

构成的顺序卷积神经网络(CNN),每个块包含

个卷积层,随后接最大池化(max-pooling):

其深度提供了强大的特征提取能力,但计算成本较高。

  1. ResNet-50(Baseline 2):ResNet-50 [8], [19] 引入了残差(或“捷径”)连接:

其中

为残差函数(residual function)。这使得网络能够学习恒等映射,从而缓解梯度消失问题。

  1. EfficientNet-B4(主模型):EfficientNet [7], [17] 使用

复合缩放(compound scaling)

来平衡网络深度

、宽度

和分辨率

,通过一个系数

受约束于

。这种基于原理的缩放策略,结合带有 Squeeze-and-Excitation [25] 的 Mobile Inverted Bottleneck (MBConv) 块,能够在准确率与效率之间实现最优权衡。

  1. PyTorch 实现:作者将 EfficientNet-B4 的分类头替换为匹配作者

个类别的结构。清单 1 展示了模型定义和加载过程。

关键区别在于参数集

的规模以及训练数据的海量程度,这会影响模型的事实准确性 [12], [27]。

picture.image

Image

B. 视觉主干网络(V):检测器

  1. YOLOv8(检测器 Baseline ):YOLOv8 [10] 是一种单阶段目标检测器。其功能为

。其多部分损失函数为:

其中

为边界框回归损失,通常采用先进的度量指标,如 Complete-IoU (CIoU) Loss:

其中,

表示框中心之间的欧几里得距离,

为检测框的对角线长度,

是一个惩罚框长宽比差异的项。

C. 生成式知识模型

生成模块

将类别和 Prompt

作为输入,生成结构化文本输出

  1. Transformer 与 Self-Attention:Gemini 和 Gemma 均基于 Transformer 架构 [21]。其核心机制为缩放点积 Self-Attention:

其中

(Query)、

(Key)和

(Value)是 Token Embedding 的投影。这使得模型在生成响应时能够权衡不同 Token 的重要性。

结论

本文提出了一种解耦的多模态 Pipeline 在食品分析中的实现,并进行了深入的对比评估,该 Pipeline 整合了 EfficientNet-B4 视觉主干网络(visual backbone)与 Gemini 大语言模型(LLM)。

基于新构建的自定义中文食品数据集(Custom Chinese Food Dataset, CCFD),作者的研究结果具有明确结论:

  1. EfficientNet-B4 (准确率 89.0%)和 Gemini 1.5 Pro (事实准确性 9.2/10)是该 Pipeline 中最优的组件,显著优于 VGG、ResNet 与 Gemma Baseline 模型。
  2. 系统的主要失效点在于视觉主干网络 。作者的“语义误差传播”(Semantic Error Propagation, SEP)分析表明,视觉错误会逐级传播,其中语义相似性错误(SEP 得分为 0.15)最具隐蔽性,难以被察觉。
  3. 使用文化特异性数据集 (CCFD)对于实现高精度至关重要 [2]。

本研究验证了这种解耦的Pipeline具有很高的有效性,但其实际应用价值最终仍受限于其“视觉”模块的质量。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论