—— NTIRE Workshop & Challenges @ CVPR 2026
一、竞赛背景:从“好看”到“可信”的UGC图像增强
在短视频与社交平台高度发达的今天,图像增强与修复技术已经深度融入各类UGC(User-Generated Content)创作流程。无论是“一键美颜”、照片应用中的人像修复,还是近年快速发展的 Text-to-Image/Image-to-Image 生成式增强 ,图像增强与修复技术已经能够在真实场景中显著提升画质与观感。
然而,伴随生成式模型能力的飞跃,新的问题也在加速暴露:
-
结构与语义失真: 如人脸结构错位、面部器官缺失或变形、脸与身体比例异常等;
-
细节与纹理异常: 如皮肤纹理“过度平滑”、伪造高频细节、局部块状伪影;
-
语义敏感区域问题: 如人脸身份特征被篡改、表情被误生成、不真实的面部光影;
-
内容合规与信任危机: 人脸错误、文本错误、商标篡改等,不仅影响视觉质量,还引发版权、隐私及内容可信度风险。
在短视频与社交平台场景中,人脸是用户最关注、最敏感的区域 :它直接影响作品美观度、创作者表达的准确性和观众的信任感。一旦人脸增强出现异常,不仅破坏观感,更可能违背创作者本意,甚至引发用户投诉和平台风险。
在此背景下,我们计划在 CVPR 2026 NTIRE Workshop & Challenges 发起 “Anomaly Detection of Face Enhancement for UGC Images” 竞赛, 聚焦“面向真实UGC场景的人脸增强异常检测”,推动学术界与产业界共同探索这一关键但尚未充分研究的问题。
二、竞赛目标:面向真实UGC的人脸增强异常检测基准
本次竞赛的核心目标可以概括为三点:
- 建立首个面向UGC人脸增强异常检测的公开基准
-
聚焦“原始图像 → 增强后图像”这一真实业务链路;
-
标注增强过程中引入的人脸异常类型与严重程度;
-
为学术界与工业界提供可复现、可对比的评测平台。
- 推动“质量提升”向“质量+可信度+可控性”升级
-
传统工作更多关注 PSNR、SSIM、LPIPS、画质质量等画质指标;
-
本竞赛强调:画面变“好看”的同时,不能牺牲语义正确性与可信度;
-
鼓励参赛者将质量评价、异常检测、可解释性分析结合起来。
- 促进算法在真实业务场景中的落地与闭环
-
关注真实UGC分布与实际生成算法所带来的“自然分布异常”,而非人工构造的极端样本。
三、 竞赛任务与数据形式
1. 竞赛链接
2. 任务定义
参赛者需要在给定的 成对图像数据 上完成以下任务:
输入:
-
I_orig: 原始 UGC 图像(未经增强/修复的版本);
-
I_enh: 经过增强、修复或生成式处理后的图像(人脸增强后版本)。
输出(模型需要完成的核心任务):
- 人脸增强异常检测(分类 / 检测)
-
判断在人脸区域是否存在增强引入的异常;
-
对异常进行类型识别,例如(示例,不限制于此):
-
人脸结构篡改 / 错位(结构异常)
-
面部五官缺失或伪造(局部异常)
-
不自然的皮肤纹理或伪细节(纹理异常)
-
明显违背原始身份特征的面部生成(身份相关异常)
-
其他明显降低可信度的视觉异常
b. 异常严重程度评估(评分 / 分级)
-
对已检测到的人脸异常进行 严重程度量化 :
-
例如:轻微可接受、中度干扰、严重不可接受等等级;
-
或回归式评分,用以反映对用户感知和内容表达的破坏程度。
3. 数据形式与标注信息
本次竞赛计划提供的核心数据形式为:
-
成对UGG图像数据
-
I_orig :用户生成的原始图像(存在噪声、模糊、压缩伪影等问题);
-
I_enh :经真实或模拟的增强/生成流程处理后的图像。
这些数据将尽可能贴合真实平台场景中的分布与处理链路。
-
人脸区域与异常标注 (示意):
-
人脸区域位置(如 bounding box / mask);
-
异常类型标签,如:{structure_error, texture_error, identity_shift, unnatural_effect, ...};
-
异常严重程度标签,如:{0, 1, 2, …} 或分级标签(轻度/中度/重度)。
-
训练/验证/测试集划分:
-
训练集:提供完整的图像对及对应标签,用于模型训练;
-
验证集:提供部分标签,供方法调参与模型选择;
-
测试集:仅提供图像对,不提供标签,由参赛者提交预测结果,由主办方统一评测。
4. 评测指标
在最终评测中,我们将综合考虑:
-
异常检测能力: 如分类准确率、F1-score、AUC 等;
-
严重程度回归或分级质量: 如 MAE、RMSE、加权Kappa 等;
-
整体系统鲁棒性与泛化能力: 针对不同增强方法、不同类型UGC的表现一致性。
四、竞赛关注的核心问题
本次竞赛鼓励参赛团队从以下关键方向展开探索:
- 面向 人脸的增强质量与异常联合建模
- 如何将传统图像质量评价(IQA / NR-IQA)与人脸结构一致性、身份保持、语义合理性结合?
- 如何利用深度特征空间中的“分布偏移”揭示增强引入的潜在异常?
- 生成式模型与异常检测的协同
- 利用大规模预训练的视觉/多模态模型(如视觉大模型、视觉-语言模型)进行异常感知;
- 探索自监督、对比学习等范式,在缺乏海量异常标注的情况下学习鲁棒特征。
- 跨增强算法与多域泛化
- 模型是否能够在不同类型的增强算法(传统超分 / 去噪 / Diffusion / GAN / LMM编辑等)之间保持稳定表现?
- 如何降低对特定算法分布的过拟合,提升面对未知增强方式时的检测能力?
- 与主观感知的对齐
-
如何让异常严重程度评估更好地对齐用户主观感知?
-
如何在“允许一定程度美化”与“避免过度扭曲/篡改”之间找到平衡?
五、竞赛的意义与价值
1. 学术研究层面的意义
- 促进多方向交叉融合
任务本质上融合了图像增强、质量评价、人脸理解、异常检测、生成式模型安全等多个方向,有助于推动 跨领域方法创新,催生新的问题定义和算法范式。
- 构建系统化评测基准
通过成对 UGC 图像及异常标注,本竞赛为社区提供一个可复现、可对比的标准基准,促进不同方法在统一框架下进行公平评测,有助于形成清晰的研究脉络与共识。
- 拓展图像增强研究边界
本竞赛将研究重点从传统的“画质提升”(如分辨率、噪声抑制)拓展到 “增强过程中的异常与风险”,推动图像增强领域从单一质量优化向“质量 + 可信度 + 语义正确性”的综合目标演进。
- 多样化方法探索空间
可结合自监督学习、对比学习、图像-文本多模态建模、Diffusion-based feature 等多种前沿技术; 鼓励端到端检测、两阶段“定位+评估”、评分回归与排序学习等多种方案。
- 学术影响力
竞赛依托 CVPR 2026 NTIRE Workshop & Challenges ,具有良好的学术曝光度与影响力。
2. 面向用户与社会信任的价值
- 保护创作者意图与形象
人脸是最直接承载身份与情绪表达的区域。针对人脸增强异常进行检测与控制,有助于更好地保护创作者的形象与原始意图,减少“被算法误伤”的情况。
- 增强内容消费端的信任感
减少明显的人脸结构错误、身份错配与不自然效果,可以显著提升观众对内容的真实性与可靠性认知,缓解“算法过度美化”“虚假形象”等引发的负面观感。
- 推动可信与负责任的生成式AI实践
面向异常检测的系统化研究,是构建稳健、可控、负责任的生成式 AI 系统的重要组成部分。本竞赛为业界与学界提供了一个围绕“可信增强”展开协作与对话的平台。
六、预期影响与展望
通过本次 Anomaly Detection of Face Enhancement for UGC Images 竞赛,我们希望在以下方面产生持续影响:
- 推动社区关注“增强异常”这一长期被低估的问题:
让研究者不仅关心“增强得更清晰”,也同样重视“增强得更正确、更可信”。 2. 形成面向UGC人脸增强的统一评测体系:
在学术论文、工业实践中,为“人脸增强异常检测与严重度评估”建立可复用的基准与指标。 3. 促进生成式大模型与质量评估/安全性评估的深度融合:
借助大模型的强大表征能力,将“质量感知、语义理解、风险审查”融为一体,为未来的智能创作平台提供核心能力。
七、结语:期待你的加入
面向UGC时代,图像增强技术已经从“锦上添花”走向“基础设施”。
如何在大规模生成与自动增强的浪潮中,确保人脸内容的 真实、可信与可控 ,是一个兼具技术挑战与社会价值的关键问题。
我们诚挚邀请来自高校实验室、科研机构、互联网与内容平台企业、AI创业团队 的研究者和工程师,共同参与 “Anomaly Detection of Face Enhancement for UGC Images” 竞赛,在 CVPR 2026 的舞台上,一起定义这一方向的技术标准与未来边界。
请参赛人员加入如下微信群,方便沟通交流与通知发布。如二维码失效,可联系主办方人员(WeChat:ZhongYan946)拉进群聊。
