写在前面
大家好,我是刘聪NLP。
开工大吉!!!今天给大家带来一篇 性别偏见探索和缓解的中文数据集-CORGI-PM ,全名《CORGI-PM: A Chinese Corpus For Gender Bias Probing and Mitigation》,共包含32900个高质量标签的句子,是第一个用于性别偏见探测和缓解的句子级中文数据集,共包含3种任务: 偏见检测、偏见分类和偏见缓解 。
paper: https://arxiv.org/pdf/2301.00395.pdf
github: https://github.com/yizhilll/CORGI-PM
介绍
大规模语言模型(LMs)已经成为了现在自然语言处理的关键技术,但由于训练语料中常带有主观的性别偏见、歧视等,在大模型的使用过程中,它们时常会被放大,因此探测和缓解数据中的性别偏见变得越来越重要。
部分研究通过性别交换等自动标注方法,缓解性别偏见的语料库;也有一些人工标注的性别偏见语料库,但主要集中在单词层面或语法层面的偏见,或只关注与性别歧视相关的话题,并主要以英文为主。因此,该论文提出了第一个用于性别偏见探测和缓解的句子级中文语料库,采用一种 自动方法 (如图1所示,对含有性别偏见得分高的词的样本进行召回,然后根据其句子级性别偏见概率对样本进行重新排序和过滤),从现有的大规模中文语料库中构建可能存在性别偏见的句子集,再通过 精心设计的标注方案 ,对候选数据集进行进一步的标注,构建可以用于 性别偏见检测、分类和缓解三种任务的数据集 。
数据构建
样本过滤
如图1所示,该研究通过单词级到句子级的两阶段过滤,从原始语料库中召回、排序和过滤待标注候选数据。对于 词级别过滤 ,通过计算目标词与种子方向之间得分,构建一个高偏见分数的词表,并从原始语料库中匹配包含这些词语的句子,为初步候选集合。其中得分计算如下:
正值表示该词语更适合女性,负值表示该词语更适合男性,性别偏见得分绝对值越高,说明该词语的偏见程度越高 。过滤得到的词汇绘制的词云如图5所示,对于 句子级别过滤 ,计算句子的性别偏见得分,并根据获得性别偏见关键词进行分组,然后根据特定的全局阈值性别偏见得分和组内阈值排名选择待标注的最终句子集合。
标注规则
标注方案为标注人员对一个句子进行判断,判断是否存在性别偏见;如果存在,则需要给出偏见具体类型,并为了缓解性别偏见,还需要对有偏见的句子进行纠正,给出无偏见句子。为保证标注质量,6名标注人员均具有学士学位,并且男女比例相同。
「偏见类别」 共包含3种:
-
AC:性别刻板的活动和职业选择;
-
DI:性别刻板的描述和概况;
-
ANB:表达性别刻板的态度、规范和信仰。
缓解性别偏见 主要是在保留原始语义信息的同时,减轻所选句子的性别偏见,并要求标注者进行使句子的表达式多样化,主要修改规则如下:
-
用中性代词取代性别代词;
-
用语义定义相近的中性描述替换性别特定的形容词;
-
对不能直接减轻的句子,添加额外的解释进行中和。
标注过程分为两个阶段:第一阶段,各标注者进行标注,并要求不要输入不确定样本;第二阶段,标注者之间进行交叉标注。
语料分析
CORGI-PM数据统计如表1所示,共包含32.9k数据,并考虑数据分布,划分了训练集、验证集及测试集。偏见数据格式样例:
{
'train':{
# 原始句子
'ori_sentence': [
sent_0,
sent_1,
...,
],
# 偏见类型
'bias_labels': [
[0 1 0],
[0 1 0],
[0 1 0],
...,
],
# 人工去偏句子
'edit_sentence': [
edited_sent_0,
edited_sent_1,
...,
],
},
'valid':{
... # 与训练集一致
},
'test':{
... # 与训练集一致
}
}
无偏见数据格式样例:
{
'train':{
# 原始句子
'text': [
sent_0,
sent_1,
...,
],
},
'valid':{
... # 与训练集一致
},
'test':{
... # 与训练集一致
}
}
实验结果
针对性别偏见检测及分类任务,以Precision、Recall和F1作为评价指标,采用BERT、Electra和XLNet模型进行微调进行实验对比,并采用GPT-3 Curie模型进行zero-shot实验,结果如表3所示。
总结
中文首个性别偏见探索和缓解数据集,开源不易,且用且珍惜。
请多多关注知乎 「刘聪NLP」 ,有问题的朋友也欢迎加我微信「logCong」私聊,交个朋友吧,一起学习,一起进步。我们的口号是“生命不止,学习不停”。
往期推荐:
- AAAI2023 | 基于统一语义匹配的通用信息抽取框架-USM
- IJCAI2022 | DictBert:采用对比学习的字典描述知识增强的预训练语言模型
- 中文NER数据集整理
- ACL2022|NoisyTune:微调前加入少量噪音可能会有意想不到的效果
- ACL2022论文分类汇总-Prompt、句子表征、检索排序&摘要
- 总结|Prompt在NER场景的应用
- NAACL2022-Prompt相关论文&对Prompt的看法
- PolyLoss:一种将分类损失函数加入泰勒展开式的损失函数
- PERT:一种基于乱序语言模型的预训练模型
- DiffCSE:结合句子间差异的无监督句子嵌入对比学习方法
- PairSCL:句子对级别的有监督对比学习方法
- OpenAI:基于对比学习的预训练文本&代码表征技术
- SNCSE:一种基于软负例的无监督句向量对比学习方法
- SimCSE论文精读