bert 是单标签还是多标签 的分类_【多标签分类】基于类别属性的注意力机制解决标签不均衡和标签相似问题...
发布日期:2021-06-24 12:16:20 浏览次数:2 分类:技术文章

本文共 5277 字,大约阅读时间需要 17 分钟。

点击上方,选择星标置顶,每天给你送干货552c278d85233c8fe01ef7bcad964656.png

阅读大概需要12分钟136387da6b0651d3e4c0a959d96c18ca.png

跟随小博主,每天进步一丢丢a226b6ebc4567661aa430a854a15ec97.png

作者:太子長琴(NLP算法工程师)

来自:AINLP公众号

Paper: 

http://nlp.csai.tsinghua.edu.cn/~tcc/publications/coling2018_attribute.pdf

code: https://github.com/thunlp/attribute_charge

核心思想:基于类别属性的注意力机制共同学习属性感知和无属性的文本表示。

这是 COLING2018 上的一篇老论文了,最近因为一些事情正好遇上,当时大概看了一下就发现这篇文章正好解决了我之前在做多分类任务时没有解决的问题。所以拿来记录一下,顺便研究下代码。

Abstract

本文主要解决罪名预测(根据刑事法律文书中的案情描述和事实部分,预测被告人被判的罪名)中的两个问题:

  • 数据不平衡问题:有些罪名的 case 太少

  • 标签相似的问题:有些罪名意思过于接近

文章通过提取罪名相关属性作为额外特征,不仅为 case 少的罪名类别提供了信息,同时还可以作为鉴别相似标签的有效信号。结果在 few-shot 场景下比 baseline 取得 50% 的提升。

看到这里当时就有两个反应:卧槽,为啥这么简单我没想到?卧槽,为啥这么简单的方法效果居然这么好?

Introduction

传统的做法是人工设计特征,包括文本相关(字、词、短语)和属性特征相关(日期,位置,条款,类型),目前基本都是用深度学习的方法在做了。

不过依然有两个主要挑战:

  • Few-Shot Charges:实际场景中,最多的 10 种罪名占了 78.1%,最少的 50 种罪名仅占不到 0.5% 而且大部分就 10 个左右的案例。传统的方法一般忽略少的,深度学习需要一定量的训练样本。所以,这个问题成为决定一个系统鲁棒性和有效性的关键。

  • Confusing Charges:比如(盗窃,抢劫),(挪用资金,挪用公款),它们的定义仅在验证特定行为时有所不同,对应案例中的条件常常非常相似。

为了解决这两个问题,本文建议考虑具有区别罪名的法律属性,并将这些属性作为犯罪事实描述和罪名之间的映射。具体而言,选中 10 个有代表属性的罪名,然后进行低成本类别级构建:对每个罪名,注释每个属性的值(是,否或不可用)。

有了属性注释后,本文提出一个多任务学习框架来同时预测每个案例的属性和罪名。在模型中,使用属性注意力机制来捕获与特定属性相关的关键事实信息。之后,将这些属性感知与无属性事实表征(文本表征)结合起来,预测最终的罪名。

这样做的两个原因:

  • 这些属性可以提供有关如何区分相似罪名的明确知识。

  • 所有罪名共享这些属性,知识可以从高频罪名转向低频罪名。

本文的三个主要贡献:

  • 首先专注于 Few-Shot Charges 和 Confusing Charges。

  • 提出了一种新颖的多任务学习框架,以共同推断案件的属性和指控。采用注意力机制学习属性感知的事实表示。

  • 在真实数据集上结果优于其他基准,在 few-short 罪名上的提升超过 50%。

Related Work

Zero-Shot Classification

与计算视觉中的 Zero-Shot 相关。有许多基于属性的模型,属性在不同类别间共享并提供中间表示。

  • Lampert et al. (2014) 提出了 direct attribute prediction 和 indirect attribute prediction,并提出可以预训练,当需要寻找新的合适的对象类别时就不用再训练的属性分类器。

  • Akata et al. (2013) 提出将基于属性的分类任务转为标签 embedding 任务。

  • Jayaraman, Grauman (2014) 引入随机森林方法,强调了未知类别属性预测的不可靠性。

除了属性外,还可以引入其他信息:

  • Elhoseiny et al. (2014) 使用标签的文本描述在文本特征和视觉特征之间传递知识。

  • Zero-Shot 除了用在 object recognition 外,还被用于 activity recognition 和 event recognition

Charge Prediction

法律领域一直致力于自动裁决。

  • Kort (1957) 使用定量方法计算事实元素的数值预测。

  • Nagel (1963) 利用相关性分析对重新分配案件进行预测。

  • Keown (1980) 引入数学模型,如线性模型和最近邻。

这些模型通常限于标签少的小型数据集。

在机器学习兴起时,问题转化为文本分类,通常需要从案例中提取特征。

  • Lin 等 (2012) 提取 21 个法律因素标签分类。

  • Mackaay 和 Robillard (1974) 提取了 Ngram 和通过语义相似 Ngram 聚类得到的主题作为特征。

  • Sulea 等 (2017) 提出了基于 SVM 继承的系统,使用案例描述,案例的裁定和时间跨度作为输入。

不过这些方法只能提取在大数据集上难以收集的浅层语义表征或手动标签,而且,常规模型无法捕捉相似犯罪之间的细微差别。

随着深度学习的兴起,Luo et al. (2017) 提出了一个分层注意力网络同时预测罪名并提取相关文章。

Method

Discriminative Charge Attributes

为所有罪名引入了 10 个判别属性,对每个(罪名,属性)对,可以标记为是,否或不可用)。比如,故意杀人罪的指控在故意犯罪上标记为 “否”,在死亡时标记为 “是”,在国家机关标记为 “不适用”。对特定属性,特定案件的标签和相应罪名的标签应相同或不冲突。在实践中,手动标记了 149 种不同罪名的属性,然后为每个案例分配与其相应罪名相同的属性。

4ac8f7fdb8cdac1b4e20666b756e7f37.png

Formalizations

4568953e67b29f1a9b1bff18a424657a.png

Charge Prediction

给定犯罪事实文本,预测一个罪名

Attributes Prediction

二分类任务,给定犯罪事实文本,预测每个属性的分类

Fact Encoder

LSTM + Max-Pooling 获得无属性文本表征8db9157c22087bf2a25e28add303aab2.png

s 是 hidden states 的维度。n 是 time step。也就是取了每个 hidden state 中的最大值提出来重新组成一个向量作为句子的表征。

Attentive Attribute Predictor

采用注意力机制从犯罪事实文本中选择相关信息并生成属性感知的事实表示。

Step1: 输入为 hidden states 序列:h = {h1, ..., hn}

Step 2: 然后计算所有属性的 attention weights a = {a1, ..., ak}ai = [ai1,...ain]

f1bd0561cda97727c0a0d65c5f13f431.png

ui 是第 i 个属性的上下文向量,用于计算元素对属性的信息程度。Wα 是所有属性共享的权重矩阵。

Step3: 然后得到属性感知的表示:g = {g1, ..., gk}gi = Σt ait ht

Step4: 最后用 g + softmax 获得 p 的预测结果:

4802eb7aa6a61ac7dafdb8480810d5a3.png

Output Layer

属性无关 + 属性感知表示预测最终的罪名:

1588bcea69ad9cbf8c47e52808c8e78d.png

Optimization

包括两部分

Part1: 最小化预测罪名和真实罪名分布的交叉熵(C 是罪名总数)

73fb587f382df7810d2eceec38f58768.png

Part2: 最小化每个属性预测分布和真实分布的交叉熵(求和是或否的 loss)

f867663986324ba4ef573962ecdef138.png

Ii 指示 label 是 yes/no (Ii=1) 还是 NA(Ii=0)

最终的 loss function(α 是超参数):

8ddacb15daa772c8b79c807eb2cfad19.png

Experiments

Dataset Construction

数据来源:中国判决文书网

简单起见,将多个罪名的调整为一个罪名;同时为了检查模型在 few-shot 任务中的表现,将罪名调成为 149 个完全不同的(每个罪名至少包含 10 个案例)。

随机选择了 40 万案例构建了三个不同量级的数据集,它们包含的罪名相同,只是数量不同。

Attribute Selection and Annotation

如何选择属性呢?

  • 训练一个基于 LSTM 的罪名预测模型,在验证集上得到预测结果的混淆矩阵。

  • 筛选出相似罪名(标签相似)对,专家从中定义出 10 个能狗区分这些相似罪名的、有代表性的属性。

  • 使用这 10 个属性对所有的罪名低成本标注,所谓的低成本意思是只对 149 个罪名手动标注,而不是对所有的案例进行标注。

全文最经典的部分了。很聪明、优雅的做法。

Baselines

多个文本分类模型 + 一个罪名预测模型:

  • TFIDF + SVM:TFIDF 提取特征

  • CNN

  • LSTM

  • Fact-Law Attention Model: Luo et al. (2017)

Experiment Settings and Evaluation Metrics

  • max sequence length: 500

  • TFIDF feature size: 2000

  • Skip-Gram pre-train word embeddings (size 100)

  • LSTM hidden state size: 100

  • CNN filter (2, 3, 4, 5), filter size 25

  • α = 1

  • Adam

  • lr = 0.001

  • dropout = 0.5

  • batch size 64

  • Macro-F1

Results and Analysis

acf76e35476248ed6af60d7c5cd25b03.png

Few-Shot 任务的结果:(Low,≤ 10;High,> 100)

257b9737d90c07aa25233db1cfffd34f.png

Ablation Test

  • 取消注意力机制时,对每个属性,将注意力机制替换为全连接层。

  • 取消属性感知表示时,退化为基于 LSTM 的典型多任务学习。

2cd2ff965e12c558edc3a8a3e0a59d96.png

Case Study

江苏省南京市江宁区人民检察院指控,2013年4月2109时许, 被告人朱某在南京市江宁区横溪街道UNK社区美尚家具厂门前 ,因驾车问题与于某甲发生争执,后朱某纠集他人至美尚家 具厂车间内,持铁棍、斧子等工具对于某甲实施殴打,被害 人尤某在帮助于某甲抵挡时被砍伤,UNK某右侧顶骨骨折等 损伤经南京市公安局江宁分局法医鉴定,被害人尤某的损伤程度为轻伤

这个案件被判为故意伤害罪,故意伤害罪和骚扰是一对相似类别,都和暴力有关。一个重要的区别就是故意伤害罪有 “身体伤害” 的特征。

所以 Physical Injury 这个属性在这里一定是非常重要的,事实上模型也正确预测了 Physical Injury 的 label 是 yes,最终的罪名也预测为 “故意伤害罪”,相反,LSTM-200 则把结果预测为 “骚扰”。

从下面的注意力热力图也可以看出,注意力机制能够捕获当前属性相关的关键模式和语义。

ec733e3a546ad02ea247edca481639e3.png

Conclusion

为解决 Few-Shot 和标签相似问题,引入了判别法律属性,提出了基于属性的多任务学习模型。具体来说,模型通过利用基于属性的注意力机制来共同学习无属性和属性感知的事实表示。进一步的探索方向包括:更复杂的案件判断(如多标签)和更复杂的罪名属性。


本文由作者授权AINLP原创发布于公众号平台,点击'阅读原文'直达原文链接,欢迎投稿,AI、NLP均可。

原文链接:

https://yam.gift/2019/12/15/Paper/2019-12-15-Few-Shot-Charge-Prediction-with-Discriminative-Legal-Attributes/


方便交流学习,备注:
昵称-学校(公司)-方向,进入DL&NLP交流群。 方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
c7b201d1c030a697f368e26a3fb0c5e1.png 记得备注呦
推荐阅读:
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency  Parsing
【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货 | 那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作

e9d8a1f13f81dc88bc2d3386c0c917a7.png 让更多的人知道你“在看”
d8886bfdedebed4fa0c35d88d7af03a3.gif

转载地址:https://blog.csdn.net/weixin_32667439/article/details/112109039 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:异星工厂 自动机器人_Mir机器人+输送系统,实现霍尼韦尔工厂物流搬运全自动化#机器人...
下一篇:oom 如何避免 高并发_1篇文章搞清楚8种JVM内存溢出(OOM)的原因和解决方法

发表评论

最新留言

能坚持,总会有不一样的收获!
[***.219.124.196]2024年04月23日 22时44分18秒