bert4keras在手,baseline我有:百度LIC2020
By 苏剑林 | 2020-04-02 | 94005位读者 |百度的“2020语言与智能技术竞赛”开赛了,今年有五个赛道,分别是机器阅读理解、推荐任务对话、语义解析、关系抽取、事件抽取。每个赛道中,主办方都给出了基于PaddlePaddle的baseline模型,这里笔者也基于bert4keras给出其中三个赛道的个人baseline,从中我们可以看到用bert4keras搭建baseline模型的方便快捷与简练。
思路简析 #
这里简单分析一下这三个赛道的任务特点以及对应的baseline设计。
阅读理解 #
样本示例:
{
"context": "这位朋友你好,女性出现妊娠反应一般是从6-12周左右,也就是女性怀孕1个多月就会开始出现反应,第3个月的时候,妊辰反应基本结束。 而大部分女性怀孕初期都会出现恶心、呕吐的感觉,这些症状都是因人而异的,除非恶心、呕吐的非常厉害,才需要就医,否则这些都是刚怀孕的的正常症状。1-3个月的时候可以观察一下自己的皮肤,一般女性怀孕初期可能会产生皮肤色素沉淀或是腹壁产生妊娠纹,特别是在怀孕的后期更加明显。 还有很多女性怀孕初期会出现疲倦、嗜睡的情况。怀孕三个月的时候,膀胱会受到日益胀大的子宫的压迫,容量会变小,所以怀孕期间也会有尿频的现象出现。月经停止也是刚怀孕最容易出现的症状,只要是平时月> 经正常的女性,在性行为后超过正常经期两周,就有可能是怀孕了。 如果你想判断自己是否怀孕,可以看看自己有没有这些反应。当然这也只是多数人的怀孕表现,也有部分女性怀孕表现并不完全是这样,如果你无法确定自己是否怀孕,最好去医院检查一下。",
"qas": [
{
"question": "怀孕多久会有反应",
"id": "f2843cffb845aad0100062841222023e",
"answers": [
{
"text": "6-12周左右",
"answer_start": -1
},
{
"text": "6-12周",
"answer_start": -1
},
{
"text": "1个多月",
"answer_start": -1
}
]
}
]
}
这个baseline其实没什么好说的,就是经过BERT之后,接两个全连接+Softmax分别预测答案的首和尾。有些训练样本标注了多个答案,但预测的时候只需要预测一个答案,所以训练阶段每次只随机选取一个答案进行训练。
关系抽取 #
样本示例:
{
"text": "谢霆锋扮演的花无缺2004年由大导演王晶执导的40集电视连续剧《绝代双骄》的改版《小鱼儿与花无缺》上映,小编不是针对导演和演员,这部电视连续剧确实可说是天雷滚滚的魔改版,得亏全部主演凭借颜值和演技把观众拴住了,故事情节改的一塌糊涂",
"spo_list": [
{
"predicate": "导演",
"object": {
"@value": "王晶"
},
"subject": "小鱼儿与花无缺"
},
{
"predicate": "主演",
"object": {
"@value": "谢霆锋"
},
"subject": "小鱼儿与花无缺"
},
{
"predicate": "主角",
"object": {
"@value": "花无缺"
},
"subject": "绝代双骄"
},
{
"predicate": "饰演",
"object": {
"inWork": "小鱼儿与花无缺",
"@value": "花无缺"
},
"subject": "谢霆锋"
}
]
}
关系抽取就是去年的三元组抽取,只不过今年做了一些升级。升级的地方在于考虑同一个predicate的多义性,比如“饰演”,有可能是指饰演了哪部电视剧,也有可能指饰演了电视剧中的哪个角色,如果同一个句子中含有多个不同的被饰演的对象(object),那么要全部抽取出来才算对。说是说升级,但其实没有本质变化,我们只需要把predicate和object对应的前缀拼接起来作为不同的predicate,就退化为常规的三元组抽取问题了,比如“饰演_@value”、“饰演_inWork”当成两个不同的predicate分别抽取。笔者baseline模型依然是基于去年的“半指针-半标注”设计,详情可参考《基于DGCNN和概率图的轻量级信息抽取模型》。
事件抽取 #
样本示例:
{
"text": "雀巢裁员4000人:时代抛弃你时,连招呼都不会打!",
"id": "409389c96efe78d6af1c86e0450fd2d7",
"event_list": [
{
"event_type": "组织关系-裁员",
"trigger": "裁员",
"trigger_start_index": 2,
"arguments": [
{
"argument_start_index": 0,
"role": "裁员方",
"argument": "雀巢",
"alias": [
]
},
{
"argument_start_index": 4,
"role": "裁员人数",
"argument": "4000人",
"alias": [
]
}
],
"class": "组织关系"
}
]
}
事件抽取是一个比较新的任务,要抽取出事件类型以及描述该事件的一些元素,同一个句子可能有多个事件,同一个实体可以同时描述多个事件(比如“XX月XX日”可能同时是多个事件发生时间)。本身事件抽取是比较复杂的任务,但是这次比赛主办方只评测(event_type, role, argument) 构成的三元组,也就是这样的三元组匹配上了,就加1分。而event_type、role都是离散的类别,argument则是原文中的一个实体,所以官方这样的评测指标就将这个任务退化为普通的实体标注问题了,因此可以用常规的序列标注模型来解决,笔者的baseline以及官方的baseline,都是转化为序列标注任务给出的。
匹配原序列 #
上面三个比赛,本质上都是抽取问题,也就是说输出的实体都是原文中的片段。但是原始文本经过BERT的tokenizer后,不一定跟原始文本对得上了,存在小幅度的“增”、“删”、“改”的可能性(比如转小写、空格数目变化、部分字符转写),这些小幅度的改动对于工程上的评估是无关紧要的,但是对于这种比赛或学术的评测却是很重要的,因为如果不同的字符哪怕看起来一样,都会匹配错误。比如读者可以把下属代码复制到python运行一下:
u'à' == u'à'
为了将分词后的结果对应回原序列,笔者专门花了点时间,给bert4keras的Tokenizer
补充了rematch
方法,只要传入原始文本和分词后的结果,那么将会返回token到原始文本的映射关系,有了这个映射关系,就可以直接在原始文本中切片了。具体操作大家直接看baseline即可。
文章小结 #
写了三个baseline,又水了一篇博客~
转载到请包括本文地址:https://spaces.ac.cn/archives/7321
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Apr. 02, 2020). 《bert4keras在手,baseline我有:百度LIC2020 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/7321
@online{kexuefm-7321,
title={bert4keras在手,baseline我有:百度LIC2020},
author={苏剑林},
year={2020},
month={Apr},
url={\url{https://spaces.ac.cn/archives/7321}},
}
April 6th, 2020
您好,我把关系抽取的baseline源码跑了几遍遍,什么都没有改,但结果上传之后f1只能达到0.62左右,都达不到0.68,请问一下可能是什么原因呢?
我也不知道~或许你可以尝试把运行环境完全对齐再跑跑。
喔喔,我用的tensorflow==1.15.2,我把它降级到tensorflow==1.14试试。
April 20th, 2020
大佬你好
使用了你的阅读理解的baseline 遇到一个问题 在训练的第一个epoch就得到最好的评分 但是此时有很高的loss 准确率也不高 然而继续训练并不会提高模型表现。 由于资源有限只跑了10个epoch 但是都无法超过第一个的结果 如果继续训练下去这个现象是否会改变 超过前面的模型
那可能就是第一个epoch最高了~
May 10th, 2020
"就退化为常规的三元组抽取问题了,比如“饰演_@value”、“饰演_inWork”当成两个不同的predicate分别抽取。" 苏神你好,思考了一下这里面的表述,参考了竞赛页面的评分方式,感觉如果这样拆开了抽取的话会不符合竞赛要求。 像谢霆锋在 花无缺与小鱼儿 里面饰演了小鱼儿, 如果在同一句里面有谢霆锋的另外一个剧, 谢霆锋在 锋味 里面饰演了厨师, 那如果分开抽取的话有可能会造成 谢霆锋 在 锋味 里面饰演小鱼儿 的情况是不~
按你这样说可能确实有些问题,但作为baseline来说我觉得适合啦
June 29th, 2020
苏神,请教个问题,bert4keras里面的ALBERT的实现和brightmart的ALBERT的实现细节有哪些区别,目前我发现的有:没了低秩分解,adam的实现不同
我用两个模型在同样数据集的表现差距还蛮大的(我用的都是ALBERT Tiny)
徐亮自己的评测都差不多,大家都有低秩分解。不知道你什么任务差距这么大?
June 29th, 2020
在NER任务上,我用的是转换过的模型文件,里面说明里是放弃掉低秩分解的,并且我看tiny的配置没有传入embedding size,所以默认就使用的hidden size应该是没有低秩分解的
下面是说明的引用:
“注意,我们说brightmart版albert跟Google版不一致,并不是单纯指变量命名上的不一致,而是模型架构上就不一致(两者处理Embedding层的方式不一样),所以原封不动的转换是做不到的。但如果放弃Embedding层的低秩分解,那么可以转换一个版本出来。”
因此,本项目转换出来的模型,Embedding层都是没有低秩分解的,但是保留了transformer block的跨层参数共享。
如果是笔者转换过的模型,确实是没有低秩分解的。差别有多大呢?我自己这边测试并没有什么差别。
我多跑了几次,结果基本差不多,感觉和随机种子有关,bert4keras里有统一设置随机种子的地方吗?
没有。就算设置随机种子也没法确保复现结果,最好的方法还是多实验几次,报告均值和方差。
July 6th, 2020
苏神你好,最后事件提取我看你做的方式似乎是比如4个事件,每个事件role有4个, crf的标签为 16x2个+一个trigger?
最后一个是o标签,代表非抽取的部分。
August 6th, 2020
苏老师好,可否提供下关系抽取任务的这个数据集呢?非常感谢。邮箱:343235540@qq.com
September 27th, 2020
比较好奇,u'à' == u'à'这个部分,试着得到两者的asc码,后者可以,前者提示传参错误,在删除代码的过程中发现,前者第一次删除是去掉了声调,第二次才把字符a删除,请问这是什么情况呢?
前者是两个字符,后者是一个字符。
October 18th, 2020
苏神您好,我在尝试复现您ee赛道代码时,出现了报错:在ee.py大概170行的位置,for w, l in arauments那里报了out of index. 代码环境依赖版本是跟您github提供代码对齐的,请问这个可能原因是什么呢?非常非常感谢~
可能有随机因素,也可能是数据集原因?我估计并不是每个样本的预测都会报错的,你可以对比一下报错的和不报错的预测过程(比如print一下arguments变量),看看有什么差别,可能我当时没处理好一些特殊情况。
November 7th, 2020
苏老师,可否提供关系抽取和事件抽取的的数据集?非常感谢,邮箱zxfxuan@163.com
不负责提供数据,抱歉。