本站域名Spaces.Ac.Cn的PR为2了
By 苏剑林 | 2009-11-01 | 24100位读者 | 引用美国科学家用3000幅照片拼接夜空全景
By 苏剑林 | 2009-11-03 | 17196位读者 | 引用【宇宙驿站】拼音输入法天文学词库
By 苏剑林 | 2009-11-11 | 18635位读者 | 引用《当彩色的声音尝起来是甜的》电子版
By 苏剑林 | 2009-11-15 | 26089位读者 | 引用内容来源于:http://www.verycd.com/topics/2777592/
站长注:虽然有电子版,但是还是建议没有购买纸版的读者到书店或者网上购买一本。一是为了支持科学松鼠会和中国科学出版事业,二是拿着一本纸版书细细品味的感觉是读电子书绝对感受不到的。
《当彩色的声音尝起来是甜的》是科学松鼠会出版的第一本书,站长在得到消息后的第一时间,就在卓越上购买了它。这本书由上海三联书店出版。本书不是一本博客集,出自松鼠会网站的文章只占了1/3。全书54篇文章,精选自百位松鼠近三年创作的上千篇文章,从口腔溃疡到国际空间站,从玫瑰花到数学思想实验,内容天马行空,文字灵动活泼,一改传统科普的严肃面孔。
你的CRF层的学习率可能不够大
By 苏剑林 | 2020-02-07 | 99967位读者 | 引用CRF是做序列标注的经典方法,它理论优雅,实际也很有效,如果还不了解CRF的读者欢迎阅读旧作《简明条件随机场CRF介绍(附带纯Keras实现)》。在BERT模型出来之后,也有不少工作探索了BERT+CRF用于序列标注任务的做法。然而,很多实验结果显示(比如论文《BERT Meets Chinese Word Segmentation》)不管是中文分词还是实体识别任务,相比于简单的BERT+Softmax,BERT+CRF似乎并没有带来什么提升,这跟传统的BiLSTM+CRF或CNN+CRF的模型表现并不一样。
这两天给bert4keras增加了用CRF做中文分词的例子(task_sequence_labeling_cws_crf.py),在调试过程中发现了CRF层可能存在学习不充分的问题,进一步做了几个对比实验,结果显示这可能是CRF在BERT中没什么提升的主要原因,遂在此记录一下分析过程,与大家分享。
最近评论