SkillAgentSearch skills...

LERT

LERT: A Linguistically-motivated Pre-trained Language Model(语言学信息增强的预训练模型LERT)

Install / Use

/learn @ymcui/LERT
About this skill

Quality Score

0/100

Supported Platforms

Universal

README

中文 | English

<p align="center"> <br> <img src="./pics/banner.png" width="400"/> <br> </p> <p align="center"> <a href="https://github.com/ymcui/LERT/blob/main/LICENSE"> <img alt="GitHub" src="https://img.shields.io/github/license/ymcui/LERT.svg?color=blue&style=flat-square"> </a> </p> 通常认为预训练语言模型(Pre-trained Language Model, PLM)已经能够从海量文本中自动学习语言学知识。为了验证通过显式注入语言学知识预训练模型能否获得进一步性能提升,在本项目中哈工大讯飞联合实验室(HFL)提出了一种<b>语言学信息增强的预训练模型LERT</b> ,融合了多种语言学知识。大量实验结果表明,在同等训练数据规模下,LERT能够带来显著性能提升。LERT相关资源将陆续开源,以供学术研究参考。
  • LERT: A Linguistically-motivated Pre-trained Language Model
  • Yiming Cui, Wanxiang Che, Shijin Wang, Ting Liu
  • 论文地址:https://arxiv.org/abs/2211.05344

中文LERT | 中英文PERT | 中文MacBERT | 中文ELECTRA | 中文XLNet | 中文BERT | 知识蒸馏工具TextBrewer | 模型裁剪工具TextPruner

查看更多哈工大讯飞联合实验室(HFL)发布的资源:https://github.com/iflytek/HFL-Anthology

新闻

2023/3/28 开源了中文LLaMA&Alpaca大模型,可快速在PC上部署体验,查看:https://github.com/ymcui/Chinese-LLaMA-Alpaca

2022/11/25 微信公众号解读发布:查看新闻

<b>2022/11/11 本项目相关的论文已在arXiv预印本上线,地址:https://arxiv.org/abs/2211.05344 </b>

2022/10/26 模型下载链接、基线系统效果已更新,欢迎提前下载使用。其余信息待补充。

2022/10/18 感谢各位的关注,本项目在逐渐完善内容中。

内容导引

| 章节 | 描述 | | ------------------------------------- | ------------------------------------------------------------ | | 简介 | LERT预训练模型的基本原理 | | 模型下载 | LERT预训练模型的下载地址 | | 快速加载 | 如何使用🤗Transformers快速加载模型 | | 基线系统效果 | 中文NLU任务上的基线系统效果 | | FAQ | 常见问题答疑 | | 引用 | 本项目的技术报告 |

简介

预训练语言模型(PLM)已经成为自然语言处理领域的一个代表性基础模型(Foundation Model)。大多数预训练模型都是在文本的表面形式上执行语言学无关的预训练任务,如掩码语言模型(MLM)。为了进一步赋予预训练模型以更丰富的语言特征,在本文中,我们旨在提出一种简单而有效的方法将语言学特征融入预训练语言模型。我们提出语言学信息增强的预训练模型LERT。LERT除了使用掩码语言模型来进行预训练之外,还采用了3种语言学任务进行训练。为了更好地学习语言学特征,在本文中我们提出了一种语言学启发的预训练机制(LIP)。 我们在十个中文自然语言理解任务进行了广泛的实验。实验结果表明,LERT相比各种可比基线带来明显的性能提升。此外,通过各种分析实验,进一步证明了LERT的有效性。

主要贡献:

  • 我们提出一种融合了3种语言学特征的预训练模型LERT,并且使用了一种语言学启发的预训练机制。
  • 在10个中文自然语言理解数据集上的大量实验表明LERT能够与可比预训练基线系统获得显著性能提升。
  • 相关资源将对外公开以进一步促进相关研究。

模型下载

TensorFlow 1.x版本(原版)

| 模型简称 | 层数 | 隐层大小 | 注意力头 | 参数量 | 百度盘下载 | | :--------------------------------- | :--: | :---------------------: | :--------: | :----------------------------------------------------------: | :----------------------------------------------------------: | | Chinese-LERT-large | 24 | 1024 | 16 | ~325M | [TensorFlow]<br/>(密码:s82t) | | Chinese-LERT-base | 12 | 768 | 12 | ~102M | [TensorFlow]<br/>(密码:9jgi) | | Chinese-LERT-small | 12 | 256 | 4 | ~15M | [TensorFlow]<br/>(密码:4vuy) |

相关说明:

  • 这里主要提供TensorFlow 1.15版本的模型权重。如需PyTorch或者TensorFlow 2版本的模型,请看下一小节。
  • TensorFlow开源模型包含完整权重,包括MLM-head、linguistic-heads等。
  • 训练语料:中文维基百科,其他百科、新闻、问答等数据,总词数达5.4B,约占用20G磁盘空间,与MacBERT、PERT相同。
  • 参数量:仅统计transformer部分,不包含task head部分的参数量。

以TensorFlow版Chinese-LERT-base为例,下载完毕后对zip文件进行解压得到:

chinese_lert_base_L-12_H-768_A-12.zip
    |- lert_model.ckpt      # 模型权重
    |- lert_model.meta      # 模型meta信息
    |- lert_model.index     # 模型index信息
    |- lert_config.json     # 模型参数
    |- vocab.txt            # 词表(与谷歌原版一致)

PyTorch以及TensorFlow 2版本

| 模型简称 | 模型文件大小 | transformers模型库地址(支持MLM填空交互) | | :------- | :---------: | :---------- | | Chinese-LERT-large | ~1.2G | https://huggingface.co/hfl/chinese-lert-large | | Chinese-LERT-base | ~400M | https://huggingface.co/hfl/chinese-lert-base | | Chinese-LERT-small | ~60M | https://huggingface.co/hfl/chinese-lert-small |

相关说明:

  • 下载方法:点击任意需要下载的模型 → 选择"Files and versions"选项卡 → 下载对应的模型文件。
  • 通过🤗transformers模型库可以下载TensorFlow (v2)和PyTorch版本模型。
  • PyTorch开源版本包含MLM部分的权重,但不包含linguistic heads

快速加载

由于LERT主体部分仍然是BERT结构,用户可以使用transformers库轻松调用LERT模型。

⚠️ 注意:本目录中的所有模型均使用BertTokenizer以及BertModel加载。

from transformers import BertTokenizer, BertModel
tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
model = BertModel.from_pretrained("MODEL_NAME")

其中MODEL_NAME对应列表如下:

| 模型名 | MODEL_NAME | | ---------------------- | -------------------------- | | Chinese-LERT-large | hfl/chinese-lert-large | | Chinese-LERT-base | hfl/chinese-lert-base | | Chinese-LERT-small | hfl/chinese-lert-small |

基线系统效果

论文中在以下10个任务上进行了效果测试。GitHub目录中仅显示其中一部分,完整结果请参考论文。

| 任务类别 | 数据集 | | ---------------- | ------------------------------------------------------------ | | 抽取式阅读理解 | CMRC 2018(简体中文)DRCD(繁体中文) | | 文本分类(单句) | ChnSentiCorpTNEWS | | 文本分类(句对) | XNLILCQMCBQ CorpusOCNLI | | 命名实体识别 | MSRA-NERPeople's Daily(人民日报) |

实验结果表格中,

  1. 括号外为多次finetune最大值,括号内为平均值。
  2. BERT(即谷歌原版BERT-base)模型外,其余模型均使用同等数据量进行训练。
  3. RoBERTa-base和RoBERTa-large分别指RoBERTa-wwm-extRoBERTa-wwm-ext-large

阅读理解(CMRC 2018)

CMRC 2018数据集是哈工大讯飞联合实验室发布的中文机器阅读理解数据(抽取式),形式与SQuAD相同。(评价指标:EM / F1)

| 模型 | 开发集 | 测试集 | 挑战集 | | :------- | :---------: | :---------: | :---------: | | ↓ 以下为base模型 |||| | BERT | 65.5 (64.4) / 84.5 (84.0) | 70.0 (68.7) / 87.0 (86.3) | 18.6 (17.0) / 43.3 (41.3) | | BERT-wwm-ext | 67.1 (65.6) / 85.7 (85.0) | 71.4 (70.0) / 87.7 (87.0) | 24.0 (20.0) / 47.3 (44.6) | | RoBERTa-base | 67.4 (66.5) / 87.2 (86.5) | 72.6 (71.4) / 89.4 (88.8) | 26.2 (24.6) / 51.0 (49.1) | | MacBERT-base|68.5 (67.3) / 87.9 (87.1)|73.2 (72.4) / 89.5 (89.2)|30.2 (26.4) / 54.0 (52.2)| | PERT-base |68.5 (68.1) / 87.2 (87.1)|72.8 (72.5) / 89.2 (89.0)|28.7 (28.2) / 55.4 (53.7)| | LERT-base |69.2 (68.4) / 88.1 (87.9)|73.5 (72.8) / 89.7 (89.4)|27.7 (26.7) / 55.9 (54.6)| | ↓ 以下为large模型 |||| | RoBERTa-large | 68.5 (67.6) / 88.4 (87.9) | 74.2 (72.4) / 90.6 (90.0) | 31.5 (30.1) / 60.1 (57.5) | | MacBERT-large |70.7 (68.6) / 88.9 (88.2)|74.8 (73.2) / 90.7 (90.1)|31.9 (29.6) / 60.2 (57.6)| | PERT-large |72.2 (71.0) / 89.4 (88.8)|76.8 (75.5) / 90.7 (90.4)|32.3 (30.9) / 59.2 (58.1)| | LERT-large |71.2 (70.5) / 89.5 (89.1)|75.6 (75.1) / 90.9 (90.6)|32.3 (29.7) / 61.2 (59.2)|

单句文本分类(ChnSentiCorp、TNEWS)

以下为情感分类数据集ChnSentiCorp和新闻分类数据集TNEWS结果。(评价指标:Acc) | 模型 | ChnSentiCorp-开发集 | TNEWS-开发集 | | :------- | :---------: | :---------: | | ↓ 以下为base模型 ||| | BERT-wwm-ext | 95.4 (94.6) |57.0 (56.6)| | RoBERTa-base | 94.9 (94.6) |57.4 (56.9)| | MacBERT-base|95.2 (94.8)|57.4 (57.1)| | PERT-base |94.0 (93.7)|56.7 (56.1)| | LERT-base |94.9 (94.7)|57.5 (57.1)| | ↓ 以下为large模型 ||| | RoBERTa-large | 95.8 (94.9) |58.8 (58.4)| | MacBERT-large |95.7 (95.0)|59.0 (58.8)| | PERT-large |94.5 (94.0)|57.4 (57.2)| | LERT-large |95.6 (94.9)|58.7 (58.5)|

句对文本分类(XNLI、OCNLI)

以下为自然语言推断XNLI和OCNLI数据集结果。(评价指标:Acc)

| 模型 | XNLI-开发集 | OCNLI-开发集 | | :------- | :---------: | :---------: | | ↓ 以下为base模型 ||| | BERT-wwm-ext | 79.4 (78.6) |76.0 (75.3)| | RoBERTa-base | 80.0 (79.2) |76.5 (76.0)| | MacBERT-base|80.3 (79.7)|77.0 (76.5)| | PERT-base |78.8 (78.1)|75.3 (74.8)| | LERT-base |80.2 (79.5)|78.2 (77.5)| | ↓ 以下为large模型 ||| | RoBERTa-large | 82.1 (81.3) |78.5 (78.2)| | MacBERT-large |82.4 (81.8)|79.0 (78.7)| | PERT-large |81.0 (80.4)|78.1 (77.8)| | LERT-large |81.7 (81.2)|79.4 (78.9)|

命名实体识别(MSRA、PD)

以下为MSRA(测试集)和人民日报数据集(开发集)结果。(评价指标:F值)

| 模型 | MSRA-测试集 | PD-开发集 | | :------- | :---------: | :---------: | | ↓ 以下为base模型 ||| | BERT-wwm-ext | 95.3 (94.9) |95.3 (95.1)| | RoBERTa-base | 95.5 (95.1) |95.1 (94.9)| | MacBERT-base|95.3 (95.1)|95.2 (94.9)| | PERT-base |95.6 (95.3)|95.3 (95.1)| | LERT-base |95.7 (95.4)|95.6 (95.4)| | ↓ 以下为large模型 ||| | RoBERTa-large | 95.5 (95.5) |95.7 (95.4)| | MacBERT-large |96.2 (95.9)|95.8 (95.7)| | PERT-large |96.2 (96.0)|96.1 (95.8)| | LERT-large |96.3 (96.0)|96.3 (96.0)|

小模型效果

| 模型 | CMRC 2018 | DRCD | XNLI | LCQMC | BQ | CSC | 参数量 | | :------- | :---------: | :---------: | :---------: | :---------: | :---------: | :---------: | :---------: | | RBT3 | 62.2 / 81.8 | 75.0 / 83.9 | 72.3 | 85.1 | 83.3 | 92.8 | 38M | | ELECTRA-small |67.8 / 83.4|79.0 / 85.8|73.1|85.9|82.0|94.3|12M| | ELECTRA-sm

View on GitHub
GitHub Stars224
CategoryDevelopment
Updated3d ago
Forks15

Languages

Python

Security Score

100/100

Audited on Mar 28, 2026

No findings