CNMBERT
基于BERT的拼音缩写/汉字谐音翻译模型,在命名实体识别,情感分析等多种任务上有应用潜力。中文拼写纠错 Chinese Spelling Correction (CSC),互联网黑话,拼音缩写,汉字谐音
Install / Use
/learn @IgarashiAkatuki/CNMBERTREADME
zh-CN-Multi-Mask-BERT (CNMBERT🍋)
~~吃柠檬Bert~~
Official repository of paper "CNMBERT: A Model for Converting Hanyu Pinyin Abbreviations to Chinese Characters" published on IJCNN 2025
一个用来翻译拼音缩写/汉字谐音的模型
此模型基于Chinese-BERT-wwm训练而来,通过修改其预训练任务来使其适配拼音缩写/汉字谐音翻译任务,相较于微调过的GPT模型以及GPT-4o达到了sota
什么是拼音缩写/汉字谐音
形如:
"bhys" -> "不好意思"
"kb" -> "看病"
"将军是一 支柱 " -> "将军是一 只猪 "
"想 紫砂 了" -> "想 自杀 了"
如果对拼音缩写感兴趣可以看看这个↓
CNMBERT
| Model | 模型权重 | Memory Usage (FP16) | Model Size | QPS | MRR | Acc | | --------------- | ----------------------------------------------------------- | ------------------- | ---------- | ----- | ----- | ----- | | CNMBERT-Default* | Huggingface | 0.4GB | 131M | 12.56 | 59.70 | 49.74 | | CNMBERT-MoE | Huggingface | 0.8GB | 329M | 3.20 | 61.53 | 51.86 |
- 所有模型均在相同的200万条wiki,知乎以及b站评论语料下训练
- B站评论语料:仓库
- QPS 为 queries per second
- MRR 为平均倒数排名(mean reciprocal rank)
- Acc 为准确率(accuracy)
- CNMBERT-Default 存在量化版本
模型架构&性能对比:
Usage
from transformers import AutoTokenizer, BertConfig
from CustomBertModel import predict, word_level_predict
from MoELayer import BertWwmMoE
加载模型
# use CNMBert with MoE
# To use CNMBert without MoE, replace all "Midsummra/CNMBert-MoE" with "Midsummra/CNMBert" and use BertForMaskedLM instead of using BertWwmMoE
tokenizer = AutoTokenizer.from_pretrained("Midsummra/CNMBert-MoE")
config = BertConfig.from_pretrained('Midsummra/CNMBert-MoE')
model = BertWwmMoE.from_pretrained('Midsummra/CNMBert-MoE', config=config).to('cuda')
# model = BertForMaskedLM.from_pretrained('Midsummra/CNMBert').to('cuda')
预测词语
print(word_level_predict("将军是一支柱", "支柱", model, tokenizer)[:5])
print(predict("我有两千kq", "kq", model, tokenizer)[:5])
print(predict("快去给魔理沙看b吧", "b", model, tokenizer)[:5])
['只猪', 0.013427094615127833, 1.0], ['支主', 0.012690062437477466, 1.0], ['支州', 0.012477088056586812, 0.9230769230769231], ['支战', 0.01260267308151233, 0.7692307692307692], ['侄子', 0.012531780478518316, 0.7272727272727273]
['块钱', 1.2056937473156175], ['块前', 0.05837443749364857], ['开千', 0.0483869208528063], ['可千', 0.03996622172280445], ['口气', 0.037183335575008414]
['病', 1.6893256306648254], ['吧', 0.1642467901110649], ['呗', 0.026976384222507477], ['包', 0.021441461518406868], ['报', 0.01396679226309061]
# 默认的predict函数使用束搜索
def predict(sentence: str,
predict_word: str,
model,
tokenizer,
top_k=10,
beam_size=24, # 束宽
threshold=0.005, # 阈值
fast_mode=True, # 是否使用快速模式
strict_mode=True): # 是否对输出结果进行检查
# 使用回溯的无剪枝暴力搜索
def backtrack_predict(sentence: str,
predict_word: str,
model,
tokenizer,
top_k=10,
fast_mode=True,
strict_mode=True):
# 如果要翻译汉字谐音,则使用word_level_predict
def word_level_predict(sentence: str,
predict_word: str,
model,
tokenizer,
top_k=10,
beam_size=24, # 束宽
threshold=0.005, # 阈值
fast_mode=True, # 是否使用快速模式
strict_mode=True): # 是否对输出结果进行检查并使用Levenshtein Distance进行排序
由于BERT的自编码特性,导致其在预测MASK时,顺序不同会导致预测结果不同,如果启用
fast_mode,则会正向和反向分别对输入进行预测,可以提升一点准确率(2%左右),但是会带来更大的性能开销。
strict_mode会对输入进行检查,以判断其是否为一个真实存在的汉语词汇。
如何微调模型
请参考TrainExample.ipynb,在数据集的格式上,只要保证csv的第一列为要训练的语料即可。
感觉冻结其他层只训练embedding也可以(? 有空会试一下的
Q&A
Q: 感觉这个东西准确度有点低啊
A: 可以尝试设置fast_mode和strict_mode为False。 模型是在很小的数据集(200w)上进行的预训练,所以泛化能力不足很正常,,,可以在更大数据集或者更加细分的领域进行微调,具体微调方式和Chinese-BERT-wwm差别不大,只需要将DataCollactor替换为CustomBertModel.py中的DataCollatorForMultiMask。
Q: 不能直接检测句子中所存在的拼音缩写或汉字谐音进行翻译吗?
A: 正在做,对于拼音缩写来说,模型检测会很容易将其与句中的英文单词进行误判,导致准确率很低。对于汉字谐音来说,有些句子中的谐音,比如你木琴没了,这句话是不存在语病的,模型很难检测出木琴是母亲的谐音。
引用
如果您对CNMBERT的具体实现感兴趣的话,可以参考
@INPROCEEDINGS{11228899,
author={Feng, Zishuo and Cao, Feng and Feng, Lei},
booktitle={2025 International Joint Conference on Neural Networks (IJCNN)},
title={CNMBERT: A Model for Converting Hanyu Pinyin Abbreviations to Chinese Characters},
year={2025},
volume={},
number={},
pages={1-8},
keywords={Sentiment analysis;Accuracy;Large language models;Neural networks;Named entity recognition;Chinese Spelling Correction;BERT;Pinyin Abbreviation;Conversion Task},
doi={10.1109/IJCNN64981.2025.11228899}}
