32 skills found · Page 1 of 2
bojone / Bert4keraskeras implement of transformers for humans
Tongjilibo / Bert4torchAn elegent pytorch implement of transformers
yongzhuo / MacadamMacadam是一个以Tensorflow(Keras)和bert4keras为基础,专注于文本分类、序列标注和关系抽取的自然语言处理工具包。支持RANDOM、WORD2VEC、FASTTEXT、BERT、ALBERT、ROBERTA、NEZHA、XLNET、ELECTRA、GPT-2等EMBEDDING嵌入; 支持FineTune、FastText、TextCNN、CharCNN、BiRNN、RCNN、DCNN、CRNN、DeepMoji、SelfAttention、HAN、Capsule等文本分类算法; 支持CRF、Bi-LSTM-CRF、CNN-LSTM、DGCNN、Bi-LSTM-LAN、Lattice-LSTM-Batch、MRC等序列标注算法。
danan0755 / Bert Classifierbert文本分类,ner, albert,keras_bert,bert4keras,kashgari,fastbert,flask + uwsgi + keras部署模型,时间实体识别,tfidf关键词抽取,tfidf文本相似度,用户情感分析
bojone / T5 In Bert4keras整理一下在keras中使用T5模型的要点
bojone / CLUE Bert4keras真 · “Deep Learning for Humans”
bojone / Ape210k Baseline用bert4keras来解小学数学应用题
bojone / KgCLUE Bert4keras基于“Seq2Seq+前缀树”的知识图谱问答
nishiwen1214 / GLUE Bert4keras基于bert4keras的GLUE基准代码
cloudyskyy / Guwen UNILM本仓库是基于bert4keras实现的古文-现代文翻译模型。具体使用了基于掩码自注意力机制的UNILM(Li al., 2019)预训练模型作为翻译系统的backbone。我们首先使用了普通的中文(现代文)BERT、Roberta权重作为UNILM的初始权重以训练UNILM模型(具体在文中分别为B-UNILM以及R-UNILM)。为了更好的使UNILM模型适应古文的特性,我们尝试使用了在古文预训练模型Guwen-BERT,作为UNILM的初始权重,并且获得了最优的效果。
bojone / CPM LM Bert4keras在bert4keras下加载CPM_LM模型
bojone / Gpt Cchessbert4keras实现gpt下中国象棋
ZJJHYM / Bert4keras Note对苏神的bert4keras的实现原理和矩阵运算进行详细的注释,方便学习;bert4keras链接:https://github.com/bojone/bert4keras
natureLanguageQing / Bert4keraspython3 bert4keras for match
bojone / CDial GPT Tf用bert4keras加载CDial-GPT
bojone / Bert Of Theseusbert-of-theseus via bert4keras
sunyilgdx / Prompts4KerasPrompt-learning methods used BERT4Keras (PET, EFL and NSP-BERT), both for Chinese and English.
dengxc1220 / Bert4keras Ner Demobert4keras NER
Sniper970119 / Bert4keras Documentbert4keras文档(非官方)
pass-lin / Bert4keras3No description available