Encodechka
The tiniest sentence encoder for Russian language
Install / Use
/learn @avidale/EncodechkaREADME
encodechka
encodechka-eval
Этот репозиторий - развитие подхода к оценке моделей из поста Маленький и быстрый BERT для русского языка, эволюционировавшего в Рейтинг русскоязычных энкодеров предложений. Идея в том, чтобы понять, как хорошо разные модели превращают короткие тексты в осмысленные векторы.
Похожие проекты:
- RussianSuperGLUE: фокус на дообучаемых моделях
- MOROCCO: RussianSuperGLUE + оценка производительности, трудновоспроизводим
- RuSentEval: более академические/лингвистические задачи
- Статья от Вышки Popov et al, 2019: первая научная статья на эту тему, но маловато моделей и задач
- SentEvalRu и deepPavlovEval: два хороших, но давно не обновлявшихся бенчмарка.
- ruMTEB (пост, код MTEB) - русскоязычная часть MTEB. С недавнего времени там есть 23 разнообразных задачи (включая поиск и переранжирование, которых нет в Encodechka), но, кажется, там нет замеров быстродействия. Если последнее вам не критично, рекомендуется использовать ruMTEB вместо Encodechka.
Пример запуска метрик – в блокноте evaluation example.
Блокнот для воспроизведения лидерборда: v2021, v2023.
Лидерборд на HuggingFace Space.
Лидерборд
Ранжирование моделей в по среднему качеству и производительности. Подсвечены Парето-оптимальные модели по каждому из критериев.
| model | CPU | GPU | size | Mean S | Mean S+W | dim |
|:------------------------------------------------------------|:----------|:---------|:--------------|---------:|:-----------|------:|
| deepvk/USER-bge-m3 | 523.4 | 22.5 | 1371.1 | 0.799 | 0.709 | 1024 |
| BAAI/bge-m3 | 523.4 | 22.5 | 2166.0 | 0.787 | 0.696 | 1024 |
| intfloat/multilingual-e5-large-instruct | 501.5 | 25.71 | 2136.0 | 0.784 | 0.684 | 1024 |
| intfloat/multilingual-e5-large | 506.8 | 30.8 | 2135.9389 | 0.78 | 0.686 | 1024 |
| deepvk/USER-base | 33.1 | 12.2 | 473.2402 | 0.772 | 0.688 | 768 |
| sentence-transformers/paraphrase-multilingual-mpnet-base-v2 | 20.5 | 19.9 | 1081.8485 | 0.762 | | 768 |
| intfloat/multilingual-e5-base | 130.61 | 14.39 | 1061.0 | 0.761 | 0.669 | 768 |
| sergeyzh/rubert-tiny-turbo | 5.5 | 3.3 | 111.4 | 0.749 | 0.667 | 312 |
| intfloat/multilingual-e5-small | 40.86 | 12.09 | 449.0 | 0.742 | 0.645 | 384 |
| symanto/sn-xlm-roberta-base-snli-mnli-anli-xnli | 20.2 | 16.5 | 1081.8474 | 0.739 | | 768 |
| cointegrated/LaBSE-en-ru | 133.4 | 15.3 | 489.6621 | 0.739 | 0.668 | 768 |
| sentence-transformers/LaBSE | 135.1 | 13.3 | 1796.5078 | 0.739 | 0.667 | 768 |
| MUSE-3 | 200.1 | 30.7 | 303.0 | 0.736 | | 512 |
| text-embedding-ada-002 | ? | | | 0.734 | | 1536 |
| sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 | 18.2 | 14.9 | 479.2547 | 0.734 | | 384 |
| sentence-transformers/distiluse-base-multilingual-cased-v1 | 11.8 | 8.0 | 517.7452 | 0.722 | | 512 |
| SONAR | ? | ? | 3060.0 | 0.721 | | 1024 |
| facebook/nllb-200-distilled-600M | 252.3 | 15.9 | 1577.4828 | 0.709 | 0.64 | 1024 |
| sentence-transformers/distiluse-base-multilingual-cased-v2 | 11.2 | 9.2 | 517.7453 | 0.708 | | 512 |
| cointegrated/rubert-tiny2 | 5.5 | 3.3 | 111.3823 | 0.704 | 0.638 | 312 |
| ai-forever/sbert_large_mt_nlu_ru | 504.5 | 29.7 | 1628.6539 | 0.703 | 0.626 | 1024 |
| laser | 192.5 | 13.5 | 200.0 | 0.699 | | 1024 |
| laser2 | 163.4 | 8.6 | 175.0 | 0.694 | | 1024 |
| ai-forever/sbert_large_nlu_ru | 497.7 | 29.9 | 1628.6539 | 0.688 | 0.626 | 1024 |
| clips/mfaq | 18.1 | 18.2 | 1081.8576 | 0.687 | | 768 |
| cointegrated/rut5-base-paraphraser | 137.0 | 15.6 | 412.0015 | 0.685 | 0.634 | 768 |
| DeepPavlov/rubert-base-cased-sentence | 128.4 | 13.2 | 678.5215 | 0.678 | 0.612 | 768 |
| DeepPavlov/distilrubert-base-cased-conversational | 64.2 | 10.4 | 514.002 | 0.676 | 0.624 | 768 |
| DeepPavlov/distilrubert-tiny-cased-conversational | 21.2 | 3.3 | 405.8292 | 0.67 | 0.616 | 768 |
| cointegrated/rut5-base-multitask | 136.9 | 12.7 | 412.0015 | 0.668 | 0.623 | 768 |
| ai-forever/ruRoberta-large | 512.3 | 25.5 | 1355.7162 | 0.666 | 0.609 | 1024 |
| DeepPavlov/rubert-base-cased-conversational | 127.5 | 16.3 | 678.5215 | 0.653 | 0.606 | 768 |
| deepvk/deberta-v1-base | 128.6 | 19.0 | 473.2402 | 0.653 | 0.591 | 768 |
| cointegrated/rubert-tiny | 7.5 | 5.9 | 44.97 | 0.645 | 0.575 | 312 |
| ai-forever/FRED-T5-large | 479.4 | 23.3 | 1372.9988 | 0.639 | 0.551 | 1024 |
| inkoziev/sbert_synonymy | 6.9 | 4.2 | 111.3823 | 0.637 | 0.566 | 312 |
| numind/NuNER-multilingual-v0.1 | 186.9 | 10 | 678.0 | 0.633 | 0.572 | 768 |
| cointegrated/rubert-tiny-toxicity | 10 | 5.5 | 47.2 | 0.621 | 0.553 | 312 |
| ft_geowac_full | 0.3 | | 1910.0 | 0.617 | 0.55 | 300 |
| bert-base-multilingual-cased | 141.4 | 13.7 | 678.5215 | 0.614 | 0.565 | 768 |
| ai-forever/ruT5-large | 489.6 | 20.2 | 1277.7571 | 0.61 | 0.578 | 1024 |
| cointegrated/rut5-small | 37.6 | 8.6 | 111.3162 | 0.602 | 0.564 | 512 |
| ft_geowac_21mb | 1.2 | | 21.0 | 0.597 | 0.531 | 300 |
| inkoziev/sbert_pq | 7.4 | 4.2 | 111.3823 | 0.596 | 0.526 | 312 |
| ai-forever/ruT5-base | 126.3 | 12.8 | 418.2325 | 0.571 | 0.544 | 768 |
| hashing_1000_char | 0.5 | | 1.0 | 0.557 | 0.464 | 1000 |
| cointegrated/rut5-base | 127.8 | 15.5 | 412.0014 | 0.554 | 0.53 | 768 |
| hashing_300_char | 0.8 | | 1.0 | 0.529 | 0.433 | 300 |
| hashing_1000 | 0.2 | | 1.0 | 0.513 | 0.416 | 1000 |
| hashing_300 | 0.3 | | 1.0 | 0.491 | 0.397 | 300 |
Ранжирование моделей по задачам. Подсвечены наилучшие модели по каждой из задач.
| model | STS | PI | NLI | SA | TI | IA | IC | ICX | NE1 | NE2 | |:------------------------------------------------------------|:---------|:---------|:---------|:---------|:---------|:---------|:---------|:---------|:---------|:---------| | deepvk/USER-bge-m3 | 0.87 | 0.76 | 0.58 | 0.82 | 0.97 | 0.79 | 0.81 | 0.78 |0.28 | 0.43 | | BAAI/bge-m3 | 0.86 | 0.75 | 0.51 | 0.82 | 0.97 | 0.79 | 0.81 | 0.78 | 0.24 | 0.42 | | intfloat/multilingual-e5-large-instruct | 0.86 | 0.74 | 0.47 | 0.81 | 0.98 | 0.8 | 0.82 | 0.77 | 0.21 | 0.35 | | intfloat/multilin
Related Skills
claude-opus-4-5-migration
83.1kMigrate prompts and code from Claude Sonnet 4.0, Sonnet 4.5, or Opus 4.1 to Opus 4.5
model-usage
337.1kUse CodexBar CLI local cost usage to summarize per-model usage for Codex or Claude, including the current (most recent) model or a full model breakdown. Trigger when asked for model-level usage/cost data from codexbar, or when you need a scriptable per-model summary from codexbar cost JSON.
TrendRadar
49.8k⭐AI-driven public opinion & trend monitor with multi-platform aggregation, RSS, and smart alerts.🎯 告别信息过载,你的 AI 舆情监控助手与热点筛选工具!聚合多平台热点 + RSS 订阅,支持关键词精准筛选。AI 智能筛选新闻 + AI 翻译 + AI 分析简报直推手机,也支持接入 MCP 架构,赋能 AI 自然语言对话分析、情感洞察与趋势预测等。支持 Docker ,数据本地/云端自持。集成微信/飞书/钉钉/Telegram/邮件/ntfy/bark/slack 等渠道智能推送。
mcp-for-beginners
15.6kThis open-source curriculum introduces the fundamentals of Model Context Protocol (MCP) through real-world, cross-language examples in .NET, Java, TypeScript, JavaScript, Rust and Python. Designed for developers, it focuses on practical techniques for building modular, scalable, and secure AI workflows from session setup to service orchestration.
