SkillAgentSearch skills...

CnSTD

CnSTD: 基于 PyTorch/MXNet 的 中文/英文 场景文字检测(Scene Text Detection)、数学公式检测(Mathematical Formula Detection, MFD)、篇章分析(Layout Analysis)的Python3 包

Install / Use

/learn @breezedeus/CnSTD

README

<div align="center"> <img src="./docs/logo.png" width="250px"/> <div>&nbsp;</div>

Downloads Visitors license PyPI version forks stars last-releast last-commit Twitter

</div> <div align="center">

English | 中文

</div>

CnSTD

Update 2025.06.25:发布 V1.2.6

主要变更:

  • 基于 RapidOCR 集成 PPOCRv5 最新版文本检测功能,提供更快的推理速度
    • 新增支持 PP-OCRv5 检测模型:ch_PP-OCRv5_detch_PP-OCRv5_det_server
  • 修复部分已知 bug

Update 2024.11.24:发布 V1.2.5

主要变更:

  • 基于 RapidOCR 集成 PPOCRv4 最新版文本检测功能,提供更快的推理速度
    • 新增支持 PP-OCRv4 检测模型,包括标准版和服务器版
  • 优化模型下载功能,支持从国内镜像下载模型文件

Update 2024.06.16:发布 V1.2.4

主要变更:

  • 支持基于 Ultralytics 的 YOLO Detector。

Update 2023.06.30:发布 V1.2.3

主要变更:

了解更多:RELEASE.md


CnSTDPython 3 下的场景文字检测Scene Text Detection,简称STD)工具包,支持中文英文等语言的文字检测,自带了多个训练好的检测模型,安装后即可直接使用。CnSTDV1.2.1 版本开始,加入了数学公式检测Mathematical Formula Detection,简称MFD)模型,并提供训练好的模型可直接用于检测图片中包含的数学公式(行内公式 embedding独立行公式 isolated )。

欢迎扫码加入微信交流群:

<div align="center"> <img src="https://huggingface.co/datasets/breezedeus/cnocr-wx-qr-code/resolve/main/wx-qr-code.JPG" alt="微信群二维码" width="300px"/> </div>

作者也维护 知识星球 CnOCR/CnSTD/P2T私享群,欢迎加入。知识星球私享群会陆续发布一些CnOCR/CnSTD/P2T相关的私有资料,包括更详细的训练教程未公开的模型,使用过程中遇到的难题解答等。本群也会发布OCR/STD相关的最新研究资料。

V1.0.0 版本开始,CnSTD 从之前基于 MXNet 实现转为基于 PyTorch 实现。新模型的训练合并了 ICPR MTWI 2018ICDAR RCTW-17ICDAR2019-LSVT 三个数据集,包括了 46447 个训练样本,和 1534 个测试样本。

相较于之前版本, 新版本的变化主要包括:

  • 加入了对 PaddleOCR 检测模型的支持;
  • 部分调整了检测结果中 box 的表达方式,统一为 4 个点的坐标值;
  • 修复了已知bugs。

如需要识别文本框中的文字,可以结合 OCR 工具包 cnocr 一起使用。

示例

场景文字检测(STD)

<div align="center"> <img src="./docs/cases.png" alt="STD效果" width="700px"/> </div>

数学公式检测(MFD)

MFD 模型检测图片中包含的数学公式,其中行内的公式检测为 embedding 类别,独立行的公式检测为 isolated。模型训练使用了英文 IBEM 和中文 CnMFD_Dataset 两个数据集。

<div align="center"> <img src="./examples/mfd/out-zh4.jpg" alt="中文MFD效果" width="700px"/> </div> <div align="center"> <img src="./examples/mfd/out-zh5.jpg" alt="中文MFD效果" width="700px"/> </div> <div align="center"> <img src="./examples/mfd/out-en2.jpg" alt="英文MFD效果" width="700px"/> </div>

版面分析(Layout Analysis)

版面分析模型识别图片中的不同排版元素。模型训练使用的是 CDLA 数据集。可识别以下10中版面元素:

|正文|标题|图片|图片标题|表格|表格标题|页眉|页脚|注释|公式| |---|---|---|---|---|---|---|---|---|---| |Text|Title|Figure|Figure caption|Table|Table caption|Header|Footer|Reference|Equation|

<div align="center"> <img src="./examples/layout/out-zh.jpg" alt="版面分析效果" width="700px"/> </div>

安装

嗯,顺利的话很简单(bless)。

pip install cnstd

如果需要使用 ONNX 模型(model_backend=onnx),请使用以下命令安装:

  • CPU环境使用 ONNX 模型:
    pip install cnstd[ort-cpu]
    
  • GPU环境使用 ONNX 模型:
    pip install cnstd[ort-gpu]
    
    • 注意:如果当前环境已经安装了 onnxruntime 包,请先手动卸载(pip uninstall onnxruntime)后再运行上面的命令。

安装速度慢的话,可以指定国内的安装源,如使用豆瓣源:

pip install cnstd -i https://mirrors.aliyun.com/pypi/simple

【注意】:

  • 请使用 Python3 (3.6以及之后版本应该都行),没测过Python2下是否ok。
  • 依赖 opencv,所以可能需要额外安装opencv。

已有STD模型

CnSTD 从 V1.2 开始,可直接使用的模型包含两类:1)CnSTD 自己训练的模型,通常会包含 PyTorch 和 ONNX 版本;2)从其他ocr引擎搬运过来的训练好的外部模型,ONNX化后用于 CnSTD 中。

直接使用的模型都放在 cnstd-cnocr-models 项目中,可免费下载使用。

1. CnSTD 自己训练的模型

当前版本(Since V1.1.0)的文字检测模型使用的是 DBNet,相较于 V0.1 使用的 PSENet 模型, DBNet 的检测耗时几乎下降了一个量级,同时检测精度也得到了极大的提升。

目前包含以下已训练好的模型:

| 模型名称 | 参数规模 | 模型文件大小 | 测试集精度(IoU) | 平均推断耗时<br />(秒/张) | 下载方式 | | -------------------------- | --------- | --------- | ---------- | ----------------- | --------------------------------------------------------- | | db_resnet34 | 22.5 M | 86 M | 0.7322 | 3.11 | 自动 | | db_resnet18 | 12.3 M | 47 M | 0.7294 | 1.93 | 自动 | | db_mobilenet_v3 | 4.2 M | 16 M | 0.7269 | 1.76 | 自动 | | db_mobilenet_v3_small | 2.0 M | 7.9 M | 0.7054 | 1.24 | 自动 | | db_shufflenet_v2 | 4.7 M | 18 M | 0.7238 | 1.73 | 自动 | | db_shufflenet_v2_small | 3.0 M | 12 M | 0.7190 | 1.29 | 自动 |

上表耗时基于本地 Mac 获得,绝对值无太大参考价值,相对值可供参考。IoU的计算方式经过调整,仅相对值可供参考。

相对于两个基于 ResNet 的模型,基于 MobileNetShuffleNet 的模型体积更小,速度更快,建议在轻量级场景使用。

2. 外部模型

以下模型是 PaddleOCR 中模型的 ONNX 版本,所以不会依赖 PaddlePaddle 相关工具包,故而也不支持基于这些模型在自己的领域数据上继续精调模型。这些模型支持检测竖排文字

| model_name | PyTorch 版本 | ONNX 版本 | 支持检测的语言 | 模型文件大小 | | --------------- | ---------- | ------- | ---------- | ------ | | ch_PP-OCRv5_det | X | √ | 简体中问、英文、数字 | 4.6 M | | ch_PP-OCRv5_det_server | X | √ | 简体中问、英文、数字 | 84 M | | ch_PP-OCRv4_det | X | √ | 简体中问、英文、数字 | 4.5 M | | ch_PP-OCRv4_det_server | X | √ | 简体中问、英文、数字 | 108 M | | ch_PP-OCRv3_det | X | √ | 简体中问、英文、数字 | 2.3 M | | en_PP-OCRv3_det | X | √ | 英文、数字 | 2.3 M | | ch_PP-OCRv2_det | X | √ | 简体中问、英文、数字 | 2.2 M |

更多模型可参考 PaddleOCR/models_list.md 。如有其他外语(如日、韩等)检测需求,可在 知识星球 CnOCR/CnSTD私享群 中向作者提出建议。

使用方法

首次使用 CnSTD 时,系统会自动下载zip格式的模型压缩文件,并存放于 ~/.cnstd目录(Windows下默认路径为 C:\Users\<username>\AppData\Roaming\cnstd)。下载速度超快。下载后的zip文件代码会自动对其解压,然后把解压后的模型相关目录放于~/.cnstd/1.2目录中。

如果系统无法自动成功下载zip文件,则需要手动从 百度云盘(提取码为 nstd)下载对应的zip文件并把它存放于 ~/.cnstd/1.2(Windows下为 C:\Users\<username>\AppData\Roaming\cnstd\1.2)目录中。模型也可从 cnstd-cnocr-models 中下载。放置好zip文件后,后面的事代码就会自动执行了。

场景文字检测(STD)

使用类 CnStd 进行场景文字的检测。类 CnStd 的初始化函数如下:

class CnStd(object):
    """
    场景文字检测器(Scene Text Detection)。虽然名字中有个"Cn"(Chinese),但其实也可以轻松识别英文的。
    """

    def __init__(
        self,
        model_name: str = 'ch_PP-OCRv5_det',
        *,
        auto_rotate_whole_image: bool = False,
        rotated_bbox: bool = True,
        context: str = 'cpu',
        model_fp: Optional[str] = None,
        model_backend: str = 'onnx',  # ['pytorch', 'onnx']
        root: Union[str, Path] = data_dir(),
        use_angle_clf: bool = False,
        angle_clf_configs: Optional[dict] = None,
        **kwargs,
    ):

其中的几个参数含义如下:

  • model_name: 模型名称,即前面模型表格第一列中的值。默认为 ch_PP-OCRv5_det

  • auto_rotate_whole_image: 是否自动对整张图片进行旋转调整。默认为False

  • rotated_bbox: 是否支持检测带角度的文本框;默认为 True,表示支持;取值为 False 时,只检测水平或垂直的文本。

  • context:预测使用的机器资源,可取值为字符串cpugpucuda:0

  • model_fp: 如果不使用系统自带的模型,可以通过此参数直接指定所使用的模型文件(.ckpt文件)。

  • model_backend (str): 'pytorch', or 'onnx'。表明预测时是使用 PyTorch 版本模型,还是使用 ONNX 版本模型。 同样的模型,ONNX 版本的预测速度一般是 PyTorch 版本的2倍左右。默认为 onnx

  • root: 模型文件所在的根目录。

    • Linux/Mac下默认值为 ~/.cnstd,表示模型文件所处文件夹类似 ~/.cnstd/1.2/db_shufflenet_v2_small
    • Windows下默认值为 C:\Users\<username>\AppData\Roaming\cnstd
  • use_angle_clf (bool): 对于检测出的文本框,是否使用角度分类模型进行调整(检测出的文本框可能会存在倒转180度的情况)。默认为 False

  • angle_clf_configs (dict): 角度分类模型对应的参数取值,主要包含以下值:

    • model_name: 模型名称。默认为 'ch_ppocr_mobile_v2.0_cls'
    • model_fp: 如果不使用系统自带的模型,可以通过此参数直接指定所使用的模型文件('.onnx' 文件)。默认为 None。具体可参考类 AngleClassifier 的说明

每个参数都有默认取值,所以可以不传入任何参数值进行初始化:std = CnStd()

文本检测使用类CnOcr的函数 detect(),以下是详细说明:

类函数CnStd.detect()

    def detect(
        self,
        img_list: Union[
            str,
            Path,
            Image.Image,
            np.ndarray,
View on GitHub
GitHub Stars786
CategoryEducation
Updated1d ago
Forks115

Languages

Python

Security Score

100/100

Audited on Mar 26, 2026

No findings