Sorry, your browser cannot access this site
This page requires browser support (enable) JavaScript
Learn more >

基于Transformer的Tree2Tree树形解码器

本文分析了目前Tree Decoder的缺陷,并提出了一些解决方案

在OCR识别中引入树形编码器,从而加入更多语义信息

本文提出采用图像遮蔽的方法预训练Vision Transformer

标题基于多尺度特征融合的互学习脱机手写数学公式识别 研究内容 使用Transformer Decoder替换原本的RNN,由此改善欠解析和过解析的问题,同时对更称序列有更好的识别效果 设计不同的特征融合策略,环节细节再低分辨率特征映射中丢失严重的问题 学习是写字体与打印字体的语义不变性 设计新的损失函数 实现多尺度特征融合本章针对DenseNet对细粒度特征的提取不够准确的问题进行了分析,...

本文通过将CNN引入ViT以提升ViT的效率

CoMER简介该模块再Transformer的基础上引入了覆盖注意力机制,使得性能得到提升。 Transformer多头注意力机制

摘要发表于ECCV2022,针对现有基于Transformer的数学公式识别方法中存在的注意力覆盖不足的问题,提出一种新的注意力精炼模块(ARM),将RNN模型广泛采用的覆盖注意力机制巧妙地应用在Transformer中,在不影响并行性的前提下,利用过去的对齐信息精炼注意权重。另外本文还提出自覆盖和交叉覆盖两种模块,利用来自当前层和前一层的过去对齐信息,更好地利用覆盖信息。 背景Encode...

摘要处于encoder-decoder结构在许多不同的领域取得了很好的成效,而本文采用基于transformer的解码器代替基于RNN的解码器,使整个模型体系结构更简洁,并且引入新的训练策略来充分利用transformer在双向语言建模中的潜力。 改进本文提出现存方法在不同程度上存在覆盖范围缺乏的问题,主要有两种方式: 过解析 欠解析 过解析意味着手写图像识别(HME)图像中的某些区域被...

标题STAR-Net: A SpaTial Attention Residue Network for Scene Text Recognition BMVC 2016 主要贡献在网络中使用了位置注意力机制来消除自然图像中文本扭曲对识别的影响。 本文使用ResNet构造主干网络,结合空间注意力机制,构造了“目前最深”的端到端OCR网络 据作者所说,这是ResNet网络在场景文字识别的首次应...