摘要:語言模型往往被用於文字識別的後處理階段,本文將語言模型的先驗資訊和文字的視覺特徵進行互動和增強,從而進一步提升文字識別的效能。
本文分享自華為雲社群《Multi-Model Text Recognition Network》,作者:穀雨潤一麥 。
語言模型經常被用於文字識別的後處理階段,用來優化識別結果。但該先驗資訊是獨立作用於識別器的輸出,所以之前的方法並沒有充分利用該資訊。本文提出MATRN,對語意特徵和視覺特徵之間進行跨模態的特徵增強,從而提高識別效能。
方法的流程圖如上圖所示,首先圖片通過視覺提取器和位置注意力模組得到初步的文字識別結果。然後將該識別結果通過一個預訓練好的語言模型,得到文字的語意特徵。
接著通過上圖左所示的模組,利用transformer進行視覺特徵和語意特徵的特徵增強。最後利用如下公式,將視覺特徵和語意特徵進行特徵融合,並進行最終的分類。
值得注意的是,有感於自監督的方法,本文也提出了一種在視覺特徵圖上加掩碼的方法。具體來說,利用位置注意力模組中的注意力相應圖,隨機選擇某個時刻的注意力權重作為掩碼,mask掉一部分視覺特徵。
從實驗結果可以看出來,該方法在比較困難的不規則影象中有較大提升。這說明當模型很難從視覺上進行識別的時候,文字之間的語意特徵有助於識別。