ImageVerifierCode 换一换
格式:PDF , 页数:6 ,大小:154.14KB ,
资源ID:955969      下载积分:4 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝扫码支付
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.ketangku.com/wenku/file-955969-down.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(基于最大类间方差法的文本图像二值化处理.pdf)为本站会员(高****)主动上传,免费在线备课命题出卷组卷网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知免费在线备课命题出卷组卷网(发送邮件至service@ketangku.com或直接QQ联系客服),我们立即给予删除!

基于最大类间方差法的文本图像二值化处理.pdf

1、基于最大类间方差法的文本图像二值化处理刘剑飞石翔宇杜子俊孙源辰王敬烜摘 要:针对低质量的退化文档存在文字污染、受自然侵蚀等情况,提出一种基于背景估计和最大类间方差法的二值化算法。首先对原图用加权平均值与平均值混合法灰度化进行预处理;然后对灰度化处理后的图像进行两次形态学闭操作估计图像背景,计算背景估计图与灰度图的绝对差值,确定前景像素候选点,取反,再对图像进行对比度增强得到背景删减图;最后利用最大方差类间法进行二值化处理。实验结果表明,本文算法的综合性能优于传统的最大类间方差二值化算法,从视觉效果来看,本文算法的二值分割较为精准,提升了经典算法处理受污染文档图像的精确度。关键词:文本图像二值化

2、;灰度化;背景估计;最大类间方差法一 绪论1.1 算法研究背景及意义文字是人类文明传承的媒介,如今随着科学的飞速发展,信息流通方式不再拘泥于纸张,人们可以通过获取大量数字化的文本信息。古典书籍受外界物理条件或人为因素的影响,使得珍贵文献难以保存,研究机构将书籍电子化,相比于传统文档,具有更环保、传播范围更广以及耐储存的优势。二值化属于数字图像处理的基础技术,已被应用于医学影像分析、工业缺陷检测、光学字符识别、遥感图像观测以及智能交通管理等领域。图像二值化将关键信息与背景分离,从而达到排除干扰、减少分析量的目的。一种优秀的图像二值化解决方案,在光学字符识别以及复杂背景图像分割领域中均起到关键作用

3、,诸多形态学图像分割算法需要将二值图像的轮廓作为输入,以便分析前景信息,因此二值化准确率对后续的解析与识别有较大关联性。受到外界或人为因素的影响,文档图像存在多种退化因素,如古籍文档在发掘时遭受到自然的侵蚀,使得文字被模糊与浸染,在拍摄、扫描文档时,现场光照分布不均匀,导致文字信息与背景区分度较小。虽然文档图像二值化已被研究多年,但针对不同类型的退化情况建模难度较大,因此历史文档图像阈值处理方法仍然需要不断地优化改进。考虑到现有图像二值化算法的局限性,未能适用多种类型的退化情况,因此要找到一种拥有语言通用性更强、鲁棒性更高的文档图像二值化算法,具有重要的实际应用意义。1.2 二值化国内外研究现

4、状低质量历史文档图像二值化成为近年来国内外研究的关注热点,目前文档图像二值化依据阈值计算方式不同,大致分全局阈值分割法、局部阈值分割法和混合阈值分割法。由于低质量历史文档图像含有多种退化因素,各种二值化方法都未能较好地解决二值分割问题,因此历史文档图像二值化算法仍是研究的难点。1.3 研究内容及创新点本文针对退化文本存在污染的问题,提出了一种结合加权平均值与平均值混合法灰度化、背景估计和最大类间方差法的退化文本图像二值化的处理方法。二 算法介绍2.1 算法框架2.2 加权平均值与平均值混合法灰度化数字图像通过颜色空间模型承载图像的信息分布,如一幅彩色的扫描文档图像,如图2.2 所示。灰度化算法

5、能够将高维数据映射至低维空间,并通过单维度图像的梯度特征结构,反映出原始图像的颜色信息,避免依次处理图像各通道分量,从而降低算法冗余度。目前灰度化算法有最大值法、平均值法、加权平均法等,本文采用加权平均与平均值混合法对图像进行灰度化处理。相较传统的最大值法、平均值法、加权平均值法。图 2.3 的字符与背景的对比度更加明显,同时经过加权平均值与平均值混合法灰度化处理的图像,在二值化后,字符前景基本保持完整,仅有少量噪声。所以本文采用加权平均值与平均值混合法对文档图像做灰度化处理。2.3 背景估计低质量文档图像由于含有墨迹浸润、字符褪色等复杂情况,造成受污染区域字符与背景之间的灰度值较为接近,在墨

6、迹的边缘处产生较强的灰度突变,从而导致算法将污渍像素点错判为前景,如图 2.4 所示。本文通过形态学操作背景估计方法削弱污渍对文档图像的影响。2.4 图像背景移除图像形态学操作是基于形状的一系列图像处理操作的集合,主要是基于集合论基础上的形态学数学。本文采用两次形态学闭操作来对图像进行背景估计。笔画结构属于文档图像独有的特征,字符的结构元半径依赖于笔画粗细,因此第一次闭操作需要估计出图像的字符宽度,本文采用笔画宽度变换方法(Stroke Width Transform,SWT)估计字符宽度。第二次闭操作比第一次闭操作的结构元增加d。关于d 的选取,本文将 2008 年至2018年国际文本图像二

7、值化竞赛的数据,作为训练集,依次对进行取值。依据测试结果,当d 取 12 时,FM 值较高为。所以本文选用 12 为?d 的值。图像经过两次形态学闭操处理作后,可以大致估计出文档图像的背景,得到原图的背景估计图像 fbg,如图 2.5 所示。计算估计背景图像 fbg 与灰度图像 fgray 的绝对差值结果,得到背景删减文档图像 fdiff,如图 2.6 所示,此时图像中白色的点属于前景像素候选点,对图像 fdiff 取反,得到背景去除图像 fnegate,如图 2.7 所示。最后在对图像fnegate 做对比度增强,得到对比度增强图像 feq,如图 2.8 所示。最大类间方差法二值化处理最大类

8、间方差法是一种自适应阈值确定的方法,是一种基于全局的二值化算法。它是按图像的灰度特性,将图像分成背景和字符两部分。背景和字符之间的类间方差越大,说明构成图像的两部分的差别越大,当部分字符错分为背景或部分背景错分为字符都会导致两部分差别变小。因此,使类间方差最大的分割意味著错分概率最小。最大类间方差算法,算法简单,当目标与背景的面积相差不大时,能够有效地对图像进行分割。三 实验结果与分析本文方法,对比传统的基于最大类间方差法,主要区别在于图像灰度化时,采用了加权平均值与平均值混合法对原图进行灰度化。减小了前景像素间的灰度值差异,增强了对比度。下图是本文算法与传统算法得到的结果的对比图。由图 3.

9、2 可见,左侧为本文算法效果图,右侧为传统最大类间方差算法的效果图。本文算法在处理有污渍的效果图时,文档和图像的分割更为准确。在精确分离文档和图像的同时,又能很好的去除噪声、抑制污染、并保留字符笔画。可见本文算法优于传统的最大类间方差法。四、结语本文提出了一个结合加权平均值与平均值混合法灰度化与最大类间方差法的二值化算法,该算法能有效的处理受污染的文本图像,并通过实验比较与视觉对比,该算法要优于传统的最大类间方差法。参考文献:1冈萨雷斯.数字图像处理(第三版)M,电子工业出版社,2011:479-483.(GONGZALEZ.Digital image processing(third edi

10、tion)M,Publishing Houseof Electronics Industry,2011:479-483)2 Gatos B,Ntirogiannis K,Pratikakis I.ICDAR 2009 document imagebinarization contest(DIBCO 2009)C/Proceedings of the 10th International Conference onDocument Analysisand Recognition,Barcelona,SPAIN,2009:1375-1382.3 Pratikakis I,Gatos B,Ntiro

11、giannis K.H-DIBCO 2010 handwrittendocument image binarization competitionC/Proceedings of the 12thInternational Conference on Frontiers in Handwriting Recognition,Kolkata,INDIA,2010:727-732.4 Pratikakis I,Gatos B,Ntirogiannis K.ICDAR 2011 document imagebinarization contest(DIBCO 2011)C/Proceedings o

12、f the 11thInternational Conference on Document Analysis and Recognition,Beijing,CHINA,2011:1506-1510.5 Pratikakis I,Gatos B,Ntirogiannis K.ICFHR 2012 competition onhandwritten document image binarization(H-DIBCO 2012)C/Proceedings ofthe 13th International Conference on Frontiers in Handwriting Recog

13、nition,Monopoli,ITALY,2012:817-822.6Pratikakis I,Gatos B,Ntirogiannis K.ICDAR 2013 document imagebinarization contest(DIBCO 2013)C/Proceedings of the 12th International Conference onDocument Analysisand Recognition,Washington,DC,USA,2013:1471-1476.7 Ntirogiannis K,Gatos B,Pratikakis I.ICFHR2014 comp

14、etition onhandwritten document image binarization(H-DIBCO 2014)C/Proceedings ofthe 14th International Conference on Frontiers in Handwriting Recognition,Hersonissos,Greece,2014:809-813.8 Pratikakis I,Zagoris K,Barlas G,et al.ICFHR2016 handwrittendocument image binarizationcontest(H-DIBCO 2016)C/Proc

15、eedings of the 15th InternationalConference on Frontiers in Handwriting Recognition,Shenzhen,CHINA,2016:619-623.9 Pratikakis I,Zagoris K,Barlas G,et al.ICDAR2017 competition ondocument image binarization(DIBCO 2017)C/Proceedings of the 14thInternational Conference on Document Analysis and Recognitio

16、n,Kyoto,JAPAN,2017:1395-1403.10 Pratikakis I,Zagoris K,Kaddas P,et al.ICFHR2018 competition onhandwritten document image binarization(H-DIBCO 2018)C/Proceedings ofthe 16th International Conference on Frontiers in Handwriting Recognition,Niagara Falls,USA,2018:489-493.11 Eskenazi S,Petra G K,Ogier J

17、M.A comprehensive survey of mostlytextual document segmentation algorithms since 2008J.Pattern Recognition,2017,64(1):1-14.12 熊煒.基于背景估计和能量最小化的文档图像处理.湖北工业大学,2018.13 Ma J,Sheridan R P,Liaw A,et al.Deep neural nets as a methodfor quantitative structureactivity relationshipsJ.Journal of ChemicalInformation and Modeling,2015,55(2):263-274.

网站客服QQ:123456
免费在线备课命题出卷组卷网版权所有
经营许可证编号:京ICP备12026657号-3