您现在的位置:首页 > 质检专栏
智能汽车零部件EMS测试自动视觉检测系统研究
信息来源:厦门市产品质量监督检验院 发布时间:2025-08-14 00:00:00 点击数:
 专家简介
黄剑超,本科,厦门市产品质量监督检验院(电磁兼容室)工程师。主要从事信息技术设备、车载等产品的EMC检测方法研究。
往期回顾>>   

  

  摘要:对比传统汽车零部件EMS测试的人工检测方法,自动视觉检测系统具有巨大的优越性。为了提高检测的效率及准确度,本文搭建了一套智能汽车零部件EMS(电磁抗干扰)测试自动视觉检测系统,通过红外高清摄像头、视频采集器获取视频图片并数字化,对图片进行预处理(色彩空间转换、图像增强等),提取感兴趣区域图片的特征值,包括色调/饱和度、SSIM值(结构相似性)、PSNR值(峰值信噪比)等,接着构建深度学习模型对数据特征进行学习,实现对智能汽车仪表盘、倒车影像、中控显示屏、信号灯、转向灯的自动监视及记录。最后选取不同样品,在不同光照、环境、倾斜角度和距离等条件下验证自动视觉检测系统的准确性。

 

  关键词:EMS测试;视觉检测;PSNR差分分析;SSIM值;Tesseract;OCR识别

 

0 引言

 

  鉴于智能网联汽车的快速发展,汽车激光雷达、汽车OTA天线、摄像头、智能驾舱系统越来越多应用在辅助驾驶、智能网联汽车上,给汽车的安全及可靠性带来了新的挑战。对这些核心零部件的电磁兼容抗干扰测试,对于提升智能网联汽车的安全及可靠性有着重大意义。通常实验室在进行测试时都是通过安置在电波暗室内的摄像头进行观察记录,但人工监测工作效率低下,无法同时观察多个分散区域,人眼疲劳容易出现读数、忽略瞬间变化、计数等错误,影响试验结果的判断;且不利于事后追溯再现,难以进行分析处理。针对以上问题,用机器视觉替代肉眼观察,能够极大减少人力成本,节约实验时间,排除人为因素的干扰,从而大大提高异常视频信号的收集效率和准确度。

 

1 自动视觉检测系统硬件配置

 

  本自动视觉检测系统由红外高清摄像机、摄像头控制器、视频采集卡及计算机组成,如图1所示。其中,红外摄像机的镜头用于将被测物成像到相机的靶面上,并将其转换成电信号;摄像机控制器可以调整摄像机的角度、焦距、亮度;图像采集卡将电信号转换成数字图像信息;计算机用于实现图像的存储、处理,显示测量结果和给出相应控制信号。在智能汽车零部件EMS测试过程中,该系统可以针对被测设备(EUT)同时设置多个感兴趣区域,进行自动视觉监控,监控的主要功能类型有:亮度、饱和度及色调的变化;图像相似度对比和区分;图像对象分割和运动探测,闪烁属性分析,光学字符识别。

 

 

图1 自动视觉检测系统硬件组成

 

 

 

2 自动视觉检测系统图像处理与识别原理

 

  本文提出的智能汽车EMS测试自动视觉检测系统括图像采集、图像处理、特征提取、目标识别和结果输出等几个主要部分。其中,图像采集部分使用红外高清摄像头,以确保在黑暗的环境下也能捕捉到清晰的图像;图像预处理和特征提取部分采用OpenCV计算机视觉库进行处理,如图像增强、滤波、色彩空间转换、形态学处理等,再把提取到的特征输入到搭建的卷积神经网络(CNN)学习模型中进行推理学习,然后把经过学习的特征信息给识别模块,最后输出识别结果。

 

2.1图像预处理

 

  为更好的提取信息特征,需要需要对图像进行预处理,预处理包括色彩空间转换、图像增强、滤波、图像二值化自适应阈值处理、形态学处理等[1]

 

2.1.1色彩空间转换

 

  色彩空间类型转换是指,将图像从一个色彩空间转换到另外一个色彩空间。RGB是一种比较常见的色彩空间类型,除此以外还有一些其他的色彩空间,比较常见的包括GRAY色彩空间(灰度图像)、YCrCb色彩空间、HSV色彩空间等。各种色彩空间都有自己适合的处理问题的领域,在计算图像的亮度、色调、饱和度时,会把RGB色彩空间转换为HSV色彩空间。在进行图像的特征提取、距离计算时,往往先将图像从RGB色彩空间处理为灰度色彩空间,以降低问题复杂度,提高处理速度。

 

2.1.2图像增强、滤波

 

  在机器视觉检测系统中,摄像头直接获取的图像一般包含各种噪声,为了提高识别精度,必须在尽量保留图像原有信息的基础上,过滤掉图像内部的噪声。图像滤波方法较多,如邻域平均滤波、高斯滤波、双边滤波、2D卷积滤波、形态学滤波等。为获得连续平滑的边缘,对比几种滤波方法后,选用了高斯滤波结合2D卷积滤波。

 

  高斯滤波是一种线性平滑滤波,能够很好地滤除噪声,广泛应用于图像处理的减噪过程。高斯滤波所使用的卷积核在近中心点的权重值会加大,远离中心点的权重值会减小,卷积核内的元素值会呈现出高斯分布,滤波后图像的每一个像素点的值都由其本身和邻域内的其他像素值经过加权平均后得到。而2D卷积滤波是一种自定义卷积核的滤波方式。经过高斯滤波后,图像整体会变模糊一些,再采用2D卷积滤波进行锐化,提高边缘的对比度。图2—3为仪表盘中文字放大滤波前后对比图,从图中可以看出,文字边缘轮廓更为连续清晰,对比度增加,边缘斑点(噪声)得到有效抑制。

 

 

2 原图

 

 

3 滤波锐化后

 

2.2图像对象分割和运动探测评估

 

  峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)是一种常用的评价图像质量的指标,尤其在图像压缩和各种图像处理领域中。本系统在图像对象分割和运动探测的评估中,用隔帧的PSNR值来衡量原始图像与探测到的运动区域之间的误差。

 

  高清摄像头实时采集图像,隔帧的图像分别为原始图像A和它对应的运动探测结果图像B,将图像A和B转换为两个mxn单色图像I和K,图像I即为图像K的噪声近似,那么它们的的均方误差定义为:

 

  (1)

 

  而PSNR是基于MSE计算而来的,它测量了原始图像的最大功率与误差图像的平均功率的比值,单位是分贝(dB)。PSNR的计算公式如下:

 

  (2)

 

  其中,MAXI是表示图像点颜色的最大数值,如果每个采样点用8位表示,那么就是 255。所以MSE越小,则PSNR越大;所以PSNR越大,代表着图像质量越相似。由于PSNR主要关注均方误差,忽略了人眼对于不同频率成分的敏感度差异以及感知失真的影响。因此,在某些情况下,PSNR可能不能准确地反映人类感知到的图像质量差异。一般来说,PSNR高于40dB说明图像质量极好(两幅图像仅有非常小的差异),在30~40dB通常表示图像质量是好的(人眼很难分辨两幅图像的差异),在20~30dB说明图像质量差(人眼就可以察觉出图像的差异);最后,PSNR低于20dB图像不可接受。PSNR算法简单,可以直接利用skimage库里的skimage.metrics.peak_signal_noise_ratio函数计算PSNR值,并结合精确度、召回率和F1分数等其他指标进行更全面的运动探测评估。

 

2.3图像相似度评估

 

  在该自动视觉检测系统中,采用SSIM(Structural Similarity Index Measure)[2-3]值作为衡量隔帧两幅图片相似度的指标。它是基于人眼会提取图像中结构化信息的假设,综合考虑了亮度(Luminance)、对比度(Contrast)、图像结构(Structure)内容的差异和相似性,通过分别比较两个图像的亮度,对比度,结构,然后对这三个要素加权并用乘积表示,它在图像品质的衡量上更能符合人眼对图像品质的判断。

 

  亮度(Luminance)计算公式为:

 

       (3)

 

  对比度(Contrast)计算公式为:

 

       (4)

 

  结构(Structure)计算公式为:

 

       (5)

 

  其中依次表示x和y的均值,依次表示x和y的方差,表示x和y之间的协方差,以及,表示三个常数,为避免分母为0,依次默认为0.01和0.03,L表示图像像素值的范围即

 

  最后SSIM的计算公式为:

 

   (6)

 

  如果令均为1,则得到常用的SSIM计算公式:

 

  (7)

 

  由以上公式可知SSIM是一个0到1之间的数,数值越大表示输出图像和无失真图像的差距越小,即图像质量越好。当两幅图像一模一样时,SSIM=1。由于SSIM值是针对单通道图像设计的,对于多通道图像(如RGB图像),可以计算每个通道的SSIM值然后求平均,或者先将彩色图像转换为灰度图后再进行计算。在本自动视觉检测系统中,通过skimage库里的skimage.metrics.structural_similarity函数计算视频隔帧图片之间的SSIM值来评估图像的相似度。在实际应用中,因为一个场景中的亮度和对比度总是在变化的,所以可以通过对图像的局部区域计算SSIM值来得到更精确的结果。

 

2.4字符识别

 

  本系统文字字符识别模块结合了卷积递归神经网络(CRNN)[4-5]和Google开源的光学字符识别(OCR)引擎Tesseract[6-7]。CRNN是一种结合了卷积神经网络(CNN)和循环神经网络(RNN)的深度学习模型,用于端到端地对不定长的文本序列进行识别。CRNN通过CNN(包含了卷积层和池化层)提取图像特征,然后利用RNN对特征序列进行进行预测,对序列中的每个特征向量进行学习,并输出预测标签(真实值)分布,最后通过连接时序分类(Connectionist Temporal Classification,CTC)层进行序列解码,把从循环层获取的一系列标签分布转换成最终的标签序列。CRNN+CTC的优点在于其架构简单、易于实现,并且在处理不规则排列的文字时表现出色。然而,CRNN+CTC在识别复杂背景下的字符时可能面临一定的挑战,由于车载仪表盘,显示屏的文字背景相对简单,选用CRNN+CTC的架构 不仅能够节约计算资源,而且兼有较好的性能。CRNN+CTC对图像进行预处理和特征提取后,将提取的特征输入到Tesseract进行最终的识别,Tesseract在字符识别方面有着强大能力,从而进一步提高OCR的整体识别准确率[8]

 

3 自动视觉检测系统精度分析

 

  应用上述自动视觉检测系统针对不同样品,分别在不同光照、距离、角度下验证灰值和色调值评估、图像对象分割和运动、图像相似度对比和区分、字符数字识别等检测类型的准确度,测量结果见表1。

 

表1 自动视觉检测系统在不同距离和倾斜度下的识别率

  

检测类型

 

距离(m)

 

倾斜度(°)

 

识别率

 

灰值和色调值评估

 

3

 

5

 

100%

 

10

 

5

 

99%

 

3

 

10

 

99%

 

10

 

10

 

99%

 

图像对象分割和运动

 

3

 

5

 

99%

 

10

 

5

 

99%

 

3

 

10

 

98%

 

10

 

10

 

98%

 

图像相似度对比和区分

 

3

 

5

 

99%

 

10

 

5

 

98%

 

3

 

10

 

98%

 

10

 

10

 

98%

 

字符数字识别

 

3

 

5

 

100%

 

10

 

5

 

100%

 

3

 

10

 

99%

 

10

 

10

 

98%

 

 

 

4 结语

 

  本系统基于计算机视觉技术,通过图像采集、图像预处理、参考学习、SSIM及PSNR等特征参数提取计算等步骤实现了对图像亮度、饱和度及色调的变化;图像相似度对比和区分;图像对象分割和运动探测,字符数字识别的自动监测,测量结果表明该系统能够较好地代替传统的人工检测方法,具有测量精度高、效率高等特点,解决了现有人工肉眼检测存在的检测效率低,复现性差的问题,在智能汽车零部件EMS测量中具有广阔的应用前景。

 

 

 

 

  参考文献:

 

  [1]李立宗.OpenCV轻松入门 面向Python 第2版 图形图像[M].电子工业出版社,2023.

 

  [2]佟雨兵,张其善,祁云平.基于PSNR与SSIM联合的图像质量评价模型[J].中国图象图形学报,2006,11(12):1758-1763.

 

  [3]Jacobson, R. E .Image Quality Metrics[J].The Journal of Photographic Science,1995,43(2):42-43.

 

  [4]白宝林.基于改进的Mask r-CNN的车辆识别及检测[D].安徽大学,2018.

 

  [5]石鑫,董宝良,王俊丰.基于CRNN的中文手写识别方法研究[J].信息技术,2019,43(11):141-144,150.

 

  [6]曾悦,马明栋.基于Tesseract_OCR文字识别的研究[J].计算机技术与发展,2021,31(11):76-80.

 

  [7]吴鸣.基于Tesseract-OCR的字符识别技术在特定场合的应用[J].湖南城市学院学报(自然科学版),2020,29(5):58-61.

 

  [8]段伟洋.基于机器视觉的PCB板上元器件检测系统[J].IT经理世界,2020,23(5):157.

 

【关闭页面】