日期
09/01
2014
咨询
  • QQ扫一扫

  • Vision小助手
    (CMVU)

机器视觉常见问题解答
收藏
2014-09-01 14:42:16来源: 中国机器视觉网

  1.应该怎样选择相机或者说是选择相机应该注意哪些?

  以上说的多是相机的原理和一些关键技术,对于接触机器视觉技术者熟悉这些可能需要一个过程,但选择相机却往往刻不容缓的摆在面前。因此,选择相机最简单的方法是您将您检测或测量的要求告知专业视觉系统集成商,他们应该能帮到您。通常您首先需要知道系统精度要求和相机分辨率,可以通过公式:X方向系统精度(X方向像素值)=视野范围(X方向)/CCD芯片像素数量( X方向); Y方向系统精度(Y方向像素值)=视野范围(Y方向)/CCD 芯片像素数量( Y方向)来获得。当然理论像素值的得出,要由系统精度及亚像素方法综合考虑;接着您要知道系统速度要求与相机成像速度,系统单次运行速度=系统成像(包括传输)速度+系统检测速度,虽然系统成像(包括传输)速度可以根据相机异步触发功能、快门速度等进行理论计算,最好的方法还是通过软件进行实际测试;再接着您要将相机与图像采集卡一并考虑,因为这涉及到两者的匹配:

  视频信号的匹配。对于黑白模拟信号相机来说有两种格式,CCIRRS170(EIA),通常采集卡都同时支持这两种相机;

  分辨率的匹配。每款板卡都只支持某一分辨率范围内的相机;

  特殊功能的匹配。如要是用相机的特殊功能,先确定所用板卡是否支持此功能,比如,要多部相机同时拍照,这个采集卡就必须支持多通道,如果相机是逐行扫描的,那么采集卡就必须支持逐行扫描;

  接口的匹配。确定相机与板卡的接口是否相匹配。如CameraLinkFirewire1394等。最后才应该是价格的比较。

 

  2.什么是亚像素?

  一般用分辨率这个名词来描述CCD芯片上的行列数。实际上,CCD芯片是一个抽样器件,它的最大抽样率由抽样定律决定,即抽样率必须高于奈奎斯特频率的2倍。抽样理论在一维时间信号中得到了广泛的使用,但并没有被完全的应用到CCD芯片的信号采样中。能够通过亚像素算术来提高CCD芯片的抽样率,理论就是把一个像素看作是由亚像素组成的子图像。通常,我们能够处理亚分辨率为10×10亚像素的图像。一个典型的例子就是决定一个斑点的重心由于积分特性,原始像素位置误差与其本身输出相同。假设一个灰度级的一维图像,如果灰度值的转折点刚好出现在像素的边缘,那么容易确切得知道轮廓点的位置。但实际的转折点可能不在一个理想的级别,我们不能够准确得知道芯片上转折点剪切像素的位置。另外更重要的,模糊的灰度级允许灰度级差值,因此我们就能够决定亚像素的位置作为灰度级的功能。不管怎样,只有将CCD芯片内的模拟图像尽可能精确地描绘在图像处理单元的内存中,亚像素算法才能是精确的。就像以前章节中讨论的,这不是对标准视频相机的情况。描述像素时钟的章节显示这个问题能够解决。 

 

  3.什么是12位相机?我是否需要12位相机?

  理论上12位相机的动态范围是8位相机的动态范围的16倍。一个8位的相机最高能够检测256个灰度级。一个12位相机有4096个灰度级。由于相机是数字的,您不必测量到213.5625,或者说213214。如果您需要检测213214灰度级之间的灰度级,8位相机的效果就很差。这时您就要用12位相机,它能提供16倍的动态范围,同时又能得到与8位相机相同的数据量。

 

  4.CMOS相机与CCD相机间的区别有哪些?

  它们是不同工艺和结构的两种微电子器件,主要的区别如下:

  ⅰ)CCD传感器比CMOS传感器对光更加敏感,这是因为CCD往往比CMOS相机有更大的填充因子。如今采用微透镜技术的CCD可以达到100%的填充比,而CMOS由于周围的电路元素影响,它的填充比一般在70%左右。

  ⅱ)CCD传感器更适应低对比度的场合,这是由于CCD传感器可以获得更高的信噪比。

  ⅲ)CMOS传感器可以获得比CCD传感器高很多的图像传输速度,因而更适用于高速场合的需要。

  ⅳ)CMOS传感器由于其电路结构特性可以获得比CCD传感器更多的输出柔性,您可以在任意选择图像输出的子兴趣区域来提高图像传输速度,比如某传感器有1280×1024的像素分辨能力和15/秒的图像传输频率,如果是CCD传感器,由于其串行耦合输出的电路特性使它在选择子兴趣区域时只能减少行分辨率,如640×1024(30/)320×1024(60/);而如果是CMOS传感器,则可以选择低于1280×1024的任何分辨率,如640×480(70/)

  ⅴ)CMOS传感器拥有更低的电能消耗,因此更适应于便携设备和空间应用。但有一点很明显,随着两者技术的进步,在同档次的相机上差别也越来越小,因而选择何种创感器主要是遵守适用原则。

 

  5.CCD是数字器件?

  虽然CCD与许多数字器件一样用到时钟,但是光的采集和输出是以模拟形式进行的。输入CCD的时钟用于从光敏器件转移电荷到输出放大器上。输出信号是模拟的,必须被转换成数字信号才能被计算机处理。

 

  6.模拟输出相机与数字输出相机之间的区别是什么?

  模拟相机的视频输出是用模拟电信号传输视频信号,这种相机通常用于闭路电视,或者与数字化视频波形的采集卡相连。数字相机其内部有一个A/D转换器,数据以数字形式传输,能够直接显示在电脑或电视屏幕上,因而数字输出相机可以避免传输过程的图像衰减或噪声。

 

  7.我应该选择何种输出接口的相机?

  输出接口类型的选择主要由您需要获得数据类型决定。如果您的图像输出直接给视频监视器,那么您只需要模拟输出的相机(对单色图像需求就是CCIRRS-170制式输出,对彩色图像需求就是PALNTSC制式输出)。如果您需要将相机获取的图像传输给电脑,则可以用多种输出接口选择,但必须和采集卡的接口一致,通常有如下的选择(在图像采集卡一节将进一步介绍)

  ⅰ)模拟接口仍然可以适用,图像信号需要一张图像采集卡完成A/D转换,这样的搭配价格最低因而是最常见的。

  ⅱ)对一些没有其它采集卡控制需求和图像传输可靠性需求的应用,采用直联的USB2.0接口和IEEE1394 (Fire Wire)最为方便。

  ⅲ) Camera Link接口是一种数字输出标准,它需要一张采集卡来承载,并用以配合高性能的面扫描相机或线扫描相机,随着该数字接口的推广和完善,价格也不如预期的那样昂贵。ⅳ)此外,也有一些老一点的数字接口仍然再被使用,比如 LVDS RS644

 

  8.什么是垂直同步、彩色视频复合信号同步、外同步、直流线锁定和完全同步?

  这是摄像机之间不同的同步方法。全体锁定是两部用于精密的应用如广播摄影棚摄像机之间完全同步最好的方法。它将同步:水平,垂直,偶数/奇数区域,色彩触发频率和阶段。垂直同步是最简单的方法来同步两部摄像机,通过垂直驱动频率来保证视频能够采用老式的切换期或者四分割机器,在同一个监视器上显示几个影像源。垂直驱动信号通常由重复频率20/16.7毫秒(50/60赫兹)和脉冲1~3毫秒宽度的脉冲组成。彩色视频复合信号代表视频和彩色触发信号,意味着摄像机能和外部的复合彩色视频信号同步。

  然而尽管称作彩色视频复合信号同步,实际上只进行水平同步和垂直同步,而没有色彩触发同步。外同步非常类似于彩色视频复合信号同步。一个摄像机能够同步于另一个摄像机的视频信号,一个外同步摄像机能使用输入的彩色视频复合信号,提取水平和垂直同步信号来做同步。

  多数相机具有垂直驱动同步或者彩色视频复合信号/外同步性能,但是由于监控摄像机永远不需要线锁定,因此闭路监控摄像机几乎没有完全锁定性能。直流线锁定是一种古老的技术,利用直流50/60赫兹电源线电流来同步摄像机。因为直流24伏电源广泛使用于多数建筑物防火警报系统,由于非常容易获得,因此广泛应用于北美洲。由于老型号的切换器和分割系统没有数字记忆功能,要保持稳定的影像,摄像机之间的同步非常必要,直流线锁定就是摄像机同步于交流50/60赫兹,彩色信道之间时间的关联和水平/垂直信号没有约束会导致糟糕的色彩转换(色彩阶段设计),因此所有使用交流线锁定的用户不可避免地失去很好的色彩转换。

  幸运的是,现在的分割器和16通道复合处理器以及硬盘录像机都有内部记忆体来克服这个问题,不再需要同步信号,因此交流线锁定可能若干年后会被淘汰掉。

 

  9.什么是电子快门?为什么有些CCD没有电子快门功能?

  只要有光照,CCD光敏部分就会产生电子。由于像素必须被读出,如果读出需要很长时间,图像就会变差。这与使用慢速快门拍摄运动物体的原理一样。通常在读出时间内中止信号产生。然而,关掉光照就需要某种形式的机械快门或者电子快门。有些CCD设计为只要信号产生就迅速传送到CCD的某一金属区域,由于光照不能够穿透金属,信号产生就会中止,CCD就能够没有干扰的读出。这种快速传送到保护区域就称作电子快门,因为利用电子控制信号产生时间。

 

  10.硅对光的敏感度超过1100nm,但为什么没有能够检测到这些波长的CCD?

  硅对光的敏感度的确超过1100nm,然而,为什么CCD不能够检测到这些波长的原因是有些复杂的: CCD通过吸收光,将光能量转换成电能量来工作。这些电子在CCD中传送到输出放大器中,这里,产生了与像素吸收的光能量成比例的一部分电信号。被硅吸收的光能量取决于波长。蓝光能够被硅高度吸收,而大多数的光实际上是被CCD上的多个硅沟吸收。结果,只有一小部分的蓝光被CCD损耗区域吸收,这里像素聚集电子。在可见光谱的另一端,红光和近红外光也只有少部分被吸收。因此,只有穿过了大量硅的光才能被吸收而产生电子。这些电子漂移到CCD损耗区域被像素吸收,或者在别处漂移直到它们的能量耗尽。

 

为你推荐