av4机床

芯片视频功耗高清视频芯片技术或呈现井喷式发展

随着近两年尤其是2010年高清视频监控产品的应用取得突飞猛进的发展,预计在接下来的1-2年,市场对高清产品的需求将呈现井喷的趋势,需求量的提升一方面会带来更高性能和更多功能的需求,另一方面也会带来差异化竞争的进一步加剧。而高清视频SoC作为最能影响到这两者的核心部分,其技术的演进和性能的提升对高清视频终端的市场状况起到决定性作用。

  在讨论高清视频SoC的技术发展趋势前,我们先简单的分析一下目前高清视频终端(前端)产品的常见组成架构。一般的高清视频终端分为传感器、ISP、编码压缩或转换三个常见部分,部分高清相机还会包含一个智能处理器。

  1.传感器,指得是我们常常提及的CCD Sensor或CMOS Sensor,如SONY的 ICX 445、ICX274、IMX035/036,Aptina的MT9M033,Omnivison的OV2715等等。主要作用是光电转换,将光信号转换为后端可以接收识别的电信号。

  2.ISP,即图像处理部分,我们常常提及的2A(AWB/AE)或者3A(AWB/AE/AF)都在这里完成的。传统模式下一般采用一颗DSP或者一颗FPGA来完成对图像的后期处理。

  3.编码压缩或转换,传感器信号经过ISP部分处理后,一般以SMPTE296M/BT.1120等数字接口格式传输到后续的编码压缩或转换部分,处理成压缩后的TCP/IP信号或者非压缩的HD-SDI信号。

  4.智能视频分析部分,一般采用一颗单独的DSP来实现,通过该DSP实现视频分析功能,如行为分析、视频诊断、特征识别等,由于受算法性能有限和跨平台移植的难度等限制,目前这类产品应用较少。

  传统意义上,这几个部分是彼此分开的,不同的部分由不同的芯片来完成,随着技术的发展,越来越多的芯片厂商将后面的两个部分融合到了一起,例如NXP的ASC8850,Hisilicon即将发布的Hi3516,这使得高清视频终端的集成度越来越高,在这一个以融合为趋势的大背景下,高清视频SoC在多业务融合上的技术发展将是最关键的点。

  在未来的1-2年,笔者认为高清视频SoC在功耗、编码性能、ISP、智能分析、解码和显示几个方面的技术突破和发展状况将会深入影响到终端产品的发展。

  更低的功耗

  与以往的编码芯片一般处于后端的DVR/DVS不同的是,高清的编码和ISP芯片都处于前端摄像机部分。如果这些芯片的功耗较高导致发热量较大,DVR和DVS可以用加装散热片或者制冷风扇的方式来保证设备的正常工作,但是在摄像机部分采取这些措施显然不是最佳的选择,即使安装了这些设备能将整机温度降低,也无形中增加了故障点和维护成本。

  最理想的情况是高清终端本身的功耗降低到通过自然散热即可以稳定工作的程度。这一方面要求高清视频芯片本身功耗要更低,同时也要求其要求匹配的FLASH、DDR等周边芯片的功耗也要尽可能的降低。但是功耗的降低和性能的提升又是一个矛盾,编码能力为1080P的芯片会比编码能力为D1的芯片要求更高的功耗。如何解决这个问题,就取决于芯片厂商的在这方面的技术实力了。

  更高的编码压缩能力

  随着市场对高清视频产品的分辨率的要求不断提高,一般的720P分辨率已经有点捉襟见肘,200万、300万甚至500万的需求在不断涌现,同时,对不同格式码流的需求也日益成为标准配置,这些对高清视频芯片的压缩能力提出了更大的挑战。

  1.目前大部分的高清芯片如TI的DM368、海思的Hi3515/3516、NXP的ASC8850、富瀚的FH8736等都可以做到1080P,也就是可以做到200万像素的实时编码压缩,在300万、500万像素下一般还无法做到实时的编码,目前性能较高的芯片在500万像素时可以做到7-12帧,这已经相当优异。未来的发展趋势肯定是保证主码流在500万甚至更高像素下的实时编码压缩,最好还能提供1-2路实时编码的D1或者720P子码流,高像素用于本地的预览或存储,低像素用于远程的网络传输。

  2.虽然从2007年开始,H.264就已经成为安防用视频设备的主要压缩格式,但是随着视频设备在不同的行业领域的应用逐步深入,MPEG4和M-JPEG压缩格式逐步又有了较多的需求,目前有的芯片已经可以同时支持H.264、MPEG4和M-JPEG三种压缩格式了,区别在于是否能够支持2个或者3个压缩格式码流的同步传输。视频芯片能够同时提供三个或以上压缩格式的码流,也是比较迫切的需求。

  图像处理技术(ISP)的融合

  图像处理(ISP,Image Signal Processor)是摄像机里不可缺少的部分,图像经过CCD或者CMOS的采集后,需要经过后期的处理才可以较好的适应不同的环境,在不同的光学条件下都能较好的还原出现场细节。图像处理包含很多部分的功能,但是最主要的就是我们经常听到的2A和3A,2A指的是AWB(自动白平衡)和AE(自动曝光),3A则是在2A的基础上加上AF(自动聚焦)。

  传统的标清网络摄像机和目前市场上绝大多数的高清网络摄像机中,一般采用一颗独立的DSP或者FPGA处理器来实现ISP功能,经过DSP或FPGA处理过的信号才再次进入编码芯片进行压缩处理。这种方式虽然具备较高的灵活性,使得开发者在选择方案的时候有更多的组合,但是对于设备而言,一方面加大了整机功耗,另外也增加了设备的复杂程度,如果有集成度更高的芯片方案将ISP和编码部分融合在一起无疑是更好的选择。
另外,现在大部分内置ISP功能的视频芯片对CMOS Sensor的支持都比较完善,可以直接对接各主要Sensor厂商的主要产品,但是对CCD Sensor的支持则相对有限,还需要开发者做二次转换,要额外增加一片CPLD或者FPGA,除了在一定程度上降低了开发难度和周期,比较关键的BOM成本和整机功耗并无多大的优化。


  整合智能视频技术

  智能分析技术经过几年的发展,现在已经逐步转变了原来技术先进、应用无望的尴尬局面,越老越多的在实际应用中得到普及,随着高清时代的到来,信息量成倍增长的前提下,智能视频技术已经成为必不可少的手段。

  早期的智能分析功能主要在后端通过PC实现,后续陆续出现基于DVS或者DVR的形态,而随着高清化的到来,智能分析融合到前端的需求已经非常迫切,芯片性能的提高为该需求提供了可行性。

  根据智能视频技术目前的应用情况,预计以下几类分析算法会最先在高清的前端产品中得到应用:视频诊断算法,主要用于判断前端设备的工作状态是否正常,是否有模糊、噪点、异常遮挡、视频丢失等异常情况;行为分析算法,主要用于对视频监控场景内的运动物体行为的识别和判定等;人脸检出和识别算法,主要用于对监控场景中人脸特征的检出、识别和对比;智能交通算法,主要用于交通违章管理,属于一类特定的行业应用。

  按照现在的状况,芯片厂商暂时还不具备成熟的条件直接在芯片中内置上述算法,比较可行的办法是在高清视频芯片中预留一颗较高主频的DSP或者ARM核心,开发者可以自己选择将上述算法中的某一部分或者全部移植到该DSP或者ARM上,形成带智能算法的智能相机。

  完善系统配套芯片

  系统配套产品主要指的是用于监控后端的产品,诸多现场经验表明,高清的推广必须以系统化的方式来做,出了有高质量的高清前端,还必须有完善的系统配套产品来解决传输、存储和显示等重要功能。

  NVR和混合DVR用芯片,随着高清的概念开始深入人心,NVR和混合DVR也逐步成为系统必备的产品。在NVR和混合DVR中使用芯片一般要求具备较强的业务处理能力,如列表管理、存储管理、网络管理,同时对芯片的PCI等性能要求也较高。

  解码显示芯片,主要用于高清图像的显示,一般要求芯片具备良好的显示性能,同时尽可能多的支持多个输出,最好支持HDMI或者DVI等数字高清的输出接口,而输出的显示分辨率则最少要求达到1080P,甚至更高。

  目前业界主要的芯片制造商都已经意识到高清视频芯片的整合化趋势,并投入大量力量进行新一代高清芯片的研发,不管是率先推出ASC8850的NXP和推出DM368的TI,还是即将推出Hi3516的海思半导体,都已经开始在高度融合的高清视频芯片上有所建树,同时也还有一些有影响力的IC厂商正跃跃欲试,相信随着芯片厂商的努力和推动,结合下游终端厂商的市场推广和用户需求的拉动,高度集成和高度融合的新一代高清视频芯片会取得越来越大的发展,并逐步成为一个成熟的产业。

0.40877485275269 s