在视频媒体播放,监控系统的构建当中,经常会涉及到YUV数据的显示问题。一般的播放控件以及SDK都是通过使用Window句柄,利用DirectDraw直接在窗口上渲染。但是,如果用户界面是使用WPF开发的时候,通常只能通过WinFormHost在WPF界面中嵌入WinForm来完成。但这么做会遇到AeroSpace的问题,即winform的控件永远浮在WPF的最上层,任何WPF元素都会被盖住,同时缩放和拖动的时候都会造成很差的用户体验。原因是由于WPF和Winform使用了不同的渲染技术。

要在WPF中完美的支持YUV数据的显示,通常的解决方式是使用先把YUV数据转换成WPF可以支持的RGB数据,然后利用类似于WriteableBitmap的控件,把他展现在WPF上。这么做的主要问题是在做RGB转换的时候,需要消耗大量的CPU, 效率比较低。一种优化方式是使用FFMPEG里的SwScale或者Intel的IPP库,这些库经过了一定的优化,可以有限度的使用硬件加速。下面为一个使用WritableBitmap的例子。

WriteableBitmap imageSource = new WriteableBitmap(videoWidth, videoHeight, 
 DPI_X, DPI_Y, System.Windows.Media.PixelFormats.Bgr32, null); 
... 
int rgbSize = width * height * 4; // bgr32 
IntPtr rgbPtr = Marshal.AllocHGlobal(rgbSize); 
YV12ToRgb(yv12Ptr, rgbPtr, width, height); 
// 更新图像 
imageSource.Lock(); 
Interop.Memcpy(this.imageSource.BackBuffer, rgbPtr, rgbSize); 
imageSource.AddDirtyRect(this.imageSourceRect); 
imageSource.Unlock(); 
Marshal.FreeHGlobal(rgbPtr); 

另一种解决方法是使用D3DImage作为WPF与显卡的桥梁。我们可以借助D3DImage,直接将D3D渲染过后的部分送到WPF中显示。一个参考就是VMR9在WPF中的应用。VMR9是微软提供的DirectShow的Render。经过仔细参考了WpfMediaTookit中VMR9相关的代码后,其核心的思想就是在初始化DirectShow构建VMR9渲染器时,让其输出一个D3D9Surface,D3DImage将使用该Surface作为BackBuffer。当有新的视频帧在该Surface渲染完成后,VMR9将发送一个事件通知。收到通知后,D3DImage刷新一下BackBuffer即可。下面代码展现了核心思想部分。

private VideoMixingRenderer9 CreateRenderer() { 
 var result = new VideoMixingRenderer9(); 
 var cfg = result as IVMRFilterConfig9; 
 cfg.SetNumberOfStreams(1); 
 cfg.SetRenderingMode(VMR9Mode.Renderless); 
 var notify = result as IVMRSurfaceAllocatorNotify9; 
 var allocator = new Vmr9Allocator(); 
 notify.AdviseSurfaceAllocator(m_userId, allocator); 
 allocator.AdviseNotify(notify); 
 // 在构建VMR9 Render时,注册新视频帧渲染完成事件 
 allocator.NewAllocatorFrame += new Action(allocator_NewAllocatorFrame); 
 // 注册接收新D3DSurface被创建的事件 
 allocator.NewAllocatorSurface += new NewAllocatorSurfaceDelegate(allocator_NewAllocatorSurface); 
 return result; 
 } 
 void allocator_NewAllocatorSurface(object sender, IntPtr pSurface) 
 { 
  // 为了方便理解,只保留核心部分。省略改写了其他部分 
  ... 
  // 将pSurface设置为D3DImage的BackBuffer 
  this.m_d3dImage.Lock(); 
  this.m_d3dImage.SetBackBuffer(D3DResourceType.IDirect3DSurface9, pSurface); 
  this.m_d3dImage.Unlock(); 
  ... 
 } 
 void allocator_NewAllocatorFrame() 
 { 
  ... 
  // 重绘 
  this.m_d3dImage.Lock(); 
  this.m_d3dImage.AddDirtyRect(new Int32Rect(0, /* Left */ 
    0, /* Top */ 
    this.m_d3dImage.PixelWidth, /* Width */ 
    this.m_d3dImage.PixelHeight /* Height */)); 
  this.m_d3dImage.Unlock(); 
  ... 
 } 

由此,只要是使用DirectShow的视频播放就可以借助VMR9在WPF上完美显示。但很多时候,DirectShow不能解决所有问题。例如在做交互式视频优化处理或是视频叠加的时候, 采用固定滤镜流水线的DirectShow很难满足要求。有的时候还是需要便捷的直接渲染的方式。

由VMR9的例子我们可以看出,产生出一个D3D9Surface并在上面渲染是其中的关键。那么剩下的问题就是如何把YUV数据渲染到D3D9Surface。

D3D没有直接支持YUV图像格式。因此需要我们想办法让D3D能够渲染YUV数据。在用C#改写的过程当中,我突然发现D3D已经提供了更简单的方法帮助我们实现YUV到RGB颜色空间的转换,而且是通过显卡硬件直接支持。效率相当的高。主要原理就是借助D3DDevice的StrentchRectangle方法。

public void StretchRectangle( 
 Surface sourceSurface, 
 Rectangle sourceRectangle, 
 Surface destSurface, 
 Rectangle destRectangle, 
 TextureFilter filter 
); 

StrentchRectangle方法的主要功能是将一个Surface上的某个区域的内容拷贝到另一个Surface的指定区域中。在Copy的过程当中,只要是显卡直接支持的格式,如YV12,YUY2等等, 都会自动的进行D3D PixelFormat的转换!因此,我们只需要创建一个指定好PixelFormat的D3D OffscreenPlainSurface, 把原始数据填充进去,调用StrentchRectangle向目标Surface拷贝,我们就得到了想要的Surface。剩下的事情就交给D3DImage了。下面是例子代码的核心部分

public void Render(IntPtr imgBuffer) 
{ 
 lock (this.renderLock) 
 { 
  // 将图像数据填充进offscreen surface 
  this.FillBuffer(imgBuffer); 
  // 调用StrentchRectangle把原始图像数据Copy到TextureSurface中         
  this.StretchSurface(); 
  // 执行渲染操作 
  this.CreateScene(); 
 } 
 // 通知D3DImage刷新图像 
 this.InvalidateImage(); 
} 

以上所述是小编给大家介绍的WPF下YUV播放的D3D解决方案,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!

广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!

RTX 5090要首发 性能要翻倍!三星展示GDDR7显存

三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。

首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。

据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。