窗口/屏幕截图适用于截图、批注等工具场景,时时获取窗口/屏幕图像数据流呢,下面讲下视频会议共享桌面、远程桌面这些场景是如何实现画面录制的。
常见的屏幕画面时时采集方案,主要有GDI、WGC、DXGI。
GDI
GDI(Graphics Device Interface)就是使用user32下WindowsAPI来实现,是 Windows 操作系统中最早、最基础的图形设备接口,满足所有windows平台。屏幕/窗口截图可以详见: .NET 窗口/屏幕截图 - 唐宋元明清2188 - 博客园 (cnblogs.com)
录制屏幕,可以基于GDI截图方案,使用定时器捕获屏幕数据。
GDI性能不太好,尤其是针对高帧率及高分辨率需求,达到每秒20帧以上的截取,占用CPU就有点高了。另外GDI不能获取鼠标,需要在截取的图像中把鼠标画上去。
所以GDI使用很方便、不依赖GPU,对性能要求不高的截图场景建议直接使用这个方案。
WGC
Windows Graphics Capture ,是Win10引入的一种新截取屏幕以及截取窗口内容的机制 Screen capture - UWP applications | Microsoft Learn
WinRT提供接口访问,Csproj属性中添加:<UseWinRT>true</UseWinRT>
截图代码实现示例:
public WgcCapture(IntPtr hWnd, CaptureType captureType)
{
if (!GraphicsCaptureSession.IsSupported())
{
throw new Exception("不支Windows Graphics Capture API");
}
var item = captureType == CaptureType.Screen ? CaptureUtils.CreateItemForMonitor(hWnd) : CaptureUtils.CreateItemForWindow(hWnd);
CaptureSize = new Size(item.Size.Width, item.Size.Height);
var d3dDevice = Direct3D11Utils.CreateDevice(false);
_device = Direct3D11Utils.CreateSharpDxDevice(d3dDevice);
_framePool = Direct3D11CaptureFramePool.CreateFreeThreaded(d3dDevice, pixelFormat: DirectXPixelFormat.B8G8R8A8UIntNormalized, numberOfBuffers: 1, item.Size);
_desktopImageTexture = CreateTexture2D(_device, item.Size);
_framePool.FrameArrived += OnFrameArrived;
item.Closed += (i, _) =>
{
_framePool.FrameArrived -= OnFrameArrived;
StopCapture();
ItemClosed?.Invoke(this, i);
};
_session = _framePool.CreateCaptureSession(item);
}
private void OnFrameArrived(Direct3D11CaptureFramePool sender, object args)
{
try
{
using var frame = _framePool.TryGetNextFrame();
if (frame == null) return;
var data = CopyFrameToBytes(frame);
var captureFrame = new CaptureFrame(CaptureSize, data);
FrameArrived?.Invoke(this, captureFrame);
}
catch (Exception)
{
// ignored
}
}
WGC截图流程:
创建捕捉项:使用 CreateCaptureItemForMonitor 或 CreateCaptureItemForWindow 来创建捕捉项。
创建D3D11设备和上下文:调用 D3D11CreateDevice 创建 Direct3D 11 设备和设备上下文。这里虽然没有使用DXGI截图,但引用了DXGI的设备类型
转换为 Direct3D 设备:将 D3D11 设备转换为SharpDX Direct3D 设备对象。
创建帧池和会话:使用 Direct3D11CaptureFramePool 和 GraphicsCaptureSession。
开始捕捉:调用 StartCapture 开始会话,并注册帧到达事件。
处理帧:在帧到达事件中处理捕获的帧
我们这里是使用比较成熟的SharpDX来处理Direct3D,引用如下Nuget版本
<PackageReference Include="SharpDX" Version="4.2.0" />
<PackageReference Include="SharpDX.Direct3D11" Version="4.2.0" />
<PackageReference Include="SharpDX.DXGI" Version="4.2.0" />
获取到截取的D3D对象帧,帧画面转数据流:
private byte[] CopyFrameToBytes(Direct3D11CaptureFrame frame)
{
using var bitmap = Direct3D11Utils.CreateSharpDxTexture2D(frame.Surface);
_device.ImmediateContext.CopyResource(bitmap, _desktopImageTexture);
// 将Texture2D资源映射到CPU内存
var mappedResource = _device.ImmediateContext.MapSubresource(_desktopImageTexture, 0, MapMode.Read, MapFlags.None);
//Bgra32
var bytesPerPixel = 4;
var width = _desktopImageTexture.Description.Width;
var height = _desktopImageTexture.Description.Height;
using var inputRgbaMat = new Mat(height, width, MatType.CV_8UC4, mappedResource.DataPointer, mappedResource.RowPitch);
var data = new byte[CaptureSize.Width * CaptureSize.Height * bytesPerPixel];
if (CaptureSize.Width != width || CaptureSize.Height != height)
{
var size = new OpenCvSharp.Size(CaptureSize.Width, CaptureSize.Height);
Cv2.Resize(inputRgbaMat, inputRgbaMat, size, interpolation: InterpolationFlags.Linear);
}
var sourceSize = new Size(frame.ContentSize.Width, frame.ContentSize.Height);
if (CaptureSize == sourceSize)
{
var rowPitch = mappedResource.RowPitch;
for (var y = 0; y < height; y++)
{
var srcRow = inputRgbaMat.Data + y * rowPitch;
var destRowOffset = y * width * bytesPerPixel;
Marshal.Copy(srcRow, data, destRowOffset, width * bytesPerPixel);
}
}
else
{
Marshal.Copy(inputRgbaMat.Data, data, 0, data.Length);
}
_device.ImmediateContext.UnmapSubresource(_desktopImageTexture, 0);
return data;
}
将Surface对象转换为获取 SharpDX的Texture2D,映射到CPU以内存拷贝方式输出图像字节数据。
上面默认是输出三通道8位的Bgr24,如果是四通道Bgra32可以按如下从内存拷贝:
using var inputRgbMat = new Mat();
Cv2.CvtColor(inputRgbaMat, inputRgbMat, ColorConversionCodes.BGRA2BGR);
Marshal.Copy(inputRgbMat.Data, data, 0, data.Length);
拿到字节数据,就可以保存本地或者界面展示了 。
屏幕截图Demo显示:
private void CaptureButton_OnClick(object sender, RoutedEventArgs e)
{
var monitorHandle = MonitorUtils.GetMonitors().First().MonitorHandle;
var wgcCapture = new WgcCapture(monitorHandle, CaptureType.Screen);
wgcCapture.FrameArrived += WgcCapture_FrameArrived;
wgcCapture.StartCapture();
}
private void WgcCapture_FrameArrived(object? sender, CaptureFrame e)
{
Application.Current.Dispatcher.Invoke(() =>
{
var stride = e.Size.Width * 4; // 4 bytes per pixel in BGRA format
var bitmap = BitmapSource.Create(e.Size.Width, e.Size.Height, 96, 96, PixelFormats.Bgra32, null, e.Data, stride);
bitmap.Freeze();
CaptureImage.Source = bitmap;
});
}
WGC利用了现代图形硬件和操作系统特性、能够提供高性能和低延迟的屏幕捕抓,适用于实时性比较高的场景如屏幕录制、视讯会议等应用。
更多的,可以参考官网屏幕捕获到视频 - UWP applications | Microsoft Learn。也可以浏览、运行我的Demo:kybs00/CaptureImageDemo (github.com)
DXGI
全名DirectX Graphics Infrastructure。从Win8开始,微软引入了一套新的接口Desktop Duplication API,而由于Desktop Duplication API是通过DXGI来提供桌面图像的,速度非常快。
DXGI使用GPU,所以cpu占用率很低,性能很高。DXGI官网文档:DXGI - Win32 apps | Microsoft Learn
因为DXGI也是使用DirectX,所以很多接口与WGC差不多。也就是通过D3D,各种QueryInterface,各种Enum,核心方法是AcquireNextFrame
它有个缺点,没办法捕获窗口内容。所以视讯会议共享窗口,是无法通过DXGI实现
我们看看Demo调用代码,
private void CaptureButton_OnClick(object sender, RoutedEventArgs e)
{
var monitorDxgiCapture = new MonitorDxgiCapture();
monitorDxgiCapture.FrameArrived += WgcCapture_FrameArrived;
monitorDxgiCapture.StartCapture();
}
private void WgcCapture_FrameArrived(object? sender, CaptureFrame e)
{
Application.Current?.Dispatcher.Invoke(() =>
{
var stride = e.Size.Width * 4; // 4 bytes per pixel in BGRA format
var bitmap = BitmapSource.Create(e.Size.Width, e.Size.Height, 96, 96, PixelFormats.Bgra32, null, e.Data, stride);
bitmap.Freeze();
CaptureImage.Source = bitmap;
});
}
捕获画面帧数据:
[HandleProcessCorruptedStateExceptions]
private CaptureFrame CaptureFrame()
{
try
{
var data = new byte[CaptureSize.Width * CaptureSize.Height * 4];
var result = _mDeskDupl.TryAcquireNextFrame(TimeOut, out _, out var desktopResource);
if (result.Failure) return null;
using var tempTexture = desktopResource?.QueryInterface<Texture2D>();
_mDevice.ImmediateContext.CopyResource(tempTexture, _desktopImageTexture); //拷贝图像纹理:GPU硬件加速的纹理复制
desktopResource?.Dispose();
var desktopSource = _mDevice.ImmediateContext.MapSubresource(_desktopImageTexture, 0, MapMode.Read, MapFlags.None);
using var inputRgbaMat = new Mat(_screenSize.Height, _screenSize.Width, MatType.CV_8UC4, desktopSource.DataPointer);
if (CaptureSize.Width != _screenSize.Width || CaptureSize.Height != _screenSize.Height)
{
var size = new OpenCvSharp.Size(CaptureSize.Width, CaptureSize.Height);
Cv2.Resize(inputRgbaMat, inputRgbaMat, size, interpolation: InterpolationFlags.Linear);
}
Marshal.Copy(inputRgbaMat.Data, data, 0, data.Length);
var captureFrame = new CaptureFrame(CaptureSize, data);
_mDevice.ImmediateContext.UnmapSubresource(_desktopImageTexture, 0);
//释放帧
_mDeskDupl.ReleaseFrame();
return captureFrame;
}
catch (AccessViolationException)
{
return null;
}
catch (Exception)
{
return null;
}
}
也是使用硬件加速将2D纹理资源拷贝,然后通过内存拷贝输出为字节数据。
1080P的本地录屏、显示,CPU、GPU使用情况如下:
1080P和WGC方案没有明显差别,延时也接近。但4K、8K分辨率下,DXGI方案更优,能够直接管理图形硬件和提供高性能渲染。它是与内核模式驱动程序和系统硬件进行通信的,借用下官网的架构图:
所以在需要极低延迟和高帧率的4K场景中,DXGI能提供必要的性能优化。
上面3个方案Demo示例,详细代码都在github仓库:kybs00/CaptureImageDemo (github.com)
总结下这三个方案,
GDI:适用于所有 Windows 版本,但性能较低。
WGC:Win10 1803版本以上,高性能和低延迟,屏幕及窗口均支持。
DXGI:Win8版本以上,适用于高分辨率高帧率等高性能的需求,并且只支持屏幕录制、不支持窗口。
录制主要是录屏、直播、远程桌面、视讯会议、传屏等场景。录制屏幕/窗口建议优先使用WGC,然后用DXGI兼容win8;如果仅录制屏幕且高分辨率、高帧率场景,建议优先DXGI
该文章在 2024/8/10 9:00:02 编辑过