第一部分:背景知识 DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,与DirectX开发包一起发布。它经过DirectX 6.0中的DirectX Media发展而来,集成了DirectX家族中的其他成员(DirectDraw、DirectSound等),可以说是一位“集大成者”。
DirectShow能做些什么? DirectShow为多媒体流的捕捉和回放提供了强有力的支持。运用DirectShow,可以很方便地从支持WDM驱动模型的采集卡上捕获数据,并且进行相应的后期处理乃至存储到文件中。它广泛地支持各种媒体格式,包括Asf、Mpeg、Avi、Dv、Mp3、Wave等等,使得多媒体数据的回放变得轻而易举。另外,DirectShow直接支持DVD的播放,视频的非线性编辑,以及与数字摄像机的数据交换。更值得一提的是,DirectShow提供的是一种开放式的开发环境,每个功能模块都采取COM组件方式,称为Filter,开发者也可以开发自己的功能Filter来扩展DirectShow的应用。按照功能来划分,Filter分为3类:Source Filter, Transform Filter, Rendering Filter。前者负责获取数据,数据源可以是文件、数字摄像机等,然后将数据往下传输;中间者负责数据的格式转换,比如数据流的分离与合成、编码解码等,然后把数据继续往下传输;后者负责数据的去向——给声卡、显卡进行播放或者输出到文件存储。 第二部分核心技术 DirectShow的开发实际就是Filter的开发,DirectShow自身提供了,下面就是Filter概述。 1、DirectShow的 Filter Filter 一般分为下面几种类型。
(1)源过滤器(source filter):源过滤器引入数据到过滤器图表中,数据来源可以是文件、网络、照相机等。不同的源过滤器处理不同类型的数据源。
(2)变换过滤器(transform filter):变换过滤器的工作是获取输入流,处理数据,并生成输出流。变换过滤器对数据的处理包括编解码、格式转换、压缩解压缩等。
(3)提交过滤器(renderer filter):提交过滤器在过滤器图表里处于最后一级,它们接收数据并把数据提交给外设。
(4)分割过滤器(splitter filter):分割过滤器把输入流分割成多个输出。例如,AVI分割过滤器把一个AVI格式的字节流分割成视频流和音频流。
(5)混合过滤器(mux filter):混合过滤器把多个输入组合成一个单独的数据流。例如,AVI混合过滤器把视频流和音频流合成一个AVI格式的字节流。
过滤器的这些分类并不是绝对的,例如一个ASF读过滤器(ASF Reader filter)既是一个源过滤器又是一个分割过滤器。
2、关于Filter Graph Manager
Filter Graph Manager也是一个com对象,用来控制Filter graph中的所有的filter,主要有以下的功能:
1) 用来协调filter之间的状态改变,从而使graph 中的所有的filter的状态的改变应该一致。
2) 建立一个参考时钟。
3) 将filter 的消息通知返回给应用程序
4) 提供用来建立 filter graph的方法。
简单描述,Graph就是各个Filter组成的一个流程图。 SourceFilter----|-----SpliterFilter-------------(Video-pin)>-----TransFormFilter--->VideoRender |---------------------(Audio-pin)->----ACMWraperFilter--->DirectSoundFilter 程序启动过程,先创建各个filter的com对象,然后使用FilterGraph.Addfilter加入到Graph中,然后把每个Filter按照 数据流把OutPin和inpuin连接起来。最好启动FilterGraph.play即可。
Directshow是基于模块化,每个功能模块都采取COM组件方式,称为Filter。Directshow提供了一系列的标准的模块可用于应用开发,开发者也可以开发自己的功能Filter来扩展Directshow的应用。下面我们用一个例子来说明如何采取Filter来播放一个AVI的视频文件。
1) 首先从一个文件中读取AVI数据,形成字节流。(这个工作由源Filter完成)
2) 检查AVI数据流的头格式,然后通过AVI分割Filter将视频流和音频流分开。
3) 解码视频流,根据压缩格式的不同,选取不同的decoder filters 。
4) 通过Renderer Filter重画视频图像。
5) 音频流送到声卡进行播放,一般采用缺省的 DirectSound Device Filter。 状态改变,Graph中的filter的状态改变应该一致,因此,应用程序并将状态改变的命令直接发给filter,而是将相应的状态改变的命令发送给Filter graph Manager,由manager将命令分发给graph中每一个filter。Seeking也是同样的方式工作,首先由应用程序将seek命令发送到filter graph 管理器,然后由其分发给每个filter。
参考时钟,graph中的filter都采用的同一个时钟,称为参考时钟(reference clock),参考时钟可以确保所有的数据流同步,视频桢或者音频桢应该被提交的时间称为presentation time.presentation time 是相对于参考时钟来确定的。Filter graph Manager应该选择一个参考时钟,可以选择声卡上的时钟,也可以选择系统时钟。
Graph事件, Graph 管理器采用事件机制将graph中发生的事件通知给应用程序,这个机制类似于windows的消息循环机制。
Graph构建的方法,graph管理器给应用程序提供了将filter添加进graph的方法,连接filter的方法,断开filter连接的方法。
但是,graph 管理器没有提供如何将数据从一个filter发送到另一个filter的方法,这个工作是由filter在内部通过pin来独立完成的。 3、媒体类型
因为Directshow是基于com组件的,就需要有一种方式来描述filter graph每一个点的数据格式,例如,我们还以播放AVI文件为例,数据以RIFF块的形式进入graph中,然后被分割成视频和音频流,视频流有一系列的压缩的视频桢组成,解压后,视频流由一系列的无压缩的位图组成,音频流也要走同样的步骤。 媒体类型是一种很普遍的,可以扩展的用来描述数字媒体格式的方法,当两个filter连接的时候,他们会就采用某一种媒体类型达成一致的协议。媒体类型定义了处于源头的filter将要给下游的filter发送什么样的数据,以及数据的physical layout。如果两个filter不能够支持同一种的媒体类型,那么他们就没法连接起来。
对于大多数的应用来说,也许你不用考虑媒体类型,但是,有些应用程序中,你会直接应用到媒体类型的。
媒体类型是通过AM_MEDIA_TYPE结构定义的。 Filters通过pin的连接来传递数据,数据流是从一个filter的输出pin流向相连的filter的输入pin。输出pin常用的传递数据的方式是调用输入pin上的IMemInputPin::Receive方法。 对于filter来说,可以有好几种方式来分配媒体数据使用的内存块,可以在堆上分配,可以在DirectDraw的表面,也可以采用GDI共享内存,还有其他的一些方法,在Directshow中用来进行内存分配任务的是内存分配器(allocator),也是一个COM对象,暴露了一个IMemAllocator接口。
当两个pin连接的时候,必须有一个pin提供一个allocator,Directshow定义了一系列函数调用用来确定由哪个pin提供allocator,以及buffer的数量和大小。
在数据流开始之前,allocator会创建一个内存池(pool of buffer),在开始发送数据流以后,源filter就会将数据填充到内存池中一个空闲的buffer中,然后传递给下面的filter。但是,源filter并不是直接将内存buffer的指针直接传递给下游的filter,而是通过一个media samples的COM对象,这个sample是allocator创建的用来管理内存buffer。Media sample暴露了IMediaSample接口,一个sample包含了下面的内容:
一个指向没有发送的内存的指针。
一个时间戳
一些标志
媒体类型。
时间戳表明了presentation time,Renderer filter就是根据这个时间来安排render顺序的。标志是用来标示数据是否中断等等,媒体类型提供了中途改变数据格式的一种方法,不过,一般sample没有媒体类型,表明它们的媒体类型一直没有改变。
当一个filter正在使用buffer,它就会保持一个sample的引用计数,allocator通过sample的引用计数用来确定是否可以重新使用一个buffer。这样就防止了buffer的使用冲突,当所有的filter都释放了对sample的引用,sample才返回到allocator的内存池,供重新使用 基于Delphi的DirectShow开发概述2 MajorType:主要类型;例如视频,音频,还是位流 subType : 辅助说明类型,例如视频中的YUV12,还是UYVY等等 formatType: 格式描述,更为细节的结构体。例如,视频大小,频率,帧率等, 可以使用FORMAT_VIDEOINFO(VIDEOINFOHEADER),FORMAT_WAVEFORMATEX(WAVEFORMATEX)结构体来描述 //PAMMediaType 当使用AM_MEDIA_TYPE数据结构来描述媒体类型的时候,如果MajorType,subType,formatType都指定了GUID,那么 这就是完全媒体类型。 ***************************************Filter的连接************************************ Filter的连接实际上就是Pin的连接。连接方向总是由上一级的Filter(UpStream Filter)的输出Pin指向下一级 Filter(DownStream Filter)的输入Pin。 1.Filter连接过程 Pin也是一种COM接口。实现了IPIN的接口。一般通过调用(下面的函数来连接): IFilterGraph.ConnectDirect,IGraphBuilder.Connect,IGraphBuilder.Render,IGraphBuilder.RenderFile { 下面就是个范例,一般Filter是在停止状态下连接的。 //连接 source -> MPEG1Spliter Source.FindPin(StringToOLEStr('Output'), OutPin); MPEG1Splitter.FindPin(StringToOLEStr('Input'), inPin); hr := (FilterGraph1 as IGraphBuilder).Connect(OutPin, InPin); if FAILED(hr) then begin ShowMessage('Failed connect mpg Source -> MPEG1Splitter'); exit; end; } 2.FilterGraph构建的方法 1)IFilterGraph.AddFilter 该参数提供一个Filter对象,将其加入到FilterGraph中. 2)IFilterGraph.ConnectDirect 该参数提供输出Pin,输入Pin以及媒体类型,进行直接连接 3)IGraphBuilder.AddSourceFilter 该参数提供源文件名,自动将一个SourceFilter加载到FilterGraph中 4)IGraphBuilder.Connect 该参数提供输出Pin,输入Pin以及媒体类型,进行连接,如果失败,自动尝试在中间加入必要的格式转换Filter 5)IGraphBuilder.Render 该参数提供输出Pin,自动间加入必要的Filter完成剩下的部分FilterGraph的构建(直到连到RenderFilter上) 6)IGraphBuilder.Render 该参数提供源文件名,自动间加入必要的Filter完成这个文件的回放 { //下面范例,表示该FilterGraph中有6个Filter,他们都是由COM对象创建而来。 var Source : IBaseFilter; MPEG1Splitter : IBaseFilter; MpegVcodec : IBaseFilter; AviDec : IBaseFilter; AviDest : IBaseFilter; Writer : IBaseFilter; hr : HRESULT; OutPin, InPin : IPin; begin CoCreateInstance(CLSID_AsyncReader, nil, CLSCTX_INPROC,IID_IBaseFilter, Source); //典型的拉模式 CoCreateInstance(CLSID_MPEG1Splitter, nil, CLSCTX_INPROC,IID_IBaseFilter, MPEG1Splitter); //MPEG1格式 CoCreateInstance(CLSID_CMpegVideoCodec, nil, CLSCTX_INPROC,IID_IBaseFilter, MpegVcodec); //MPEG编码 CoCreateInstance(CLSID_AVIDec, nil, CLSCTX_INPROC,IID_IBaseFilter, AviDec); //AVI解码 CoCreateInstance(CLSID_AviDest, nil, CLSCTX_INPROC, IID_IBaseFilter, AviDest); //AVI目标 CoCreateInstance(CLSID_FileWriter, nil, CLSCTX_INPROC,IID_IBaseFilter, Writer); //写文件 (FilterGraph1 as IFilterGraph).AddFilter(Source, 'Source'); (FilterGraph1 as IFilterGraph).AddFilter(MPEG1Splitter, 'MPEG1Splitter'); (FilterGraph1 as IFilterGraph).AddFilter(MpegVcodec, 'MpegVcodec'); (FilterGraph1 as IFilterGraph).AddFilter(AviDec, 'AviDec'); (FilterGraph1 as IFilterGraph).AddFilter(AviDest, 'AviDest'); (FilterGraph1 as IFilterGraph).AddFilter(Writer, 'Writer'); end; } 3. 一般使用GraphEdit可以查看到目前正常安装在系统中的Filter,如果是安装在DirectShow目录下的可以通过指定CLSID 用CoCreateInstance来创建。在其它目录下的,必须通过系统枚举来创建。 系统提供了一个CLSID_SystemDeviceEnum,用CoCreateInstance创建,并获取ICreateDevEnum接口。然后 使用ICreateDevEnum.CreateClassEnumerator为指定的类型目录创建一个枚举器,并获得IEnumMoniker接口。 使用IEnumMoniker.next方法,媒体该目录下所有可用设备标识(Device Moniker),每个设备标识对象上都实现了Imoniker接口 调用Imoniker.bindtoStorage之后就可以访问设备标识属性集。比如得到设备的显示名字。 调用Imoniker.BindToObject可以将设备标识绑定成一个DirecshowFilter,然后调用IFilterGraph.addFilter加入FilterGraph 参加工作。 DirectShow通常有两个名字:显示名字例如:@device:cm:{33D9A760-90C8-11D0-BD43-00A0C911CE86}\xvid 友好名字例如:xvid mpeg4 decoder {下面就是调用代码 var i, j: integer; AMoniker, MyMoniker: IMoniker; PropBag: IPropertyBag; AVariant: OleVariant; CLSID: TGUID; Found: boolean; begin for i := 0 to SysDevEnum.CountCategories - 1 do cbCategories.Items.Add(SysDevEnum.Categories[i].FriendlyName); //SysDevEnum:TSysDevEnum; Found := false; j := 0; MyMoniker := Filter.BaseFilter.Moniker; if MyMoniker = nil then exit; MyMoniker.BindToStorage(nil,nil,IPropertyBag, PropBag); if PropBag.Read('CLSID',AVariant,nil) = S_OK then CLSID := StringToGUID(AVariant) else CLSID := GUID_NULL; for i := 0 to SysDevEnum.CountCategories - 1 do begin SysDevEnum.SelectIndexCategory(i); if SysDevEnum.CountFilters > 0 then for j := 0 to SysDevEnum.CountFilters - 1 do begin if IsEqualGUID(CLSID, SysDevEnum.Filters[j].CLSID) then begin AMoniker := SysDevEnum.GetMoniker(j); Found := AMoniker.IsEqual(MyMoniker) = S_OK; AMoniker := nil; end; if Found then Break; end; if Found then begin cbCategories.ItemIndex := i; cbCategoriesChange(nil); lbFilters.ItemIndex := j; lbFiltersClick(nil); break; end; end; PropBag := nil; MyMoniker := nil; } PAMMediaType = ^TAMMediaType; _AMMediaType = record majortype : TGUID; subtype : TGUID; bFixedSizeSamples : BOOL; bTemporalCompression : BOOL; lSampleSize : ULONG; formattype : TGUID; pUnk : IUnknown; cbFormat : ULONG; pbFormat : Pointer; end; Filter开发基础----基类分析 1)TBCBaseFilter TBCBaseFilter = class(TBCUnknown, IBaseFilter, IAMovieSetup) 是最基本Filter的基类,使用方法: (1)声明一个新类继承自 TBCBaseFilter (2)在新类中定义一个Filter上Pin的实例。(Pin从TBCBasePin继承) (3)实现纯虚函数TBCBaseFilter.GetPin,用于返回Filter上各个Pin的对象指针 (4)实现纯虚函数TBCBaseFilter.GetPinCount,用于返回Filter上Pin的数量 (5)考虑如何处理从输入Pin进来的Sample数据 2)TBCBasePin TBCBasePin实现了PIn接口,TBCBasePin设计了Pin的整个连接过程。也实现了IQualityControl质量控制接口。 在TBCBasePin上实现了3个成员函数与Filter状态对应。 (1) Filter.Stopped <-------------> TBCBasePin.Inactive (2) Filter.Spaused <-------------> TBCBasePin.active (3) Filter.Running <-------------> TBCBasePin.Run 在实际开发Filter时,有可能重写该3个函数,用来初始化和释放必要资源。实现方法: (1)从TBCBasePin派生一个子类 (2)实现纯虚函数TBCBasePin.CheckMediaType,进行Pin连接时媒体类型检测 (3)实现纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型 (4)实现Ipin.BeginFlush和IPin.EndFlush两个函数 (5)可能需要重写的函数包括。TBCBasePin.Inactive,TBCBasePin.active,TBCBasePin.Run, TBCBasePin.CheckConnect(连接的时候检查,如查询对方Pin上是否支持某个特殊接口), TBCBasePin.BreakConnect(断开连接,并进行必要的资源释放), TBCBasePin.CompleteConnect(完成连接时被调用,可以在这个函数中获得当前连接用的媒体类型等参数), TBCBasePin.EndOfStream(当上流数据全部传送完毕后被调用,如果这是个TransformFilter则将继续往下送, 如是个RenderFilter,则需要向FilterGraph发送一个EC_COMPLETE事件) TBCBasePin.Notify(直接响应质量控制,或者将质量控制消息往上一级Filter发送) 3)TBCBaseInputPin和TBCBaseOutputPin TBCBaseInputPin和TBCBaseOutputPin都是从TBCBasePin派生而来, TBCBaseInputPin实现了ImeminputPin(用于推模式的数据传送) TBCBaseOutputPin主要完成了传送数据所用的Sample管理器(Allocate)的协商,并重写了TBCBasePin.active(用于 实际的Sample内存分配),TBCBasePin.inactvie(用于Sample内存的释放)。 TBCBaseInputPin使用方法(派生一个子类,并且至少重写如下函数): (1) TBCBaseInputPin.BeginFlush (1) TBCBaseInputPin.EndFlush (1) TBCBaseInputPin.Receive (1) TBCBaseInputPin.CheckMediaType(一般在输出Pin上实现该函数) (1) TBCBaseInputPin.GetMediaType TBCBaseOutputPin使用方法(派生一个子类,并且至少重写如下函数): (1)重写TBCBasePin.CheckMediaType进行连接时的媒体类型检查 (2)实现纯虚函数TBCBaseOutputPin.DecideBufferSize,决定Sample内存的大小 (3)重写纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型 4)TBCMediaType TBCMediaType用于数据传输的Sample的实现类,TBCMediaType实现了IMediaSample2的接口,TBCMediaType封装了 一个指向一块内存的指针,通过TBCMediaType.GetPointer得到 5)TBCSourceStream = class(TBCBaseOutputPin) 提供了“推”(Push)的能力,实现了一个线程(TBCAMThread),Sample数据就是靠这个线程向下一级Filter发送的。 实现方法: (1)从TBCSourceStream派生一个子类作为Pin (2)实现纯虚函数TBCSourceStream.CheckMediaType,进行Pin连接时媒体类型检测 (3)实现纯虚函数TBCSourceStream.GetMediaType,提供Pin上的首先媒体类型 (4)实现TBCBaseOutputPin.DecideBufferSize,决定Sample内存大小,在Pin连接时会执行 (5)实现TBCSourceStream.FillBuffer,为即将传送出去的Sample填充数据 (6)可选地实现TBCSourceStream.OnThreadCreate, TBCSourceStream.OnThreadDestroy, TBCSourceStream.OnThreadStartPlay 等函数,进行适当时机的初始化,资源管理等操作。 6)TBCTransformFilter 实现了媒体类型的转换,主要实现如下函数: (1)TBCTransformFilter.CheckInputType (2)TBCTransformFilter.CheckTransForm (3)TBCTransformFilter.DecideBufferSize (4)TBCTransformFilter.GetMediaType (5)TBCTransformFilter.TransForm 7)TBCTransinPlaceFilter 是一个“就地”处理的转换Filter。 8)TBCVideoTransformFilter 一个视频质量控制的基类。通过输入Pin上的Receive函数接收Sample时,能够根据质量消息决定是否丢帧,这个类 主要是为开发AVI解码Filter而设计的。使用方法基本和TBCTransformFilter相同。 9)TBCBaseRenderer 默认实现使用TBCRenderInutPin类的输入Pin。还实现了IMediaSeeking和IMediaPosition接口。使用方法: (1)实现TBCBaseRenderer.CheckMediaType,用于检查输入Pin连接用的媒体类型 (2)实现TBCBaseRenderer.DoRenderSample,处理当前的Sample 如果我们不处理Sample,需要写文件,基类可以选择从TBaseFilter,而此时输入Pin最好选择从TBCRenderInputIn 派生类。 10)TBCBaseVideoRenderer 实现了VideoFilter基类,其中实现了IQualityControl用于视频质量控制,IQualProp用于在Filter属性页显示一些 实时性能参数。使用方法与TBCBaseRenderer相同。 基于Delphi的DirectShow开发概述3 Delphi设计Directshow其实也是比较简单的,看了前面两个概述,相信你也会明白一些了,问题就是你要有什么杨的需求,然后根据需求来选择合适的Filter基类,从基类(BassFilter)继承下来后,只需要覆盖指定的函数就可以了。 例如我们要设计一个屏幕(Desktop)捕获的的Filter,每秒捕获大概10帧(10副抓屏bitmap),这个明显需要实现Push下推的功能,因此我们可以选择从TBCSourceStream基类派生一个子类,然后实现如下几个函数即可: //GetMediaType函数是下级Filter在和本Filter连接时在下级InpuPin接口上调用的 function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;
//实现虚函数CheckMediaType,实现接受8, 16, 24 or 32 RGB位视频格式 //如果媒体格式不能接受,则返回E_INVALIDARG function CheckMediaType(MediaType: PAMMediaType): HResult; override; //在本Filter的OutPutPin接口和下级InputPin接口协商时调用的,主要用来协商每个Sample的大小 function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override; //设置视频媒体参数,在初始化Filter时调用 function SetMediaType(MediaType: PAMMediaType): HRESULT; override; //以上几个函数是在和下级Filter进行接口连接和协商时调用,FillBuffer函数则是由本Filter内置线程按一定时间 //间隔调用,这里当然是把抓屏的Bitmap数据填充到Sample中,推给下一级。 function FillBuffer(Sample: IMediaSample): HResult; override;
//实现虚函数,质量控制功能 function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall; 具体代码分析如下: CLSID_PushSourceDesktop: TGUID = '{570757C1-D2D8-42D1-BA0C-24E1BED3F62F}'; //PushFilter注册名 //Pin注册类型结构 TRegPinTypes = record clsMajorType: PGUID; clsMinorType: PGUID; end; //Setup信息结构 sudPinTypes: TRegPinTypes = ( //视频流的类型 clsMajorType: @MEDIATYPE_Video; //所用可用类型 clsMinorType: @MEDIASUBTYPE_NULL ); //Filter注册Pin接口信息结构 TRegFilterPins = record strName : PWideChar; bRendered : BOOL; bOutput : BOOL; bZero : BOOL; bMany : BOOL; oFilter : PGUID; strConnectsToPin : PWideChar; nMediaTypes : LongWord; lpMediaType : PRegPinTypes; end; //定义实例 sudOutputPinDesktop: array[0..0] of TRegFilterPins = ( ( strName: 'Output'; // Pin名称 bRendered: FALSE; //是否是Render bOutput: TRUE; //是否是输出接口 bZero: FALSE; //是否允许为0 bMany: FALSE; //是否有更多 oFilter: nil; //连接的Filter strConnectsToPin: nil; //连接的Pin nMediaTypes: 1; //支持类型数量 lpMediaType: @sudPinTypes // Pin信息 ) ); DefaultFrameLength: TReferenceTime = FPS_10; //由参考时钟确定FPS_10=1000000 PushDesktopName: WideString = '_ PushSource Desktop Filter'; //PushFilter友好名 //Pin接口类封装,继承TBCSourceStream<---TBCBaseOutputPin<----TBCBasePin(TBCUnknown, IPin, IQualityControl) TBCPushPinDesktop = class(TBCSourceStream) protected FFramesWritten : Integer; //在播放文件的时候跟踪当前位置 FZeroMemory : Boolean; //是否必须清零Buffer FSampleTime : TRefTime; //每个Sample一个时间戳 FFrameNumber : Integer; //已经显示了多少帧了 FFrameLength : TReferenceTime; //一帧的耗费时间 FScreenRect : TRect; //包含需要捕获的视频框 FImageHeight, //当前图像高 FImageWidth, //当前图像宽 FRepeatTime, //每帧之间重复时间 Time in msec between frames FCurrentBitDepth: Integer; //屏幕色彩位 FMediaType : TAMMediaType; //媒体类型 FSharedState : TBCCritSec; //临界区在资源共享中实现线程同步 public constructor Create(out hr: HResult; Filter: TBCSource); destructor Destroy; override; //实现虚函数,提供一个精确的媒体类型 function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override; //实现虚函数,实现接受8, 16, 24 or 32 RGB位视频格式 //如果媒体格式不能接受,则返回E_INVALIDARG function CheckMediaType(MediaType: PAMMediaType): HResult; override; function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override; function SetMediaType(MediaType: PAMMediaType): HRESULT; override; function FillBuffer(Sample: IMediaSample): HResult; override; //实现虚函数,质量控制功能 function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall; end; //PushFilter的类封装,继承自TBCSource<-----TBCBaseFilter //把桌面抓屏图像作为连续视频流 TBCPushSourceDesktop = class(TBCSource) private FPin: TBCPushPinDesktop; public constructor Create(ObjName: string; Unk: IUnKnown; out hr: HRESULT); constructor CreateFromFactory(Factory: TBCClassFactory; const Controller: IUnknown); override; destructor Destroy; override; end; //TBCPushPinDesktop析构函数 constructor TBCPushPinDesktop.Create(out hr: HResult; Filter: TBCSource); var DC: HDC; begin inherited Create('_ Push Source Desktop', hr, Filter, 'Out'); FFramesWritten := 0; FZeroMemory := False; FFrameNumber := 0; FFrameLength := FPS_5; FSharedState := TBCCritSec.Create; FCurrentBitDepth := 32; //这里关键是显示如何获取DIB图像,使用内存方式,把DIB图像插入到视频流 //为了尽可能保持Samle采样,我们就需要从一个文件中读取图像,把它插入到发送下行接口流中 //获取需要显示设备context上下文 DC := CreateDC('DISPLAY', nil, nil, nil); //获取主桌面窗口的尺寸 FScreenRect.Left := 0; FScreenRect.Top := 0; FScreenRect.Right := GetDeviceCaps(DC, HORZRES); FScreenRect.Bottom := GetDeviceCaps(DC, VERTRES); //保持该尺寸,为后面填充Buffer使用 FImageWidth := FScreenRect.Right - FScreenRect.Left; FImageHeight := FScreenRect.Bottom - FScreenRect.Top; //释放资源 DeleteDC(DC); hr := S_OK; end; destructor TBCPushPinDesktop.Destroy; begin {$IFDEF DEBUG} DbgLog(self, Format('Frames written %d', [FFrameNumber])); {$ENDIF} inherited; end;
//参考的视频格式,8, 16 (*2), 24 or 32 bits per pixel //参考这些类型,选择更高的质量控制 // Therefore, iPosition = // 0 Return a 32bit mediatype // 1 Return a 24bit mediatype // 2 Return 16bit RGB565 // 3 Return a 16bit mediatype (rgb555) // 4 Return 8 bit palettised format // >4 Invalid { PVideoInfo = ^TVideoInfo; tagVIDEOINFO = record rcSource: TRect; // 我们实际需要使用的位(在整个窗口中的Sub窗口) rcTarget: TRect; // 该视频音频去哪 dwBitRate: DWORD; // 近似位率 dwBitErrorRate: DWORD; // 错位率 AvgTimePerFrame: TReferenceTime; // 每帧的平均时间(100ns units) bmiHeader: TBitmapInfoHeader; //位图信息头,解码为RGB后可以形成一个Bitmpa图像 case Integer of 0: ( bmiColors: array[0..iPALETTE_COLORS-1] of TRGBQuad //调色板 ); 1: ( dwBitMasks: array[0..iMASK_COLORS-1] of DWORD //真彩色掩码 ); 2: ( TrueColorInfo: TTrueColorInfo //两者都有 ); end; PAMMediaType = ^TAMMediaType; _AMMediaType = record majortype : TGUID; subtype : TGUID; bFixedSizeSamples : BOOL; bTemporalCompression : BOOL; lSampleSize : ULONG; formattype : TGUID; pUnk : IUnknown; cbFormat : ULONG; pbFormat : Pointer; end; } function TBCPushPinDesktop.GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; var pvi: PVIDEOINFO; i: Integer; begin FFilter.StateLock.Lock; try if (MediaType = nil) then begin Result := E_POINTER; //指针错误 Exit; end; if (iPosition < 0) then begin Result := E_INVALIDARG; //无效的位置 Exit; end; //是否从类型结束处开始 Have we run off the end of types? if (iPosition > 4) then begin Result := VFW_S_NO_MORE_ITEMS; Exit; end; MediaType.cbFormat := SizeOf(TVideoInfo); //视频类型 pvi := CoTaskMemAlloc(MediaType.cbFormat); //为媒体类型结构体分配内存 if (pvi = nil) then begin Result := E_OUTOFMEMORY; Exit; end; ZeroMemory(pvi, MediaType.cbFormat); case iPosition of 0: begin //返回32位格式的最高质量图像=RGB888 pvi.bmiHeader.biCompression := BI_RGB; //无压缩RGB格式 pvi.bmiHeader.biBitCount := 32; end; 1: begin pvi.bmiHeader.biCompression := BI_RGB; pvi.bmiHeader.biBitCount := 24; end; 2: begin //每像素16位=RGB565,把RGB掩码以DWord类型,放入调色板前三个地方 for i := 0 to 2 do pvi.TrueColorInfo.dwBitMasks[i] := bits565[i]; pvi.bmiHeader.biCompression := BI_BITFIELDS; pvi.bmiHeader.biBitCount := 16; end; 3: begin //每像素16位=RGB555,把RGB掩码以DWord类型,放入调色板前三个地方 for i := 0 to 2 do pvi.TrueColorInfo.dwBitMasks[i] := bits555[i]; pvi.bmiHeader.biCompression := BI_BITFIELDS; pvi.bmiHeader.biBitCount := 16; end; 4: begin //每像素8位,可以不带调色板子 pvi.bmiHeader.biCompression := BI_RGB; pvi.bmiHeader.biBitCount := 8; pvi.bmiHeader.biClrUsed := iPALETTE_COLORS; end; end; //任何视频格式都必须调整下面参数 pvi.bmiHeader.biSize := SizeOf(TBitmapInfoHeader); pvi.bmiHeader.biWidth := FImageWidth; pvi.bmiHeader.biHeight := FImageHeight; pvi.bmiHeader.biPlanes := 1; pvi.bmiHeader.biSizeImage := GetBitmapSize(@pvi.bmiHeader); pvi.bmiHeader.biClrImportant := 0; //清空源和目标框 SetRectEmpty(pvi.rcSource); SetRectEmpty(pvi.rcTarget); //设置Majortype相关参数 MediaType.majortype := MEDIATYPE_Video; //主类型为视频格式 MediaType.formattype := FORMAT_VideoInfo; //格式类型为视频格式 MediaType.bTemporalCompression := False; MediaType.bFixedSizeSamples := True; // 设置Subtype相关参数 MediaType.subtype := GetBitmapSubtype(@pvi.bmiHeader); MediaType.pbFormat := pvi; MediaType.lSampleSize := pvi.bmiHeader.biSizeImage; Result := S_OK; finally FFilter.StateLock.UnLock; end; end; //检查我们是否支持该媒体类型 function TBCPushPinDesktop.CheckMediaType(MediaType: PAMMediaType): HResult; var pvi: PVIDEOINFO; SubType: TGUID; begin //我们仅仅需要输出该视频 if not (IsEqualGUID(MediaType.majortype, MEDIATYPE_Video)) or not (MediaType.bFixedSizeSamples) then begin Result := E_INVALIDARG; Exit; end; //检查我们支持的子类型 SubType := MediaType.subtype; if IsEqualGUID(SubType, GUID_NULL) then begin Result := E_INVALIDARG; Exit; end; if not ( IsEqualGUID(SubType, MEDIASUBTYPE_RGB8) or IsEqualGUID(SubType, MEDIASUBTYPE_RGB565) or IsEqualGUID(SubType, MEDIASUBTYPE_RGB555) or IsEqualGUID(SubType, MEDIASUBTYPE_RGB24) or IsEqualGUID(SubType, MEDIASUBTYPE_RGB32) ) then begin Result := E_INVALIDARG; Exit; end; pvi := MediaType.pbFormat; if (pvi = nil) then begin Result := E_INVALIDARG; Exit; end; //检查图像尺寸是否改变,那么返回错误,以便重新调整图像大小 if (pvi.bmiHeader.biWidth <> FImageWidth) or (abs(pvi.bmiHeader.biHeight) <> FImageHeight) then begin Result := E_INVALIDARG; Exit; end; //不接受负高度,超出屏幕外的不支持 if (pvi.bmiHeader.biHeight < 0) then begin Result := E_INVALIDARG; Exit; end; Result := S_OK; //接受该格式 end; // DecideBufferSize:在视频格式协商好后,每次都必须调用它,确定需要传输的的内存大小 function TBCPushPinDesktop.DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; var pvi: PVIDEOINFOHEADER; Actual: ALLOCATOR_PROPERTIES; begin if (Allocator = nil) or (Properties = nil) then begin Result := E_POINTER; Exit; end; FFilter.StateLock.Lock; try pvi := AMMediaType.pbFormat; //来自TBasePin接口的AMMediaType Properties.cBuffers := 1; //内存块数量 Properties.cbBuffer := pvi.bmiHeader.biSizeImage; //内存块大小 Assert(Properties.cbBuffer <> 0); //确保该cbBuffer<>0,否则会引发异常 //通过allocator分配查询我们需要的Sample内存大小 Result := Allocator.SetProperties(Properties^, Actual); if Failed(Result) then Exit; //实际需要的分配的内存和属性中定义的不匹配 if (Actual.cbBuffer < Properties.cbBuffer) then begin Result := E_FAIL; Exit; end; //确保我们的实际内存块数量为1 Assert(Actual.cBuffers = 1); Result := S_OK; finally FFilter.StateLock.UnLock; end; end; // SetMediaType,在两个Filter之间协商媒体类型时候,调用该函数 function TBCPushPinDesktop.SetMediaType(MediaType: PAMMediaType): HRESULT; var pvi: PVIDEOINFOHEADER; begin FFilter.StateLock.Lock; try //通过基类传递设置 Result := inherited SetMediaType(MediaType); if Succeeded(Result) then begin pvi := AMMediaType.pbFormat; if (pvi = nil) then begin Result := E_UNEXPECTED; Exit; end; // 8-bit palettized, // RGB565, RGB555, // RGB24, // RGB32 if pvi.bmiHeader.biBitCount in [8, 16, 24, 32] then begin //保存当前设定的媒体参数 FMediaType := MediaType^; FCurrentBitDepth := pvi.bmiHeader.biBitCount; end else begin //除此之外不支持其它媒体类型 Assert(False); Result := E_INVALIDARG; end; end; finally FFilter.StateLock.UnLock; end; end; //FillBuffer是在每次采集视频数据后调用,把数据写入到Stream中,传递给下一个Filter //这个函数中为虚抽象函数,所以必须实现代码完成实际的视频数据填充,以便下传 function TBCPushPinDesktop.FillBuffer(Sample: IMediaSample): HResult; var pData: PByte; cbData: Longint; hDib: HBitmap; pvih: PVIDEOINFOHEADER; Start, Stop: REFERENCE_TIME; function min(v1, v2: DWord): DWord; begin if v1 <= v2 then Result := v1 else Result := v2; end; begin if (Sample = nil) then begin Result := E_POINTER; Exit; end; FSharedState.Lock; try //获取Sample中视频数据内存指针(PData获取) Sample.GetPointer(pData); cbData := Sample.GetSize; //确认我们将要访问的视频格式,如果不合格将出现异常 Assert(IsEqualGUID(AMMediaType.formattype, FORMAT_VideoInfo)); pvih := AMMediaType.pbFormat; //复制DIB位图数据到输出Buffer //如果Sample的字节数大于真实图像字节,就限定复制的字节 pVih.bmiHeader.biSizeImage := min(pVih.bmiHeader.biSizeImage, cbData); hDib := CopyScreenToBitmap(FScreenRect, pData, @pVih.bmiHeader); if (hDib <> 0) then DeleteObject(hDib); //设置时间戳,可以给帧率回调函数使用 //如果这个是用AVI格式写的,那么我们就需要配置AVI Mux Filter 来设定每帧的平均时间 //当前时间 Start := FFrameNumber * FFrameLength; Stop := Start + FFrameLength; Sample.SetTime(@Start, @Stop); Inc(FFrameNumber); //对于没有压缩的帧,都要设置为True,当作关键帧对待 Sample.SetSyncPoint(True); Result := S_OK; finally FSharedState.UnLock; end; end; //返回质量控制,由于这时源头,所以可以收到来自render之间的各个Filter的Notify, //最终反应在Filter(来自哪个),Q质量控制参数,可以通过这两个参数来调整帧率和质量 function TBCPushPinDesktop.Notify(Filter: IBaseFilter; q: TQuality): HRESULT; begin Result := E_FAIL; end;
{ {$EXTERNALSYM CLSID_CVidCapClassManager} //BaseFilter目录类型 //CLSID_LegacyAmFilterCategory: TGUID = (D1:$083863F1;D2:$70DE;D3:$11D0;D4:($BD,$40,$00,$A0,$C9,$11,$CE,$86)); } initialization TBCClassFactory.CreateFilter(TBCPushSourceDesktop, PushDesktopName, CLSID_PushSourceDesktop, CLSID_LegacyAmFilterCategory, MERIT_DO_NOT_USE, 1, @sudOutputPinDesktop ); end.
//由FillBuffer先填充Sample信息,然后由DecideBufferSize来真实的为视频数据分配内存,供下级Filter使用 //加载顺序由下级Filter的InputPin接口调用本OutPutPin接口的GetMediaType, //然后调用OutPutPin接口的SetMediaType设定媒体格式, //调用DecideBufferSize,协商内存大小 //启动后,不断调用FillBuffer填充Sample
|
请发表评论