我正在实施一个软件来捕获来自网络摄像头的视频.我在Apple Dev中看过MyRecorder示例,它运行正常.
- (IBAction)addFrame:(id)sender { CVImageBufferRef imageBuffer; @synchronized (self) { imageBuffer = CVBufferRetain(mCurrentImageBuffer); } if (imageBuffer) { [ bla bla bla ] } }
但是mCurrentImageBuffer总是空的.如何从我的网络摄像头获取当前帧并放入mCurrentImageBuffer?
我试过用
(void)captureOutput:(QTCaptureOutput *)captureOutput didOutputVideoFrame:(CVImageBufferRef)videoFrame withSampleBuffer:(QTSampleBuffer *)sampleBuffer fromConnection:(QTCaptureConnection *)connection { CVImageBufferRef imageBufferToRelease; CVBufferRetain(videoFrame); @synchronized (self) { imageBufferToRelease = mCurrentImageBuffer; mCurrentImageBuffer = videoFrame; } CVBufferRelease(imageBufferToRelease); }
但它永远不会被召唤.我怎样才能决定何时调用captureOutput委托方法?
任何的想法?
谢谢,
安德里亚
解决方法
您似乎正在尝试使用QTKit Capture API从网络摄像头捕获视频. MyRecorder示例应用程序几乎是您使用此API可以创建的最简单的功能视频捕获程序.从您的描述中不清楚,但您需要确保遵循他们的示例,并以与在MyRecorderController中的-awakeFromNib方法中相同的方式初始化视频会话.如果不这样做,您将无法捕获任何视频.
就您尝试使用的方法而言,-captureOutput:didOutputVideoFrame:withSampleBuffer:fromConnection:是QTCaptureDecompressedVideoOutput的委托方法. MyRecorder示例中不存在此类的实例,因为该示例仅将压缩视频记录到磁盘.要使用它,您需要创建一个QTCaptureDecompressedVideoOutput实例,使用-addOutput:error:将其附加到QTCaptureSession,并将QTCaptureDecompressedVideoOutput实例的委托设置为您的类.
有关QTKit如何处理此类事情的更多信息,请参阅QTKit Application Programming Guide的QTKit Capture部分.