2016-01-02 2 views

ответ

1

Вы не можете подключить к AVPlayer в AVCaptureSession, хотя вы можете получить доступ к видео проигрывателя и аудио в виде CVPixelBuffer с и AudioBufferList с.

Это достигается с помощью двух интерфейсов API: AVPlayerItemVideoOutput для видео и MTAudioProcessingTap для аудио.

Несмотря на то, с-апи, MTAudioProcessingTap легче интегрировать, как так же, как AVCaptureSession, он толкает вас образцы с помощью обратного вызова, в то время как с AVPlayerItemVideoOutput вы тянете кадров в течение заданного времени. По этой причине, если вы хотите испытать AVCaptureSession (в режиме реального времени, нажмите), вы, вероятно, должны позволить звукозаписывающему устройству управлять вашим фрейм-тянем.

Существует некоторый AVPlayerItemVideoOutput пример кода в Objective-C here и быстрой here и пример с использованием MTAudioProcessingTap в быстрой here.

+0

спасибо тонну! который указал мне в правильном направлении. если вы знаете какие-либо ссылки, которые могли бы помочь проиллюстрировать, я бы это оценил. –

+1

Быстрое или объективное c? –

+0

swift был бы фантастическим, но это не имеет значения. я тоже могу понять. :) благодаря!!! –

Смежные вопросы