У меня есть опыт создания приложений для iOS, но нет опыта работы с видео. Я хочу создать приложение для iPhone, которое передает видео в реальном времени на сервер. Оказавшись на сервере, я буду доставлять это видео потребителям в режиме реального времени.
Я прочитал довольно много материала. Может ли кто-нибудь сообщить мне, правильно ли следующее, и заполнить пробелы для меня.
- To record video on the iPhone I should use the AVFoundation classes. When using the AVCaptureSession the delegate method captureOutput:didOutputSampleBuffer::fromConnection I can get access to each frame of video. Now that I have the video frame I need to encode the frame
- I know that the Foundation classes only offer H264 encoding via AVAssetWriter and not via a class that easily supports streaming to a web server. Therefore, I am left with writing the video to a file.
- Я читал другие сообщения, в которых говорится, что они могут использовать два AssetWritter для записи 10-секундных блоков, а затем NSStream для этих 10-секундных блоков на сервер. Может кто-нибудь объяснить, как кодировать использование двух AVAssetWriters, работающих вместе для достижения этой цели. Если у кого-то есть код, поделитесь, пожалуйста.