В моем приложении я воспроизводю аудио, используя URL-адрес с помощью AvPlayer. Теперь я хочу добавить в него поддержку субтитров. В iOS 10 представлена структура речи, которая помогает нам распознавать речь в реальном времени и в записи. Как по яблоку:
«Вы можете выполнять транскрипцию речи как в реальном времени, так и в записанном аудио. Например, вы можете получить распознаватель речи и запустить простое распознавание речи, используя такой код:
let recognizer = SFSpeechRecognizer()
let request = SFSpeechURLRecognitionRequest(url: audioFileURL)
recognizer?.recognitionTask(with: request, resultHandler: { (result, error) in
print (result?.bestTranscription.formattedString)
})
Теперь я ищу способ, как я могу получить субтитры в виде строки воспроизводимого в данный момент звука, используя эту речевую структуру. И как я смогу узнать, какой диалог воспроизводится в данный момент, чтобы показать на экране точно такую же строку.