Карманный сфинкс медленный с использованием грамматики

Я пытался использовать Pocket Sphinx CMU для распознавания речи на планшете Android. Учебное пособие по этому поводу можно найти здесь. Моя проблема в том, что распознавание происходит очень медленно, если я использую грамматику любого значительного размера. Используя языковую модель, я могу добиться хорошей точности и скорости, поэтому моим временным решением было создать языковую модель из моей грамматики и использовать ее.
В моей конфигурации я установил -bestpath = false. После этого я не понимаю, как ускорить процесс.
Уточнение: Я понимаю, что большая грамматика требует много времени для инициализации, но я не думаю, что для распознавания потребуется много времени беги с его помощью.

Есть ли кто-нибудь с опытом использования Pocket Sphinx и грамматики, который может поделиться своим опытом, конфигурацией и т. Д.?


person Nate Glenn    schedule 20.08.2012    source источник


Ответы (1)


Мы использовали pocketsphinx на мобильном телефоне Android с тактовой частотой 1 ГГц, следуя инструкциям, доступным в сети (просто выполните поиск в Google). Он запускался довольно быстро, но зависал после того, как вы остановили запись примерно на 10 секунд, даже если вы записали только 2 слова. При этом использовался предварительно записанный граммер "hub4" по умолчанию.

person Robin Rodricks    schedule 10.11.2012