Я пытался выяснить, может ли API веб-аудио быть полезным для анализа аудиоданных, загруженных в ArrayBuffer
быстрее. чем в реальном времени. Возможные приложения будут выполнять обнаружение ударов, определение высоты тона и т. Д. В браузере, а не передавать файлы на сервер для выполнения этой работы.
Интерфейс AnalyserNode
кажется подходящим для такой задачи, но он кажется неуклюжим, поскольку по-прежнему требует привязки к AudioBufferSourceNode
и start()
, прежде чем вы получите какие-либо данные. И чтобы сделать это быстрее, чем в реальном времени, потребуется увеличить его playbackRate
, что снизит качество анализа.
В качестве альтернативы лучше использовать dsp.js, но его репозиторий почти не работал уже пару лет, что не является огромным вотумом доверия.
Я предполагаю, что основной вопрос заключается в следующем: предназначен ли API веб-аудио для аналитической работы или его единственная цель (и, следовательно, для чего он разработан и оптимизирован) производительность и воспроизведение? Если нет, были ли предложены или созданы какие-либо другие стандарты или инструменты специально для анализа звука? Я ответил на свой вопрос, упомянув dsp.js?