Предположим, в качестве шага оптимизации к какому-то видео прикреплены метаданные, указывающие области (скажем, прямоугольные), где в данный момент происходит самое интересное. Поскольку пользователи будут сосредоточены на этом регионе, они с меньшей вероятностью заметят падение качества в другом месте. Следовательно, может быть выгодно с точки зрения пропускной способности передавать видео таким образом, чтобы интересующая область была высокого качества, а окружающие области были просто среднего качества.
Интересно, это так же просто, как выполнить сжатие для какого-то качественного диапазона, а затем сделать это снова для более качественного диапазона? При отправке кадра пиксели внутри интересующей области передаются с более высоким качеством, а пиксели извне передаются с более низким качеством. Но я знаю, что это чрезмерное упрощение того, как работает сжатие видео - при временном сжатии значение пикселя передается только в том случае, если оно достаточно меняется от одного кадра к другому, что может мешать описанной выше процедуре. Кроме того, я понятия не имею, повлияет ли двойное сжатие на производительность потоковой передачи и будет ли дополнительная задержка незначительной по сравнению с обычной сетевой задержкой.
Следовательно: существует ли алгоритм сжатия видео, который обеспечивает сжатие отдельных (и изменяющихся по времени) областей видео больше, чем другие?