Я работаю над простым приложением аудио визуализации, которое использует анализатор API Web Audio для вытягивания частотных данных, как в this example. Ожидается, что чем больше визуальных элементов я добавляю к своим холстам, тем больше латентности между звуком и полученными визуальными результатами.Совершенная синхронизация с API веб-аудио
Существует ли стандартный подход к учету этой задержки? Я могу представить технику lookahead, которая буферизует предстоящие аудиоданные. Я мог бы работать с синхронизацией часов JavaScript и веб-аудио, но я убежден, что есть более интуитивный ответ. Возможно, это так же просто, как воспроизведение звука вслух с небольшой задержкой (хотя это не так сложно).
У dancer.js library, похоже, такая же проблема (всегда очень тонкая задержка), тогда как другие приложения, похоже, полностью решили проблему с задержкой. Я не мог точно определить технические различия. SoundJS, похоже, справляется с этим немного лучше, но было бы неплохо построить с нуля.
Любые методологии, указывающие на меня в правильном направлении, очень ценятся.
Привет, протокол MIDI создан для него, возможно, вам стоит посмотреть так? – Cryptopat
Привет, XLXMXNT, как вы решили свою проблему? Я вижу отставание в моем примере здесь: https://trusktr.io/polydance (игнорируйте предупреждение HTTPS, просто нажмите на него). – trusktr