У меня есть эксперимент, в котором я показываю стимулы с помощью PsychoPy/PyGaze и отслеживаю движения глаз с помощью айтрекера EyeTribe. В этом эксперименте я обновляю размер двух визуальных стимулов в каждом кадре (при частоте 60 Гц). Я заранее подготавливаю каждый кадр, а потом просматриваю все экранные объекты и представляю их. При этом воспроизводится непрерывный звук. Когда я запускаю этот эксперимент в фиктивном режиме (движение мыши используется как симуляция положения взгляда), для визуального представления не возникает проблем с синхронизацией. Однако, когда я запускаю эксперимент во время отслеживания взгляда, время визуального представления перестает быть точным (более высокая изменчивость продолжительности кадров).
Я попытался больше изучить многопоточность, но в сценарии pytribe PyGaze я не могу найти никаких доказательств того, что один поток ожидает события, исходящего от потока отслеживания глаз. Итак, я понятия не имею, как выяснить, что вызывает проблемы со временем или как это решить? (Надеюсь, я объяснил проблему достаточно конкретно).