Не так давно я писал здесь о модели, которую я пытаюсь построить с помощью pycuda, которая решает около 9000 связанных ODE. Однако моя модель слишком медленная, и член SO предположил, что, вероятно, виновата передача памяти с хоста на GPU.
Прямо сейчас cuda используется только для расчета скорости изменения каждого из 9000 видов, с которыми я имею дело. Поскольку я передаю массив от хоста к графическому процессору для выполнения этого вычисления и возвращаю массив из графического процессора для интеграции на хосте, я вижу, как это замедлит работу.
Будет ли boost решением моей проблемы? Из того, что я читал, boost обеспечивает взаимодействие между С++ и Python. Он также включает в себя C++ odeint, который я читал, в партнерстве с Thrust позволяет быстро сократить и интегрировать все на GPU. Правильно ли я понимаю?
Спасибо, Карстен.