У меня есть два набора соответствующих точек из двух изображений. Я оценил основную матрицу, которая кодирует преобразование между камерами:
E, mask = cv2.findEssentialMat(points1, points2, 1.0)
Затем я извлек компоненты вращения и перевода:
points, R, t, mask = cv2.recoverPose(E, points1, points2)
Но как мне на самом деле получить матрицы двух камер, чтобы я мог использовать cv2.triangulatePoints
для создания небольшого облака точек?