У меня есть откалиброванная камера, и у меня есть внутренние параметры. У меня также есть внешние параметры относительно точки (мирового происхождения) на плоской поверхности в реальном мире. Эту точку я задал в качестве начала координат в реальном мире [0,0,0] с нормалью [0,0,1].
Из этих внешних параметров я могу определить положение и поворот камеры в трехмерных координатах мировой плоскости, используя это здесь: http://en.wikipedia.org/wiki/Camera_resectioning
Теперь у меня есть вторая точка, из которой я извлек координаты изображения для [x, y]. Как мне теперь получить 3d-положение этой точки в мировой системе координат?
Я думаю, что интуиция заключается в том, что я должен проследить луч, который идет от оптического центра камеры (для которого у меня теперь есть 3D-положение, как описано выше), через плоскость изображения [x, y] камеры, а затем через план моего реального мира, который я определил наверху.
Теперь я могу пересечь трехмерный координатный луч с плоскостью, которую я знаю, и указать точку на этой плоскости. Чего я не понимаю, так это как определить положение и направление 3d, когда оно покидает плоскость изображения через пиксель. Меня смущает трансформация через разные системы координат.