Проблемно-ориентированный подход к

advertisement
Проблемно-ориентированный подход к
оцениванию качества алгоритмов стереозрения
Дмитрий Сидорчук1,2 , Нурия Гусамутдинова1,3 , Иван Коноваленко1,2 ,
Егор Ершов1,2
1
Институт проблем передачи информации РАН
ds-sidorchuk@yandex.ru, nyria@yandex.ru,
2
Московский физико-технический институт (государственный университет),
3
Национальный исследовательский университет «Высшая школа экономики»
Аннотация
В настоящей статье предлагается новый метод оценки алгоритмов стереозрения. Данный метод использует заранее сконструированную сцену и
позволяет получить истинную карту глубины, применяя аппарат проективной геометрии. В работе представлен обзор наиболее известных метрик качества карт диспаратности, предложена новая проблемно-ориентированная
метрика.
Исследование выполнено в ИППИ РАН за счет гранта Российского научного фонда (проект № 14-50-00150).
Ключевые слова: стереозрение, карта глубины, стереосопоставление, метрики качества.
1
Введение
В настоящее время интерес к беспилотным транспортным средствам постоянно увеличивается. Вместе с ним увеличивается и значение алгоритмов
стереозрения, активно использующихся в задачах автономного движения.
Часто качество навигации и ориентирования в пространстве сильно зависит
от карты глубины, которая является результатом работы алгоритма стереозрения.
Задача оценки качества работы алгоритма в данной статье разбивается
на две подзадачи. Первая - это задание функции метрики на пространстве
карт глубины. В статье предложена проблемно-ориентированная метрика
в предположении, что тестируемые алгоритмы обслуживают беспилотное
транспортное средство. При сравнении двух карт разногласия между ними
учитываются по-разному в зависимости от их положения. Вторая подзадача
- это построение эталонной, истинной (ground truth) карты глубины сцены,
расстояние до которой по введенной метрике характеризует результат.
У нас была сцена, стереопара (2 камеры, закрепленные на общей основе), а также множество объектов всевозможных форм и размеров. На Рис. 1
429
приведен пример снимков сцены, снятых стереопарой. Процесс тестирования происходит следующим образом. Алгоритм стереозрения обрабатывает
оба изображения, и результатом его работы является карта глубины. Она
соответствует базовому изображению (в данном случае левому), в том смысле, что значение в каждом пикселе, снятом левой камерой, вместо цвета или
яркости содержит информацию о «дальности» расположения точки сцены.
Базовое изображение также обрабатывается новой специальной процедурой
для получения истинной карты глубины, с которой и будут сравниваться
карты, построенные алгоритмами.
Данная работа имеет следующую структуру: в разделе 2 описан метод
построения истинной карты глубины для произвольной точки обзора. Раздел 3 содержит краткий обзор на существующие метрики. В разделе 4 речь
идет о взаимосвязи глубины и диспаратности. В последнем разделе предложена новая метрика оценки качества работы алгоритмов стереосопоставления.
Рис. 1. Пример пары входных изображений для алгоритмов стереозрения
2
2.1
Эталонная глубина
Модель камеры
В данной работе в качестве модели камеры используется камера обскура [1]. Она определяется следующими параметрами: центром камеры 𝐶, направлением оптической оси, фокусным расстоянием 𝑓 и расположением проективной плоскости (Рис. 2).
Согласно этой модели точка сцены 𝑋 ∈ IR3 проецируется в 𝑥
˜ - точку
на плоскости изображения так, чтобы линия 𝑋 𝑥
˜ проходила через центр
камеры (центральная проекция). Это преобразование точки 𝑋 в точку 𝑥
˜
удобно разбить на две части.
Во-первых, необходимо изменить систему координат:
𝑥′ℎ = 𝑃 𝑋 ℎ ,
430
(1)
где 𝑃 - матрица камеры размера 3 × 4, о которой будет сказано чуть позже. Чтобы использовать матричное перемножение для аналитического представления проецирования, векторы 𝑥′ и 𝑋 записываются в однородных координатах:
⎛
⎞
⎛ ′ ′⎞
𝑤𝑥1
𝑤 𝑥1
⎜𝑤𝑥2 ⎟
′
⎟,
⎝𝑤′ 𝑥′2 ⎠ .
𝑋ℎ = ⎜
𝑥
=
(2)
ℎ
⎝𝑤𝑥3 ⎠
𝑤′
𝑤
Так как 𝑋 ℎ конструируется на основе 𝑋 ∈ IR3 , выберем 𝑤 = 1.
Во-вторых, чтобы получить проекцию 𝑋 ∈ IR3 , необходимо разделить
вектор 𝑥′ на его третью компоненту:
⎛ ′ ′⎞
(︂ ′ )︂
𝑤 𝑥1
𝑥1
′
′ ′⎠
⎝
𝑥 ℎ = 𝑤 𝑥2 → 𝑥
˜=
.
(3)
𝑥′2
𝑤′
Теперь обсудим подробнее матрицу 𝑃 . Для этого вернемся к точке сцены 𝑋 ∈ IR3 , которая проецируется на плоскость изображения. Здесь снова
удобнее разделить преобразование на две части. Сначала 𝑋 выражается в
координатах камеры (Рис. 2), которые также иногда называют нормализованными координатами изображения:
^ ℎ = 𝐴[𝐼| − 𝑏]𝑋 ℎ ,
𝑋
(4)
где 𝐴 - ортонормированная 3 × 3 матрица, определяющая поворот камеры, 𝐼
- единичная матрица размера 3 × 3, 𝑏 - вектор сдвига камеры относительно
системы координат сцены.
^ необходимо перевести в систему координат пикселей, т.е измеДалее 𝑋
нить масштаб и сделать сдвиг. Это связано с тем что пиксели, как правило,
отсчитываются от левого верхнего угла изображения:
^ℎ.
𝑥′ℎ = 𝐾 𝑋
(5)
Таким образом, матрица 𝑃 принимает следующий вид:
𝑃 = 𝐾𝐴[𝐼| − 𝑏],
(6)
где 𝐾 - 3 × 3 матрица параметров камеры.
2.2
Определение положения камеры
В этом разделе описывается предложенный авторами способ нахождения матрицы поворота 𝐴 и вектора смещения камеры 𝑏, которые необходимы для проецирования. Итак, есть две системы координат и одна точка: в
^ в координатах сцены 𝑋.
координатах камеры это 𝑋,
^ = 𝐴(𝑋 − 𝑏).
𝑋
431
(7)
Рис. 2. Модель камеры
Отметим, что формула (7) в декартовых координатах эквивалентна формуле (4) в однородных координатах.
Mатрица 𝐴 и вектор 𝑏 вычисляются отдельно для каждого нового снимка. Чтобы найти их, на сцене отмечаются 4 компланарные точки: {𝑋 1 , ..., 𝑋 4 },
и вручную замеряются их координаты. Единственное условие - третья координата должна быть единицей:
⎛ ⎞
𝑥𝑖
𝑋 𝑖 = ⎝ 𝑦𝑖 ⎠ .
(8)
1
Несмотря на это, точки {𝑋 1 , ..., 𝑋 4 } могут принадлежать произвольной
плоскости (𝑧𝑖 ̸= 1). В этом случае используется дополнительная матрица
поворота 𝐴′ , преобразующая координаты таким образом, чтобы {𝑋 1 , ..., 𝑋 4 }
приняли необходимый вид. В дальнейшем вместо 𝐴 используется 𝐴𝐴′ .
Проекции этих точек (новые значения для каждого нового положения
стереопары) вручную отмечаются на снимке: {𝑥′1 , ..., 𝑥′4 }. Далее, согласно
модели камеры из предыдущего раздела, двумерные пиксельные координа^ 𝑖 = 𝐾 −1 𝑥′ .
ты переводятся в нормализованные координаты изображения: 𝑋
𝑖
То есть теперь в нашем распоряжении координаты четырех компланарных
точек (с выполнением условия (8)) и трехмерные координаты их проекций.
Требуется найти отображение между ними.
Матрица проективного преобразования выводится из равенства (7):
^ 𝑖 = (𝐴1 |𝐴2 |𝐴3 − 𝐴 · 𝑏) · 𝑋 𝑖 ,
𝑋
(9)
^𝑖 = 𝐻 · 𝑋 𝑖,
𝑋
(10)
где 𝐴𝑖 - 𝑖-ый столбец матрицы 𝐴, 𝐻 - 3 × 3 матрица проективного преобразования.
𝐻 = (𝐴1 |𝐴2 |𝐴3 − 𝐴 · 𝑏)
(11)
432
Именно для того, чтобы преобразование (7) было представимо в виде
(9), и требуется условие (8): так как для ∀𝑖 𝑧𝑖 = 1, вычитание вектора 𝑏
может быть занесено «внутрь» третьего столбца матрицы 𝐻. Которая, в
свою очередь, может быть найдена в явном виде решением системы линейных уравнений, так как известны координаты четырех точек до и после
преобразования.
Далее наша задача зная матрицу 𝐻, найти матрицу 𝐴. Как видно из
формулы (11), первые два столбца этих матриц совпадают. Для того, чтобы
найти 𝐴3 , вспомним, что искомая матрица 𝐴 является матрицей поворота
и, следовательно, должна быть ортонормированной. А это значит, что 𝐴3
может быть вычислен как векторное произведение 𝐴1 и 𝐴2 :
𝐴3 = 𝐴1 × 𝐴2 .
(12)
Тогда вектор 𝑏 может быть выражен следующим образом:
𝑏 = 𝐴−1 · (𝐴3 − 𝐻 3 ).
2.3
(13)
Построение виртуальной карты глубины
В данной работе сцена состоит из трех плоскостей: «пол» и две «стены».
Также имеется два объекта: шар и куб известных размеров в зафиксированных положениях (Рис. 1). Эти параметры замеряются в координатах сцены
и преобразуются в координаты камеры с помощью матрицы 𝐴 и вектора 𝑏.
При создании карты глубины обрабатывается отдельно каждый пиксель
базового изображения, чтобы на его основе создать новое «изображение»,
в котором вместо яркости или цвета каждому пикселю будет соответствовать глубина. С помощью вышеописанной модели определяется уравнение
прямой, проходящей через центр камеры и середину пикселя:
𝑋 = 𝑡 · 𝑟,
(14)
здесь 𝑡 - параметр, 𝑟 - вектор параллельный прямой.
Используя описание сцены и уравнение (14), для каждого пикселя мы
находим точки пересечения прямой со сценой. Среди соответствующих этим
точкам значений 𝑡 выбирается минимальное 𝑡𝑚𝑖𝑛 , то есть относящееся к
ближайшему пересечению. Дополнительно проверяется условие 𝑡𝑚𝑖𝑛 > 0.
По сути, значение 𝑡𝑚𝑖𝑛 и является глубиной для текущего пикселя. Пример
виртуальной карты приведен на Рис. 3.
3
Обзор метрик оценки качества работы алгоритмов
стереосопоставления
В этой части будут рассмотрены существующие решения для оценки результатов работы алгоритмов стереосопоставления (одна из подзадач стереозрения). На вход таким алгоритмам подается пара изображений одной
433
Рис. 3. Пример карты глубины
и той же сцены с разных ракурсов, камеры считаются откалиброванными,
то есть известны их внутренние и внешние параметры. Результатом работы алгоритмов является карта горизонтальных смещений пикселей одного
изображения относительно другого, например, левого кадра относительно
правого. Иными словами, для каждого пикселя определяется значение диспаратности, которое заносится в карту диспаратности.
В случае, если известна истинная карта диспаратностей (ground truth
disparity map), то она сравнивается с картой диспаратности, полученной в
результате работы алгоритма. В данной работе предполагается, что истинная карта диспаратностей известна. Необходимо отметить, что существует
несколько методов оценивания качества алгоритмов стереосопоставления в
отсутствии истинной карты диспаратности. Например, в [2] было предложено восстановить 3D модель сцены по нескольким изображениям, после
чего спроецировать её на плоскость снимка, который не был использован
при восстановлении, чтобы сравнить полученную проекцию с настоящим
изображением.
Одна из самых популярных метрик - среднее модуля разности соответствующих значений в истинной карте диспаратности и в карте диспаратности, полученной в результате работы алгоритма:
𝐸𝑎𝑏𝑠 =
𝑁
1 ∑︁
|𝑑𝐶 (𝑖) − 𝑑𝑇 (𝑖)|,
𝑁 𝑖=1
(15)
где 𝑑𝐶 (𝑖) - диспаратность пикселя 𝑖, полученная в результате работы алгоритма; 𝑑𝑇 (𝑖) - истинная диспаратность пикселя 𝑖; 𝑁 - общее количество
пикселей. Для оценки построения карты диспаратности также часто используется квадратичная ошибка.
D. Scharstein и R. Szeliski в [3] предложили оценивать отдельно качество
различных частей карты диспаратности. Они выделили три особых части
изображения (которые могут быть определены некоторой предварительной
процедурой), которые используются при определении "важных" областей
карты диспаратности:
434
– части изображения "без текстуры": участки, где квадрат горизонтального градиента интенсивности, усредненный по квадратному окну с заданным размером, меньше заранее определенного порога;
– перекрытые части изображения: части или целые объекты, которые перекрыты или отсутствуют на сопоставляемых кадрах;
– части изображения в области разрывов глубины: множество пикселей, у
которых разница в диспаратностях соседних пикселей превышает какойто заданный порог.
Авторы в [3] предлагают использовать метрики 𝑅 и 𝐵 (которые описаны
ниже), чтобы посчитать ошибку в определении диспаратности: 1) на всём
изображении; 2) на перекрытых частях изображения; 3) на неперекрытых
частях; 4) на частях с текстурой; 5) на частях изображения рядом с участками перепада глубины.
1. RMS, root-mean-squared error (корень усредненного квадрата ошибки):
(︃
𝑅=
𝑀
1 ∑︁
|𝑑𝐶 (𝑖) − 𝑑𝑇 (𝑖)|2
𝑀 𝑖=1
)︃ 21
(16)
2. Доля плохо сопоставленных пикселей,
𝐵=
𝑀
1 ∑︁
(|𝑑𝐶 (𝑖) − 𝑑𝑇 (𝑖)| > 𝛿𝑑 ) ,
𝑀 𝑖=1
(17)
где 𝛿𝑑 - порог допустимой ошибки диспаратности, 𝑀 - количество рассматриваемых пикселей в части изображения.
В [4] проблема оценки качества карт диспаратностей рассматривается на
реальных и синтетических сценах, содержащих дорогу и, возможно, транспорт на ней (далее – дорожные сцены). Для этих целей была предложена
специальная метрика, для которой пиксели каждого изображения делили
на 4 класса: передний план, фон, поверхность дороги и небо (разделение
производилось с помощью ground truth карты диспаратности из симулятора MARS/PRESCAN [5, 6]). Для переднего плана, фона, дороги и всех
пикселей рассчитывалась средняя относительная ошибка:
𝐸𝑟𝑒𝑙
)︂
𝑀 (︂
1 ∑︁
|𝑑𝐶 (𝑖) − 𝑑𝑇 (𝑖)|
=
(𝑑𝐶 (𝑖) > 0)
𝑀 𝑖=1
𝑑𝑇 (𝑖)
(18)
В работе [7] карты диспаратности также были получены для синтетических дорожных сцен, однако использовались метрики из статьи [3].
Исследователями D. Scharstein и R. Szeliski был создан ресурс для сравнения алгоритмов стереозрения [8], где каждый может оценить результаты
своего алгоритма относительно других на специальных данных по метрикам
435
(16) и (17) для всего изображения, неперекрытых частей и частей изображения рядом с участками перепадов глубины. Важно отметить, что перекрытые пиксели не учитываются при оценке частей изображения рядом с
участками перепадов глубины.
Также существует другой источник для тестирования различных алгоритмов - KITTI Vision Benchmark Suite [9], [10]. Его отличительная черта это сравнение алгоритмов на реальных данных, содержащих дорожные сцены. Данный набор содержит изображения на которых присутствуют отражающие поверхности, различный уровень освещенности. Оценка карт диспаратностей происходит следующим образом. Для каждого изображения
из набора данных отдельно рассчитывается метрика (17) для всего изображения и для неперекрытых частей изображения. Затем данные оценки
усредняют по всем изображениям и получают два значения, по которым и
происходит ранжирование алгоритмов.
4
Связь карты глубины с картой диспаратности
Следующей задачей является получение трехмерных координат (𝑋, 𝑌, 𝑍)
для точек наблюдаемой сцены. Процесс получения этих значений по проекциям данных точек на изображения называется триангуляцией. Рассматривается случай, когда оптические оси камер параллельны между собой, и
каждая из них перпендикулярна базе. Пусть 𝑏 - расстояние между двумя
центрами камер (база), 𝑓 - фокусное расстояние, а проекция точки пространства 𝑃 на плоскость левого и правого изображения имеет координаты (𝑥1 , 𝑦1 ) and (𝑥2 , 𝑦2 ) соответственно. 𝑦1 = 𝑦2 согласно эпиполярному
ограничению. Диспаратность - 𝑑, величина горизонтального сдвига соответствующей точки на сопоставляемом изображении относительно опорного.
Если считать левое изображение опорным, то диспаратность будет равна
𝑑 = 𝑥1 − 𝑥2 , зная которую, можно посчитать расстояние до этой точки в
пространстве [11]. Пространственное положение точки относительно центра
левой камеры может быть рассчитано по следующим формулам, где Z глубина, определение которой дано в разделе 1.
𝑏·𝑓
𝑑
𝑥·𝑍
𝑋=
𝑓
𝑍=
𝑌 =
𝑦·𝑍
𝑓
В результате работы алгоритма стереосопоставления диспаратность точки 𝑑 вычисляется с точностью 𝛥𝑑, в этом случае ошибку вычисления глубины (расстоянии до камеры) можно оценить следующим образом ([12]):
𝛥𝑍 =
𝑏𝑓
𝑏𝑓
𝑍 2 𝛥𝑑
𝑍2
−
=
≈
𝛥𝑑
𝑑
𝑑 + 𝛥𝑑
𝑏𝑓 + 𝑍𝛥𝑑
𝑏𝑓
436
(19)
Последнее выражение является коэффициентом первого члена в разложении в ряд Тейлора в точке 𝛥𝑑 = 0.
Подобным образом могут быть подсчитаны 𝛥𝑋 и 𝛥𝑌 :
5
𝛥𝑋 =
𝑥𝛥𝑍
𝑥𝑍 2
𝛥𝑑
=
𝑓
𝑏𝑓 2
(20)
𝛥𝑌 =
𝑦𝛥𝑍
𝑦𝑍 2
𝛥𝑑
=
𝑓
𝑏𝑓 2
(21)
Проблемно-ориентированная метрика оценивания
качества карт глубины
В этом разделе будет описана новая метрика оценки карт глубины, полученных с помощью алгоритмов стереозрения. В разделе 3 был приведен
обзор метрик оценивания качества карт диспаратностей, тогда как в данной статье предложен метод оценки карт глубины. Так как глубина обратно
пропорциональна диспаратности (см. раздел 4), такое различие не является
существенным. Данный подход может использовать в качестве эталонной
виртуальную карту глубины, описанную в подразделе 2.3.
Задача формулируется следующим образом: дана карта глубины 𝑧𝑎𝑙 , построенная алгоритмом, и истинная карта глубины 𝑧𝑖𝑑 , цель - задать метрическую функцию 𝐹 (𝑧𝑎𝑙 , 𝑧𝑖𝑑 ), которая определенным образом отражает их
схожесть.
Алгоритмы стереозрения используются для навигации и ориентирования
автономных транспортных средств. Предполагая, что в основном движение
происходит по прямой и вперед (относительно стереопары), в качестве требований к метрической функции были выделены следующие пункты:
– Во-первых, наиболее важная для нас область расположена в центре базового изображения, вдоль оптической оси камеры. Соответственно, чем
меньше угол отклонения от центра, тем критичнее должны быть ошибки
на карте глубины, построенной алгоритмом.
– Во-вторых, чем ближе к нам находятся объект тем важнее правильно
знать его глубину, следовательно разногласия в пикселях с большой диспаратностью должны считаться более важными.
С учетом всего вышесказанного предлагается весовая функция
𝐼𝑚𝑝(𝑖, 𝑗) значимости каждого пикселя (𝑖, 𝑗):
𝐼𝑚𝑝(𝑖, 𝑗) =
1
(𝑐𝑜𝑠(𝛼)𝑐𝑜𝑠(𝛽))𝑘 ,
min(𝑧𝑖𝑑 (𝑖, 𝑗), 𝑧𝑎𝑙 (𝑖, 𝑗))
(22)
где 𝛼 = 𝛼(𝑖, 𝑗) и 𝛽 = 𝛽(𝑖, 𝑗) углы отклонения пикселя (𝑖, 𝑗) от оптической
оси камеры (центрального пикселя) по вертикали и по горизонтали соответственно, 𝑘 задает форму линий уровня (Рис. 4). Для того чтобы не «терять»
437
ошибки связанные с бесконечностью, используется минимальное из расстояний до точки, соответствующей данному пикселю (𝑖, 𝑗), по карте истинной
диспаратности и по мнению алгоритма.
Для построения метрики нам также понадобится модуль разницы между
эталонной картой глубины и картой алгоритма: |𝑧𝑎𝑙 − 𝑧𝑖𝑑 |, в качестве предобработки используется морфологическое размыкание, то есть дилатация
эрозии над указанной разностью: 𝑚𝑎𝑥(𝑚𝑖𝑛(|𝑧𝑎𝑙 −𝑧𝑖𝑑 |)). Эта процедура позволяет (подобрав окно нужного размера) удалить расхождения, возникающие
из-за сдвигов карт друг относительно друга.
В итоге метрика выглядит следующим образом:
𝐹 (𝑧𝑎𝑙 , 𝑧𝑖𝑑 ) =
∑︁
𝜎(𝑖, 𝑗)𝐼𝑚𝑝(𝑖, 𝑗)
𝑖,𝑗
1
𝑚𝑎𝑥(𝑚𝑖𝑛(|𝑧𝑎𝑙 (𝑖, 𝑗) − 𝑧𝑖𝑑 (𝑖, 𝑗)|)), (23)
𝛥𝑧(𝑖, 𝑗)
здесь 𝛥𝑧(𝑖, 𝑗) - погрешность глубины (см. раздел 4), индексы 𝑖, 𝑗 пробегают
вертикальные и горизонтальные размеры карты, 𝜎 используется для того
чтобы различать ошибки типа «ближе чем на самом деле» и «дальше чем
на самом деле»:
{︃
1,
if 𝑧𝑖𝑑 (𝑖, 𝑗) < 𝑧𝑎𝑙 (𝑖, 𝑗),
𝜎(𝑖, 𝑗) =
(24)
𝑟 ∈ [0, 1], otherwise
В формуле (24) выбирая параметр 𝑟 мы определяем то, насколько для
нас важнее принять далекий объект за более близкий чем наоборот.
Рис. 4. Линии уровня при 𝑘1 = 0,
𝑘2 = 1,
𝑘3 = 4 соответственно
В отличие от специальных метрик упомянутых в разделе 3, новая метрика не требует на вход синтетических данных или предварительной ручной
разметки изображений с разделением пикселей на классы.
6
Заключение
В настоящей работе рассмотрена проблема оценки качества алгоритмов
стереозрения. Данная проблема сводится к задаче оценивания расстояния
438
от карты глубины, получаемой в результате работы алгоритма стереозрения, до истинной карты глубины. Описан новый программно-аппаратный
комплекс для создания такой идеальной карты.
Предложена новая метрика, оценивающая расстояние между картой глубины алгоритма и эталонной глубиной. Основная идея предложенного подхода заключается в том, что чем ближе объект к камере, тем критичнее
ошибка в оценке расстояния до него. Данная метрика может быть использована при выборе алгоритма стереозрения для разработки систем технического зрения автономных транспортных средств.
439
СПИСОК ЛИТЕРАТУРЫ
Список литературы
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
Zisserman Hartley Richard. Multiple view geometry in computer vision.
Cambridge university press, 2003.
Richard Szeliski. “Prediction error as a quality metric for motion and
stereo”. В: Computer Vision, 1999. The Proceedings of the Seventh IEEE
International Conference on. Т. 2. IEEE. 1999, с. 781—788.
Daniel Scharstein и Richard Szeliski. “A taxonomy and evaluation of dense
two-frame stereo correspondence algorithms”. В: International journal of
computer vision 47.1-3 (2002), с. 7—42.
Wannes Van Der Mark и Dariu M Gavrila. “Real-time dense stereo for
intelligent vehicles”. В: Intelligent Transportation Systems, IEEE Transactions
on 7.1 (2006), с. 38—50.
K Labibes и др. “An integrated design and validation environment for
intelligent vehicle safety systems (IVSS)”. В: 10th World Congress and
exhibition on ITS. 2003, с. 16—20.
Z Papp и др. “Multi-agent based HIL simulator with high fidelity virtual
sensors”. В: Intelligent Vehicles Symposium, 2003. Proceedings. IEEE. IEEE.
2003, с. 213—218.
Harris Sunyoto, Wannes Van der Mark и Dariu M Gavrila. “A comparative
study of fast dense stereo vision algorithms”. В: Intelligent Vehicles Symposium,
2004 IEEE. IEEE. 2004, с. 319—324.
The Middlebury Stereo Vision Page. http://vision.middlebury.edu/
stereo/.
Andreas Geiger, Philip Lenz и Raquel Urtasun. “Are we ready for autonomous
driving? the kitti vision benchmark suite”. В: Computer Vision and Pattern
Recognition (CVPR), 2012 IEEE Conference on. IEEE. 2012, с. 3354—
3361.
KITTI vision benchmark. http://www.cvlibs.net/datasets/kitti/.
Richard Szeliski. Computer vision: algorithms and applications. Springer
Science & Business Media, 2010.
David Gallup и др. “Variable baseline/resolution stereo”. В: Computer
Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on.
IEEE. 2008, с. 1—8.
440
Download