J. Ocean Eng. Technol. Search

CLOSE


J. Ocean Eng. Technol. > Volume 30(3); 2016 > Article
영상 모자이킹을 통한 수중 검사를 위한 호버링 타입 AUV 시스템 개발

Abstract

Recently, UUVs (unmanned underwater vehicles) have increasingly been applied in various science and engineering applications. In-water inspection, which used to be performed by human divers, is a potential application for UUVs. In particular, the operational safety and performance of in-water inspection missions can be greatly improved by using an underwater robotic vehicle. The capabilities of hovering maneuvers and automatic image mosaicking are essential for autonomous underwater visual inspection. This paper presents the development of a hover-capable autonomous underwater vehicle system for autonomous in-water inspection, which includes both a hardware platform and operational software algorithms. Some results from an experiment in a model basin are presented to demonstrate the feasibility of the developed system and algorithms.

1. 서 론

해양 플랜트, 댐, 선체 등과 같은 해양 구조물들의 관리 및 유지보수를 위해서는 수중 육안 검사가 필요하다. 이러한 수중 검사는 일반적으로 유인 잠수부에 의해 수행되는데, 고난이도 고위험 작업의 특성상 비용 대비 효율이 크게 떨어지며 안정성의 문제로 충분하고 세밀한 검사가 어려워 검사 결과의 정확성과 신뢰도에 명확한 한계가 존재한다.
최근 해양 로봇공학 분야가 지속적으로 발전함에 따라 임무 특성에 맞는 여러 형태의 무인 수중 운동체들이 활용되고 있다. 특히 ROV(Remotely-operated vehicle)는 수중 검사 및 탐사를 수행하기 위해 가장 널리 활용되어 온 수중 운동체의 한 형태이나, 지상의 조작 콘솔에 연결된 유선 작업의 특성상 그 운용 효율과 범위의 제약이 크다. 특히 제한된 시계 조건에서 ROV가 운용될 경우, 전송되는 영상을 바탕으로 운용자의 시각에 전적으로 의존해야 하므로 전반적인 작업 효율이 운용자의 숙련도에 크게 좌우되며 시간에 따른 피로 증가로 집중도와 효율이 떨어지기 때문에 장시간 운용이 어렵다.
한편, 일반적인 어뢰형의 AUV(Autonomous underwater vehicle)는 그 외형 상 저항 및 추진에 유리하고 에너지 효율이 높아 운용 반경이 넓다는 장점이 있으나 운동성의 제약으로 제자리 유영이나 임의 방향으로 자유로운 이동이 불가능하다. 이러한 이유로, 해양 물리량 측정 등 단순한 운용 외에 복잡한 임무 수행에는 적합하지 못하다.
본 연구에서는 기존의 유인 작업 또는 ROV를 사용한 수중 구조물 검사 임무의 한계를 극복하고자 제한된 운동성을 갖는 기존의 어뢰형 AUV가 아닌 제자리에서 유영이 가능한 H-AUV(Hover-capable AUV) 시스템의 하드웨어 플랫폼 및 운용 알고리즘의 개발을 목표로 한다. 2장에서는 H-AUV 플랫폼의 하드웨어 설계 및 구현에 대한 내용을 기술하고, 3장에서 카메라 영상 기반 온라인 모자이킹(Online mosaicking) 알고리즘을 설명한다. 4장에서 실내 수조 환경에서 자율 항법 시험을 통해 얻어진 운동체의 모션 및 영상 데이터를 기반으로 한 온라인 모자이킹 결과를 제시하고, 마지막으로 5장에서 본 연구의 결론을 기술한다.

2. 플랫폼 설계 및 구현

Fig. 1은 본 연구를 통해 개발된 H-AUV 시스템의 3차원 형상 모델을, Table 1은 시스템의 사양을 나타내며, 시스템의 전체 회로 연결도가 Fig. 2에 제시된다. 본 장에서는 이 전체 연결도를 제어, 센서, 추진, 전원 시스템으로 분류하고 각각에 대한 설계, 구현 원리를 기술한다.
Fig. 1

3-D model of the developed H-AUV

HOGHC7_2016_v30n3_194_f001.jpg
Table 1

Specification of the H-AUV

HOGHC7_2016_v30n3_194_t001.jpg
Fig. 2

Schematic diagram of the H-AUV system

HOGHC7_2016_v30n3_194_f002.jpg

2.1 제어 및 센서 시스템

본 연구를 통해 개발된 H-AUV 시스템에는 여러 상황이나 용도에 따라 적절히 활용하기 위해 다양한 항법 및 환경 인식 센서들이 장착되었다. Table 2는 장착된 센서들과 각각에 대한 사양을 나타낸다. 이 중, IMU(Inertial measurement unit)는 별도 설계된 수밀 내압용기 내부에 장착되고, AHRS(Attitude reference heading system)는 주 전장 수밀 용기 내부에 설치되었다. 또한, 스테레오 카메라와 고도계(Altimeter) 모듈의 경우 각각 틸트 액츄에이터(Tilt actuator)의 축과 연결하여 전방 또는 하방에 대한 영상 및 상대 거리 정보를 얻을 수 있도록 구성하였다.
Table 2

Specification of sensors for the H-AUV system

HOGHC7_2016_v30n3_194_t002.jpg
전장 내압용기에는 시스템의 자율 알고리즘이 탑재될 PC104 모듈 2대가 장착되고, 각각은 제어용 PC와 영상처리용 PC로 분류된다. 제어 PC의 경우 항법 센서들(IMU, AHRS, DVL(Doppler velocity log), USBL(Ultra short baseline), GPS(Global positioning system), 고도계)의 전원 관리 및 데이터 통신을 위한 인터페이스 보드(Interface board)들을 통해 기본적인 센서 데이터를 취득하며, 이렇게 얻어진 계측치를 기반으로 동작되는 항법, 운동 제어, 추력 분배 소프트웨어 알고리즘들이 탑재된다. 한편, 영상 처리 PC에서는 카메라 모듈과 스캐닝 소나(Scanning sonar)로부터 광학 및 음향 영상 데이터를 얻어 이를 처리하는 역할을 수행한다. 이 두 PC에서 처리되는 각각의 데이터들은 필요 시 TCP/IP(Transmission control protocol/Internet protocol)통신을 통해 공유될 수 있다. 또한, 로봇의 상태와 내부에서 처리되는 데이터들을 모니터링 하고 필요 시 수동 조작이 가능하도록 조이스틱을 포함한 SCU(Subsea control unit)를 구성하였으며, 이는 광 케이블을 통해 내부 PC들과 연결된다.

2.2 추진 및 전원 시스템

개발된 H-AUV 시스템에는 총 7개의 추진기가 장착되고, 각각 수평 방향으로 4개, 수직 방향으로 3개가 배치되었다. 수평 방향 추진기들의 경우 추진력 분배를 통해 서지(Surge), 스웨이(Sway), 요(Yaw) 운동이 가능하도록 장착되었고, 수직 방향 추진기들은 히브(Heave), 롤(Roll), 피치(Pitch) 운동을 제어하기 위해 삼각형 형태로 배치되었다. 장착된 추진기 개수와 그 배치에 의해 원칙적으로 6자유도 운동 제어가 가능하지만, 부력 중심을 중력 중심의 상부에 두어 롤, 피치 자세가 정적으로 안정될 수 있도록 함으로써 총 4자유도 제어(3차원 위치 및 선수각)를 수행한다.

3. 온라인 모자이킹 알고리즘

영상 기반 항법 및 맵핑 즉, SLAM(Simultaneous localization and mapping)의 맥락에서 온라인 모자이킹 문제를 풀기 위한 여러 추정 알고리즘이 제안되어 왔고 그 중, 본 연구에서는 가장 기본적인 형태인 ASKF(Augmented state Kalman filter) (Garcia et al., 2002)를 활용한다. 현재 운동체의 포즈(Pose)와 연관된 랜드마크 맵(Landmark map)을 추정하는 일반적인 EKF(Extended Kalman filter) 기반의 알고리즘과는 달리, ASKF는 과거 영상 획득 시점에서의 운동체 포즈 정보들을 상태 벡터에 포함시켜 함께 고려한다. Fig. 3은 특징점 기반 영상 매칭 과정을 포함한 ASKF 기반 온라인 모자이킹 알고리즘의 전체 구조를 도시하며, 각각에 대한 설명이 본 장을 통해 다뤄진다.
Fig. 3

Block diagram of the ASKF-based online mosaicking

HOGHC7_2016_v30n3_194_f003.jpg

3.1 추정 문제의 수식화

ASKF 기반 추정을 위한 증강 상태 벡터(Augmented state vector)의 구조는 아래 식 (1)과 같이 정의된다.
HOGHC7_2016_v30n3_194_e901.jpg
여기서 HOGHC7_2016_v30n3_194_e001.jpg는 운동체의 현재 포즈를 표현하는 상태벡터이고 그 외의 증강 상태 벡터의 요소들, 즉 {xi, i = 0,⋯,k−1}은 영상 정합 기반 상대 포즈 계측으로 보정된 운동체의 과거 포즈들을 의미한다. 즉, 영상 정합으로 인한 계측치가 얻어질 때마다 보정된 상태 벡터가 증강되고 그에 대응하는 오차 공분산 행렬(Error covariance matrix) 또한 식 (2)와 같이 증강된다.
HOGHC7_2016_v30n3_194_e902.jpg
여기서, 부분 행렬 Pv,v는 운동체의 현재 포즈에 대한 공분산을 나타내고, Pv,j와 Pi,j는 각각 현재와 j번째 포즈 간의 그리고, i번째와 j번째 간의 공분산을 의미한다.
본 연구를 통해 개발된 H-AUV는 롤, 피치 각도가 충분히 안정적으로 유지되므로 상대적으로 불확실성이 높은 4개의 운동 변수들(식 (3))을 ASKF를 통해 추정될 상태 변수로서 정의한다. 이러한 상태 벡터 정의를 기반으로 운동체의 운동 방정식을 비선형 확률 모델로서 표현하면 식 (4)와 같다.
HOGHC7_2016_v30n3_194_e903.jpg
HOGHC7_2016_v30n3_194_e904.jpg
여기서 x, y, z는 3차원 공간상에서 운동체의 좌표를, 𝜓는 선수각을 나타낸다. 그리고 u는 제어입력 벡터를 의미하고 랜덤 벡터 w는 시스템에 작용하는 외란에 의한 잡음으로, 평균값 0의 정규 분포를 따른다고 가정한다.
본 연구에서는 ASKF 기반의 추정을 위해, 지역 기준 좌표계(Local reference frame)에서 운동체의 z방향 현재 위치를 의미하는 절대 심도 계측과 중첩 영역이 존재하는 두 영상 간의 매칭을 통해 얻어지는 상대 포즈 계측을 활용한다. 심도에 대한 계측 방정식은 아래와 같이 표현된다.
HOGHC7_2016_v30n3_194_e905.jpg
여기서, zk는 압력 센서로부터 얻어지는 심도 계측치이고, va는 평균값 0의 정규 분포를 따르는 계측 잡음이다. 심도 계측 잡음에 대한 표준편차 값은 심도 계측에 대한 신뢰도를 반영하여 충분히 작은 값(1σ 기준 0.02m)으로 설정하였다.
한편, 상대 포즈 계측은 영상 간의 매칭을 통해 얻어지며 이는 순차적인 포즈 변화와 비순차적인 포즈 변화로 구성된다. 순차적인 포즈 변화에 대한 계측 방정식, 계측 모델 그리고 계측 공분산은 각각 다음과 같이 정의된다.
HOGHC7_2016_v30n3_194_e906.jpg
HOGHC7_2016_v30n3_194_e907.jpg
HOGHC7_2016_v30n3_194_e908.jpg
여기서, Δxk,k−1, Δyk,k−1, Δ𝜓k,k−1는 각각 k번째와 k−1번째 영상으로부터 관측된 상대적인 x, y변위와 선수각 변화를 나타낸다. vr는 계측 잡음벡터로, 평균값 0의 정규 분포를 따른다고 가정한다. 그리고 I3는 3×3 단위행렬을 나타낸다.
순차적인 경우와 유사하게 비순차적인 포즈 변화가 관측되었을 때의 관측 모델들은 각각 아래와 같이 정의된다.
HOGHC7_2016_v30n3_194_e909.jpg
HOGHC7_2016_v30n3_194_e910.jpg
HOGHC7_2016_v30n3_194_e911.jpg
여기서, zk,kik번째와 ki번째 영상 간의 상대적인 포즈 계측 벡터를 나타낸다.

3.2 특징점 기반 상대 포즈 관측

한 쌍의 영상으로부터 영상 정합 모델(Image registration model)을 추정하고, 이로부터 상대 포즈 정보를 얻기 위해 영상 매칭 과정이 적용된다. 여기서, 얻어지는 각 영상에 존재하는 3차원 형상의 높이는 하방 카메라가 바라보는 바닥과의 거리(즉, H-AUV의 고도)에 비해 상대적으로 작다는 조건이 가정된다. 이러한 가정 하에, 특징점 기반 상대 포즈 관측 과정은 특징점 검출 및 매칭, 아웃라이어(Outlier) 제거 및 호모그래피 추정, 상대 포즈 유도 순으로 수행된다.
영상에서 의미 있는 특징점들을 얻기 위하여 SIFT(Scale invariant feature transform)(Lowe, 2004), SURF(Speeded up robust features)(Bay et al., 2006), BRISK(Binary robust invariant scalable keypoints)(Leutenegger et al., 2011) 등 여러 특징점 추출 알고리즘들이 제안된 바 있다. 본 연구에서는 추출된 특징점의 높은 정확성 및 반복성 대비 상대적으로 빠른 연산속도를 가지는 SURF 알고리즘을 활용한다.
두 영상에서 검출된 각 특징점들에 할당되는 기술자(Descriptor) 벡터 간의 초기 매칭 결과는 아웃라이어라고 불리는 부정확한 대응점(Correspondence)을 포함할 수 있다. 이러한 아웃라이어를 강인하게 제거하기 위해 RANSAC(Random sample consensus) 알고리즘(Hartley and Zisserman, 2004)이 적용될 수 있다. Fig. 4는 초기 매칭 결과에서 존재하던 아웃라이어 쌍들이 RANSAC의 적용에 의해 제거된 모습을 나타낸다. 마지막으로 아웃라이어가 제거됨과 동시에 남은 인라이어(Inlier) 대응점들 간의 직교 회기(Orthogonal regression)를 통해 영상 운동 모델인 호모그래피(Homography)가 계산된다.
Fig. 4

An example of pairwise feature matching

HOGHC7_2016_v30n3_194_f004.jpg
영상 매칭 과정을 통해 추정된 호모그래피로부터 상대 변위 벡터와 선수각 변화량을 계측하기 위해 호모그래피 분해(Homography decomposition) 기법(Faugeras and Lustman, 1988)이 적용된다. 이 때 도출되는 상대 변위 벡터는 크기 모호성(Scale ambiguity)이 존재하므로 이를 미터 단위로 변환하기 위해 하방 고도계로부터 얻어지는 운동체의 고도(또는 상대 거리) 측정치와 카메라의 내부 매개 변수(초점 거리 및 주점) 정보를 활용한다.
호모그래피로부터 계산된 상대 포즈 계측들은 영상 좌표계를 기준으로 정의가 되므로 이를 기준 좌표계에서 표현하기 위해 일련의 좌표계 변환이 적용된다. Fig. 5는 본 연구에서 온라인 모자이킹을 수행하기 위해 정의된 좌표계들의 배치 형태를 나타낸다. Fig. 5에서, {R}은 상대 항법을 위한 지역 기준 좌표계, {Ik}는 k번째 영상 좌표계, 그리고 {Vk}는 동체 좌표계를 의미한다. 여기서, 동체 좌표계는 DVL-고정 좌표계로 정의 되었다.
Fig. 5

Overall configuration of coordinate systems

HOGHC7_2016_v30n3_194_f005.jpg
마지막으로, 상대 포즈 계측에 대한 불확실성(식 (8)과 식 (11)의 계측 공분산)은 Haralick의 기법(Haralick, 1996)에 의한 호모그래피 매개 변수 공분산의 1차 추정치를 계산하여 구할 수 있다.

3.3 루프-폐쇄 기법

일반적으로, 온라인 모자이킹 또는 영상 기반 SLAM 알고리즘에서 루프-폐쇄(Loop-closure)는 매우 중요한 문제로 간주된다. 무인 운동체 또는 로봇이 루프-폐쇄를 수행할 때, 현재의 맵 정보와 기존에 가지고 있던 맵 정보들 간의 매칭을 시도함으로써 불확실한 위치 정보를 보정할 수 있다. 그러나 수중 환경에서는 제한적인 시계 조건으로 인해 영상 기반 루프-폐쇄의 수행이 상대적으로 어려우며, 이로 인해 루프-폐쇄의 발생 수가 감소하게 되면 수중 운동체의 항법 및 맵핑에 대한 추정 성능이 저하될 수 있다. 본 연구에서는 수중 환경에서 강인하게 동작하는 루프-폐쇄 기법(Hong et al., 2015)을 도입, 적용하였다.

4. 수조 실험 및 결과

4.1 실험 시나리오

개발된 시스템의 자율 항법 및 온라인 모자이킹 알고리즘을 테스트하기 위해, Fig. 6에 제시된 길이 15m, 폭 10m, 깊이 1.6m의 카이스트 실내 수조에서 항법 센서 및 영상 데이터 취득 실험이 수행되었다. 실험이 수행된 수조의 바닥면은 정형화된 패턴이나 물표 없이 비정형의 특이점이 불규칙적으로 분포되어 있다. 본 연구에서는 이러한 수조 바닥면에 대한 영상이 정합 알고리즘 적용 관점에서 인공적인 평면 수중 구조물과 유사한 정보를 제공할 것으로 가정하고 이를 바탕으로 개발된 시스템의 기본 성능을 파악하고자 하였다.
Fig. 6

Experimental site: 3-D model basin

HOGHC7_2016_v30n3_194_f006.jpg
자율 항법을 통한 데이터 취득 실험 전에 H-AUV의 자세 변화로 인해 발생할 수 있는 취득 영상의 왜곡을 최소화 하기 위해 롤, 피치의 초기 자세를 0°에 가깝게 조정하였다. 이러한 조건에서 정적 자세 안정성이 확보된 H-AUV의 운동 방정식은 다음과 같다.
HOGHC7_2016_v30n3_194_e912.jpg
여기서, u, v, w는 각각 DVL에서 얻어진 x, y, z축 방향으로의 선속도를 나타내고 r은 IMU에서 계측된 요 각속도를 의미하며, 이들은 로봇에 대한 제어 입력으로서 사용되었다. 실험을 위해 사전 계획된 길이 7m, 폭 0.5m의 잔디 깎기 패턴(Lawn mower pattern) 경로를 약 0.5m의 심도를 유지하며 추종하기 위해 일반적으로 널리 사용되는 PID 제어기와 추력 분배 기법(Fossen, 2011)을 적용하였으며, 경로 추종 제어기에 대한 계측 정보로는 추측 항법 (DR, Dead-reckoning) 기반 2-D 위치 추정치와 압력 센서의 심도 측정치가 활용되었다. Fig. 7은 데이터 취득 실험에서 추측 항법으로 운동체가 이동한 2-D 궤적을, Fig. 8은 시간에 따른 심도제어 결과 궤적을 도시한다.
Fig. 7

2-D dead-reckoning result

HOGHC7_2016_v30n3_194_f007.jpg
Fig. 8

Time history of depth measurement

HOGHC7_2016_v30n3_194_f008.jpg

4.2 전역 번들 조정

실험이 수행된 수조는 별도의 측위 시스템을 갖추지 못하고 있어 항법 성능을 온전히 파악하기 위한 운동체의 절대 위치 정보를 얻을 수 없다. 그러므로 실험으로 얻어진 영상들을 기반으로 전역 번들 조정(GBA, Global bundle adjustment) 기법(Sawhney et al., 1998)을 적용하고 이로부터 얻어진 전역적으로 최적화된 2차원 궤적을 성능 비교를 위한 기준 궤적(Reference trajectory)으로 간주한다. GBA 알고리즘에 대한 비용 함수(Cost function)은 다음과 같다.
HOGHC7_2016_v30n3_194_e913.jpg
여기서, HOGHC7_2016_v30n3_194_e003.jpgHOGHC7_2016_v30n3_194_e004.jpgi번째와 j번째 영상 간의 대응점들을 공동의 좌표계 m으로 투영시키는 절대 호모그래피(Absolute homography)들을 나타낸다.
GBA 알고리즘은 모든 가능한 영상 매칭 쌍들과 이로부터 발생하는 모든 수의 대응점들을 고려하여 카메라(또는 운동체)의 궤적을 전역적으로 최적화할 수 있다. 식 (13)은 픽셀 단위로 최적화된 궤적을 도출하므로 이를 미터 단위의 궤적으로 변환하기 위해 카메라의 내부 매개 변수 정보와 고도계로 계측된 카메라와 수조 바닥 간의 거리 정보가 활용되었다.

4.3 궤적 추정 및 온라인 모자이킹 결과

실험을 통해 얻어진 모션 및 영상 데이터를 이용하여 후처리로서 도출한 ASKF 추정 결과(파란색 사각형 마크 궤적)와 GBA에 의한 결과(검은색 원 마크 궤적), 그리고 추측항법에 의한 결과(자홍색 궤적) 간의 비교를 Fig. 9에 보인다. 여기서, 빨간색 선들은 영상 노드 간에 성공적으로 매칭이 수행되어(루프-폐쇄 포함), 위치 보정을 위한 계측치가 제공된 부분을 도시한다. 추측 항법의 결과는 GBA 궤적와 비교하였을 때 큰 표류 오차를 보인 반면, ASKF에 의한 추정 결과는 특징점이 부족하여 영상 간의 매칭이 이루어지지 못한 일부 영역을 제외하고는 전반적으로 추측 항법에 비해 정확한 궤적을 도출하였다.
Fig. 9

Comparison of estimated trajectories

HOGHC7_2016_v30n3_194_f009.jpg
궤적 추정 결과들을 정량적으로 평가하기 위해 GBA 궤적으로부터의 유클리드 거리(Euclidean distance)를 계산하였고 이들의 합을 오차 척도로서 정의하여 Table 3에 제시하였다. 정량화 결과, ASKF를 적용한 추정 결과가 추측 항법에 대해 약 67%의 오차 척도를 가짐을 확인할 수 있다.
Table 3

Performance measures

HOGHC7_2016_v30n3_194_t003.jpg
Fig. 10Fig. 9에서 ASKF에 의해 추정된 위치들을 기반으로 온라인 모자이킹이 수행된 결과이다. 이 추정된 영상기반 맵의 전반적인 경계 부분에서의 연속성과 정렬 상태를 고려하였을 때 전반적으로 만족스러운 결과가 도출되었음을 확인할 수 있다.
Fig. 10

Resulting photomosaic

HOGHC7_2016_v30n3_194_f010.jpg

5. 결론 및 향후 연구

본 논문에서는 영상 모자이킹을 통한 수중 검사를 위한 H-AUV 시스템의 하드웨어 플랫폼 및 운용 알고리즘의 개발에 대해 다루었다. 개발된 H-AUV 시스템의 성능 및 온라인 모자이킹 알고리즘을 테스트하기 위해 3차원 실내 수조에서 자율 항법 및 경로 추종 제어를 적용한 데이터 취득 실험이 수행되었고, 얻어진 모션 데이터와 영상 데이터를 기반으로 궤적 추정과 수조 바닥에 대한 모자이킹 결과가 제시되었다. 전역 최적화 알고리즘의 결과와의 정량적 비교를 통해 추측 항법에 비해 궤적 추정 정확도가 향상됨을 확인하였고, 결과 모자이크 영상의 경계 부분에서의 정렬 상태 통해 정성적인 관점에서도 만족스러운 결과를 얻을 수 있었다.
앞서 기술한 SURF 특징점 기반의 상대 포즈 계측치는 현재 640×480 크기의 영상을 기준으로 약 3fps의 속도로 계산이 가능하지만, 정확한 상대 포즈 계측치를 추정하기 위해서는 영상 간에 충분한 중첩 영역이 확보되어야 하므로 실제 적용 가능한 운동체의 이동 속도는 제한적일 수 있다. 이러한 상호 절충 관계를 특징점 추출 성능의 저하 없이 개선하기 위해서는 그래픽 처리 장치(GPU, Graphic processing unit)의 추가 장착 후 GPU 기반 영상처리의 적용이 필요할 수 있다. 또한, ASKF기반 추정 알고리즘의 단순한 적용은 영상 취득 면적 증가에 따른 상태 벡터 크기의 증가로 인해 일정 시점 이후로는 실시간성이 보장되지 않을 수 있으므로 향후 연구에서는 부분 지도 작성(Submapping) 기법이나 포즈-그래프(Pose-graph)기반의 실시간 스무딩(Smoothing) 알고리즘(Kaess et al., 2008)의 적용이 바람직할 것으로 판단된다.

NOTES

It is noted that this paper is revised edition based on proceedings of KSOE 2015 in Daejeon.

감사의 글

본 연구를 위한 플랫폼 개발에 도움을 주신 창원대학교 윤현규 교수님과 대양전기공업(주) 연구원 및 대원기전에 감사드립니다.
이 논문은 2015년 해양수산부 재원으로 한국해양과학기술진흥원의 지원을 받아 수행된 연구(선체 수중검사 자동화를 위한 자율무인시스템 개발) 결과의 일부임을 밝힙니다.

References

Bay, H., Tuytelaars, T., Van Gool, L.. (SURF: Speeded up Robust Features Proceedings of European Conference on Computer Vision Graz Austria: 200). 404-417.

Faugeras, O.D., Lustman, F.. (Motion and Structure from Motion in a Piecewise Planar Environment, International Journal of Pattern Recognition and Artificial Intelligence, 1988). 2(03):485-508 10.1142/S0218001488000285.
crossref
Fossen, T.I.. (Handbook of Marine Craft Hydrodynamics and Motion Control John Wiley & Sons, UK: 2011.

Garcia, R., Puig, J., Ridao, P., Cufi, X.. (Augmented State Kalman Filtering for AUV Navigation Proceedings of IEEE International Conference on Robotics and Automation Washington D.C.: 2002). 4010-4015.

Haralick, R.M.. (Propagating Covariance in Computer Vision, International Journal of Pattern Recognition and Artificial Intelligence, 1996). 10(5):561-572 10.1142/S0218001496000347.
crossref
Hartley, R., Zisserman, A.. (Multiple View Geometry in Computer Vision 2nd Edition Cambridge University Press, Cambridge UK: 2004.

Hong, S., Kim, T., Kim, J.. (Underwater Visual SLAM with Loop-Closure using Image-to-Image Link Recovery Proceedings of MTS/IEEE OCEANS Conference Genova Italy: 2015.

Kaess, M., Ranganathan, A., Dellaert, F.. (iSAM: Incremental Smoothing and Mapping, IEEE Transaction on Robotics, 2008). 24(6):1365-1378 10.1109/TRO.2008.2006706.
crossref
Leutenegger, S., Chli, M., Siegwart, R.Y.. (BRISK: Binary Robust Invariant Scalable Keypoints Proceedings of International Conference on Computer Vision Barcelona Spain: 2011). 2548-2555.

Lowe, D.G.. (Distinctive Image Features from ScaleInvariant Keypoints, International Journal of Computer Vision, 2004). 60(2):91-110 10.1023/B:VISI.0000029664.99615.94.
crossref
Sawhney, H.S., Hsu, H., Kumar, R.. (Robust Video Mosaicing through Topology Inference and Local to Global Alignment Proceedings of European Conference on Computer Vision 1998.



ABOUT
BROWSE ARTICLES
ARTICLE CATEGORY

Browse all articles >

PUBLICATION ETHICS
FOR CONTRIBUTORS
Editorial Office
President Office BD Rm. 1302, 13 Jungang-daero 180beon-gil, Dong-gu, Busan 48821, Republic of Korea
Tel: +82-51-759-0656    Fax: +82-51-759-0656    E-mail: ksoehj@ksoe.or.kr                

Copyright © 2024 by The Korean Society of Ocean Engineers.

Developed in M2PI

Close layer
prev next