• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Control and Robotics Engineering, Kunsan National University, Korea)



Object classification, Object tracking, Multi object tracking, Label-Merge, Dynamic time warping

1. 서론

최근, 우리 사회는 납치, 방화, 절도 및 성폭행과 같은 많은 범죄가 발생하고 있다. 이러한 범죄를 예방하기 위하여 CCTV (Closed Circuit Television) 및 CCTV 통합관제 센터 설치가 확산되고 있으나 기존의 CCTV 감시 방법은 소수의 관제요원이 다수의 CCTV를 감시함으로써 시간이 지날수록 실시간 상황 대처 및 감시 효율이 떨어진다[1]. 이러한 문제점을 해결하기 위하여 카메라를 이용한 지능형 감시 시스템의 연구가 활발하게 진행되고 있다. 지능형 감시 시스템은 기존에 녹화 기능만 있던 감시 시스템과 달리 범죄 발생 시 알람이나 사용자가 기존에 지정했던 특정 이벤트를 발생시킴으로서 신속한 대응을 할 수 있어 회사, 학교, 가정 차량 등 많은 곳에서 사용되는 것을 볼 수 있다[2,3]. 이러한 지능형 감시 시스템 방법 중 인식 및 추적 방법은 번호판 인식, 범죄자 식별 및 범죄자 추적 등 많은 분야에 활용되고 있다. 하지만 추적하고자 하는 객체의 크기, 형태 변화나 객체가 손실 될 경우 분류 및 추적 성능이 떨어지는 문제가 있다[4,5].

이러한 문제를 해결하기 위한 이동 객체 추적의 방법은 입력 영상에서 이동 객체를 추출하고 이동 객체를 추적하고자 하는 객체가 무엇인지 인식하는 객체 분류 방법을 통하여 이동 객체가 손실되거나 이동 객체의 겹침, 식별이 어려울 때에도 분류 및 인식 방법의 성능을 높일 추적 방법이 필요하다. 이러한 연구는 다음과 같이 진행되고 있다.

먼저, 실시간으로 입력된 영상에 대해 이동 객체를 추출하고, 추출된 이동 객체를 인식하는 객체 분류 방법은 다양하게 연구되고 있다[6-8]. Kim 등은 깊이 정보를 이용하여 이동 객체의 움직임에 따른 깊이 값을 추정하고 추정한 값을 통하여 템플릿 크기를 조정하는 방법을 제안하였다[7]. 이 방법은 기존 템플릿 매칭 방법의 객체 크기가 달라질 경우 매칭이 잘 안 되는 문제점을 제안한 방법으로 극복하였으나 다수의 객체를 동시에 분류하여 인식함에 있어서 과다한 수행 시간이 필요하고 지속적으로 업데이트를 해줘야 하는 문제점이 있다. Ko 등은 적분 히스토그램 기반의 매칭방법을 이용하여 검출속도를 높이고 적응적 매칭 방법을 제안하였다[8]. 이 방법은 기존의 히스토그램 매칭 방법이 이동 객체 크기, 형태 변화에 상관없이 매칭할 수 있으나 이동 객체의 분포 정보만 기억하기 때문에 잘못된 대상과도 매칭 될 수 있고 연산량이 많다는 문제점을 보완하였으나 이동 객체가 겹칠 경우에는 객체 인식 및 분류의 성능이 떨어지는 문제점이 있다. 다음 위의 방법 등을 이용하여 이동 객체를 추적하는 연구 중 ling Ren 등은 Mean shift에 칼만 필터를 결합하여 실시간 추적을 제안하였다[9]. 이 방법은 기존의 이동 객체의 추적률이 높은 Mean Shift 방법에 칼만 필터를 이용하여 실시간 추적을 강인하게 하였으나, 탐색 윈도우의 크기를 스스로 갱신하지 못해 추적 성능은 높였으나 지속적인 갱신이 필요한 문제점이 있다.

본 논문에서는 상기 문제점을 해결하기 위해 DTW(Dynamic Time Warping) 알고리즘을 이용하여 객체의 크기가 다르고 지속적인 윈도우 크기 갱신이 필요 없는 다중 객체 분류 및 추적 방법을 제안한다. DTW 알고리즘은 음성 인식, 제스처 인식, 문자 인식 등에 주로 사용되며 기존 연구로는 시퀀스 데이터의 길이가 달라도 유사도 비교가 가능하다는 장점을 갖는 알고리즘으로서, Ahn 등은 잡음 환경에서의 음성 인식 개선에 특징보상기법을 이용하여 개선하는 방법을 제안[10]. 이 방법은 인간이 발성하는 음성이 동일음 일지라도 발성자, 발성의 방법 등 시간적으로 불규칙하게 많은 차이가 있는 것을 DTW 알고리즘을 통하여 그 불규칙을 해결하여 음성을 분류한다. 또한 Lee 등은 KOSPI200의 선물 분간데이터를 사용하여 일중 Price Momentum의 유효성 검증 방법을 제안[11]. 이 방법은 매매 형태에 따른 일중 거래량 패턴이 만들어지는데 그 패턴과 유사성 등을 DTW 알고리즘을 통하여 시간 흐름에 따른 패턴 간 유사성을 측정했다. 또한, 본 논문에서는 DTW 알고리즘의 장점을 이용하여 영상 내 이동 객체를 색상기반 데이터를 추출하여 DTW DB(Data Base)에 저장하고 DTW DB와 이동객체를 실시간으로 비교하여 이동 객체를 분류하고 분류된 이동 객체를 인식 및 겹침 판단을 통하여 다중 객체를 분류하여 추적을 제안한다[12]. 제안하는 방법의 순서는 먼저 CCTV로 입력 영상을 받아 이동 객체를 추출하기 위해 GMM 기법을 이용하여 이동 객체를 추출한다. 그런 후 빛과 같은 외부 환경 요소를 제거하기 위해 Morphology를 수행한다[13,19,]20]. 추출된 이동 객체 영역에 Labeling 방법을 이용하여 이동 객체를 인식하고, 인식된 이동 객체를 지정한 ROI상 이동 객체가 검출 시 Morphology 와 제안한 방법을 이용하여 단일 객체가 여러 객체로 인식되는 문제를 해결한다. 그 후 인식된 이동 객체의 컬러 히스토그램과 RGB 값을 추출하여 DTW DB에 이동객체의 색상 정보를 각각 저장한다[14]. 저장된 이동 객체의 DB와 인식된 이동 객체들을 실시간으로 비교하여 저장된 DB에 가장 유사한 이동 객체를 각각 Labeling 하여 분류하고 인식한다. 인식된 이동 객체를 실시간으로 계속 비교하여 이동 객체를 추적하고, 객체가 겹칠 경우에는 제안한 방법을 통하여 객체 겹침 판단한다. 최종적으로 제안된 방법을 실험을 통해 실용성 및 응용 가능성을 보인다.

2. 제안한 전체 시스템

2.1 전체 시스템 블록도

본 논문에서 제안하는 DTW 알고리즘을 이용한 다중 객체 추적 방법의 시스템 블록도는 그림. 1과 같다.

그림. 1. 제안하는 시스템 블록도

Fig. 1. Block diagram of the proposed system

../../Resources/kiee/KIEE.2019.68.5.670/fig1.png

제안하는 방법은 입력 영상을 받아와 이동 객체 추출을 위해 GMM 방법으로 배경을 모델링한다[15]. 다음, 조도의 변화에 따른 잡음을 제거하기 위해 Morphology 방법을 이용하며 최종적으로 추출 된 이동 객체 영역을 Labeling을 한다. 이동 객체를 Labeling 했을 경우 하나의 이동 객체가 여러 객체로 Labeling 이 되는 문제점을 제안한 방법으로 나뉜 이동 객체의 Labeling 을 병합하여 인식한다[16]. 인식된 이동 객체를 제안한 방법으로 각각 HSV과 RGB의 값을 추출하고 추출 된 데이터를 DTW DB에 순차적으로 저장하고 저장된 DTW DB와 이동 객체를 유사도 판단한다. 유사도 판단 결과 첫 번째 DTW DB와 유사도가 높은 객체를 첫 번째 이동 객체라 판단하고 첫 번째 이동 객체라 분류한다. 그 후 제안한 방법을 반복하여 DTW DB순서에 따라 이동 객체를 분류하고 분류된 이동 객체를 실시간으로 유사도 비교하여 추적 및 겹침 판단한다.

2.2 입력 영상에서의 이동 객체 추출 및 인식

본 논문에서는 입력되는 영상에서 배경으로부터 전경을 추출하기 위해 GMM 방법을 이용한다. 모델링 된 결과 배경에서 분류된 전경은 이동 객체를 나타내며 이동 객체의 그림자 및 미세한 흔들림으로 인해 발생하는 잡음을 제거하기 위해 Morphology 방법인 침식 (erosion)과 팽창(dilation) 연산을 수행하여 이동 객체를 추출한다. 다음 GMM 결과와 Morphology 를 이용하여 이동 객체 추출한 결과는 그림. 2와 같다. 그림. 2(a)는 실험 환경의 배경이며, 그림. 2(b)는 카메라로부터 입력된 영상이다. 그림. 2(c)는 GMM을 이용하여 다수의 이동 객체 추출한 결과를 나타내며, 그림. 2(d)는 이동 객체의 그림자 및 미세한 흔들림으로 인해 발생하는 잡음을 제거하기 위해 Morphology 방법인 침식과 팽창 연산을 수행한 결과를 나타낸다.

그림. 2. GMM과 Morphology를 이용한 객체 추출 결과

Fig. 2. Object extraction result using GMM and Morphology

../../Resources/kiee/KIEE.2019.68.5.670/fig2.png

다음, 추출된 이동 객체에 대해 Labeling 방법을 이용하여 다수의 객체를 인식하고 불필요한 영역 제거를 위해 일정한 크기 이하의 라벨은 잡음으로 판단해 제거한다. 하지만 이동 객체를 Labeling 할 때 하나의 이동 객체가 다수의 객체로 분류될 경우가 존재한다. 해당 문제를 해결하기 위해 (1)번 조건식에 해당하는 라벨들을 하나의 객체로 판단하여 정합한다.

(1)
$if\left | Label\min_{n(n=0...N)}-Label\min_{a(a=0...N)}\right | < m \cdots$

$Label\min_{n}$은 $n$번째 라벨의 좌측 상단 좌표를 의미하며,$Label\min_{a}$은 $a$($a\ne n$)번째 라벨 좌측 상단 좌표를 의미하고, $m$은 임의로 지정한 거리의 임계치이다.

제안한 방법을 이용하여 Labeling 하는 방법은 그림. 3과 같다. 그림. 3(a)는 추출된 이동 객체의 결과이며 그림. 3(b)는 추출된 이동 객체를 인식하기 위하여 Labeling 한 결과를 나타낸다. 그러나 객체가 잡음이나 조명 등에 인하여 소실되는 문제 때문에 하나의 객체가 다수의 Labeling이 되는 결과를 나타내며 그림. 3(c)는 제안한 방법을 이용해 이동 객체를 Label_Merge하여 인식한 결과를 나타낸다[17].

그림. 3. 제안한 Label-Merge 결과

Fig. 3. The proposed Label-Merge result

../../Resources/kiee/KIEE.2019.68.5.670/fig3.png

다음, 인식된 이동 객체를 강인하게 인식하기 위하여 이동 객체의 색상 정보를 추출한다. 이동 객체의 데이터를 추출하는 방법은 다음과 같다. 먼저, 영상 내 이동 객체가 검출되는 시작 부분 근처에 ROI(Region Of Interest)를 지정하고, ROI 영역에 이동 객체가 들어와 ROI의 지면 좌표와 분리될 경우 이동 객체의 HSV(Hue-Saturation-Value)와 RGB의 색상 정보의 데이터를 추출하여 DTW DB에 저장한다[18].

(2)
$V =\max(R,\:G,\:B)$

$ S =\begin{cases} \dfrac{V-\min(R,\:G,\:B)}{V} \quad \quad if \quad V\ne 0\\ 0 \quad \quad if \quad V=0 \end{cases}$ $

$H =\begin{cases} \dfrac{60(G-B)}{V-\min(R,\:G,\:B)} \quad \quad if \quad V=R\\ 120+\dfrac{60(B-R)}{V-\min(R,\:G,\:B)} \quad \quad if \quad V=G\\ 240+\dfrac{60(R-G)}{V-\min(R,\:G,\:B)} \quad \quad if \quad V=B\end{cases}$

$if \quad H < 0, \quad \quad \: H = H+360$

추출한 HSV를 이용하여 ROI영역의 히스토그램을 추출하며 추출하는 식은 다음과 같다.

(3)
$h_{v}[Ch]=\sum_{m=0}^{h}\sum_{n=0}^{w}f(PD(x,\:y))\\ f(PD(x,\:y))=\begin{cases} 1 & \quad \quad if \quad PD(x,\:y)=v\\ 0 & \quad \quad otherwise \end{cases}$

식 (3)은 히스토그램을 추출하는 식이며 v는 각 색상 영역의 값이며 $PD(x,\:y)$는 Pixel Data의 값이다.

그림. 4(a)는 영상 내 이동 객체가 검출되는 곳에 빨간색 네모 ROI가 있다 가정하며 그림. 4(b)와 같이 이동 객체가 영상 내 검출되어 인식되어 있지만 ROI의 지면의 좌표와 완전히 이동 객체가 분리가 되어 있지 않아 색상 정보가 추출되고 있지 않음을 나타낸다. 그림. 4(c)는 이동 객체가 지정한 ROI의 지면과 라벨이 분리되면 객체 당 초기에 1회 식 (3)와 같이 이동 객체의 HSV 색상 데이터를 들어온 순서대로 ID와 Histogram정보를 DB에 저장한다. 그 이후 식 (4)와 같이 객체의 오브젝트를 저장한다.

그림. 4. 이동 객체의 HSV 및 RGB 추출 방법

Fig. 4. HSV and RGB extraction method of moving objects

../../Resources/kiee/KIEE.2019.68.5.670/fig4.png

(4)
$DB_{v,\:j}[Ch]=(DB_{1,\:j},\:DB_{2,\:j},\:...,\:DB_{255,\:j})$

(5)
$OB_{v,\:I}[Ch]=(OB_{1,\:I},\:OB_{2,\:I},\:...,\:OB_{255,\:I})$

상기 식에서 $Ch$는 HSV의 각 채널이다. 이후 오브젝트 개수와 저장된 DB의 수를 비교하여 오브젝트 개수가 DB의 개수보다 많으면 상기의 과정을 통해 다음 오브젝트의 DB를 저장한다.

2.3 DTW 알고리즘을 이용한 이동 객체 분류

기존의 DTW 알고리즘을 이용한 본 문의 유사도 비교 방법은 다음 식 (6)과 같다.

(6)
\begin{align*} D_{(I,\:j)}[Ch]=d(OB_{v,\:I}[Ch],\: DB_{v,\:j}[Ch])\\ \\ +\min\begin{cases} D(OB_{v,\:I-1}[Ch],\: DB_{v,\:j-1}[Ch]) & \\ \begin{aligned}D(OB_{v,\:I-1}[Ch],\: DB_{v,\:j}[Ch])\\ D(OB_{v,\:I}[Ch],\: DB_{v,\:j-1}[Ch])\end{aligned} & \end{cases} \end{align*}

식 (6)의$D_{(I,\:j)}[Ch]$는 상관표 $d(OB_{v,\:I}[Ch],\: DB_{v,\:j}[Ch])$은 두 패턴 사이의 거리를 나타내며, $OB_{v,\:I}[Ch]$는 이동 객체의 히스토그램의 데이터, $Db_{v,\:j}[Ch]$는 DTW DB에 저장된 이동 객체의 히스토그램이다. $OB_{v,\:I}[Ch]$와 $Db_{v,\:j}[Ch]$ 비교하여 왼쪽 상단 $D_{(1,\:1)}$부터 $D_{(I,\:j)}$까지 식 (6) 방식으로 누적 거리를 정의 후 누적 거리 중에서 최솟값을 더하여 할당한다. 그 후 $D_{(I,\:j)}$부터 $D_{(1,\:1)}$까지 역추적을 통해 유사도를 비교하고, 다중 이동 객체의 분류 방법을 제안한다. 제안한 유사도 비교의 방법은 다음 식과 같다.

(7)
$SD_{(I,\:j)}=\sum_{Ch=0}^{Ch N m}D_{I,\:j}[Ch]$

식 (7)은 $OB_{v,\:I}[Ch]$의 $I$와 $Db_{v,\:j}[Ch]$의 $j$ 색상 채널별 DTW 유사도를 더하는 식이며 $Ch N m$은 사용한 색상 채널의 수이다. 식 (7)을 이용하여 각 채널별 유사도가 더해진 값 $SD_{(I,\:j)}$을 추출한 뒤 가장 유사도가 높은 값을 다음 식 (8)을 통해 선별한다.

(8)
$\min(SD_{(I,\:0)},\:SD_{(I,\:1)},\:...,\:SD_{(I,\:N)})$

식 (8)은 더해진 오브젝트 $OB_{v,\:I}[Ch]$의 $I$와 $Db_{v,\:j}[Ch]$의 $j$ 유사도 중 가장 작은 값(매칭률이 가장 높은 값)을 찾는 식이며 본 논문에서는 실험 환경에 3명의 다중 이동 객체를 위의 식의 순서대로 분류하였고, 분류 된 이동 객체는 Labeling의 색으로 구분한다. 분류된 이동 객체는 다음 그림 5와 같다.

그림. 5(a)는 저장된 DTW DB와 동일 객체를 식 (6)과 같이 유사도 비교할 때를 나타낸다. 그림. 5(b)는 DTW DB와 다른 객체의 유사도 비교할 때를 나타낸다. 그림. 5(c)식 (8)을 이용하여 객체를 유사도에 따라 RED 색의 Labeling을 하여 첫 번째 객체라고 인식 분류한다. 위의 방식대로 2번째 DB와 각각 이동 객체를 수시로 비교하여 낮은 객체는 GREEN, BLUE 순서대로 분류한다.

그림. 5. DTW를 이용한 이동 객체 분류 방법

Fig. 5. Classify as object using DTW

../../Resources/kiee/KIEE.2019.68.5.670/fig5.png

2.4 이동 객체의 겹쳐짐, 분리 상태 판단 및 추적방법

다중 이동 객체 추적 시 이동 객체끼리 겹쳤을 경우 추적에 제한이 생겨 겹쳐짐 상태와 겹쳐짐 이후 분리 상태를 판단해야 하고 다시 추적이 가능해야 한다[19]. 앞서 제안한 인식 및 분류 방법은 각 각의 이동 객체가 분류가 되어 있어 인식이 가능한 장점을 갖고 있지만 이동 객체끼리 겹쳐졌을 땐 이동 객체를 인식하고 분류할 수 없는 문제점이 생긴다. 본 연구에서는 이를 보완하기 위해 겹쳐짐 상태와 분리 상태의 판단 방법을 제안한다. 먼저 이동 객체는 동시에 두 개의 객체만 겹친다고 가정하며 겹쳐짐 상태 판단은 다음 식 (9)를 통해 판단한다.

(9)
\begin{align*} Euclidean Dis =\sqrt{Obj_{nc}^{2}+Obj_{ac}^{2}}(n\ne a)\\ \\ OJd=\begin{cases} 0 & if\quad Euclidean Dis > OB_{c}Dis\\ 1 & if\quad Euclidean Dis < OB_{c}Dis \end{cases}\\ OJd *(DB_{cnt}- OB_{cnt}) > 0 than Ovlb =1 \end{align*}

식 (9)에서 $OJd$는 겹침 판단의 첫 번째 조건,$Ovlb$은 객체 겹침 상태를 나타내며, $Obj_{nc},\: Obj_{ac}$ 는 이동 객체의 중심점의 좌표이다. $OB_{cnt}$는 이동 객체의 수, $DB_{cnt}$ 는 DTW DB의 수를 나타내며 $Obj_{nc},\: Obj_{ac}$ 의 중심점 거리가 미리 설정한 $Ob_{c}Dis$ 보다 가까워지면 첫 번째 조건을 만족하여 $OJd$ 상태이며, 두 번째 조건인 $DB_{cnt}$ 와 $OB_{cnt}$를 비교하여 $DB_{cnt}$보다 $OB_{cnt}$ 의 개수가 적을 경우 두 가지 조건을 모두 만족해 겹침이라 판단한다. 그림. 6은 이동 객체의 겹쳐짐 판단에 대한 그림이다.

그림. 6(a)는 다중 이동 객체 추적 중 첫 번째 이동 객체인 A와 두 번째 이동 객체인 B의 중심점이 설정한 거리 임계치보다 작아 겹침 판단의 첫 번째 조건에 해당해 두 객체를 Labeling 한다. 그림. 6(b)는 첫 번째 조건이 충족된 상태에서 저장된 DTW DB보다 이동 객체의 숫자가 적다는 두 번째 조건이 성립하여 A, B 객체는 겹침 상태라 판단한다. 그림. 6(c)그림. 6(b)와 같이 두 조건이 만족해 A, C 객체가 겹쳐짐 상태로 판단되는 그림이며, 그림. 6(d)는 두 조건이 만족하지 않아 분리 판단 중인 상태이다.

그림. 6. 이동객체의 겹쳐짐과 분리 판단

Fig. 6. Judging method for overlapping and separation of moving object

../../Resources/kiee/KIEE.2019.68.5.670/fig6.png

다음 그림. 7은 이동 객체가 겹침 이후 분리 시 추적에 대한 그림이다. 그림. 7(a)는 본 논문에서 제안한 겹침 판단의 두 조건이 해당하여 이동 객체가 겹쳐진 상태를 나타내며 그림. 7(b)는 겹침 판단의 두 조건이 해당하지 않아 이동 객체 분리를 판단하는 과정을 나타낸다. 그림. 7(c)는 분리 판단하는 과정에서 DTW 유사도 매칭을 통하여 이동 객체를 유사도 비교하여 다시 매칭해 이동 객체를 분류하는 과정을 나타내며 그림. 7(d)는 완전히 겹침 판단의 두 조건에 해당하지 않아 이동 객체를 분리하고 DTW DB와 이동 객체를 실시간으로 매칭하고 추적에 대하여 보완하고자 식 (10)을 이용하여 추적에 성능을 높인다.

그림. 7. 이동객체의 분리 판단 시 객체 추적방법

Fig. 7. Moving object tracking method when separating moving objects

../../Resources/kiee/KIEE.2019.68.5.670/fig7.png

(10)
$if \quad (Euclidean Dis\tan ce(PP_{i},\:CP_{i}) < Track Dis)$

식 (10)은 $i$번 객체의 이전 위치 $PP_{i}$와 현재 위치 $CP_{i}$의 유클리디언 거리가 미리 설정한 거리 임계치 $Track Dis$보다 적은지 판단하는 식이다. 여기서, 임계치보다 같거나 클 경우 분류에 오차가 있다 판단하여 가장 근처의 이미지를 오브젝트의 중심 값이 가장 가까운 오브젝트를 $PP_{i}$와 같은 객체로 판단한다.

3. 실험 및 결과 고찰

본 논문에서는 연구실이라는 실내 환경에서 3명의 다중 이동 객체를 제안한 DTW 알고리즘을 이용한 다중 객체 분류 및 추적 방법의 전체 시스템 세부 순서도 그림. 8과 같은 순서대로 실험 환경에서 여러 실험을 하였다. 실험 환경은 Intel(R) Core(TM) i7-7700 CPU @ 3.60 GHz, 32GB RAM의 PC, 640x480 화소 초당 15 frame의 카메라를 사용했으며. Microsoft Visual Studio 2015와 OpenCV 3.0을 활용한다.

그림. 8. 전체 시스템 세부 순서도

Fig. 8. Complete System Detail Flowchart

../../Resources/kiee/KIEE.2019.68.5.670/fig8.png

다음 그림. 9는 본 논문에서 제안한 방법을 이용하여 검출된 이동 객체를 유사도 비교하여 분류되는 과정이다.

그림. 9(a)는 이동 객체가 지정한 ROI에 검출되어 히스토그램 추출하고 저장하는 단계이며 그림. 9(b)는 저장된 DTW DB와 실시간으로 이동 객체를 유사도 비교하는 과정을 나타내며. 그림. 9(c)는 가장 먼저 저장된 DTW DB와 단일 이동 객체를 비교하여 첫 번째 이동 객체라 인식하여 분류했으며, 그림. 9(d)는 제안한 유사도 비교방법을 이용하여 유사도에 따라 Labeling 색상 별로 분류하여 인식하였다.

그림. 9. 이동 객체 분류 실험 과정

Fig. 9. Eexperiment for moving object classification

../../Resources/kiee/KIEE.2019.68.5.670/fig9.png

그림. 10은 본 연구에서 제안한 방법을 이용하여 검출된 세 사람에 대하여 인식 및 분류하여 추적한 결과를 나타낸다. 그림. 10(a)에서는 그림. 10(c)는 차례대로 수행하여 이동 객체가 ROI상 검출되어 분류되어 Labeling 색상으로 구분된 결과를 나타내며, 그림. 10(d)에서 그림. 10(e)는 첫 번째 이동 객체와 두 번째 이동 객체가 제안한 방법으로 추적하다 이동 객체가 겹쳐짐 현상과 겹쳐짐 이후의 추적에 대한 결과를 나타낸다. 다음 그림. 10(g)에서 그림. 10(i)는 첫 번째 객체와 세 번째 객체가 겹쳐짐 상태와 분리 상태에 대한 추적에 대한 결과를 나타낸다.

그림. 10. 제안한 방법을 이용한 추적 실험 결과

Fig. 10. Tracking results of the proposed method

../../Resources/kiee/KIEE.2019.68.5.670/fig10.png

다음 그림. 11은 영상에서 추적 중인 이동 물체들의 실측 위치와 제안된 방법을 이용해 추적된 위치를 나타낸다. 그림. 11(a)는 제안한 추적 방법을 이용한 다중 이동 객체의 x축 좌표 위치 결과이다. x축은 Frame이고, y축은 영상 내 x좌표 이며 노란색 사각형 구간은 첫 번째 이동 객체와 두 번째 이동 객체의 겹쳐짐 구간이며 파란색 사각형 구간은 첫 번째 이동 객체와 세 번째 이동 객체의 겹쳐짐 구간으로서 객체 간 겹쳐짐을 판단할 수 있고 겹침 전, 겹침 이후에 추적 성능이 좋음을 볼 수 있다. 그림. 11(b)는 제안한 추적 방법을 이용한 다중 이동 객체의 y축 좌표 위치에 대한 결과이다. 그림. 11(a)와 같이 겹침 구간을 판단하고 객체 간 겹침과 분리 후 추적에 대해 본 논문에서 제안한 방법이 추적 성능이 좋음을 볼 수 있다.

그림. 11. 제안한 다중 객체 추적 방법의 추적 결과

Fig. 11. Tracking results of proposed tracking method

../../Resources/kiee/KIEE.2019.68.5.670/fig11.png

표 1은 제안한 DTW 알고리즘을 이용하여 다중 이동 객체를 분류하는 방법과 비교하고자 하는 기존의 연구인 유사도 비교 방법을 이용하여 각각 똑같은 영상에 대해 이동 객체를 분류하여 나타낸 수치이다. 기존의 유사도 비교 방법들은 이동 객체가 각각 따로 있을 경우 분류율은 높았으나 이동 객체가 겹쳐진 이후나 이동 객체의 방향이나 형태가 조금씩 달라질 경우 이동 객체를 분류함에 있어 분류율이 떨어짐을 보였다. 하지만 제안한 분류 방법은 이동 객체 겸침 전 겹침 이후에도 높은 분류율을 보여 제안한 방법이 기존 방법에 비해 우수함을 알 수 있다.

표 1. 다중 이동 객체 분류 결과

Table 1. Classification result for multiple moving objects

ID

히스토그램 매칭[8]

Template matching[7]

제안한 방법

Object1

85.44

86.42

97.87

Object2

83.22

83.65

98.3

Object3

82.23

87.45

98.73

4. 결 론

본 연구에서는 DTW 알고리즘을 이용하여 다중 객체를 분류 및 추적 방법을 제안하였다. 먼저 카메라로부터 획득한 영상 정보에서 이동 객체를 추출하기 위하여 GMM, Morphology 기법의 침식 팽창 연산을 사용했다. 그다음, 이동 객체를 Labeling 을 통하여 인식하고 인식된 이동 객체가 다수의 라벨로 생성되는 문제를 Morphology를 이용한 제안된 방법으로 인식하였다. 인식된 이동 객체가 지정된 ROI에 검출되면 히스토그램을 추출하고 DTW DB에 저장하고 DTW 매칭을 통하여 이동 객체를 분류하고 분류된 이동 객체를 지속적으로 비교하여 추적하도록 하였으며 겹침 판단 시 제안한 방법과 식별된 위치를 제안한 추적 방법을 이용하여 추적하였다. 마지막으로 본 논문에서 제안한 방법은 여러 실험을 통해 기존 방법에 비해 우수함을 증명했으며 여러 실시간 실험을 통해 그 응용 가능성을 보였다.

감사의 글

본 연구는 2018년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행한 중견연구자과제(과제번호: NRF- 2018R1A2A2A14023632)와 2016년도정부(교육부)의 재원으로 한국연구재단의 대학중점연구소 지원사업의 지원을 받아 수행된 연구임(과제번호: NRF-2016R1A6A1A03013567).

References

1 
S. W. Ibrahim, May, 2016, A comprehensive review on intelligent surveillance systems, Communications in Science and Technology, Vol. 1, No. 1, pp. 7-14DOI
2 
J. C. Park, I. S. Jang, Feb. 2018, Integrated CCTV control center : operational performance and improvement plan based on Gumi-si, Institute of police science, Vol. 13, pp. 209-246Google Search
3 
M. J. Oh, Y. H. Joo, Dec. 2010, Intruder detection algorithm for intelligent video surveillance system, Journal of Institute of Control, Robotics and Systems, No. 12, pp. 110-113Google Search
4 
J. Ren, J. Hao, May, 2012, Mean sift tracking algorithm combined with Kalman filter, International Congress on Image and Signal Processing, pp. 727-730DOI
5 
C. C. Hsu, G. T. Dai, Nov. 2012, Multiple object tracking using particle swarm optimization, International Journal of Electrical, Computer, Energetic, Electronic and Com- munication Engineering, Vol. 6, pp. 744-747Google Search
6 
D. I. Kim, J. S. Shin, D. S. Kang, Dec. 2012, A study on moving object tracking algorithm using FFPD and depth information, Journal of Korean Institute of Information Technology, Vol. 10, pp. 167-172Google Search
7 
W. Y. Kim, Y. H. Seo, D. W. Kim, May, 2013, Template matching-based high-speed face tracking method using depth information, The Korean Institute of Broadcast and Media Engineers, Vol. 18, pp. 349-361DOI
8 
J. P. Ko, J. H. Ahn, W. K. Hong, April, 2015, Integral histogram-based framework for rapid object tracking, Journal of the Korea Industrial Information Systems Research, Vol. 20, No. 2, pp. 45-56DOI
9 
J. G. Kim, Y. H. Joo, 2013, Visual multi-touch air interface for barehanded users by skeleton models of hand regions, International Journal of Control, Auto- mation and Systems, Vol. 11, No. 1, pp. 84-91DOI
10 
J. Y. Ahn, S. S. Kim, S. H. Kim, S. Y. Koh, K. ad, I. Hur, Aug. 2011, A study on voice recognition using noise cancel DTW for noise environment, The Institute of Internet, Broadcasting and Communication, Vol. 11, pp. 181-186DOI
11 
C. j. Lee, W. B. Ahn, K. J. Oh, July, 2017, Analysis of intraday price momentum effect based on patterns using dynamic time warping, Journal of the Korean Data And Information Science Sociaty, Vol. 28, No. 4, pp. 819-829DOI
12 
Y. J. Kang, J. I. Lee, J. H. Bae, S. W. Lee, C. H. Lee, June, 2011, Binary tree architecture design for support vector machine using dynamic time warping, Journal of The Institute of Electronics and Information Engineers, Vol. 51, No. 6DOI
13 
C. Y. Lee, N. H. Kim, Oct. 2015, A study on mask-based edge detection algorithm using morphology, Journal of the Korea Institute of Information and Communication Engineering, Vol. 19, No. 10, pp. 2441-2449kDOI
14 
K. Lee, C. H. Lee, May, 2013, Content-based image retrieval using LBP and HSV color histogram, Journal of Broadcast Engineering, Vol. 18, No. 3, pp. 372-379DOI
15 
Z. Zivkovic, Aug. 2004, Improved adaptive Gaussian mixture model for back ground subtraction, In Proc. ICPR, International Conf. on Pattern Recognition, Vol. 2, pp. 28-31Google Search
16 
F. Chang, C. J. Chen, C. J. Lu, Feb. 2004, A linear-time component labeling algorithm using contour tracing technique, Computer vision and image understanding, Vol. 93, No. 2, pp. 206-220DOI
17 
S. M. Lee, I. Seong, Y. H. Joo, Feb. 2018, Recognition and tracking of moving objects using label-merge method based on fuzzy clustering algorithm, The Transactions of the Korean Institute of Electrical Engineers, Vol. 67, No. 2, pp. 293-300DOI
18 
K. Lee, C. H. Lee, May, 2013, Content-based image retrieval using LBP and HSV color histogram, Journal of Broadcast Engineering, Vol. 18, No. 3, pp. 372-379DOI
19 
D. H. Yeom, Y. H. Joo, J. B. Park, May, 2010, Selection of coefficient for equalizer on optical sisc drive by golden search, IEEE Transactions on Consumer Electronics, Vol. 56, No. 2, pp. 657-662DOI
20 
S. K. Kim, Y. H. Joo, March, 2015, Visual touch recognition for NUI using Voronoi-Tessellation Algorithm, The Transactions of the Korean Institute of Electrical Engineers, Vol. 64, No. 3, pp. 465-472DOI

저자소개

왕 교 선 (Wang Kyo Sum)
../../Resources/kiee/KIEE.2019.68.5.670/au1.png

2017년 군산대학교 제어로봇 공학과 졸업

2017년~현재 군산대학교 전자정보 공학부 석사 과정

현재, ㈜ANI 연구원, 관심분야는 딥러닝, 로봇 비전, 지능형 감시 시스템

주 영 훈 (Yung Hoon Joo)
../../Resources/kiee/KIEE.2019.68.5.670/au2.png

1982년, 1984년, 1995년 연세대학교 전기 공학과 졸업(공학사, 공학석사, 공학박사)

1986~1995년 삼성전자 ㈜생산기술센터 팀장

1995년~현재 군산대학교 제어로봇공학과 교수

1998년~1999년 미국 휴스턴대학 박사 후 과정

2006년~2007년 제어․로봇시스템학회 편집주간

2009년 한국 지능시스템학회회장

2009년~2013년 군산대학교 PostBK21 팀장

2013년~2014년 대한전기학회 부회장, 대한전기학회 정보제어부문 회장

2014년~2017년 International Journal of Control, Automation, and Systems(IJCAS) Editor-in-Chief

2016년~현재 군산대학교 풍력기술 연구센터 센터장

2019년 현재 대한전기학회 회장, 한국과학기술총연합회 이사

관심분야는 지능형로봇, 지능제어, 로봇 비전, Human-Robot Interaction, 지능형 감시 시스템, 신재생에너지 전력제어, 풍력발전기 제어