• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (School of IT Information and Control Engineering, Kunsan National Univerity, Gunsan-Si, 54150, Korea)



CCTV, Fire detection, Flame feature, Density-based spatial clustering

1. 서 론

화재란 인간의 의도와는 무관하거나 고의에 의해 발생하는 연소 현상으로 소화 장비 등을 사용하여 소화할 필요성이 있거나 사람의 의도에 반하여 발생한 화학적인 폭발현상, 불에 의한 재난을 뜻한다. 화재는 건축물과 자동차, 철도, 산 등에서 시간과 장소에 상관없이 발생한다. 화재 감지를 위한 하드웨어는 크게 화재감지센서를 이용한 방법과 CCTV(Closed Circuit Television)를 이용한 방법으로 나눌 수 있다 (1-4).

CCTV는 화재감지센서와는 다르게 재사용이 가능하고 상대적으로 감지 범위가 넓어 장소에 대한 제약이 덜하며 화염의 크기와 흐름을 파악할 수 있다. Celik(4)와 Do(5) 등은 화염의 색상 추출 범위를 규정하여 화염과 유사한 색상을 나타내는 영역을 추출해 화재를 감지하는 방법을 제안했다. 또한, Chen(6-7), Toreyin(8) 등은 두 개의 색상 모델을 통해 화재를 감지하는 방법을 제안했다. 그리고, Gunawaardena (9) 등은 먼저 입력 영상에서 배경모델링을 수행하여 전경을 추출하고, YCbCr 색상 모델을 이용하여 화염과 유사한 색상의 영역을 추출한 다음, 배경모델링을 통해 추출된 전경과 색상 모델을 통해 추출된 영역을 융합하고 시간적 및 공간적 강도 변화에 따른 화염의 특징을 통해 확률 모델을 사용하여 화재를 감지하는 방법을 제안했다. 그리고, Marbach(10) 등은 화염의 휘도가 다른 영역보다 깜빡이는 빈도수가 높다는 특징을 이용하여 화재를 감지하는 방법을 제안했다. 또한, Kong(12) 등은 영상에서의 색상 성분 비율과 움직임 특성을 이용해 화재를 감지하는 방법을, Liu(12) 등은 화염의 형태학적 접근 방식으로 Gray 색상 모델로 변환 후에 화염 영역의 중심 원 부분과 주변 부분을 비교하여 높은 대비를 나타내거나, 화염의 색상 변화를 가지는 영역들이 원형 모양으로 겹치는 경우를 통해 화재를 감지하는 방법을, Phillips(13) 등은 가우시안 필터를 이용한 색상 히스토그램을 이용하여 색상 기반으로 화염의 후보영역을 추출한 다음, 추출된 후보영역의 시간에 따른 상태 변화를 이용하여 실제 화재인지를 판단하는 방법을 제안했다.

본 논문에서는 기 연구된 여러 화재 감지 방법을 기본으로 그 성능을 향상시키기 위해, CCTV 기반 화염의 특성과 밀도 기반 공간 클러스터링 (DBSCAN, Density-Based Spatial Clustering of Applications with Noise) 방법을 이용한 화재 감지 방법이 제안된다. 먼저, 제안하는 방법은 화염의 색상을 통해 1차 후보영역을 추출하고, 이 후보영역에서 고주파 영역과 배경 제거를 통해 2차 후보영역을 추출한다. 그 다음, 추출된 1차 후보영역과 2차 후보영역에 대해 논리곱 연산을 수행하여 최종 후보영역으로 병합하고, DBSCAN을 수행하여 군집화영역을 추출한다. 마지막으로, 추출된 군집화영역 중심점의 이동궤적이 지나간 블록의 갯수를 통해 화염과 비화염 영역을 판단하는 방법이 제안된다. 최종적으로, 본 논문에서 제안하는 방법은 다수의 실내외 동영상에서 실험을 진행하고, 그 실험 결과를 분석하여 화재 감지에 대한 응용 가능성을 검토한다.

2. 제안하는 전체 시스템 블록도

그림 1은 본 논문에서 제안하는 방법의 전체 시스템 블록도를 나타낸다. 그림 1은 본 논문에서 제안하는 방법의 전체 시스템 블록도를 나타낸다. 제일 먼저, CCTV를 통해 RGB(Red- Green-Blue) 입력 영상이 들어오면, 1차 후보영역 추출을 위해 입력 영상을 HSV(Hue Saturation Value) 영상으로 변환하고 외부 조명이나 빛에 의한 성능이 좌우되는 영향을 없애기 위해 히스토그램(16)을 이용하여 영상의 평활화를 수행한다. 이를 위해, 일반 HSV 영상과 히스토그램 평활화 영상에서 각각 사전에 규정한 추출범위를 통해 각 영역을 나누어 추출하여 그 영상들을 병합하고, 병합한 영상에서 잡음 제거를 위해 Morphology(17)을 수행하여 1차 후보영역을 추출한다. 그 다음, 2차 후보영역의 추출을 위해 1차 후보영역을 그레이 스케일 영상으로 변환하여 LoG (Laplacian of Gaussian)(18)를 적용하고 고주파 영역을 추출한다. 그리고, 추출된 고주파 영역에 대해 GMM(Gaussian Mixture Modeling)(19)을 통한 배경 제거와 Morphology 연산을 수행하여 2차 후보영역을 추출한다.

그림 1 제안하는 전체 시스템 구조도

Fig. 1 Structure of the proposed system

../../Resources/kiee/KIEE.2022.71.4.656/fig1.png

다음, 추출된 영상의 1차 후보영역과 2차 후보영역에 대해 논리곱 연산을 수행하여 최종 후보영역을 추출한다. 추출된 최종 후보영역에 대해 DBSCAN을 수행하여 군집화 영역에 바운딩 박스를 표시한다. 다음, 48x32의 블록으로 분할된 영상에서 군집화영역 바운딩 박스의 중심점을 기준으로 이동궤적을 측정하고 블록의 갯수를 통해 화염과 비화염 영역을 판단한다. 마지막으로, 인식된 화염에 대해 빨간색 바운딩 박스로 위치를 표시하여 화재를 감지한다.

3. 화염의 후보영역 추출

3.1 화염의 색상을 활용한 1차 후보영역 추출

본 연구에서는 HSV 색상 모델을 통해 추출한 영역과 히스토그램 평활화를 수행하여 추출한 영역을 병합하고 모폴로즈를 통해 1차 후보영역을 추출한다. 이를 위해, 먼저, RGB 영상이 입력되면 HSV 영상으로 변환한다. 식 (1)은 RGB영상을 HSV 색상 모델로 변환하는 수식을 나타낸다.

(1)
$$H=\cos^{-1}\dfrac{\dfrac{1}{2}(R-G)+(R-B)}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}$$ $$S=1-\dfrac{3\min(R,\: G,\: B)}{R+G+B}$$ $$V=\dfrac{R+G+B}{3}$$

식 (1)에서 $H$, $S$, $V$는 각각 색도, 채도, 명도를, $R$, $G$, $B$는 빨간색, 초록색, 파란색 성분을 나타낸다.

그 다음, HSV 영상에서 빛에 의한 외부의 영향을 최소화하기 위해 명도 성분에 대한 히스토그램 평활화를 수행한다. 그림 2는 히스토그램 평활화를 수행한 결과를 나타낸다.

그림 2 히스토그램 평활화

Fig. 2 Histogram equalization

../../Resources/kiee/KIEE.2022.71.4.656/fig2.png

그림 2-(a)는 입력 영상, 2-(b)는 RGB에서 HSV로 변환한 영상, 2-(c)는 HSV 영상에서 히스토그램 평활화를 수행한 결과이다. 다음, 후보영역의 색상 추출을 위해 그림 3의 HSV 색도 성분 범위를 이용하여 추출 범위를 규정한다.

그림 3 HSV 색도 성분의 범위

Fig. 3 Range of HSV hue ingredients

../../Resources/kiee/KIEE.2022.71.4.656/fig3.png

그림 3을 이용하여, 화염의 후보영역을 추출하기 위해 식 (2)를 이용한다.

(2)
$C_{1st}(i,\: j)=\begin{cases} &(\begin{aligned}\begin{aligned}10\le H\le 50\\ 0\le S\le 255\end{aligned}\\ 200\le V\le 255\end{aligned})\\ 1,\:\\ &\begin{aligned}\\ (\begin{aligned}\begin{aligned}10\le H\le 50\\ 15 0\le S\le 255\end{aligned}\\ 0\le V\le 255\end{aligned})\end{aligned}\\ \\ \\ 0,\: otherwise \end{cases}$

식 (2)의 $H$, $S$, $V$는 HSV 색상 모델의 각 성분을 나타 내며, $C_{1st}(i,\: j)$의 값이 1이면 1차 후보영역으로 판단하고, 0이면 영상에서 제거한다. 추출된 1차 후보영역을 더 선명하게 만들고 잡음 제거를 위해 모폴로지 연산을 수행한다. 그림 4는 추출한 1차 후보영역을 나타낸다.

그림 4 HSV 색상을 활용한 1차 후보영역 추출

Fig. 4 1st candidate region extraction using HSV color

../../Resources/kiee/KIEE.2022.71.4.656/fig4.png

3.2 고주파와 배경 제거를 통한 2차 후보영역 추출

본 논문에서는 명암이 점진적으로 변하는 저주파 영역은 잡음으로 처리하여 제거하고 LoG를 적용하여 화염과 같이 윤곽선의 명암이 급격하게 변하는 고주파 영역을 추출하는 방법을 제안한다. 먼저, LoG를 적용하기 위해 식 (3)을 이용하여 추출된 1차 후보 영역을 그레이스케일 영상으로 변환한다.

(3)
$Gray Scale(i,\: j)=\dfrac{R+G+B}{3}$

식 (3)에서 $Gray Scale(i,\: j)$은 그레이 스케일 영상을 나타내며 $R$, $G$, $B$는 빨간색, 초록색, 파란색 성분을 나타낸다.

다음, 변환된 그레이스케일 영상에서 고주파 영역을 추출하기 위해 식 (4)와 같은 LoG를 적용한다.

(4)
$\nabla^{2}(x,\: y)= a^{2}G(x,\: y)/\alpha x^{2}+a^{2}G(x,\: y)/\alpha y^{2}$

식 (4)에서 $a^{2}G(x,\: y)/\alpha x^{2}$는 가우시안 블러가 적용된 영상에서 $x$축에 대한 2차 미분, $a^{2}G(x,\: y)/\alpha y^{2}$는 가우시안 블러가 적용된 영상에서 $y$축에 대한 2차 미분, $\nabla^{2}(x,\: y)$는 그레이스케일 영상에 LoG를 적용하여 추출한 고주파 영역으로 $a^{2}G(x,\: y)/\alpha x^{2}$와 $a^{2}G(x,\: y)/\alpha y^{2}$를 더한다.

다음, 추출된 고주파 영역에 대해 GMM을 수행하여 배경을 제거하고 2차 후보영역을 추출한다. 그리고, 추출된 2차 후보영역의 잡음을 제거하기 위해 Morphology 연산을 수행한다. 그림 5는 본 절에서 제안한 방법을 이용하여 추출한 2차 후보영역을 나타낸다.

그림 5 고주파와 배경 제거를 활용한 2차 후보영역 추출

Fig. 5 2nd candidate region extracted using high frequency and background removal

../../Resources/kiee/KIEE.2022.71.4.656/fig5.png

그림 5-(a)는 LoG를 통해 추출한 고주파 영역, 그림 5-(b)는 추출한 고주파 영역에 대해 GMM과 Morphology를 수행하여 추출한 2차 후보영역을 나타낸다.

4. 제안한 화염의 인식 방법

4.1 논리곱 연산을 통한 최종 후보영역 추출

앞선 과정을 통해 추출한 1차 후보영역과 2차 후보영역 각 행렬의 원소끼리 식 (5)를 이용하여 논리곱 연산을 수행한다.

(5)
$C(i, j)=\left\{\begin{array}{ll}1, & \text {if and } \beta =1 \\ 0, & \text { else }\end{array} \quad\right.$

식 (5)에서 $\alpha$는 1차 후보영역, $\beta$는 2차 후보영역, $C(i,\: j)$는 논리곱 연산을 수행하여 추출한 최종 후보영역을 나타낸다. 그림 6은 논리곱 연산을 수행한 결과를 나타낸다.

그림 6 논리곱 연산 수행 결과

Fig. 6 logical product result from Image

../../Resources/kiee/KIEE.2022.71.4.656/fig6.png

그림 6-(a)는 1차 후보영역, 그림 6-(b)는 2차 후보영역, 그리고, 그림 6-(c)는 각 후보영역의 원소끼리 논리곱 연산을 수행하여 추출한 최종 후보영역을 나타낸다.

4.2 DBSCAN을 이용한 후보영역 군집화

화염은 복잡하고 불특정한 모양을 나타내는데 이러한 모양의 후보영역들끼리 군집화를 수행하여 비화염 영역을 제거한다. 대표적인 군집화 알고리즘인 K-means(20-21)는 빠르고 간단한 장점이 있지만, 초기에 군집의 개수를 정해야하고 특정 형태의 군집화만 가능하며 잡음에 민감하기 때문에 복잡하고 불특정한 모양의 화염 인식에는 한계가 있다. 그러나, 기 개발된 DBSCAN은 그림 7과 같이 데이터 밀도를 이용한 군집화 알고리즘이므로 K-means의 단점을 보완할 수 있으며 화염처럼 불특정한 모양의 후보영역 군집화에 적합하며 잡음에 강하다.

그림 7 DBSCAN의 기본 개념

Fig. 7 Basic Concepts of DBSCAN

../../Resources/kiee/KIEE.2022.71.4.656/fig7.png

본 논문에서는 최종 후보영역에 대해 DBSCAN을 수행하여 화염과 유사한 영역을 군집화하고 잡음을 제거하는 방법을 제안한다. 먼저, 추출된 최종 후보영역에 대해 식 (6)을 이용하여 각 데이터를 순회, 반복하면서 DBSCAN을 수행한다.

(6)
$C_{(n=1, \ldots, N)}(i, j)=\left\{\begin{array}{ll}1, & \left.\left|N_{\text {בps }}(q)\right| \geq \operatorname{MinPts}\right) \\ 0, & \left.\left|N_{\text {Ps }}(q)\right| \lt \operatorname{Min} P t_{S}\right)\end{array}\right.$

식 (6)에서 $|N_{E ps}(q)|$는 원의 중심점이자 코어데이터 $q$로부터 반경거리 $Eps$ 이내에 존재하는 이웃데이터의 개수를 나타내며, $\min P ts$는 원 안에 존재하는 최소 이웃데이터 개수를 나타낸다. $C_{n(n=1...N)}(i,\: j)$의 값이 1이면 군집화영역으로 판단하고, 0이면 잡음으로 판단하여 영상에서 제거한다. 본 연구에서는 DBSCAN 수행을 위해 하이퍼 파라미터 $Eps$은 20, $\min P ts$는 6으로 미리 정한다. 그림 8은 최종 후보영역에서 DBSCAN을 수행하여 군집화 영역을 추출한 결과이다.

그림 8 DBSCAN을 이용한 군집화

Fig. 8 Clustering using DBSCAN

../../Resources/kiee/KIEE.2022.71.4.656/fig8.png

그림 8-(a)는 최종 후보영역(그림 6-(c))를 나타내며, 그림 8-(b)는 최종 후보영역에 대해 DBSCAN을 수행하여 잡음 제거 및 군집화 수행 결과를 나타낸다. 다음, 그림 8-(b)의 DBSCAN 결과를 이용하여 군집화 영역은 다음의 식 (7)을 사용한다.

(7)
$$W_{n(n=0...N)}=x_{\max_{n}}- x_{\min_{n}}$$ $$H_{n(n=0...N)}=y_{\max_{n}}- y_{\min_{n}}$$ $$Label_{n(n=0...N)}=W_{n}+H_{n}$$

식 (7)에서 $W_{n(n=0...N)}$과 $H_{n(n=0...N)}$은 $n$번째 군집화 영역의 가로와 세로 길이를 나타낸다. $x_{\max_{n}}$와 $x_{\min_{n}}$는 군집화 영역의 가장 우측과 좌측 좌표, $y_{\max_{n}}$와 $y_{\min}$는 군집화 영역의 상단과 하단 좌표, $Label_{n(n=0...N)}$은 $n$번째 군집화 영역의 바운딩 박스를 나타낸다.

그림 9그림 8-(b)식 (7)을 적용하여 각각의 군집화 영역을 구하고 그 영역을 바운딩 박스로 표시한 결과이다.

그림 9 군집화 영역 인식

Fig. 9 Region recognition through clustering

../../Resources/kiee/KIEE.2022.71.4.656/fig9.png

그림 9-(a)는 DBSCAN을 통해 추출한 군집화 영역을 나타내고, 그림 9-(b)는 추출한 군집화 영역에서 식 (7)에 의해 군집화 영역을 인식했으며, 추가적으로 각 군집화 영역의 너비와 높이, 좌표를 표시했다.

4.3 군집화 영역의 이동궤적을 통한 화염과 비화염 판단

사람과 동물, 자동차와 같은 비화염 영역은 일정 시간동안 빠르게 먼 거리를 이동할 수 있지만, 화염은 제자리에서 천천히 확산되며 움직이는 특성을 나타낸다. 즉, 화염은 군집화 영역에 표시한 바운딩 박스의 중심점을 기준으로 나타낸 이동궤적 좌표를 통해 화염과 비화염을 판단할 수 있다.

본 논문에서는 영상을 48x32 크기의 블록으로 분할하여 군집화 영역 중심점의 이동궤적이 지나간 블록의 개수를 기준으로 화염과 비화염 영역을 판단한다. 제안하는 방법은 N번째 프레임부터 N+a번째 프레임까지 30 프레임마다 군집화 영역의 중심점을 표시하고 각각의 중심점을 선으로 연결하여 이동궤적을 나타낸다. 나타낸 이동궤적에 대해 군집화 영역의 중심점이 통과했던 좌표를 기준으로 블록의 갯수를 카운트한다. 단, N번째 프레임에서 N+a번째 프레임으로 이동한 군집화 영역 중심점이 같은 블록 내에 있으면 카운트하지 않는다. 그림 10은 바운딩 박스의 중심점의 이동궤적을 카운트해서 화염과 비화염을 판단하는 방법을 보여준다.

그림 10 이동궤적을 통한 판단 방법

Fig. 10 Judgment method through movement trajectory

../../Resources/kiee/KIEE.2022.71.4.656/fig10.png

즉, 그림 10-(a)와 같이 N번째 프레임부터 N+a번째 프레임으로 이동한 군집화 영역의 이동궤적이 지나간 블록의 개수가 규정한 임계값 미만이면 화염으로 판단한다 (빨간색 바운딩 박스). 또한, 이동궤적이 지나간 블록의 갯수가 그림 10-(b)와 같이 임계값 이상인 경우는 비화염으로 판단한다.

식 (8)은 이동궤적이 지나간 블록의 갯수를 이용하여 화염과 비화염 영역을 판단하는 수식을 나타낸다.

(8)
$C(i, j)=\left\{\begin{array}{ll}1, & B_{a n t} \lt \beta \\ 0, & B_{c a t} \geq \beta\end{array}\right.$

식 (8)에서 $B_{cnt}$는 군집화 영역의 중심점의 좌표가 지나갔던 블록의 개수를 나타내며, $\beta$는 규정한 임계값을 나타낸다. $C(i,\: j)$의 값이 1이면 화염으로 판단(빨간색 바운딩 박스로 표시), 0이면 비화염 영역으로 판단하여 영상에서 바운딩 박스를 제거한다. 그림 11은 입력 영상에서 DBSCAN을 통해 추출한 군집화 영역에서 이동궤적을 추출하여 화재를 감지한 결과이다.

그림 11 화재 감지 결과

Fig. 11 Fire detection results

../../Resources/kiee/KIEE.2022.71.4.656/fig11.png

그림 11-(a)는 입력 영상을 나타내고, 그림 11-(b)는 입력 영상에서 추출한 최종 후보영역, 그림 11-(c)는 최종 후보영역에서 DBSCAN을 수행하여 추출한 군집화 영역의 중심점을 기준으로 30 프레임마다 이동궤적을 추출한 결과이다. 그림 11-(d)그림 11-(c)에서 추출한 이동궤적의 좌표에 대해 식 (8)을 적용한 결과, 군집화 영역의 중심점이 지나간 블록 개수가 임계값 미만이기 때문에 화염으로 인식하여 빨간색 바운딩 박스로 표시한 결과이다.

5. 실험 및 결과 고찰

본 논문에서는 실험을 위해 Windows 10 64bit의 OS와 Intel(R) Core(TM) i3-6006U CPU @ 2.00GHz 1.99GHz, 4GB RAM, Intel(R) HD Graphics 520 2GB RAM 내장 그래픽으로 구성된 PC를 통해 실험을 진행했으며, 개발환경으로 Visual Studio 2017, OpneCV 3.43을 이용했다.

Fig. 12 The proposed flowchart

../../Resources/kiee/KIEE.2022.71.4.656/fig12.png

그림 12는 본 논문에서 제안하는 방법의 흐름도이다.

그림 13은 본 논문에서 제안하는 CCTV 기반 화염의 특성과 DBSCAN을 이용한 화재 감지 방법에 대한 실험을 나타낸다. 실험을 위해 480x320 크기와 초당 30프레임의 동영상 8개를 실험에 사용한다.

그림 13 제안한 방법을 이용한 화재 감지 결과

Fig. 13 Fire detection result using the proposed method

../../Resources/kiee/KIEE.2022.71.4.656/fig13.png

그림 13의 (a)-(h)에 나타난 실험 결과에서 각 왼쪽 이미지는 제안하는 화재 감지 방법의 추출 결과를 나타내고, 오른쪽 이미지는 왼쪽의 추출된 화염을 영상으로 출력한 결과를 나타낸다. 그림 13의 (a)-(d)는 실외 환경, (e)-(h)는 버스 내부, 가정집, 지하철역과 같은 실내 환경에서 화염을 인식한 결과를 나타낸다.

표 1은 본 논문에서 제안하는 화재 감지 방법과 기존의 색상을 이용한 화재 감지 방법과 비교하기 위해 같은 영상에 대해 실험을 진행하여 성능 비교를 나타낸 결과이다. 기존의 색상 추출을 이용한 방법은 뛰어난 화재 인식 성능을 나타내지만, 색상 추출만을 활용했기 때문에, 제안한 방법보다 화재 오인식 프레임 수가 상대적으로 높은 것을 나타낸다. 따라서, 본 논문에서 제안하는 화재 감지 방법이 색상 추출뿐만 아니라 고주파와 움직임, DBSCAN을 활용하여 더 많은 화염의 특성을 사용했기 때문에 뛰어난 화재 인식 성능과 함께 기존의 색상 추출 화재 감지 방법보다 화재 오인식 프레임이 줄어든 것을 알 수 있다.

6. 결 론

본 논문에서는 기존의 화재 감지 센서의 단점을 보완하고 CCTV를 이용한 화재 감지 방법의 성능을 향상시키기 위해 CCTV 기반 화염의 특성과 DBSCAN을 이용한 화재 감지 방법을 제안했다. 이를 위해, 먼저 불완전 연소 화염의 색상을 활용해 추출 범위를 규정하여 1차 후보영역 추출과 화염의 고주파와 배경제거를 통해 2차 후보영역을 추출하여 논리곱 연산을 통해 최종 후보영역으로 병합하는 방법을 제안했다. 또한, 최종 후보영역을 구성하는 데이터에 대해 DBSCAN을 수행하여 군집화 영역을 추출하고 바운딩 박스를 표시하여 군집화 영역의 중심점의 이동궤적을 포함한 블록의 개수를 통해 화염과 비화염을 판단하는 방법을 제안했다. 마지막으로, 본 논문에서 제안한 방법은 실내외 환경에서 여러 실험을 통해 기존 화재 감지 방법보다 화재 감지 성능은 물론, 화염이 아닌 물체에 대한 오인식 프레임이 적은 것을 여러 실험을 통해 증명했다.

표 1 제안한 방법과 기존 방법의 화재 인식 성능 비교

Table 1 Comparison between the proposed method and the existing methods

Video

화재

프레임

화재 인식

화재 오인식

색상 추출

[4]

제안한 방법

색상 추출

[4]

제안한 방법

Video 1

600

600

600

60

0

Video 2

150

150

150

60

30

Video 3

510

510

510

180

60

Video 4

390

360

390

210

0

Video 5

540

420

430

90

0

Video 6

330

330

300

90

30

Video 7

390

360

330

120

0

Video 8

720

690

690

60

0

Acknowledgements

This work was partially supported by the Basic Science Research Program through the National Research Foundation of Korea (NRF) funded by the Ministry of Education (NRF-2016R1A6A1A030135 67, NRF-2021R1A2B5B01001484)

References

1 
S. K. Kim, H. D. Yuk, S. H. Yang, S. W. Jee, C. H. Lee, 2009, A Study on the Development of Standardization Tester for the Field Inspection of the Rate of Rise Spot Type Heat Detector, Journal of Korean Institute of Fire Sci & Eng, Vol. 23, No. 3, pp. 85-92Google Search
2 
S. H. Park, J. C. Cho, 2010, A Study on the Development of the Single Station Fixed Temperature Detector of Low Power Consumption for Residential Fire Prevention, Journal of Korean Institute of Fire Sci & Eng, Vol. 24, No. 6, pp. 61-68Google Search
3 
S. K. Kim, H. D. Yuk, S. H. Yang, S. W. Jee, C. H. Lee, 2009, A Study on the Problem of Tester for the Field Inspection of the Photoelectric Smoke Detector, Journal of Korean Institute of Fire Sci & Eng, Vol. 23, No. 4, pp. 137-144Google Search
4 
T. Celik, H. Demirel, 2009, Fire Detection in Video Sequences Using a Generic Color Model, Fire Safety Journal, Vol. 44, No. 2, pp. 147-158DOI
5 
Y. T. Do, 2012, Visual Sensing of Fires Using Color and Dynamic Features, Journal of Sensor Science and Technology, Vol. 21, No. 3, pp. 211-216DOI
6 
J. Chen, Q. Bao, 2012, Digital image processing based fire flame color and oscillation frequency analysis, ELSEVIER, Procedia Engineering, Vol. 45, pp. 595-601DOI
7 
J. Chen, Y. He, 2010, Multi-feature fusion based fast video flame detection, Building and Environment, Vol. 45, pp. 1113-1122DOI
8 
B. U. Toreyin, Y. Dedeoglu, A. E. Cetin, 2005, Flame Detection in Video Using Hidden Markov Models, in IEEE International Conference on Image Processing, Vol. 2, pp. 1230-1233DOI
9 
A. E. Gunawaardena, R. M. M. Ruwanthika, A. G. B. P. Jayasekara, 2016, Computer vision based fire alarming system, IEEE, pp. 325-330DOI
10 
G. Marbach, M. Loepfe, T. Brupbacher, 2006, An image processing technique for fire detection in video images, Fire Safety Journal, Vol. 41, No. 4, pp. 285-289DOI
11 
D. Elayaperumal, Y. H. Joo, 2021, 10, Robust visual object tracking using context-based spatial variation via multi-feature fusion, Information Sciences, vol., Vol. 577, pp. 467-482DOI
12 
C. B. Liu, N. Ahuja, 2004, Vision-based fire detection, IEEE Int. Conf. on Pattern Recognition, pp. 134-137DOI
13 
W. Phillips III, 2000, Frame recognition in video, In Fifth IEEE Workshop on Applications of Computer Vision, pp. 224-229Google Search
14 
M. Ester, H. P. Kriegel, J. Sander, X. Xu, 1996, A Density-Based Algorithm for Discovering Clusters in Large Spatial Databases with Noise, Proceedings of the 2nd International Conference on Know-ledge Discovery and Data mining, pp. 226-231Google Search
15 
M. Parimala, D. Lopez, N. C. Senthilkumar, 2011, A Survey on Density Based Clustering Algorithms for Mining Large Spatial Databases, International Journal of Advanced Science and Technology, Vol. 31, pp. 59-66Google Search
16 
K. Lee, C. H. Lee, 2013, Content-based image retrieval using LBP and HSV color histogram, Journal of Broadcast Engineering, Vol. 18, No. 3, pp. 372-379DOI
17 
C. Y. Lee, N. H. Kim, 2015, A study on mask-based edge detection algorithm using morphology, Journal of the Korea Institute of Inforamation and Communication Engineering, Vol. 19, No. 10, pp. 2441-2449DOI
18 
Y. D. Kwon, M. S. Kang, 2020, Design and Implementation of Object Recognition and Control System based on Edge Inclination Laplacian Filter for Intelligent Autonomous Driving, Journal of the Institute of Electronics and Information Engineers, Vol. 57, No. 3, pp. 82-88Google Search
19 
Z. Zivkovic, ICPR, Improved adaptive Gaussian mixture model for back ground subtraction, In ProcDOI
20 
S. W. Lee, 2012, Comparison of Initial Seeds Methods for K-Means Clustering, Journal of Internet Computing and Services, Vol. 13, No. 6, pp. 1-8DOI
21 
T. S. Yoon, K. S. Shim, 2012, K-means clustering for handling high-dimensional large data, Journal of KIISE : Computing Practices and Letters, Vol. 18, No. 1, pp. 55-59Google Search
22 
Elayaperumal, Y. H. Joo, 2021 07, Aberrance Suppressed Spatio-Temporal Correlation Filters for Visual Object Tracking, Pattern Recognition, Vol. 115, No. 107922, pp. 1-10DOI

저자소개

최준선 (Jun Seon Choi)
../../Resources/kiee/KIEE.2022.71.4.656/au1.png

Jun Seon Choi received B.S. and MS degrees in School of IT Informationa and Control Engineering from Kunsan National University, Korea, in 2018 and 2020, respectively.

His current research interests include intelligent video surveillance systems, computer vision, pattern recognition, deep learning.

주영훈 (Young Hoon Joo)
../../Resources/kiee/KIEE.2022.71.4.656/au2.png

Young Hoon Joo received the B.S., M.S., and Ph.D. degrees in electrical engineering from Yonsei University, Seoul, South Korea, in 1982, 1984, and 1995, respectively.

He was a Project Manager with Samsung Electronics Company, Seoul, from 1986 to 1995.

He was a Visiting Professor with the Department of Electrical and Computer Engineering, University of Houston, Houston, TX, USA, from 1998 to 1999.

He is currently a Professor with the School of IT Information and Control Engineering, Kunsan National University, Gunsan, South Korea.

His current research interests include intelligent robot, intelligent control, wind energy systems, and computer vision.

Dr. Joo served as the President for the Korea Institute of Intelligent Systems (KIIS) in 2009, the Editor-in-Chief for the Intelligent Journal of Control, Automation, and Systems from 2014 to 2017, the Vice- President for Institute of Control, Robot and Control (ICROS) from 2016 to 2017, and the President for the Korean Institute of Electrical Engineers (KIEE) in 2019.

Now, he is serving as the Director for Research Center of Wind Energy Systems funded by the Korean Government, Kunsan University from 2016.