• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Division of AI Computer Science and Engineering, Kyonggi University, South Korea.)



Edge Nomalization, Canny, Object Detection, YOLOv8, Crack, Deep Learning

1. 서 론

구조물에서 강도와 내구성은 안전성 평가 및 관리에 대한 중요한 요인이다. 외부 환경 요인과 시간의 경과에 따라 다양한 위치와 크기의 균열이 발생한다. 균열이 발생하면 구조물 내부로 물이나 염분이 침투하여 철근의 부식을 가속화하고 구조물의 내구성을 저하시킨다. 이러한 균열은 구조물의 안정성과 수명을 단축시키는 원인 중 하나로 조기에 균열을 탐지하고 관리하는 것이 중요하다. 과거에는 엔지니어가 일일이 확인하는 검사가 이루어졌으나 규모가 큰 구조물의 경우 시간과 비용이 많이 들고 검사 결과의 신뢰성이 떨어진다는 단점이 존재한다. 또한 접근이 어려운 장소의 경우 확인 자체가 어렵다는 문제점이 있다. 이러한 한계점을 해결하기 위해 최근에는 인공지능 기술과 컴퓨터 비전 기술을 활용하여 구조물의 균열을 자동으로 탐지하고 분석하는 연구가 활발히 진행되고 있다. 특히 YOLO(You Only Look Once)와 같은 객체 탐지 모델은 실시간으로 이미지 내 특정 객체를 탐지하는 데 탁월한 성능을 보이며 구조물 결함의 균열 탐지에 적용이 가능하다[1]. 그러나 YOLO 모델은 특정 객체의 위치나 크기를 빠르게 탐지하는 데는 매우 유리하지만 구조물의 균열과 같은 복잡하며 얇은 형태의 경계를 정밀하게 추출하는 데는 한계가 존재한다. 따라서 이미지 내에서 강한 밝기 변화가 있는 경계를 탐지하는 기술인 엣지 탐지 기법을 함께 이용한다. 정확한 엣지 탐지를 위하여 이미지에 다양한 전처리 기법을 사용해 구조물 균열의 엣지가 잘 나타나도록 하여, 보다 정확한 균열의 경계선 분석을 할 수 있다. 따라서 본 연구에서는 구조물 표면에서 발생하는 다양한 형태의 균열의 엣지 검출을 통해 균열의 경계를 검출하고 YOLO 모델을 기반으로 탐지하는 알고리즘을 제안한다. 효과적인 엣지 검출을 위해 다양한 전처리 기법을 함께 사용한다. 제안하는 알고리즘은 균열의 위치뿐만 아니라 형태에 대한 정보를 제공하여 구조물 유지보수의 효율성을 향상시켜 전체적인 구조물의 안전성과 내구성을 보장할 수 있을 것으로 기대된다.

2. 관 련 연 구

2.1 딥러닝 기반 객체 탐지

객체 탐지(object detection)는 주어진 이미지에서 특정한 객체를 탐지하고 탐지한 객체의 위치를 바운딩 박스로 표시하는 기술이다[1]. 이는 이미지의 복잡한 배경 속에서 다양한 크기와 형태의 객체를 정확하게 식별하는 작업이 필요하다. 딥러닝이 발전하기 이전에 사용한 방식으로 서포트 벡터 머신(SVM), 정보검색, 히스토그램 기법 등이 있으나 이러한 방식은 복잡한 객체 탐지 문제에서 제한적인 성능을 보인다는 한계점이 있다. 딥러닝 기술의 도입 이후 합성곱 신경망( Convolutional Neural Network)을 기반으로 한 객체 탐지 모델들이 등장하면서 이미지 내에서 객체를 탐지하는 성능이 크게 높아진다. CNN은 이미지 내에서 특징을 자동으로 추출하고 이를 바탕으로 객체를 분류한다[2]. 이를 통해 기존의 수동적이고 규칙 기반 특징 추출 방식보다 훨씬 더 유연하고 강력한 성능 제공이 가능하다. CNN과 RNN 혼합 네트워크 기반 객체 탐지 모델들은 다양한 구조와 알고리즘으로 발전해왔으며 현재는 one-stage 객체 탐지 모델과 two-stage 객체 탐지 모델로 구분된다[3].

딥러닝 기반 객체 탐지에서 two-stage 객체 탐지 모델은 이미지에서 객체의 후보 영역을 먼저 생성한 후, 각 후보 영역에서 객체를 분류하는 방식으로 동작한다. 대표적인 two-stage 객체 탐지 모델로는 R-CNN(Region-based CNN) 계열의 모델이 있다. R-CNN은 객체 탐지에 CNN을 처음으로 적용한 모델 중 하나로 먼저 이미지에서 선택적 탐색(Selective Search) 기법을 통하여 여러 개의 후보 영역을 생성한다. 이후 각 후보 영역에 대해 CNN을 적용하여 특징을 추출하고 이를 통해 객체를 분류하고 위치를 예측한다. R-CNN은 이전 방법들에 비해 성능이 크게 향상되었으나 후보 영역별로 CNN을 반복적으로 적용해야 하므로 연산 비용이 매우 크고 속도가 느리다는 단점이 있다. 이후 이를 개선한 모델로 Fast R-CNN과 Faster R-CNN이 있다. Fast R-CNN은 이미지 전체에 대해 CNN을 먼저 한 번만 적용하고 그 결과를 바탕으로 후보 영역을 분류하는 방식으로 연산 속도를 크게 향상시킨 모델이다[4]. Faster R-CNN은 후보 영역을 생성하는 과정을 CNN 내부에 통합하여 탐지 속도를 더욱 개선한다. Faster R-CNN은 높은 정확도를 자랑하며 다양한 객체 탐지 문제에서 뛰어난 성능을 보인다.

one-stage 객체 탐지 모델은 two-stage 모델과 다르게 후보 영역을 따로 생성하지 않고 이미지 전체를 한 번에 처리하여 빠르게 객체를 탐지하는 방식이다. 이러한 방식은 연산 비용이 적고 속도가 빠르다는 장점이 있으며 대표적인 모델로는 YOLO(You Only Look Once)와 SSD(Single Shot MultiBox Detector)가 있다. YOLO는 이미지 전체를 한 번에 보고 객체를 탐지하는 방식으로 매우 빠른 속도를 자랑한다. YOLO는 입력 이미지에서 객체의 위치와 클래스 정보를 동시에 예측한다[5]. 이를 위해 이미지를 여러 개의 그리드로 나눈다. 그 후, 각 그리드 셀에서 객체의 존재 여부와 위치를 예측한다. 객체가 포함된 주변 배경을 고려해 탐지하기 때문에 background 에러가 적다는 특징이 있다. YOLO는 단일 신경망 구조를 사용하므로 연산 비용이 적고 실시간 탐지에 적합하다. 그러나 빠른 속도와는 달리 작은 객체에 대한 탐지 성능이 상대적으로 떨어진다는 단점이 있다. YOLO는 이후 여러 버전이 나와 YOLOv5, YOLOv8 모델을 주로 사용하는 추세이다. SSD는 YOLO와 유사하게 단일 단계에서 객체를 탐지하는 모델로 다양한 크기의 객체 탐지가 가능하도록 여러 크기의 바운딩 박스를 동시에 예측한다[6]. SSD는 YOLO보다 더 다양한 크기의 객체를 탐지하는 데 적합하며 상대적으로 높은 정확도를 제공한다. SSD와 YOLO는 모두 빠른 탐지 속도를 제공하기 때문에 실시간 객체 탐지 응용 분야에서 널리 사용된다.

2.2 이미지 기반 객체 분할 기법

이미지 분할(image segmentation) 기법은 이미지의 각 픽셀을 분류하여 특정 객체나 영역을 정확하게 구분하는 기술이다. 이미지 내에서 관심 있는 영역을 세밀하게 분석할 수 있는 장점을 제공한다. 객체 탐지와 달리 이미지 분할은 이미지 전체에 대한 세밀한 정보를 제공하기 때문에 복잡한 형상을 가진 객체를 탐지하는 데 유용하다.

딥러닝 기반 이미지 분할 기법은 높은 정확도를 제공하며 최근에는 구조물의 균열 탐지와 같은 문제에 널리 사용되고 있다. 대표적인 딥러닝 기반 이미지 분할 기법으로는 FCN(Fully Convolutional Network), U-Net, Mask R-CNN이 있다. FCN은 기존의 CNN을 확장하여 이미지의 픽셀 단위로 분류를 가능하게 만든 모델이다. 입력 이미지의 크기를 유지하면서 각 픽셀에 대해 클래스 레이블을 예측할 수 있다[7]. FCN은 이미지 내에서 각 객체의 경계를 세밀하게 구분하는 데 유리하지만 정해진 크기의 receptive field를 사용하여 해당 크기보다 크거나 작은 객체 또는 경계가 복잡한 경우에는 성능이 저하되는 문제가 발생한다. U-Net은 FCN을 개선한 모델로 skip-connection을 사용한다. 초기 이미지 분석을 위해 개발된 모델이지만 균열 탐지와 같은 다양한 이미지 분할 문제에서도 탁월한 성능을 보인다. U-Net은 이미지의 공간 정보를 잃지 않도록 인코더-디코더 구조를 사용하며 이미지의 각 부분에서 세밀한 특징을 추출하고 이를 바탕으로 정확한 분할을 수행한다. 이는 특히 균열과 같은 얇고 복잡한 구조를 분할하는 데 효과적이다. 데이터가 부족한 경우 데이터 증강을 통해 부족한 학습 데이터를 보충한다. 이를 통해 적은 데이터 양으로도 충분한 학습이 가능하다는 특징이 있다. Mask R-CNN은 객체 탐지와 이미지 분할을 결합한 모델로 객체를 바운딩 박스로 탐지함과 동시에 객체의 마스크를 생성하는 기능을 제공한다. 이는 R-CNN 계열의 모델을 기반으로 하며 균열의 위치와 경계를 동시에 탐지할 수 있다. Mask R-CNN은 YOLO와 같은 객체 탐지 모델에 비해 탐지 속도는 느리지만 경계의 세밀한 분할이 요구되는 작업에서는 높은 정확도를 제공한다.

3. 엣지 검출 과정을 통한 YOLO 기반 구조물의 균열 탐지 알고리즘

본 연구에서는 구조물의 균열을 검출하기 위해 엣지 검출 과정을 이용한 YOLO 모델 기반 균열 탐지 알고리즘을 제안한다. 제안하는 방법은 2단계 프로세스 구조를 가진다. 그림 1은 YOLO 모델 기반 균열 탐지 모델의 프로세스를 나타낸다.

그림 1. YOLO 기반 균열 탐지 모델의 프로세스

Fig. 1. Process of YOLO based crack detection model

../../Resources/kiee/KIEE.2024.73.12.2391/fig1.png

첫 번째 단계는 데이터 전처리 단계이다. Grayscale, Median blur, 정규화, 명도 반전, 이진 표현, 최소 크기 엣지를 통해 이미지를 처리한다. 두 번째 단계는 전처리한 이미지에 canny edge detection 알고리즘을 사용하여 균열의 엣지를 검출한다. 해당 엣지를 YOLO 모델을 이용하여 학습시킨 후 균열의 위치를 탐지한다.

3.1 데이터 전처리

균열 탐지를 위한 데이터로 Roboflow의 Crack Computer Vision Project 데이터 세트를 사용한다. 해당 데이터는 콘크리트 결함 이미지와 함께 클래스 정보와 바운딩 좌표로 구성되된 정답 label을 제공한다. 총 215장의 이미지를 포함하며 train 단계에서는 185장, validation 단계에서는 20장, test 단계에서는 10장을 사용한다. 이미지는 640x640의 크기로 resize한 후 사용한다. 이미지는 clockwise, counter-clockwise, upside down의 3가지 방법으로 증강되어 학습에 사용된다. 각 이미지는 다양한 크기와 각도의 균열이 포함된 이미지로 구성된다.

그림 2는 본 연구에서 적용한 데이터 전처리 과정을 나타낸다. 전처리 방식은 총 6단계로 진행되는 과정으로 데이터를 Grayscale, median blur, 정규화, 명도 반전, 이진 표현, 최소 크기 엣지를 통해 전처리한다.

그림 2. 이미지 전처리 과정

Fig. 2. Image preprocessing

../../Resources/kiee/KIEE.2024.73.12.2391/fig2.png

1단계는 원본 이미지를 Grayscale로 변환하는 과정이다. Grayscale 변환은 색상 정보를 명암 정보로 변형하는 스케일링 방식이다. 보통 R, G, B 3개의 채널로 이루어지는 다중 채널을 1개의 채널로 이루어지는 단일 채널로 변경한다. 이를 통해 입력 이미지를 컬러 이미지에서 흑백 이미지로 변환한다. Grayscale을 사용해 흑백 이미지로 변경 시 이미지의 채널 개수가 줄어들며 저장해야 하는 데이터의 수가 줄어든다. 또한 해당 과정에서 이미지의 전반적인 형태나 픽셀의 분포에 큰 영향을 주지 않고 저장된 데이터의 수가 줄어 계산상의 효율성을 높인다. 2단계는 median blur를 적용한다. median blur는 주변 픽셀의 값을 정렬한 후 정렬한 픽셀의 중앙값으로 해당 픽셀 값을 대체하는 방식이다[8]. 이미지 내에서 검은색이나 흰색 점과 같이 값이 크게 튀는 이상치 제거에 효과적이다. 엣지의 경계를 보존하며 이미지를 전체적으로 부드럽게 만들 수 있다. 그러나 편차가 적은 영역에서는 주변 값들이 비슷하기에 같은 값으로 변경되어 디테일이 떨어진다는 한계점이 있다. 그림 3은 median blur의 처리 방식을 나타낸다.

그림 3. 중간값 블러 처리

Fig. 3. median blur process

../../Resources/kiee/KIEE.2024.73.12.2391/fig3.png

이후, 정규화를 통해 이미지의 명도를 조정한다. 정규화 과정에서 픽셀값이 0에서 255 사이에 고루 분포하지 않고 특정한 영역에 집중되어 있는 경우 픽셀의 분포가 전체적으로 고르게 퍼지도록 한다. 정규화 과정을 통해 이미지의 화질을 개선할 수 있어 이미지에서 밝고 어두운 부분이 명확하게 두드러지게 된다. 따라서 균열이지만 흐릿한 영역의 명도가 조정되어 흐릿하게 찍힌 이미지상에서도 균열을 잘 탐지할 수 있도록 한다. 그림 4는 정규화 전과 정규화 후의 이미지 히스토그램 분포를 나타낸다.

그림 4. 정규화 전/후 히스토그램 분포

Fig. 4. Histogram distribution before/after normalization

../../Resources/kiee/KIEE.2024.73.12.2391/fig4.png

4단계에서는 이미지의 명도를 반전한다. 이를 위해 각 비트에 대해 0비트는 1로 1비트는 0으로 각 비트 값을 반대로 바꾸는 작업을 수행한다. 결과적으로 어두운 영역과 밝은 영역의 색상이 반전된 이미지를 얻을 수 있다. 이미지 명도 반전을 통해 기존의 이미지와 반대로 균열이 아닌 부분은 어둡게, 균열 부분은 밝게 나타난다. 해당 단계는 이미지에서 탐지하고자 하는 균열을 강조하는 역할을 한다.

5단계에서는 임곗값 지정을 통해 이미지 색상이 흑과 백의 값으로만 구성되게 한다. 임곗값보다 높은 값을 가진 픽셀은 255, 임곗값보다 낮은 값을 가진 픽셀은 0이 되도록 하여 균열과 배경을 분리한다. 해당 작업을 통해 해당 픽셀 값이 크지 않은 노이즈(찍힘, 스크래치)를 제거해 균열만 강조하고 노이즈가 검출되지 않도록 한다.

마지막으로 일정 크기 이상의 엣지만을 처리하도록 한다. 흑과 백으로 표현된 이미지에서 외각 윤곽선을 찾아 이미지에 표시한다. 노이즈의 경우 작은 크기로 이루어진 경우가 많아 윤곽선이 그려지지 않고 실제 균열의 윤곽선이 잘 드러나게 된다. 그림 5는 균열 이미지에 대한 6단계의 전처리 과정을 각각 나타낸다.

그림 5. 전처리 결과

Fig. 5. preprocessing result

../../Resources/kiee/KIEE.2024.73.12.2391/fig5.png

3.2 균열의 엣지 검출

전처리를 통해 얻은 이미지에 canny edge detection 알고리즘을 사용해 균열의 경계선을 찾는다. canny edge detection은 Gaussian 필터 적용으로 노이즈 제거, Sobel 필터를 사용한 가중치의 크기 계산, 비최대 억제를 적용한 거짓 반응 제거, hysteresis thresholding 적용의 과정을 거쳐 경계선을 찾는 알고리즘이다. 엣지를 판별하기 위해 두 종류의 임곗값을 사용한다[9]. 첫 번째 임곗값은 엣지 검출을 위한 하단 임곗값으로 해당 값 이하의 기울기를 가지는 픽셀은 엣지에서 제외된다. 두 번째 임곗값은 상단 임곗값으로 해당 임곗값 이상의 기울기를 가지는 픽셀을 엣지로 판별한다. 두 임곗값 사이의 기울기를 가지는 픽셀은 상단 임곗값 이상의 기울기를 가지는 픽셀과의 연결성을 통해 엣지 판별 여부를 결정한다. 그림 6은 전처리한 이미지에 canny edge detection을 적용한 결과 균열의 엣지를 검출한 결과를 나타낸다.

그림 6. canny edge detection을 통한 균열의 엣지 검출

Fig. 6. Detecting the edges of cracks with canny edge detection

../../Resources/kiee/KIEE.2024.73.12.2391/fig6.png

3.3 균열의 위치 탐지

균열의 엣지를 검출한 이미지를 YOLO 모델을 사용해 균열의 위치를 탐지한다. 전처리 후 엣지를 검출한 결과 이미지를 이용하여 YOLO 모델을 학습시킨다. 이후 학습시킨 모델을 통해 이미지에서 균열의 위치를 탐지한다. 학습에 사용한 YOLO 모델은 YOLOv8로 앵커박스 offset을 대신하여 객체의 중심을 직접 예측하는 앵커프리 모델이다[10]. 기존의 YOLO 모델은 객체의 중심점으로부터 종횡비와 스케일을 구한 라벨을 필요로 한다. 하지만 YOLOv8의 경우 bounding box의 꼭짓점값을 넣어주면 객체의 중심을 직접 예측해 종횡비와 스케일을 구한다. 앵커프리 방식을 통해 NMS(Non-Maximum Suppression)의 속도를 높여 실시간으로 빠른 객체 탐지가 가능하다. 그림 7은 엣지 탐지 이미지를 통해 학습시킨 YOLO 모델의 탐지 결과 이미지와 탐지한 bounding box 좌표를 나타낸다.

그림 7. 균열 탐지 결과

Fig. 7. Crack detection results

../../Resources/kiee/KIEE.2024.73.12.2391/fig7.png

4. 결과 및 성능평가

모델의 성능을 평가하는 지표는 정확도, 정밀도, 재현율, mAP, F1 score 등이 있다. 정확도는 전체 문제 중 모델이 정답을 맞춘 비율이다. 정밀도는 모델이 양성이라고 예측한 것 중 실제 답이 양성인 비율이다. 재현율은 실제로 정답이 양성인 것 중 모델이 양성이라고 예측한 비율이다[11]. 세 지표는 0에서 1 사이의 값을 나타내며 1에 가까울수록 성능이 좋음을 나타낸다.

F1 score는 재현율과 정밀도의 조화평균이다. 재현율과 정밀도는 상호 보완적인 평가 지표이기에 F1 score를 주로 사용한다. 재현율과 정밀도가 어느 한쪽으로 치우치지 않고 모두 큰 값을 가질 때 큰 값이 된다. 식 (1)은 F1 score의 수식을 나타낸다.

(1)
$F1 score =\dfrac{2\times Precision\times Recall}{Precision + Recall}$

mAP(Mean Average Precision)는 각각의 클래스당 AP(Average Precision)를 구하고 해당 값을 모두 합해 물체 클래스의 개수로 나눠 평균을 내어 계산한다. AP는 객체 검출에서 모델의 성능을 평가하는 지표 중 하나로 Precision-Recall 곡선 아래 면적을 의미한다. mAP50은 IoU 임계값 0.50에서 계산된 mAP 값이다. mAP50-95는 0.50 ~ 0.95 범위의 다양한 IoU 임계값에서 계산된 mAP 값이다. 식 (2)는 mAP의 수식을 나타낸다.

(2)
$m AP =\dfrac{1}{N}\sum_{i=1}^{N}AP_{i}$

앞서 설명한 성능평가 지표를 사용하여 본 연구에서 제안하는 알고리즘의 성능평가를 진행한다. 표 1은 전처리 여부에 따른 성능을 나타낸다.

표 1 전처리 여부에 따른 성능평가 결과

Table 1 Performance evaluation results with and without preprocessing

Preprocessing

precision

recall

mAP50

mAP50-95

F1-score

None

0.952

0.996

0.993

0.87

0.973

ours

0.99

1

0.995

0.762

0.995

None에서는 어떠한 전처리 과정도 거치지 않은 원본 이미지를 사용한 성능을 나타낸다. ours는 grayscale, median blur, 정규화, 명도 반전, 이진 표현, 최소 크기 엣지의 전처리 과정을 거친 이미지의 성능을 나타낸다. 전처리 과정을 거친 경우 전처리 과정을 거치기 전보다 상대적으로 높은 성능을 보인다. 표 2

는 전처리 과정 중 블러 처리 방식에 대한 성능을 평가한다.

표 2 블러 처리 방식에 따른 성능평가 결과

Table 2 Results of performance evaluation of different blurring methods

Preprocessing

precision

recall

mAP50

mAP50-95

F1-score

gaussian

0.899

1

0.983

0.789

0.946

bilateral

0.857

0.9

0.932

0.617

0.877

median

(ours)

0.99

1

0.995

0.762

0.995

본 연구에서 사용한 median blur 외에 gaussian blur, bilateral filter를 적용한 결과를 평가한다. gaussian blur는 가우시안 분포 함수를 근사하여 필터 마스크를 생성하고 이를 사용하여 블러링하는 기법이다. 필터 마스크를 통해 필터링 대상 픽셀 근처에서 큰 가중치를 주고 멀리 떨어진 주변부에는 작은 가중치를 주어 평균값을 구해 픽셀 값을 변경한다. bilateral filter는 양방향 필터로 기존 픽셀과 이웃 픽셀과의 거리, 픽셀 값의 차이를 함께 고려하여 블러링 정도를 조절한다. precision, recall, mAP50, F1-score를 보면 median blur를 사용한 경우 가장 높은 성능을 보인다. 표 3

은 전처리 단계별 성능을 평가한다.

표 3 전처리 단계별 성능평가 결과

Table 3 Results of performance evaluation of preprocessing step

Preprocessing

precision

recall

mAP50

mAP50-95

F1-

score

gray

scale

0.95

0.948

0.941

0.778

0.948

medianblur

0.971

0.95

0.946

0.765

0.96

normalization

0.948

0.907

0.943

0.766

0.927

invert

0.948

0.907

0.943

0.766

0.927

binari

zation

0.909

1

0.993

0.766

0.952

size

0.99

1

0.995

0.762

0.995

전처리 단계를 한 단계씩 늘려가며 추가한 성능평가 결과이다. 성능이 높아지다가 normaization을 거치며 성능이 낮아지는 경향을 보이지만 최종적으로 size까지 적용했을 때 가장 높은 성능을 보인다. invert의 결과 이전 이미지에서 흑과 백을 바꾸는 작업만 일어나기에 invert를 적용하기 전과 후의 성능 차이가 없음을 확인할 수 있다. 표 4

는 엣지 검출 알고리즘에 대한 성능을 평가한다.

표 4 엣지 검출 알고리즘에 대한 성능평가 결과

Table 4 Results of performance evaluation of edge detection algorithms

Preprocessing

precision

recall

mAP

50

mAP50-95

F1-

score

None

0.952

0.996

0.993

0.87

0.974

laplacian

0.952

0.989

0.99

0.806

0.97

sobel

0.813

0.817

0.909

0.583

0.841

canny

(ours)

0.99

1

0.995

0.762

0.995

본 연구에서 사용한 canny edge detection 외에 엣지 검출 알고리즘을 적용하지 않았을 때(None), sobel edge detection, laplacian edge detection을 적용한 결과를 비교한다. sobel edge detection은 x축 방향과 y축 방향의 1차 미분을 계산하여 엣지를 검출한다[12]. laplacian edge detection은 2차 미분을 적용한다[13]. 따라서 이미지의 밝깃값의 변화율이 큰 지점을 감지할 수 있다. 이러한 canny, sobel, laplacian과 같은 엣지 검출 알고리즘을 통해 더욱 세밀한 균열 검출이 가능해진다. 엣지 검출 알고리즘을 사용하지 않았을 때와 세 종류의 edge detection 필터를 사용해 실험한 결과 연구에서 사용한 canny edge detection이 가장 높은 성능을 보인다.

실험에서 사용한 모델은 평균 20.52FPS 정도의 처리 성능을 보인다. Yolov8은 One-stage detector로 객체가 존재할법한 영역 제안과 분류를 한 단계에 진행해 Two-stage detector보다 정확도가 낮지만 빠른 속도를 보이는 것이 일반적인 특징이다. 해당 실험에서 Two-stage detector의 모델을 사용할 경우 모델 학습에 있어 더 많은 시간이 소요된다. 또한 객체를 탐지하기 위해 두 단계를 거쳐야 하기에 최종적인 추론에서도 시간이 오래 걸리게 된다. 앞선 성능평가 결과와 함께 FPS 성능을 보면 제안하는 모델은 빠른 속도를 유지하며 Two-stage detector만큼의 정확도를 기대할 수 있는 모델이다.

5. 결 론

본 논문에서 구조물의 안전성 판단을 위해 균열 엣지 검출 과정을 이용한 YOLO(You Only Look Once) 모델 기반 균열 탐지 알고리즘을 제안하였다. 이는 균열과 같은 얇고 복잡한 경계를 정확히 식별하는 데 한계가 있는 YOLO 모델을 보완하기 위해 엣지 검출 알고리즘을 함께 사용한다. 이를 통해 엣지 검출 과정을 이용하지 않은 기존 방법보다 균열의 경계를 정밀하게 추출하여 향상된 탐지 성능을 구현한다. 수집한 데이터에 다양한 기법의 전처리 방식을 사용하여 더욱 정확한 엣지 탐지가 가능하게 하여 전체적인 학습 효과가 증대되었다. 이후 균열의 엣지를 검출한 이미지를 통해 YOLOv8 모델을 학습시키고 구조물 균열의 위치를 탐지한다. 학습시킨 모델의 성능을 평가하기 위하여 precision, recall, mAP, F1-Score의 성능평가 지표를 사용하여 연구 결과 제안된 모델은 기존의 전통적인 방법보다 높은 정확도를 제공한다. 이는 구조물의 균열을 조기에 발견하여 유지보수 작업을 보다 효율적으로 수행할 수 있는 가능성을 제시한다.

본 연구는 구조물의 장기적인 안전성과 내구성을 보장하는 데 기여할 수 있으며 나아가 실시간으로 구조물의 상태를 모니터링하고 문제 발생 시 신속히 대응할 수 있는 시스템 개발에 중요한 역할을 할 것으로 기대된다. 향후, 제안된 알고리즘을 고도화하여 더욱 복잡한 구조물이나 다양한 균열 유형(물, 흙, 공기)에 대해 탐지가 가능한 모델을 연구할 예정이다.

Acknowledgements

This research was financially supported by the Ministry of Trade, Industry, and Energy (MOTIE), Korea, under the “Project for Research and Development with Middle Markets Enterprises and DNA(Data, Network, AI) Universities”(AI based Safety Assessment and Management System for Concrete Structures) (reference number P0024559) supervised by the Korea Institute for Advancement of Technology (KIAT).

References

1 
J. W. Baek, K. Chung, “Meta Learning based Object Tracking Technology: A Survey,” KSII Transactions on Internet and Information Systems, vol. 18, no. 8, pp. 2067-2081, 2024.DOI
2 
D. Bhatt, C. Patel, H. Talsania, J. Patel, R. Vaghela, S. Pandya, H. Ghayvat, “CNN variants for computer vision: History, architecture, application, challenges and future scope,” Electronics, vol. 10, no. 20, pp. 2470, 2021.DOI
3 
B. Li, Y. Liu, X. Wang, “Gradient harmonized single-stage detector,” In Proceedings of the AAAI conference on artificial intelligence, vol. 33, no.01, pp.8577-8584, 2019.URL
4 
M. Maity, S. Banerjee, and S. S. Chaudhuri, “Faster R-CNN and YOLO based vehicle detection: A survey,” In 2021 5th International Conference on Computing Methodologies and Communication (ICCMC), pp. 1442-1447, 2021.DOI
5 
P. Jiang, D. Ergu, F. Liu, Y. Cai, B. Ma, “A Review of Yolo algorithm developments,” Procedia computer science, vol. 199, pp. 1066-1073, 2022.DOI
6 
A. Kumar, S. Srivastava, “Object detection system based on convolution neural networks using single shot multi-box detector,” Procedia Computer Science, vol. 171, pp. 2610-2617, 2020.DOI
7 
J. Wang, L. Song, Z. Li, H. Sun, J. Sun, N. Zheng, “End-to-end object detection with fully convolutional network,” In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 15849-15858, 2021.URL
8 
A. Shah, J. I. Bangash, A. W. Khan, I. Ahmed, A. Khan, A. Khan, A. Khan, “Comparative analysis of median filter and its variants for removal of impulse noise from gray scale images,” Journal of King Saud University-Computer and Information Sciences, vol. 34, no. 3, pp. 505-519, 2022.DOI
9 
E. A. Sekehravani, E. Babulak, M. Masoodi, “Implementing canny edge detection algorithm for noisy image,” Bulletin of Electrical Engineering and Informatics, vol. 9, no. 4, pp. 1404-1410, 2020.URL
10 
G. Wang, Y. Chen, P. An, H. Hong, J. Hu, T. Huang, “UAV-YOLOv8: A small-object-detection model based on improved YOLOv8 for UAV aerial photography scenarios,” Sensors, vol. 23, no. 16, pp. 7190, 2023.DOI
11 
S. E. Lee, H. Yoo, K. Chung, “Pose Pattern Mining Using Transformer for Motion Classification,” Applied Intelligence, vol. 54, no. 5, pp. 3841-3858, 2024.DOI
12 
K. Zhang, Y. Zhang, P. Wang, Y. Tian, J. Yang, “An improved sobel edge algorithm and FPGA implementation,” Procedia Computer Science, vol. 131, pp. 243-248, 2018.DOI
13 
I. Lorencin, N. Anđelić, J. Španjol, Z. Car, “Using multi-layer perceptron with Laplacian edge detector for bladder cancer diagnosis,” Artificial intelligence in medicine, vol. 102, pp. 101746, 2020.DOI

저자소개

김지수(Ji-Soo Kim)
../../Resources/kiee/KIEE.2024.73.12.2391/au1.png

She is currently pursuing the B.S. degree with the Division of Computer Science and Engineering, Kyonggi University, Korea. She has been a researcher at Data Mining Laboratory, Kyonggi University. Hers research interests include data mining, object detection, and deep learning.

정경용(Kyungyong Chung)
../../Resources/kiee/KIEE.2024.73.12.2391/au2.png

He has received B.S., M.S., and Ph.D. degrees in 2000, 2002, and 2005, respectively, all from the Department of Computer Information Engineering, Inha University, South Korea in 2000, 2002, and 2005, respectively. He has worked for the Software Technology Leading Department, Korea IT Industry Promotion Agency (KIPA). He has been a professor in the Division of AI Computer Science and Engineering, Kyonggi University, South Korea. He was named a 2017 Highly Cited Researcher by Clarivate Analytics. Since 2021, he has served as Editor-in-Chief of the Journal of Artificial Intelligence Convergence Technology and as Vice President of the Korea Artificial-Intelligence Convergence Technology Society.