• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)
  2. (Dept. of Internal Medicine & Institute of Health Sciences, Gyeongsang National University School of Medicine and Gyeongsang National University Hospital, Korea.)



CADx, Gastric Endoscopy, Image Feature Extraction, LS-SVM

1. 서 론

위장 질환은 우리가 흔하게 가질 수 있는 질환이다. 위에서 발생할 수 있는 질환들은 위암, 위궤양, 위염, 종양 등이 있다. 그중 위암은 우리나라에서 가장 발생률이 높은 암으로 보건복지부에서 발표한 자료에 따르면 1999년부터 2016년까지 우리나라의 암 발생자 수 1위를 차지하였다. 그림 1에서 확인할 수 있듯이 2016년 위암 발생자는 30,504명으로 아주 높은 수치를 기록했다(1). 또한 2018년에 916,343명의 환자가 위궤양을 진단받았다. 이는 다른 신체기관의 궤양 환자 수보다 굉장히 큰 수치이다(2). 위염은 위장에서 걸리는 감기라는 말이 있을 정도로 아주 흔하다.

하지만 위에서 병변이 발생하더라도 어느 정도 진행되기 전까지는 겉으로 보이는 증상이 없고 신경성 위염이라고 불리는 소화 불량 증세와 혼동하기 쉽다. 용종 같은 경우도 대부분 증상이 없으며 내시경을 통해 우연히 발견되고 드물게 출혈이나 증상을 유발하기도 한다(3). 대부분의 위장 질환들은 내시경을

그림. 1. 대한민국 주요 암 발생 현황: 2016년 기준(단위: 명)

Fig. 1. Number of cancer cases in Korea: as of 2016

../../Resources/kiee/KIEE.2020.69.1.107/fig1.png

통해 육안으로 일차적으로 판단되고 조직검사를 통해 정확히 진단된다. 때문에 내시경을 통한 조기 검진이 더욱 중요하다. 실제로 위 내시경 검사를 받은 환자는 받지 않은 환자보다 생존율이 2.24배 높다는 연구 결과가 있다(4).

더불어 서구와 비교되는 우리나라의 자극적인 식습관으로 인한 높은 위 질환 발생자수와 인간의 수명 증가로 인한 암 발병 확률 증가는 위 내시경에 대한 중요성을 높이고 있다. 이에 비롯하여 내시경 검진자가 증가하면서 의학 전문의들은 방대한 양의 영상들을 진단하게 될 것이며 영상을 판독하고 진단하는 피로도가 영상의 양에 비례하게 커질 것이다.

최근 많이 연구되고 있는 컴퓨터 보조 진단(Computer -aided Diagnosis, CADx) 시스템은 전문의의 진단을 보조하여 방대한 양의 검진에도 불구하고 정확도와 신뢰도를 높일 수 있도록 한다. 관련된 연구로는 위 내시경의 NBI(Narrow Band Image)만을 이용하여 조기위암을 진단하는 CADx 시스템 연구가 있었다. 이 연구는 한 영상을 40*40 픽셀 크기의 영상으로 나눈 후에 나눠진 영상으로부터 GLCM를 획득하였고 GLCM으로부터 획득한 특징들을 SVM에 적용하여 정상과 조기위암을 분류하였다(5). 또한 Single Shot Multibox Detector(SSD) 네트워크를 사용하여 라벨링된 조기위암 영상을 학습시키고 병변의 위치를 검출한 연구사례도 있었다(6). 색 공간에서 HSV-HV 히스토그램, RG 히스토그램 등 다양한 색상 특징과 질감 특징을 추출하고 DSSVM(Deep Sparse Support Vector Machine)으로 비정상인 병변 영상을 분류해내는 연구도 진행되었다(7). 위암의 침윤된 깊이 정도를 구분하여 내시경 절제술 환자를 선별하는 데 도움을 주는 연구도 있었다. 이 연구는 위암 영상 데이터를 ResNet50 네트워크로 학습하고 침윤의 정도에 따라 두 개의 클래스로 분류하였다(8). RGB scale의 위 용종 영상에서 wavelet 특징을 CNN을 통해 추출하고 SVM으로 분류하는 CADx 시스템 연구도 진행되었다(9). Wireless Capsule Endoscopy(WCE) 영상에서 GoogLeNet 네트워크와 AlexNet 네트워크를 이용하여 위 궤양을 검출한 연구도 있다(10).

본 연구에서는 위 내시경 영상을 정상과 비정상으로 분류하는 컴퓨터 보조 진단 시스템(CADx)을 제안한다.

2. 이론 및 방법

컴퓨터 보조 진단(Computer-aided Diagnosis, CADx) 시스템은 의료 영상에서 병변을 검출하고 그 특성을 분석 함으로서 의학 전문의의 임상적 진단을 보조하는 기술을 의미한다. 우리는 위 내시경 영상에 CADx 시스템을 적용하여 정상과 비정상으로 분류하는 시스템을 개발하고자 하였다.

CADx 시스템 설계를 위해서 내시경 영상으로부터 4개의 색상 특징과 2개의 질감 특징, 총 6가지의 특징을 추출하였다. 특징 벡터를 이용하여 정상과 비정상으로 분류하기 위해 LS-SVM(Least Square Support Vector Machine) model을 분류기로 사용하였다. 제안된 CADx 시스템의 구조도를 그림 2를 통해 나타내었다.

2.1 특징 추출

내시경 영상을 정확도 있게 분류하기 위해서 병변의 특징을 추출하는 단계는 매우 중요한 과정이다. 위 병변을 진단하는 방법으로는 형태적 특징과 색상변화에 근거를 둔다(11). 이를 기반으로 4가지의 색상 특징과 2가지의 질감 특징을 추출하였다.

그림. 2. 컴퓨터 보조 진단 시스템 구조도

Fig. 2. Flowchart of the proposed CADx system

../../Resources/kiee/KIEE.2020.69.1.107/fig2.png

2.1.1 색상 특징

정상의 위 기관은 색소 분포가 비정상의 분포와 크게 다르기 때문에 이를 이용하기 위해 색 공간 특징을 사용하였다. 건강한 위는 위벽이 균일한 분홍색이다. 이에 반해 병변의 점막은 색의 분포가 균일하지 못하고 붉은색, 황색, 백색, 또는 검정색을 띈다. 색상 특징 벡터를 획득하기 위해 RGB 히스토그램, HSV 히스토그램, HSI-Intensity 히스토그램, Opponent RGB 히스토그램을 추출하였다.

Opponent RGB 히스토그램의 각 채널 O1, O2, O3 값을 구하는 공식은 다음과 같다(12).

(1)
$O1 =\dfrac{R-G}{\sqrt{2}}$

(2)
$O2 =\dfrac{R+G-2B}{\sqrt{6}}$

(3)
$O3 =\dfrac{R+G+B}{\sqrt{3}}$

2.1.2 질감 특징

주름의 형태와 점막 모양의 불규칙함 정도를 이용하여 정상과 비정상을 분류할 수도 있다. 정상의 위 점막 평면에는 윤기가 있고 광택이 난다. 또한, 위 주름의 두께가 5mm 이하이다. 하지만 비정상으로 진단되는 위는 공기 주입 시에 점막의 주름이 편평하게 펴지지 않거나 일부만 펴지기도 하고, 주름이 5mm 이상을 넘어가기도 한다(13). Local Binary Pattern (LBP)과 Gray-Level Co-occurrence Matrix(GLCM)는 최근에 질감 특징을 추출하기 위해 많이 사용되는 방법이다. 두 개의 특징 모두 RGB scale 영상을 Gray scale 영상으로 바꿔준 뒤 획득하였다.

그림. 3. Local Binary Pattern

Fig. 3. Local Binary Pattern

../../Resources/kiee/KIEE.2020.69.1.107/fig3.png

LBP는 그림 3과 같이 픽셀 하나를 중심으로 그 주변 픽셀값과 비교하여 크면 1, 작으면 0을 할당한다. 할당된 0과1 값들을 반시계방향으로 읽어 들이면 8비트의 LBP값을 얻을 수 있다(14). 본 연구에서는 8비트로 얻을 수 있는 256개의 값을 uniform LBP 방법을 사용하여 59개의 값으로 묶어 사용하였다. 비트가 0에서 1로 또는 1에서 0으로 바뀌는 횟수가 2 이하인 경우 균일 패턴이라고 지정한다. 총 58개의 균일 패턴은 각각의 값을 지정해주고 나머지 패턴들은 하나로 묶어 하나의 값만 할당하였다.

질감 특성을 이용하기 위한 또 다른 방법으로 GLCM 알고리즘을 사용하였다. GLCM은 그림 4처럼 영상 내에 인접한 픽셀 간의 관계를 좌표값으로 이용하여 좌표값의 빈도를 나타내는 행렬이다. GLCM으로 새롭게 생성된 영상에서 20개의 특징 값들을 획득하여 사용하였다. 특징 값에 대한 이론과 수식은 (15-17)을 참고하였다. 획득한 특징들은 표 1을 통해 나타내었다. 획득한 방법은 픽셀 간의 거리는 2, 4, 6으로, 방향은 0˚, 45˚, 90˚, 135˚로 각각 지정하여 8*8 행렬로 생성하였다. GLCM을 정규화 한 행렬을 $P$라고 나타낼 때 $P(i,\:j)$는 GLCM의 각 원소 값을 의미하고 8*8 행렬을 생성했으므로 $i$와 $j$는 0부터 7까지의 값을 가지게 된다.

엔트로피(entropy)는 불확실성을 나타낸다. 불확실성이 높아질수록 정보의 양이 많아지면 엔트로피의 값은 커진다. 사용된 수식은 다음과 같다.

(4)
$$entropy=-\sum_{i,\:j}P(i,\:j)\log P(i,\:j)$$

대비(contrast)는 명암도 차이를 측정하는 특징으로, GLCM에서 대각선으로 멀리 떨어져 있는 $P(i,\:j)$에 대해서 높은 가중치를 준다. 따라서 명암도 차이가 크게 나는 화소의 수가 많을수록 큰 값을 가진다. 다음 식(5)를 이용하여 구하였다.

(5)
$$contrast =\sum_{i,\:j}| i-j |^{2}P(i,\:j)$$

분산(variance)은 식(6)을 이용하여 구하였다. $P(i,\:j)$가 $P$의 원소들의 평균 $\mu$으로부터 얼마나 멀게 분포된 지를 나타낸다. 멀리 분포되어있을수록 분산의 값은 커진다.

그림. 4. 입력 이미지(왼쪽), GLCM(오른쪽)

Fig. 4. Input image(left), GLCM(right)

../../Resources/kiee/KIEE.2020.69.1.107/fig4.png

표 1. GLCM 특징

Table 1. GLCM Features

No.

Feature

No.

Feature

1

Entropy

11

Dissimilarity

2

Contrast

12

Sum Average

3

Variance

13

Sum Variance

4

Correlation

14

Sum Entropy

5

Energy

15

Difference Variance

6

Autocorrelation

16

Difference Entropy

7

Cluster Shade

17

Information Measures of Correlation 1

8

Cluster Prominence

18

Information Measures of Correlation 2

9

Homogeneity 1

19

Maximum Probability

10

Homogeneity 2 (Inverse Difference Moment)

20

Maximal Correlation Coefficient

(6)
$$variance=\sum_{i,\:j}(i-\mu)^{2}P(i,\:j)$$

상관관계(correlation)은 선형적인 상관관계를 보여준다. 사용된 식은 아래와 같다.

(7)
$$correlation=\sum_{i,\: j}P(i,\:j)\dfrac{(i-\mu_{x})(j-\mu_{y})}{\sigma_{x}\sigma_{y}}$$

$\mu_{x},\:\mu_{y},\:\sigma_{x},\:\sigma_{y}$는 다음 식(8)-(10)을 통해 구할 수 있다.

(8)
$$\mu_{x}=\sum_{i,\:j}i\bullet P(i,\:j), \mu_{y}=\sum_{i,\:j}j\bullet P(i,\:j)$$

(9)
$$\sigma_{x}=\sqrt{\sum_{i,\:j}(i-\mu)^{2}\bullet P(i,\:j)}$$

(10)
$$\sigma_{y}=\sqrt{\sum_{i,\:j}(j-\mu)^{2}\bullet P(i,\:j)}$$

에너지(energy)는 명암도의 균일함을 측정할 수 있는 특징이며, 명암도가 균일할수록 높은 값을 가진다. 사용된 수식은 다음과 같다.

(11)
$$energy=\sum_{i,\:j}P(i,\:j)^{2}$$

Cluster Shade와 Cluster Prominence는 행렬의 왜도, 즉 비대칭한 정도를 나타내는 특징 값이다. 이 값이 높을수록 $P$의 대각을 기준으로 비대칭이 크다는 뜻이다. Cluster Shade와 Cluster Prominence는 각각 아래 식(12)(13)을 통해 구하였다.

(12)
$$cluster shade=\sum_{i,\:j}[i+j-\mu_{x}-\mu_{y}]^{3}P(i,\:j)$$

(13)
$$cluster prominence=\sum_{i,\:j}[i+j-\mu_{x}-\mu_{y}]^{4}P(i,\:j)$$

Homogeneity는 $P$의 대각 행렬에 행렬 값들이 분포한 정도를 측정한다. 대각 행렬에 분포가 많이 되어 있을수록 Homogeneity 값은 높아지고 입력 영상의 밝기 분포가 균질하다는 뜻을 의미한다. 2가지의 수식을 이용하여 구하였다. Homogeneity 2는 Inverse Difference Moment(IDM)이라고도 불린다.

(14)
$$homogeney 1 =\sum_{i,\:j}\dfrac{P(i,\:j)}{1+ | i-j |}$$

(15)
$$homogeney 2 =\sum_{i,\:j}\dfrac{P(i,\:j)}{1+ | i-j |^{2}}$$

추출된 특징 벡터들은 각각의 특징 정보에 따라 소수점 단위의 값부터 만의 자리까지 넓은 범위를 가지고 있다. 그렇기 때문에 특징값을 그대로 사용하면 더 큰 값을 가진 특징에 가중치가 높게 적용된다. 이를 방지하기 위해 본 연구에서는 평균이 0이고 분산이 1이 되도록 특징값들을 정규화하였다.

추출된 특징과 각 특징의 차원 수는 다음 표 2을 통해 확인할 수 있다.

2.2 Least Square Support Vector Machine model

영상에서 획득된 특징들을 이용한 분류기 모델을 생성하기 위해서 Least Square Support Vector Machine (LS-SVM)을 사용하였다. SVM은 초평면이 구해지는 방법에 따라 성능이 달라진다.

표 2. 특징 차원

Table 2. Feature Dimension

Feature

Dimension

Color

RGB histogram

45

HSV histogram

45

HSI-Intensity histogram

15

Opponent RGB histogram

45

Texture

Uniform LBP

59

GLCM

240

Total

449

LS-SVM은 보다 간단한 초평면 수식을 사용함으로써 계산량을 줄이고 분류의 성능을 높일 수 있기 때문에 LS-SVM을 채택하였다. 내시경 영상에서 추출한 특징 벡터들을 기반으로 정상과 비정상으로 나누어 학습하였다.

라벨이 지정된 훈련 데이터를 획득하였을 때 우리는 {$(x_{i},\:y_{i}),\: i=1,\:2,\:\cdots ,\:N$} 와 같이 표현할 수 있다. $x_{i}$는 특징 벡터, $y_{i}$는 라벨 -1 또는 1(정상 또는 비정상), $N$은 영상의 수를 의미한다. 일반적으로 두 클래스가 선형 분리가 가능한 경우에 SVM의 초평면은 다음과 같은 식으로 구해진다.

(16)
$$ S V M: \min _{w, \xi} \tau(w, \xi)=\frac{1}{2} w^{T} w+C \sum_{i=1}^{N} \xi_{i} $$

subject to :

(17)
\begin{align*} y_{i}[w^{T}\varphi(x_{i})+ b]\ge 1-\xi_{i},\: i=1,\:2,\:\cdots ,\:N\\ \xi_{i}\ge 0,\: i=1,\:2,\:\cdots ,\:N \end{align*}

$w$는 초평면의 방향, $C$는 패널티의 정도, $\xi$는 잘못 분류된 데이터까지의 거리를 나타내는 여유변수이다.

LS-SVM은 식(17)과 같이 부등식을 사용한 기존의 SVM 제약 조건에서 동등한 조건만을 고려하여 초평면을 구한다. 따라서 {$(x_{i},\:y_{i}),\: i=1,\:2,\:\cdots ,\:N$}인 데이터가 주어졌을 때 LS-SVM의 초평면을 구하는 과정은 다음과 같다(18).

(18)
$$ L S-S V M: \min _{w, b, e} \tau(w, b, e)=\frac{1}{2} w^{T} w+\frac{1}{2} \gamma \sum_{i} e_{i}^{2} $$

subject to :

(19)
$w^{T}\phi(x_{i})+ b= 1-e_{i}$

$e_{i}$는 시간 $i$에서의 오차 변수이고 $\gamma$는 라그랑주 승수이다. 식(19)을 기반으로 최적화를 위해 라그랑주 승수를 도입하면 다음과 같다.

(20)
$$L(w,\:b,\:e,\:\alpha)=\dfrac{1}{2}w^{T}w+\gamma\sum_{i=1}^{N}e_{i}^{2}-\sum_{i=1}^{N}\alpha_{i}(w^{T}\phi(x)+b-y_{i}+e_{i})$$

식(20)을 각 $w,\:b,\:e_{i},\:\alpha_{i}$에 대해 미분을 하면 다음과 같이 산출된다.

(21)
$$y=\sum_{i=1}^{N}\alpha_{i}\phi(x_{i})\phi(x)+b_{i}=\sum_{i=1}^{N}\alpha_{i}\left <\phi(x_{i})\phi(x)\right > +b_{i}$$

식(17)식(19)로부터 LS-SVM이 계산적으로 간결해지는 이유를 알 수 있다. 결과적으로 SVM은 2차식의 문제를 해결해야 하는 반면 LS-SVM은 선형문제를 해결한다. 우리는 LS-SVM을 사용하여 향상된 성능을 가져오도록 하였다.

3. 결과 및 토론

3.1 데이터

내시경 영상 데이터는 2017년 11월부터 2019년 7월까지 경상대학교 병원에서 수집하였다. 수집된 데이터는 103명의 내시경 검사자들의 영상을 포함하고 있다. 사용된 모든 데이터는 임상 시험 심사 위원회(IRB, Institutional Review Board)의 허가를 받았으며(승인번호: GNUH 2017-09-019-003) 모든 진단은 내과 전문의에 의해 이루어졌다. 데이터 셋은 표 3과 같이 학습에 350장 테스트에 335장, 총 685장을 사용하였다. 병변 구성은 표 4와 같이 400장의 정상 데이터와 285장의 비정상 데이터로 이루어져 있다. 비정상 데이터는 위암 73장, 종양 82장, 용종 29장, 궤양 86장, 출혈 15장으로 구성된다. 본 연구와 실험에는 457*406 픽셀의 해상도를 가진 백색광 내시경 영상만 사용하였다. 그림 5와 6은 사용된 영상데이터 중 일부 예시를 나타낸 것이다.

표 3. 데이터 셋 구성(단위: 장)

Table 3. Data Set

Train

Test

Total

Normal

200

200

400

Abnormal

150

135

285

Total

350

335

685

표 4. 병변 타입(단위: 장)

Table 4. Image Data Type

Type

Images

Normal

400

Abnormal

cancer

73

82

tumor

polyp

29

ulcer

86

bleeding

15

Total

685

3.2 결과 및 토론

성능 지표로 ROC(Receiver Operating Characteristic) curve를 사용하였다. 추출한 6가지의 특징을 개별로 사용하였을 때의 AUC값을 표 5를 통해 나타내었다. 색상 특징 중에서 HSV 히스토그램 특징이 0.83으로 가장 좋은 성능을 보였고 질감 특징 중에서는 근소한 차이로 uniform LBP의 성능이 0.80로 가장 좋았다. 4가지의 색상 특징을 모두 사용하였을 때 0.82이었고, 2가지의 질감 특징을 모두 사용하였을 때 0.81이었다. 색상 특징은 히스토그램으로 추출되어 색상의 분포 정보를 가지고 있을 뿐 병변의 튀어나온 모양이나 주름의 정도를 알기 어렵다. 질감 특징은 Gray scale의 영상으로부터 추출되어 비정상 병변이 정상 점막과 비교될 수 있는 색 정보가 없다. 따라서 색상과 질감 특징 모두 사용되었을 때 성능이 가장 좋은 것을 알 수 있다.

그림. 5. 정상 위 내시경 영상

Fig. 5. Normal gastric endoscopy image

../../Resources/kiee/KIEE.2020.69.1.107/fig5.png

그림. 6. 비정상 위 내시경 영상

Fig. 6. Abnormal gastric endoscopy image

../../Resources/kiee/KIEE.2020.69.1.107/fig6.png

LS-SVM 분류기 모델의 성능을 SVM과 함께 그림 7에 나타내었다. 모든 특징을 사용하여 정상과 비정상으로 분류한 결과 AUC값은 0.85을 도출하였다. 일반적인 SVM을 이용하여 분류한 결과는 0.83로 LS-SVM의 성능이 약 0.02 더 높은 것을 볼 수 있다. LS-SVM은 균등 조건을 사용함으로써 닫힌 형태로 분류기 모델을 생성해 나가고, 이는 고차원 계산일수록 더 효율적으로 적용되기 때문에 더 높은 성능을 보여준 것으로 예상된다.

표 5. 특징 AUC 값

Table 5. AUC value

Feature

AUC

Color

RGB histogram

0.78

HSV histogram

0.83

HSI-Intensity histogram

0.72

Opponent RGB histogram

0.79

All color feature

0.82

uniform LBP

0.80

Texture

GLCM

0.78

All texture feature

0.81

All feature

0.85

그림. 7. ROC curve

Fig. 7. ROC curve

../../Resources/kiee/KIEE.2020.69.1.107/fig7.png

4. 결 론

위암을 비롯한 위장 질환들은 발생하고도 바로 나타나는 증상이 없기 때문에 내시경을 통한 조기 검진과 조기 치료의 중요성이 증대되고 있다. 이에 따라 내시경 검사자가 늘어날 것으로 예상되고 위 내시경 영상을 이용한 연구의 필요성 또한 상승할 것으로 보인다.

이에 따라 우리는 위 내시경 영상을 이용한 컴퓨터 보조 진단(CADx) 시스템을 제안하여 검진의 정확도와 신뢰도를 높이고자 하였다. 경상대학교 병원으로부터 수집한 영상들로 데이터 셋을 구성하였고 영상마다 6가지의 특징을 추출하였다. 4가지의 색상 특징과 2가지의 질감 특징을 기반으로 내시경 영상을 정상과 비정상으로 자동 분류하는 시스템을 개발하였다. 학습 데이터 350장으로부터 추출된 특징으로 LS-SVM을 이용하여 분류기 모델을 학습시키고 테스트 데이터 335장의 특징으로 성능을 검증하였다. ROC curve의 아래 면적인 AUC값은 0.85로 일반적인 SVM으로 얻은 결과 0.83보다 0.02 향상된 성능을 보여주었다.

서론에서 언급한 바와 같이 딥러닝을 이용한 CADx 시스템이 많이 개발되고 있다. 하지만 딥러닝의 최대 단점은 많은 양의 데이터가 필요하다는 점과 학습 시간이 길다는 점이다. 우리는 머신러닝을 사용하여 적은 데이터와 적은 시간에도 중등도의 성능을 가진 CADx 시스템을 개발하였다.

비정상 데이터에는 위암을 비롯하여 종양, 용종, 궤양, 출혈을 포함하고 있다. 본 연구에서는 병변을 모두 비정상이라는 하나의 클래스로 분류하여 실험하였다. 추후 진행될 연구에서는 병변마다 클래스를 지정하여 다중 클래스 CADx 시스템을 연구할 것이다. 또한, 매우 고차원인 현재 특징 벡터를 특징 선택 과정을 통하여 차원을 축소하고 시간을 감축시키는 등의 성능을 향상 시킬 수 있는 연구가 필요할 것이다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC (Information Technology Research Center) support program (IITP- 2019-2018-0-01433) supervised by the IITP (Institute for Information & communications Technology Promotion).

References

1 
K.-W. Jung, Y.-J. Won, H.-J. Kong, E. S. Lee, 2019, Cancer Statistics in Korea: Incidence, Mortality, Survival, and Prevalence in 2016, Cancer research and treatment: official journal of Korean Cancer Association, Vol. 51, pp. 417Google Search
2 
Healthcare big data hub, 2019, The treatment statistics by Health Insurance Review and Assessment Service diseaseGoogle Search
3 
S. S. Park, B. Y. Ryu, H. S. Kim, H. K. Kim, Y. H. Choi, S. J. Kim, 2010, Gastric Polyposis Associated with Gastric Cancer, Journal of the Korean Surgical Society, Vol. 78, pp. 249-252DOI
4 
H. Kim, Y. Hwang, H. Sung, J. Jang, C. Ahn, S. G. Kim, 2018, Effectiveness of gastric cancer screening on gastric cancer incidence and mortality in a community-based prospective cohort, Cancer research and treatment: official journal of Korean Cancer Association, Vol. 50, pp. 582DOI
5 
T. Kanesaka, T.-C. Lee, N. Uedo, K.-P. Lin, H.-Z. Chen, J.-Y. Lee, 2018, Computer-aided diagnosis for identifying and delineating early gastric cancers in magnifying narrow-band imaging, Gastrointestinal endoscopy, Vol. 87, No. , pp. 1339-1344DOI
6 
T. Hirasawa, K. Aoyama, T. Tanimoto, S. Ishihara, S. Shichijo, T. Ozawa, 2018, Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images, Gastric Cancer, Vol. 21, pp. 653-660DOI
7 
Y. Cong, S. Wang, J. Liu, J. Cao, Y. Yang, J. Luo, 2015, Deep sparse feature selection for computer aided endoscopy diagnosis, Pattern Recognition, Vol. 48, pp. 907-917DOI
8 
Y. Zhu, Q.-C. Wang, M.-D. Xu, Z. Zhang, J. Cheng, Y.-S. Zhong, 2019, Application of convolutional neural network in the diagnosis of the invasion depth of gastric cancer based on conventional endoscopy, Gastrointestinal Endoscopy, Vol. 89, pp. 806-815. e1DOI
9 
M. Billah, S. Waheed, M. M. Rahman, 2017, An automatic gastrointestinal polyp detection system in video endoscopy using fusion of color wavelet and convolutional neural network features, International Journal of Biomedical Imaging, Vol. 2017DOI
10 
H. Alaskar, A. Hussain, N. Al-Aseem, P. Liatsis, D. Al-Jumeily, 2019, Application of Convolutional Neural Networks for Automated Ulcer Detection in Wireless Capsule Endoscopy Images, Sensors, Vol. 19, pp. 1265DOI
11 
K.-B. Kim, S. Kim, G.-H. Kim, 2006, Analysis system of endoscopic image of early gastric cancer, IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, Vol. 89, pp. 2662-2669DOI
12 
K. Van De Sande, T. Gevers, C. Snoek, 2009, Evaluating color descriptors for object and scene recognition, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, pp. 1582-1596DOI
13 
J. Y. Hwang, K. S. Park, J. S. Hwang, S. H. Ahn, S. K. Park, 2003, Histological comparison of endoscopic forceps biopsy with endoscopic resection in gastric mucosal elevated lesion, Korean J. Gastrointest Endosc, Vol. 26, pp. 68Google Search
14 
T. Ojala, M. Pietikäinen, T. Mäenpää, 2002, Multiresolution gray-scale and rotation invariant texture classification with local binary patterns, IEEE Transactions on Pattern Analysis & Machine Intelligence, pp. 971-987DOI
15 
R. M. Haralick, K. Shanmugam, 1973, Textural features for image classification, IEEE Transactions on Systems, Man, and Cybernetics, pp. 610-621DOI
16 
L.-K. Soh, C. Tsatsoulis, 1999, Texture analysis of SAR sea ice imagery using gray level co-occurrence matrices, IEEE Transactions on Geoscience and Remote Sensing, Vol. 37, pp. 780-795DOI
17 
C. Parmar, E. R. Velazquez, R. Leijenaar, M. Jermoumi, S. Carvalho, R. H. Mak, 2014, Robust radiomics feature quantification using semiautomatic volumetric segmentation, PloS one, Vol. 9, pp. e102107DOI
18 
J. A. Suykens, L. Lukas, J. Vandewalle, 2000, Sparse least squares Support Vector Machine classifiers, in ESANN, pp. 37-42DOI

저자소개

이신애 (Sin-ae Lee)
../../Resources/kiee/KIEE.2020.69.1.107/au1.png

She received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2018.

She is currently working toward an M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

조현진 (HyunChin Cho)
../../Resources/kiee/KIEE.2020.69.1.107/au2.png

She received the M.S. and Ph.D. degrees in Internal Medicine from Gyeongsang National University School of Medicine of Jinju, South Korea in 2008 and 2014, she was a Fellow at Samsung Medical Center, Sungkyunkwan University School of Medicine, Seoul, South Korea from 2009 to 2010.

During 2011-2015, she was a professor at Samsung Changwon Hospital, Sungkyunkwan University School of Medicine, Changwon, South Korea.

She is currently a professor at Gyeongsang National University School of Medicine and Gyeongsang National University Hospital, Jinju, Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2020.69.1.107/au3.png

He received his M.S. and Ph.D. degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010-2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA. From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.