• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electronics Engineering Kangwon National University, Korea.)
  2. (nterdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)
  3. (Dept. of Internal Medicine & Institute of Health Sciences, Gyeongsang National University School of Medicine and Gyeongsang National University Hospital, Korea.s)



CADx, Feature selection, Gastric Endoscopy, SVM

1. 서 론

오늘날에는 IT 기술의 발전으로 컴퓨터 보조 진단(Computer-aided Diagnosis, CADx)의 개발이 활발하게 이루어지고 있다. CADx 시스템은 의료 영상에서 병변을 검출한 후, 그 특성을 분석하여 의학 전문의의 임상적 진단을 보조하는 기술을 말한다. 이러한 CADx 시스템은 위암과 같은 심각한 질병의 조기 진단과 치료를 가능하게 하는 중요한 역할을 하고 있다.

암은 세계적으로 발생률과 사망률이 점차 감소하는 추세이다. 하지만 여전히 그림 1과 같이 우리나라에서는 위암의 발생률이 여러 암종 중에서 13.3%로 가장 높은 비율을 차지한다[1]. 위암은 지속적인 치료 방법들의 발전으로 높은 치료율을 가지나, 겉으로 나타나지 않기 때문에 조기 발견이 매우 중요하다. 이에 대한 가장 좋은 방법은 내시경을 통해 주기적인 검사를 받는 것이다. 위암은 증상이 전혀 나타나지 않는 경우에서부터 극심한 통증에 이르기까지 다양한 양상을 나타내기 때문에 주기적인 검사의 필요성이 높다. 위내시경 검사는 내시경을 통해 위 내부를 직접 관찰하면서 일차적으로 위암의 위치, 모양, 크기를 평가하고 의심되는 부위에서 조직 검사를 시행한다. 아직 약으로 위암을 치료하는 방법들은 존재하지 않아 내시경을 통한 치료와 수술에 의존해야 한다. 따라서 증상이 없는 조기 위암의 발견에 중요한 역할을 한다.

그림. 1. 주요 암종 발생분율(2016)

Fig. 1. Number of cancer cases in Korea: as of 2016

../../Resources/kiee/KIEE.2020.69.1.170/fig1.png

조기 진단 및 전문의의 진단 보조에 도움을 주기 위해 많은 연구가 진행되고 있다. 관련 연구로는 블루 레이저 기반 위내시경 영상에서 위암 조직과 주변 조직들을 구분하기 위한 CADx 연구가 있다. 위암과 주변 조직 이미지로부터 k-means 클러스터링 방법의 하나인 bag-of-features 방법을 이용하여 128개 차원의 질감 특징을 추출하였고 SVM으로 분류하였다[2]. 그리고 무선 캡슐 내시경(WCE) 영상을 이용하여 텍스처 특징을 추출하여 SVM으로 용종을 검출하는 연구도 진행되었다[3]. 무선 캡슐 내시경 영상을 이용한 다른 연구에서는 SVM을 이용한 위내시경 출혈 감지 시스템을 개발하였다. 768개 차원의 색감 특징을 추출하였으며, 특징 선택을 통해 24개 차원으로 축소하고 SVM을 통해 출혈을 감지하였다[4]. 위내시경 영상을 Superpixel 방법을 이용하여 분할 한 후, 5가지의 색상 특징과 2가지의 텍스처 특징을 총 246차원으로 추출하고 DSSVM(Deep spare support vector machine)에 적용하여 정상과 병변을 분류하는 연구도 있었다. 이 연구는 SVM 분류기에 Deep Sparse 특징 선택 기법을 개발 적용하여 사용하였다[5]. 기존의 연구에서는 특징 추출 후에 많은 수의 특징들을 이용하여 분류기로 병변을 분류하였다. 이런 경우에는 과도하게 많은 특징으로 인해 계산량이 증가하고 학습 속도가 느려질 수 있다는 단점이 존재한다. 하지만 본 논문에서는 이를 보완하기 위해서, 추출된 449차원의 특징들을 특징 선택 알고리즘을 통하여 분류에 도움이 되는 특징 10개만을 선별하는 과정이 추가하였다. 따라서, 적은 특징만으로도 분류가 이루어지므로 연산량이 줄어들고 적은 수의 특징만으로 효율적인 분류가 이루어지도록 하였다.

이에 본 연구에서는 효율적으로 위내시경 영상을 정상과 비정상으로 분류하기 위한 특징 선택 방법을 제시한다. 5가지 특징 선택 방법을 적용하고 비교해보았다.

본 논문의 구성은 다음과 같다. 제2장에서는 특징 추출과 특징 선택 기법에 관한 알고리즘을 소개하고, 제3장에서는 제안하는 CADx 시스템을 적용한 시스템 분석 결과를 비교하고 평가한다. 마지막으로 제4장에서는 결론 및 향후 연구 방향을 제시한다.

2. 이론 및 방법

그림. 2. 컴퓨터 보조 진단 시스템 구조도

Fig. 2. Flowchart of the proposed CADx system

../../Resources/kiee/KIEE.2020.69.1.170/fig2.png

본 연구에서는 그림 2와 같은 과정으로 위내시경 영상을 이용한 컴퓨터 보조 진단 시스템을 개발하였다. 위내시경 영상으로부터 특징을 추출한 뒤 선택과정을 통해 적절한 특징 벡터를 생성하였다. 생성된 특징 벡터를 기준으로 위내시경 영상을 정상과 비정상으로 분류하였다.

2.1 특징 추출

위암 컴퓨터 보조 진단 시스템의 성능을 높이기 위해선 영상을 표현하는 특징을 효과적으로 추출하는 것이 중요하다. 위 병변의 진단은 텍스처 특징과 색상 특징을 통해 이루어진다[6]. 이를 바탕으로 4가지의 색상 특징과 2가지의 텍스처 특징을 추출하였다. 정상의 위는 전체적으로 분홍빛을 나타낸다. 반면에 위암은 분홍빛을 포함한 다양한 색상의 분포로 구성되어 있다. 이러한 색상 특징을 추출하기 위해 RGB 히스토그램, HSV 히스토그램, HSI-Intensity 히스토그램, opponent RGB 히스토그램[7]을 사용하였다. 위암은 주위 점막보다 현저히 융기되어 있어 정상의 위 점막과 차이를 보인다[8]. 점막의 불규칙한 모양을 통해 위암의 진단이 가능하다. 일정한 패턴의 반복을 나타내는 텍스처 특징을 추출하기 위해 Local Binary Pattern(LBP)[9]과 Gray-Level Co-occurrence Matrix(GLCM)[10]를 사용하였다. 이 두 개의 텍스처 특징 모두 RGB scale 영상에서 Gray scale 영상으로 변환한 뒤 획득하였다. 추출한 특징은 표 1과 같이 색상 특징에서 150차원, 텍스처 특징에서 299차원으로 총 449차원의 특징을 추출하였다.

2.2 특징 선택

특징 선택은 분류의 정확도를 높이고 연산량도 줄이기 위하여 원본 데이터에서 추출된 특징으로부터 다시 분류에 도움이 되는 특징만을 선택하는 방법이다. 즉, 머신 러닝에서 높은 정확도의 예측 모델을 생성하기 위해서 분류 목적에 가장 밀접하게 연관되어있는 변수들의 조합을 사용하는 것이 필수적이다. 또한, 적절한 개수의 특징을 선택하는 것도 중요하다. 과도하게 다양한 특징을 선택하면, 계산량이 증가하여 학습 속도가 느려진다. 또한, 예측에 관련 없는 특징들이 선택되면서 정확도 상승에 방해요인이 될 수 있다. 따라서 중복되거나 관련이 없는 특징들을 제거하고 예측하고자 하는 값과 관련 있는 특징들의 조합을 찾아 모델에 적용해야 한다.

표 1. 특징 차원

Table 1. Feature Dimension

Feature

Dimension

Texture

uniform LBP

59

GLCM

240

Color

RGB histogram

45

HSV histogram

45

HSI-Intensity histogram

15

opponent RGB histogram

45

total

449

본 실험에서는 정상과 비정상을 분류하는데 가장 밀접하게 연관 있는 특징을 선택하기 위해 5가지의 특징 선택 알고리즘을 적용하였다. 사용한 특징 선택 알고리즘은 Scikit-learn 라이브러리 버전 0.21.3 에서 제공하는 피어슨 상관관계 분석(Pearson Correlation), 카이 제곱 검정(Chi-Squared test), 재귀변수 제거(Recursive Feature Elimination)와 모델 기반 특징 선택(Select from model)이다. 각 특징 선택 알고리즘마다 분류에 기여되는 정도를 측정하여 상위 10개의 특징을 선별하였다. 선택된 특징들이 유효한 영향력을 가졌는지 판단하기 위해 1가지의 방법을 추가하였다. 특징마다 4가지의 알고리즘 통하여 상위 10개로 선택된 횟수를 계산하였고 횟수가 큰 10개의 특징을 다시 선택하여 실험에 사용하였다. 본 연구에서는 이 특징 선택 방식의 명칭을 Total Ranking으로 정하였다. 이렇게 총 5가지 집합의 특징을 생성하였다. 이러한 특징 선택은 크게 필터 방법(Filter method), 래퍼 방법(Wrapper method)과 임베디드 방법(Embedded method)으로 나눌 수 있다.

2.2.1 필터 방법(피어슨 상관관계 분석, 카이 제곱 검정)

그림. 3. 필터 방법의 과정

Fig. 3. Process of the filter method

../../Resources/kiee/KIEE.2020.69.1.170/fig3.png

본 논문에서 사용된 피어슨 상관관계 분석과 카이 제곱 검정방식은 그림 3과 같이 선택과정이 모델의 학습과 분리된 필터 방법의 종류이다[11].

피어슨 상관관계 분석은 피어슨 상관 계수를 통하여 두 변수 간에 어떤 선형관계가 있는지를 구한다. 식 (1)은 두 변수가 x, y일 때의 피어슨 상관 계수 수식을 나타낸다[12]. 상관 계수는 두 변수 간 선형관계의 절대적 크기를 나타내는 공분산을 두 변수의 표준 편차로 나누게 된다. 따라서, 본 논문에서는 x를 특징, y를 라벨이라고 하였을 때, 두 변수 간에 선형관계의 정도를 구하게 된다. 이렇게 구한 상관 계수를 통해 통계적 지표를 사용하여 순위를 매기고 영향력이 적은 변수는 제외하는 방식을 이용하여 상위 10개의 특징을 추출한다.

(1)
../../Resources/kiee/KIEE.2020.69.1.170/equ1.png

카이 제곱 검정방식은 식 (2)와 같으며, 카이 제곱 분포에 기초한 통계적 방법으로 관찰된 빈도와 기대되는 빈도의 차이를 검증하기 위해 사용되는 검증 방법이다. $O_{i}$는 클래스 i에서의 관측빈도, $E_{i}$는 클래스 i에서의 기대빈도를 나타낸다. 피어슨 상관관계와 같은 방식으로 카이 제곱 분포도를 이용하여 영향력이 적은 특징들은 제외하고 상위 10개의 특징을 추출하였다.

(2)
$$\chi_{c}^{2}=\sum_{i=1}^{n}\dfrac{(O_{i}-E_{i})^{2}}{E_{i}}$$

2.2.2 래퍼 방법(재귀변수 제거)

그림. 4. 래퍼 방법(재귀변수 제거)

Fig. 4. Process of the wrapper method

../../Resources/kiee/KIEE.2020.69.1.170/fig4.png

본 논문에서는 사용된 재귀변수 제거법은 래퍼 방식의 한 종류이다. 래퍼 방식은 특징들의 조합을 다르게 하면서 학습을 진행한다. 여기서 학습에 사용되는 머신 러닝 모델은 최종적으로 사용할 머신 러닝 모델과 같을 필요는 없다. 이 과정을 거쳐 완료된 모델 중 점수가 가장 높은 특징의 조합을 선택한다. 따라서 재귀변수 제거법은 그림 4와 같이 모든 특징을 우선 다 포함 시킨 후 반복해서 학습을 진행하면서 중요도가 낮은 특징을 하나씩 제거하는 방식이다. 본 연구에서는 선형 SVM을 적용하여 특징 선택을 하였다. 각 특징 조합을 학습 해야 하므로 많은 시간 비용이 필요하다는 단점이 있다. 하지만 학습을 진행하면서 가장 좋은 성능을 보이는 특징 집합을 선택한다. 필터 방법과 비교하였을 때, 학습에 대한 예측 정확도 측면에서 가장 좋은 성능을 보인다[13].

2.2.3 임베디드 방법(모델 기반 특징 선택)

그림. 5. 임베디드 방법의 과정

Fig. 5. Process of the embedded method

../../Resources/kiee/KIEE.2020.69.1.170/fig5.png

본 논문에서 사용된 모델 기반 특징 선택은 임베디드 방법의 한 종류이다. 래퍼 방법은 모든 조합의 학습을 마친 결과를 비교하는 데 비해, 그림 5와 같이 임베디드 방법은 학습 과정에서 최적화된 변수를 선택한다는 점에서 차이가 있다[14]. 전술하였듯이, 특징 선택에 사용되는 머신 러닝 모델은 최종적으로 사용할 머신 러닝 모델과 같을 필요가 없다. 따라서, 랜덤 포레스트 방식을 사용하여 특징을 선택하였다. 랜덤 포레스트 방식은 트리를 학습할 때 각 특징이 불필요한 정보를 얼마나 많이 감소시키는지 계산하다. 특징이 불필요한 특징을 감소시킬수록 해당 특징은 더 중요성은 높아진다. 최종 중요성을 결정하기 위해 각 특징에서 불필요한 정보 감소를 평균화하여 최종 중요성이 높은 특징을 결정한다.

2.3 서포트 벡터 머신

특징 벡터를 이용하여 정상과 비정상을 분류하기 위해 선형 SVM 모델을 분류기로 사용하였다. SVM의 원리는 두 그룹에서 각각의 데이터 간 거리를 측정한 후, 두 개의 데이터 사이의 중심을 구한다. 그다음, 그 가운데에서 최적의 초평면(Optimal Hyper Plane)을 구함으로써 학습이 진행된다. SVM은 데이터를 고차원적으로 매핑하며 데이터의 분류에 강점을 가진다. 또한, 다른 분류기보다 높은 성능을 가지므로 SVM을 사용하였다[15]. 선택된 10가지 특징들을 SVM 분류기 입력으로 사용하였다. 서로 다른 특징 선택 기법을 사용하여 10개씩 특징을 추출하고 SVM 분류기 입력으로 사용하여 결과를 비교하였다.

3. 실험 및 결과 분석

3.1 실험 환경

본 논문에서 진행한 실험은 다음과 같은 환경에서 진행되었다. Window 10 기반, Intel(R) Core(TM) i5-9400F CPU @ 2.90GHz, NVDIA GeForce GTX 1660 6GB, DDR4 32GB RAM의 PC 환경에서 Python 버전 3.6.9와 Scikit-learn 버전 0.21.3을 설치하였다.

3.2 데이터 셋

위 병변 진단 컴퓨터 보조 진단 시스템을 위하여 임상 시험 심사 위원회(Institutional Review Board, IRB)의 허가를 받은 경상대학교 병원의 위내시경 영상을 사용하였다. 데이터 셋으로 구성된 모든 영상의 진단은 소화기 내과 전문의에 의해 검증되었다. 데이터 셋 분류는 표 2와 같이 총 186장으로 이루어졌으며 학습 데이터는 93장, 테스트 데이터는 93장이다. 93장의 정상 데이터와 조기 위암(Early Gastric Cancer, EGC), 진행성 위암(Advanced Gastric Cancer, AGC)로 구성된 93장의 비정상 데이터로 구성된다. 난수를 이용하여 샘플링 반복을 하는 부트스트랩(Bootstrap) 기법을 적용하였다. 샘플링 비율을 0.5로 설정하고 93장의 샘플을 뽑아 10번의 샘플링 반복을 통해 학습을 진행하였다. 10개의 성능을 평균하여 모델의 성능으로 취한다. 그림 6는 연구에서 사용된 위내시경 영상의 예시이다. 그림 6-(a)는 정상의 위 영상, 그림 6-(b)는 조기 위암 영상이고 그림 6-(c)는 진행성 위암 영상이다.

그림. 6. 위내시경 영상

Fig. 6. Gastric endoscopy image

../../Resources/kiee/KIEE.2020.69.1.170/fig6.png

표 2. 데이터 셋의 분류

Table 2. Classification of data set

Classification of data set

Number of data set

Train Set

93

Test Set

93

3.3 실험 결과

186장의 위내시경 영상으로부터 4가지의 색상 특징을 추출하였으며, RGB 히스토그램(45d), HSV 히스토그램(45d), HSI- Intensity 히스토그램(15d), opponent RGB 히스토그램(45d)으로 구성된다. 2개의 텍스처 특징은 uniform LBP(59d)와 Gray-Level Co-occurrence Matrix(GLCM)(240d)로 구성된다. 추출된 모든 특징에서 각 알고리즘을 통하여 선택된 10개의 특징은 표 3과 같다. 표 3에서 ‘LBP_4 of 59’는 uniform LBP로부터 추출할 수 있는 59가지의 값 중에 4번째를 의미한다. 전반적으로 색상 특징과 질감 특징 중 LBP 특징이 많이 선택되었다. 5가지의 특징 선택 알고리즘에서 공통으로 Saturation_1 of 15, Opponent Blue_1 of 15, LBP_53 of 59와 LBP_50 of 59가 선택되었다. 이를 기반으로 이 특징들이 정상 이미지와 위암 이미지를 분류함에 가장 영향력 있는 특징임을 알 수 있다. 특징 집합을 구성할 때, 색상 특징은 색상의 분포 정보만 갖고 있을 뿐 질감 특징인 주름의 정보는 얻기 어렵다. 따라서 색상 특징과 질감 특징을 혼합하여 사용해야 한다. 이러한 특징 벡터를 이용하여 정상과 비정상을 분류하기 위해 선형 SVM 모델을 분류기로 사용하였다.

표 3. 선택된 특징의 결과

Table 3. Results of selected features

Method

Selected Features

Pearson Correlation

LBP_4 of 59, LBP_52 of 59, LBP_8 of 59, LBP_57 of 59, Red_1 of 15, Value_1 of 15, LBP_53 of 59, LBP_50 of 59, Opponent Red_1 of 15, Saturation_1 of 15

Chi-Squared

test

Red_1 of 15, Hue_6 of 15, Hue_12 of 15, Saturation_1 of 15, Value 1 of 15, LBP_50 of 59, LBP_52 of 59, LBP_53 of 59, Opponent Red_7 of 15, Opponent Blue_1 of 15

Recursive Feature Elimination

Hue_14 of 15, Saturation_1 of 15, Saturation_11 of 15, Value_1 of 15, LBP_50 of 59, LBP_53 of 59, LBP_57 of 59, Opponent Red_6 of 15, Opponent Red_7 of 15, Opponent Blue_1 of 15

Select From

Model

Red_1 of 15, Hue_6 of 15, Saturation_1 of 15, LBP_13 of 59, LBP_50 of 59, LBP_52 of 59, LBP_53 of 59, LBP_57 of 59, Opponent Red_7 of 15, Opponent Blue_1 of 15

Total

Ranking

Saturation_1 of 15, Opponent Blue_1 of 15, LBP_53 of 59, LBP_50 of 59, Value_1 of 15, Red_1 of 15, Opponent Red_7 of 15, LBP_57 of 59, LBP_52 of 59, Hue_6 of 15

성능 지표로는 혼동행렬(Confusion matrix)을 이용하여 위암 이미지를 위암 이미지로 옳게 분류한 경우 True Positive(TP), 위암 이미지를 정상 이미지로 틀리게 분류한 경우는 False Negative(FN), 정상 이미지를 위암 이미지로 틀리게 분류한 경우는 False Positive(FP) 그리고 정상 이미지를 정상 이미지로 옳게 분류한 경우는 True Negative(TN)이다. 혼동행렬을 기준으로 위암 이미지와 정상의 이미지에 대하여 올바르게 예측한 경우를 각각 구한 뒤 식 (3)~(6)을 기준으로 정확도(Accuracy), 정밀도(Precision), 특이도(Specificity) 그리고 재현율(Recall)의 공식을 이용하여 평가하였다.

(3)
$$Accuracy =\dfrac{TP + TN}{TP+TN+FP+FN}$$

(4)
$$Precision =\dfrac{TP}{TP +FP}$$

(5)
$$Specificity=\dfrac{TN}{TN+FP}$$

(6)
$$Recall =\dfrac{TP}{TP+FN}$$

정밀도는 입력 이미지에 병변이 존재할 때, 예측한 값이 올바르게 예측한 경우를 말한다. 정밀도와 재현율은 일종의 trade-off 관계이므로, 정밀도 값이 높으면 재현율 값이 낮게 된다. 학습과 테스트는 데이터의 구성을 다르게 하여 10번 진행되었다. 표 4는 정상과 위암 이미지 분류에 대한 성능이다. 10번의 테스트 결과를 성능 지표 기반으로 평균치를 구해 나타내었다. 각 학습의 데이터는 무작위로 구성되었다. 알고리즘을 통해 선택된 특징을 이용하여 분류하였고 알고리즘의 특징 선택 성능을 비교하기 위해 모든 특징을 이용한 분류 결과도 함께 나타내었다. 분류기는 SVM을 사용하여 모델을 생성하였다. 그 결과, 래퍼 방법의 재귀변수 제거 알고리즘을 통해 특징 선택이 이루어진 경우가 정확도 0.92, 정밀도 0.93, 특이도 0.92 그리고 재현율 0.92로 모든 측면에서 가장 좋은 성능을 보였다. 래퍼 방식은 머신 러닝을 진행하면서 가장 좋은 성능을 보이는 특징 집합을 선택하기 때문에 정상의 이미지와 병변 이미지를 효과적으로 분류할 수 있었다. 반면에 필터 기반의 피어슨 상관관계 분석과 카이 제곱 검정은 래퍼 방법과 임베디드 방법과 달리 학습 알고리즘과 독립적으로 정의되며, 머신 러닝의 측면에서 최적의 특징을 선택해주는 것이 아니다. 따라서, 정확도가 0.82와 0.88인 비교적 낮은 성능을 보였다. Total Ranking은 4가지의 알고리즘 통하여 상위 10개로 선택된 횟수를 계산하였고 횟수가 큰 10개의 특징을 다시 선택하였다. 하지만 이렇게 구성된 특징들은 영향력이 높은 특징들도 포함하였지만 낮은 영향력의 특징들도 포함되어 가장 높은 성능을 보여주지 못했다. 결과적으로, 특징 선택이 이루어진 경우가 특징 선택이 이루어지지 않은 경우보다 대체적으로 정밀도가 높음을 확인할 수 있었다. 이 결과를 통해 특징 선택은 원본 데이터에서 추출된 특징을 다시 분류에 도움 되는 특징만을 선택함으로써 분류의 정확도를 높이는데 기여함을 확인할 수 있었다.

표 4. 위암 이미지 분류에 대한 성능

Table 4. Performance for gastric cancer classification

../../Resources/kiee/KIEE.2020.69.1.170/tbl4.png

4. 결 론

우리나라에서 위암의 발생률은 여러 암종 중에서 13.3%로 가장 높은 비율을 차지한다. 위암의 증상은 겉으로 나타나지 않은 경우가 있으므로 위내시경을 통한 조기 발견이 중요하다. 따라서 본 연구에서는 위내시경 영상에서 병변을 검출하고 그 특성을 분석함으로써 의학 전문의의 임상적 진단을 보조하는 시스템을 제안한다. 특징 선택 알고리즘을 통하여 특징 선택을 진행하고 위암 분류를 위한 입력 데이터를 선정한다. 그리고 SVM을 통해 위암 진단이 이뤄진다. 더 높은 성능의 시스템 적용을 위해, 다섯 가지의 특징 선택 알고리즘에 따른 예측한 결과값을 비교하여 가장 높은 정확도를 갖는 특징 선택 알고리즘을 적용하여 설계하고자 하였다.

이에 따라 다섯 가지 특징 선택 알고리즘 중 재귀변수 제거 알고리즘을 적용하였을 때 정확도 0.92, 정밀도 0.93, 특이도 0.92 그리고 재현율 0.92로 가장 좋은 성능을 보였다. 하지만 본 실험은 굉장히 제한된 데이터 셋에 대해서만 비교 분석이 이뤄졌으며, 이를 통해 일반화하기에 한계점이 존재한다. 또한, 본 논문에서 적용한 기법들 이외에도 다양한 변수 선택 기법이 있어 더 좋은 결과를 얻을 수 있다고 생각한다. 추후 연구에서는 위내시경 영상의 데이터를 추가하고 위의 기법들 이외에도 다양한 특징 선택 기법의 적용을 통한 성능 향상을 목표로 할 것이다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC(Information Technology Research Center) support program(IITP-2019-2018-0-01433) supervised by the IITP(Institute for Information & communications Technology Promotion). This study was supported by Supporting Business for College Innovation from Kangwon National University.

References

1 
National Cancer Information Center, 2019, Cancer incidence statistics, 2016Google Search
2 
R. Miyaki, S. Yoshida, S. Tanaka, Y. Kominami, Y. Sanomura, T. Matsuo, et al., 2015, A computer system to be used with laser-based endoscopy for quantitative diagnosis of early gastric cancer, Journal of Clinical Gastroenterology, Vol. 49, pp. 108-115DOI
3 
B. Li, M. Q.-H. Meng, 2012, Tumor recognition in wireless capsule endoscopy images using textural features and SVM-based feature selection, IEEE Transactions on Information Technology in Biomedicine, Vol. 16, pp. 323-329DOI
4 
J. Liu, X. Yuan, 2009, Obscure bleeding detection in endoscopy images using support vector machines, Optimization and Engineering, Vol. 10, pp. 289-299DOI
5 
Y. Cong, S. Wang, J. Liu, J. Cao, Y. Yang, J. Luo, 2015, Deep sparse feature selection for computer aided endoscopy diagnosis, Pattern Recognition, Vol. 48, pp. 907-917DOI
6 
E.-K. Lim, G.-H. Kim, K.- B. Kim, 2005, Analysis System of Endoscopic Image of Early Gastric Cancer, Proceedings of KFIS Spring Conference, Vol. 15, pp. 255-260DOI
7 
K. Van De Sande, T. Gevers, C. Snoek, 2009, Evaluating color descriptors for object and scene recognition, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, pp. 1582-1596DOI
8 
S.-E. Lee, 2003, In order not to miss early gastric cancer, Korean Society of Gastronintestinal Endoscopy Seminar, pp. 129-136Google Search
9 
T. Ojala, M. Pietikäinen, T. Mäenpää, 2002, Multiresolution gray-scale and rotation invariant texture classification with local binary patterns, IEEE Transactions on Pattern Analysis & Machine Intelligence, pp. 971-987DOI
10 
P. Mohanaiah, P. Sathyanarayana, L. GuruKumar, 2013, Image texture feature extraction using GLCM approach, International journal of scientific and research publications, Vol. 3, pp. 1Google Search
11 
N. Sánchez-Maroño, A. Alonso-Betanzos, M. Tombilla- Sanromán, 2007, Filter methods for feature selection-a comparative study, in International Conference on Intelligent Data Engineering and Automated Learning, pp. 178-187DOI
12 
J. Weston, S. Mukherjee, O. Chapelle, M. Pontil, T. Poggio, V. Vapnik, 2001, Feature selection for SVMs, in Advances in Neural Information Processing Systems, pp. 668-674Google Search
13 
S. Maldonado, R. Weber, 2009, A wrapper method for feature selection using support vector machines, Information Sciences, Vol. 179, pp. 2208-2217DOI
14 
T. Mehmood, K. H. Liland, L. Snipen, S. Sæbø, 2012, A review of variable selection methods in partial least squares regression, Chemometrics and Intelligent Laboratory Systems, Vol. 118, pp. 62-69DOI
15 
E. E. Osuna, 1998, Support vector machines: Training and applications, Massachusetts Institute of TechnologyGoogle Search

저자소개

김윤지 (Yun-ji Kim)
../../Resources/kiee/KIEE.2020.69.1.170/au1.png

She is currently working toward a B.S. and M.S. degrees in Department of Electronic Engineering from Kangwon National University, Korea.

이신애 (Sin-ae Lee)
../../Resources/kiee/KIEE.2020.69.1.170/au2.png

She received her B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2018.

She is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

김동현 (Dong-hyun Kim)
../../Resources/kiee/KIEE.2020.69.1.170/au3.png

He received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2018.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

채정우 (Jung-woo Chae)
../../Resources/kiee/KIEE.2020.69.1.170/au4.png

He received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2019.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

함현식 (Hyun-sik Ham)
../../Resources/kiee/KIEE.2020.69.1.170/au5.png

He is currently working toward a B.S. and M.S. degrees in Department of Electronic Engineering from Kangwon National University, Korea.

조현진 (Hyun Chin Cho)
../../Resources/kiee/KIEE.2020.69.1.170/au6.png

She received the M.S. and Ph.D. degrees in Internal Medicine from Gyeongsang National University School of Medicine of Jinju, Korea in 2008 and 2014, she was a Fellow at Samsung Medical Center, Sungkyunkwan University School of Medicine, Seoul, Korea from 2009 to 2010.

During 2011-2015, she was a professor at Samsung Changwon Hospital, Sungkyunkwan University School of Medicine, Changwon, Korea.

She is currently a professor at Gyeongsang National University School of Medicine and Gyeongsang National University Hospital, Jinju, Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2020.69.1.170/au7.png

He received his MS and PhD degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010-2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA. From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.