• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Medical IT Engineering, Soonchunhyang University, Korea.)
  2. (Dept. of Software Convergence, Graduate School, Soonchunhyang University, Korea.)



Nailfold Capillary, 3D Printing, Smartphone, Deep learning, Segmentation, U-Net, Mobile application

1. 서 론

손톱 하부의 모세혈관은 손톱 근위부의 진피 유두층에 위치한 미세혈관으로, 피부 표면에서 인체의 미세순환을 직접 관찰할 수 있는 해부학적 특성을 지닌다[1]. 이 모세혈관들은 손가락 피부 표면과 평행한 구조로 배열되어 있으며, 세동맥과 세정맥을 연결하는 U자형 루프 구조를 보인다. 이러한 구조적 특징은 혈관의 형태학적 변이와 혈류 상태를 정밀하게 평가할 수 있는 최적의 관찰 부위로 간주된다[2].

손톱 하부의 모세혈관경(nailfold capillaroscopy, NFC) 검사는 비침습적이며 여러 질병을 검사하는 데 있어 신속하고 안전한 진단 방법 중 하나이다. 손톱 하부의 모세혈관은 대표적으로 레이노 현상, 전신 경화증, 당뇨병성 망막증 등의 질병을 진단하는 데 있어 유용한 지표로 사용된다. 이외에도 녹내장, 피부염 및 알츠하이머병과 같은 질환도 감지할 수 있다[3]. 레이노 현상은 저온이나 정서적 스트레스에 대한 비정상적으로 과장된 혈관 반응으로, 주로 손가락과 발가락에서 색깔 변화와 통증을 유발하는 질환이다[4]-[5]. 이 현상은 기저 질환의 유무에 따라 일차성과 이차성으로 구분된다[5]. 전신 경화증은 혈관, 피부를 포함한 장기의 비후나 경화를 일으키는 현상을 말한다[6]-[7]. 당뇨병성 망막증은 당뇨병으로 인해 망막의 혈관이 손상되면서 발생하는 질환으로, 시력 손실의 주요 원인 중 하나이며, 초기에는 증상이 없지만 진행이 계속되면 시력 저하 및 실명까지 이르는 질병을 말한다[8]-[9]. 이 같은 질병들은 초기에 질병을 치료하지 않으면 심각한 결과를 초래할 수 있기 때문에, 병원에서는 이를 진단하기 위한 다양한 연구와 NFC 검사와 같은 방법을 지속해 왔다[7].

그러나 기존 NFC 검사는 다양한 질환의 조기 진단에 유용한 검사임에도 불구하고, 고가의 고배율 현미경과 숙련된 전문 의료진을 필요로 하는 구조적 특성으로 인해 실제 임상 적용 범위가 매우 제한적이다. 이러한 고정형 장비 의존성은 NFC 검사를 의료기관 내부에서만 수행되는 절차로 고착시키며, 대규모 검진이나 의료 접근성이 낮은 지역에서는 적용이 어렵다. 또한, 영상 판독이 의료진의 경험과 주관적 판단에 크게 의존함에 따라 관찰자 간 평가 결과의 편차 발생과 재현성 부족 문제가 지속적으로 지적되어 왔다.

최근 이러한 한계를 보완하기 위해 딥러닝 기반 자동 분석 기법과 모바일 기기를 활용한 NFC 연구가 주목받고 있으나, 여전히 기술적·구조적 제약을 가진다[10]-[11]. 대다수의 선행 딥러닝 모델은 의료기관의 고정형 장비에서 촬영된 고해상도 영상을 기반으로 개발되어, 모바일 기기 촬영 영상이 갖는 낮은 광학적 품질, 조명 환경, 촬영 조건의 다양성에 대응하기 어렵다. 또한 모바일 기반 NFC 연구 역시 촬영부터 전처리, 분석 과정을 일관된 흐름으로 통합한 시스템이 부족하여, 실제 사용자 환경에서 안정적인 검사 워크플로우를 제공하지 못한다는 한계가 있다. 이와 같은 한계로 인해 기존 NFC 연구는 임상적으로 높은 잠재력을 지니고 있음에도 일상 환경에서 손쉽게 접근 가능한 검사 방식으로 확장되지 못하고 있으며, 조기 검진이나 연속 모니터링 같은 응용 영역에서도 실용성이 충분히 확보되지 못하고 있다.

이에 본 연구는 3D 프린팅 기술을 활용하여 제작한 스마트폰 현미경과 딥러닝 기반 U-Net 분할 모델을 통합한 모바일 시스템을 제안하고자 한다. 제안하는 시스템은 스마트폰 기반 촬영을 통해 장비 접근성을 높이고, 딥러닝 기반 자동 분할로 판독자 간 평가의 편차를 최소화하며, 촬영-전처리-분석 과정을 하나의 애플리케이션에서 수행할 수 있는 일관된 모바일 워크플로우를 제공함으로써 편의성을 극대화하였다. 이를 통해 기존 고정형 장비 중심 NFC의 구조적 한계를 보완하고, 의료기관 외부에서도 신뢰도 높은 모세혈관 분석을 가능하게 하는 사용자 친화적 검사 환경을 구현하였다.

2. 본 론

손톱 하부 모세혈관 영상을 획득하기 위해 3D 프린팅 기술을 이용한 휴대용 현미경을 제작하고, 딥러닝 모델 성능을 비교하여 최적의 혈관 분할 알고리즘을 선정하였다. 선정된 모델은 모바일 애플리케이션과 연동되어 사용자가 혈관 상태를 쉽게 모니터링할 수 있도록 구현되었다. 연구의 절차는 그림 1과 같다.

그림 1. 모세혈관 분석 과정

Fig. 1. Capillary Analysis Process

../../Resources/kiee/KIEE.2026.75.1.166/fig1.png

2.1 휴대용·모바일 현미경 설계 및 제작

현미경 내부 렌즈는 총 두 개로 구성되어 있다. 스마트폰 쪽의 접안렌즈는 초점 거리가 상대적으로 짧은 16.42mm 렌즈, 피험자 쪽의 대물렌즈는 초점 거리가 긴 18.215mm 렌즈를 선택하여 제작하였다. 접안렌즈는 대물렌즈에 의해 형성된 중간 이미지를 스마트폰 카메라로 전달할 때, 상대적으로 짧은 초점 거리로 인해 이미지를 더 높은 배율로 확대할 수 있는 반면, 접안렌즈에 비하여 긴 초점거리를 가진 대물렌즈는 피사체에서 들어오는 빛을 보다 넓게 수집할 수 있어, 선명하고 밝은 이미지를 형성하는 데 효율적이다. 이미지의 품질을 최적화하기 위하여 두 볼록렌즈 간의 거리는 6.5mm로 조정하였고, 명목상 시야의 거리는 250mm로 지정하였다. 식(1)은 대물렌즈의 초점거리를 구하는 수식이며, $d$는 두 볼록렌즈 간의 거리를 나타내고, $f_{o}$은 대물렌즈의 초점거리이다. 식(2)는 접안렌즈의 초점거리를 구하는 수식이며, $D$는 명목상 시야의 거리이다. 최종 배율 수식은 식(3)과 같이 나타내었다. 따라서 아래와 같은 수식을 이용하여 현미경의 총 배율은 $M \approx 5.44$이며 스마트폰의 7배율과 곱하여 총 배율은 38.08의 배율을 갖는다.

(1)
$$ M_{o}=\dfrac{d}{f_{o}} $$
(2)
$$ M_{e}=\dfrac{D}{f_{e}} $$
(3)
$$ M=M_{o}\times M_{e} $$

휴대용 현미경 장비는 SolidWorks 2014(Dassault Systèmes, Vélizy-Villacoublay, France)버전을 사용하여 3D 모델링 후, 3D Printer MakerBot(Replicator 2, MakerBot Industries, Brooklyn, New York, USA)을 이용하여 제작하였다. 현미경 본체, 현미경 회로 부착 부위, 렌즈 삽입 원 통, 나사, 휴대폰 집게 총 5개의 부품을 설계하여 장비를 제작하였다[11]. 또한, 현미경 회로 부착 부위에 광원을 제공하는 백색LED(PP00W-8L63 3W WHITE Power LED) 두 개를 상하로 부착하여, 손톱 하부의 모세혈관을 명확하게 검출할 수 있도록 충분한 밝기와 균일한 조명을 제공하였다. 제작한 장비는 그림 2와 같다.

그림 2. 3D Printing 스마트폰 현미경

Fig. 2. 3D Printing smartphone microscope

../../Resources/kiee/KIEE.2026.75.1.166/fig2.png

2.2 촬영 환경

3D Printer로 제작한 휴대용 현미경을 이용해 피험자 11명 (평균연령 24.9 ± 3.1세)의 손톱 하부 모세혈관을 대상으로 그림 3과 같이 촬영을 진행하였다. 촬영 환경 온도가 너무 높거나 낮으면 혈관이 수축하거나 확장하여 혈류 속도와 모세혈관의 모양이 달라질 수 있다. 이를 방지하기 위해, 피험자는 촬영 전 실내 온도 24°C에서 15분간 안정을 취하였다. 손의 위치는 심장의 높이와 일치시켰으며, 촬영 전 알코올 솜을 이용하여 손톱 하부의 이물질들을 제거하였다.

손톱의 곡면과 균일하지 않은 표면으로 인해 모세혈관 관찰 시 빛의 왜곡이 발생하고 투과도가 낮아 모세혈관이 명확하게 보이지 않는 문제가 발생한다. 이러한 문제점을 해결하고자 식물성 용액인 시더우드 용액(시더우드 에센셜오일, India, KANTA)을 손 하부의 모세혈관 부분에 한 방울 떨어뜨려 스마트폰을 고정한 상태에서 손과 밀착하여 이미지를 촬영하였다[7]. 이는 손톱 표면의 투명도를 높이고, 빛의 노이즈를 최소화하여 선명한 모세혈관을 검출할 수 있다.

그림 3. 피험자 실험 촬영 과정

Fig. 3. Experimental Subject Photography Process

../../Resources/kiee/KIEE.2026.75.1.166/fig3.png

2.2.1 촬영 장비 설정 및 영상 획득

최적의 이미지를 획득하기 위해 피험자의 손톱으로부터 현미경 내부의 대물렌즈와의 거리는 3 ~ 4mm를 유지하였고 스마트폰의 렌즈와 현미경 내부의 접안렌즈와의 거리는 2mm로 고정하였다. 휴대폰(iPhone 14pro, Apple, Cupertino, CA, USA) 메인 렌즈(48MP, f/2.2) 카메라 성능에 있는 줌 배율은 현미경의 렌즈 초점거리에 가장 선명히 보이는 7배를 고정으로 하여 모세혈관의 영상을 확보하였다. 엄지손가락을 제외한 8개의 손톱 하부에서 모세혈관을 관찰하여 촬영을 진행하였다. 총 11명의 피험자로부터 61장의 이미지를 확보하였으며, 각 이미지를 두 장의 이미지로 나누어 총 114장의 이미지를 획득하였다. 이 과정에서, 손톱 표면의 빛 반사가 심해 모세혈관이 명확히 보이지 않는 이미지는 분석이 어렵다고 판단하여 제외하였다. 획득한 이미지는 그림 4와 같다.

그림 4. 휴대용 현미경 기반 스마트폰으로 획득한 모세혈관 이미지

Fig. 4. Capillary images acquired using a smartphone-based portable microscope

../../Resources/kiee/KIEE.2026.75.1.166/fig4.png

2.3 전처리

획득한 114장의 이미지를 정확하게 분석하기 위해 전처리 과정을 수행하였으며, 이 과정에서 이미지를 grayscale로 변환하였다. 이는 혈관과 배경 간의 대비를 강화하여 분석 정확도를 높이기 위함이다. 모세혈관 밀도 수의 검진을 위한 1mm를 기준으로 이미지의 너비를 645pixels로 고정하였다[4],[12]. 각 피험자의 손톱 하부의 모양과 굴곡에 따른 이미지의 노이즈를 최대한 제거하기 위해 너비 645pixels와 높이 180pixels로 가장 높이 있는 혈관을 기준으로 하여 crop하였다. 딥러닝 기반 모세혈관 분할을 위해 Photoshop 13.0(Adobe, San Jose, CA, USA)을 사용하여 모세혈관 이미지를 수동으로 annotation 하였다.

2.3.1 데이터 증강

딥러닝 학습 데이터의 부족 문제를 해결하기 위해 데이터 증강(Data Augmentation) 기법을 적용하였다. 총 3가지의 증강 기법을 사용하였으며, 이미지를 상하로 뒤집는 수직 반전과 좌우로 뒤집는 수평 반전, 45°C 각도 내에서 랜덤하게 회전시키는 회전 기법을 사용하였다. 이러한 기법을 통해 각 이미지는 원본 이미지를 포함하여 4장의 이미지를 생성하였고, 총 456장 이미지를 확보하였다. 증강 데이터를 8:1:1의 비율로 나누어 train 376장, validation 40장, test 40장으로 실험을 진행하였다. 8:1:1의 비율은 적은 데이터양으로 인해 학습 데이터를 최대한 확보하면서도, 모델의 성능을 검증하고 테스트할 데이터를 확보하기 위해 설정하였다.

2.4 딥러닝 실험 환경

딥러닝 기반 혈관 분할은 2개의 NVIDIA GeForce RTX 2080 Ti GPU(NVIDIA Corporation, Santa Clara, CA, USA)로 구성된 환경에서 수행하였으며, 코드는 Visual Studio Code 환경에서 파이썬 3.9.0 기반의 파이토치(PyTorch) 라이브러리를 사용하여 구현하여 실험을 진행하였다.

2.4.1 학습 모델

테스트 데이터를 평가하기에 앞서, U-Net, Attention U-Net, SegNet, U-Net3+, DeepLabV3+, ResUnet++ 모델을 사용하여 학습을 진행하였고 분할 성능을 비교하였다[10]. 학습 과정에서 옵티마이저(Optimizer)는 Adam을 사용했으며, 배치 크기(batch size)는 5, 에폭(epochs) 수는 200, 학습률(Learning rate)은 0.0001로 설정하였다. 학습에 사용된 손실 함수는 고밀도 객체 감지에 효율적인 Focal Loss(Focal Loss for Dense object Detection) 함수(식 4)를 사용하였다. 일반적으로 이진 분할에서는 cross entropy 손실함수를 사용하지만, 데이터셋에 클래스 불균형이 존재할 경우 학습 성능에 한계가 발생한다. Focal Loss는 학습 중 발생하는 클래스 불균형 문제를 해결하기 위해 제안된 함수로, 특히 배경 픽셀이 객체의 픽셀보다 더 많이 존재하는 경우에 효과적이다. 이 손실함수는 불균형한 데이터로 인한 학습 저하를 방지하고, 모델이 더 어려운 예제에 집중하도록 유도하여 정확도를 높이는 역할을 한다[13]. 본 연구에서는 손톱 하부의 모세혈관 픽셀이 배경 피부 픽셀에 비해 상대적으로 적은 비중을 차지하는 데이터 불균형 문제를 해결하기 위해 Focal Loss를 선택하였다. 또한, 각 모델의 과적합(Overfitting)을 방지하기 위해서 드롭아웃(Dropout)기법을 사용하였으며, 드롭아웃 확률은 20%로 설정하였다[14]. 이는 학습 데이터가 376장으로 상대적으로 적어 과적합의 발생 가능성을 완화하기 위해 이러한 설정을 하였다.

(4)
$$ FL\left(P_{t}\right)= -\left(1-p_{t}\right)^{r}\log\left(p_{t}\right) $$

2.4.2 분할 모델

손톱 하부의 모세혈관을 정확하게 분할하기 위해, 의료 이미지 분할에서 자주 사용되는 CNN(Convolutional Neural Network) 기반 모델들을 선정하였다. 본 연구에서는 U-Net[15], Attention U-Net[16], SegNet[17], UNet3+[18], DeepLabV3+[19], ResUnet++[20] 모델의 성능을 비교하였다. U-Net 모델을 포함한 Attention U-Net, UNet3+, ResUnet++와 같은 U-Net 기반 모델들은 인코더-디코더 구조를 사용하여 픽셀 단위의 정밀한 분할을 수행하며, 의료 이미지 분할 작업에서 널리 사용되는 모델이다[21]. 특히, 데이터가 부족한 환경에서도 안정적인 성능을 보여주며, 모세혈관 이미지 분석에도 적합하다고 판단하여 U-Net은 본 연구의 기준 모델로 선정하였다. 이와 함께, SegNet과 DeepLabV3+의 성능도 평가하였다. SegNet은 단순한 구조와 높은 메모리 효율성을 통해 제한된 환경에서도 효과적으로 작동할 수 있으며, 모세혈관 이미지처럼 상대적으로 작은 크기의 데이터를 처리하는데 적합하다. DeepLabV3+는 다양한 특징 추출 능력이 뛰어나며, 이는 모세혈관의 복잡한 이미지 분할 작업에서 높은 성능을 보일 가능성이 있다. 이러한 특성과 장점을 고려하여, 본 연구에서는 SegNet과 DeepLabv3+를 추가로 선정하여 분할 성능을 비교하였다.

그림 5. 본 연구 딥러닝 아키텍처

Fig. 5. Deep Learning Architecture Proposed in This Study

../../Resources/kiee/KIEE.2026.75.1.166/fig5.png

2.5 성능 평가

기존 모세혈관 분석은 의료인의 주관적 판단과 육안에 의존하여, 결과의 일관성과 객관성이 떨어질 수 있다. 본 연구는 손톱 하부의 모세혈관 상태를 객관적으로 평가하고 모니터링하기 위해, 제공된 이미지에서 혈관을 정확하게 분할하는 것을 목표로 하였다. 이를 위해 사용된 성능 평가 지표는 자카드 지수(Jaccard Similarity Coefficient Index), 다이스 계수(Dice Similarity Coefficient Index), 정확도(Accuracy)를 사용하였다. 자카드 지수와 다이스 계수는 이미지 분할 작업에서 일반적으로 사용되는 지표로, 예측된 분할 영역과 실제 정답 간의 유사성을 정량적으로 평가한다. 모세혈관과 같이 경계가 불분명하고 세밀한 구조를 가진 이미지를 분석할 때 두 지표는 미세한 차이까지 반영할 수 있는 장점이 있다. 정확도는 전체 픽셀 중 올바르게 예측된 픽셀의 비율을 측정하여 모델의 전반적인 성능을 파악하는 데 유용하다.

자카드 지수(식 5)는 두 집합의 교집합을 합집합으로 나눈 값으로, 예측된 마스크와 실제 마스크 간의 유사도를 평가한다. 여기서 A는 실제 마스크(ground truth mask), B는 예측된 마스크(predict mask)를 의미한다. 다이스 계수(식 6)는 자카드 지수와 유사하지만, 두 집합의 크기와 위치를 함께 반영하며, 두 집합의 교집합을 두 집합 크기의 합으로 나누어 두 배로 계산한다. 정확도(식 7)는 TP(True Positive), TN(True Negative), FP(False Positive), FN(False Negative)을 합한 전체 픽셀 중에서 올바르게 예측된 픽셀 TP와 TN을 합한 비율로 나타낸다. 본 연구는 여섯 가지 의료 영상 분할 모델에서 자카드, 다이스 계수, 정확도를 사용하여 모델 성능을 평가하였다[22].

(5)
$$ Jaccard\; Similarity \;Coefficient = \dfrac{|A\cap B|}{|A\cup B|} $$
(6)
$$ Dice\; Similarity \;Coefficient = \dfrac{2\times |A\cap B|}{| A | +|B|} $$
(7)
$$ Accuracy = \dfrac{TP+TN}{TP+TN+FP+FN} $$

2.6 모바일 기반 이미지 분할 시스템

본 연구에서는 모바일 기기 애플리케이션을 통해 실시간으로 분할된 이미지를 확인할 수 있는 시스템을 개발하였다[24]-[26]. 이 시스템은 사용자가 직접 촬영한 이미지를 전처리한 후 서버로 보내 분할 작업을 수행한다. 분할 작업이 완료 된 결과는 모바일 애플리케이션으로 다시 전송되어 사용자에게 즉각적으로 제공한다. 분할이 진행되는 과정은 그림 6과 같다.

그림 6. 모바일 기반 분할 프로세스

Fig. 6. Mobile-based segmentation process

../../Resources/kiee/KIEE.2026.75.1.166/fig6.png

2.6.1 모바일 시스템 구성

모바일 애플리케이션은 Android Studio 환경에서 Kotlin 언어를 사용하여 개발하였다. 사용자는 앱 내부의 UI 버튼을 통해 촬영 기능을 실행하며, 스마트폰 카메라로 획득한 영상을 ColorMatrix 기반의 grayscale 변환과 645×180 pixels 크기의 Region of Interest(ROI) crop 과정을 거쳐 입력 형태를 표준화한다. 고연산이 필요한 딥러닝 분할 단계는 모바일 기기 대신 GPU가 장착된 서버에서 수행하도록 클라이언트-서버 구조를 적용하였다. 전처리된 이미지는 OkHttp3 기반의 multipart/form- data 방식으로 서버에 전송되며, 서버는 Python 기반 Flask 프레임워크에서 로딩된 촬영 이미지와 성능 평가(3.1절)를 통해 선정된 최적의 모델(U-Net)을 이용하여 분할을 수행한다. 분할된 결과는 비트맵 형태로 모바일 애플리케이션에 즉시 반환되며, 사용자 기기의 서버 양측에 저장되어 분석과 비교 또는 기록 관리가 가능하도록 구성하였다. 이러한 구조는 모바일 기기의 연산 제약을 최소화하면서도 사용자 중심의 직관적 워크플로우를 제공한다. 그림 7은 사용자 인터페이스 구성 요소를 나타낸다.

그림 7. 모바일 NFC 영상 분석 UI

Fig. 7. Mobile NFC Image Analysis UI

../../Resources/kiee/KIEE.2026.75.1.166/fig7.png

3. 결 과

3.1 딥러닝 분할 모델 성능 평가

분할 모델의 성능 평가 결과로는 U-Net 모델이 92.57%로 가장 높은 자카드 지수를 기록하였으며, 이는 모세혈관 이미지의 분할 작업에서 U-Net이 가장 정확하게 모세혈관을 분할하였다는 것을 의미한다. Attention U-Net 모델은 91.80%를 기록하였고 ResUnet++ 모델은 90.65%로 그 뒤를 이었다. UNet3+ 모델은 90.47%로 자카드 지수에서 가장 낮은 성능을 보였다. U-Net 모델은 다이스 계수에서도 96.10%로 가장 높은 성능을 보였으며, 이는 모세혈관의 실제 모양과 예측된 분할 영역이 매우 유사하게 일치하였음을 나타낸다. Attention U-Net 모델과 ResUnet++ 모델도 각각 95.68%와 95.05%로 높은 다이스 계수를 보였고 UNet3+ 모델은 94.94%의 결과를 보였다. 정확도 측면에서도 U-Net 모델이 93.23%로 가장 높은 정확도를 보였다. Attention U-Net은 92.55%, ResUnet++는 91.13%로 뒤를 이었으며, UNet3+은 90.87%로 가장 낮은 정확도를 보였다.

학습 시간은 모델의 성능뿐만 아니라 실제 적용 가능성을 평가하는 중요한 요소로 작용한다. 의료 영상 분할과 같은 실시간 응용 분야에서는 빠른 학습과 예측 속도가 진단 및 치료 과정에서의 효율성을 결정짓는 핵심 요소이다[23]. 학습 시간이 짧을수록 데이터가 추가되거나 모델이 업데이트될 때 신속한 재학습이 가능하며, 시스템 배포 및 활용 과정에서도 실질적인 이점을 제공한다. 반면, 학습 시간이 과도하게 길면, 대규모 데이터 학습 시 시간적·경제적 부담이 증가하며, 실시간 적용 가능성이 낮아진다.

본 연구에서는 동일한 하이퍼파라미터를 기준으로 6개의 모델에 대한 학습 시간을 측정하였다. 가장 학습 시간이 짧았던 모델은 SegNet모델로 51분 4초의 시간이 걸렸고 에폭당 평균 15초가 소요되었다. 분할 성능이 가장 우수했던 U-Net 모델은 총 73분 58초의 총 소요 시간이 걸렸고 에폭당 22초의 시간이 걸렸다.

그림 8은 각 딥러닝 분할 모델을 통해 획득한 손톱 하부 모세혈관 분할 결과를 시각적으로 비교한 것이다. 성능 지표와 비례하게 U-Net모델이 가장 정확하게 모세혈관 구조를 분할하며 Ground Truth와 유사한 결과를 보여주었다.

표 1. 각 분할 모델 성능 평가 표

Table 1. Performance Evaluation Table for Each Segmentation Model

Model Jaccard(%) Dice(%) Accuracy(%)
U-Net 92.57 96.10 93.23
SegNet 90.66 95.05 91.11
Attention U-Net 91.80 95.68 92.55
UNet3+ 90.47 94.94 90.87
DeepLabV3+ 90.99 95.23 91.59
ResUnet++ 90.65 95.05 91.13
그림 8. 분할 모델 결과 이미지

Fig. 8. Segmentation Model Result Image

../../Resources/kiee/KIEE.2026.75.1.166/fig8.png

3.2 모바일 기반 성능 평가

모바일 기반 적용 성능은 영상 촬영부터 전송, 추론, 결과 표시에 이르는 시스템 전체 처리 시간을 기준으로 측정하였다. 성능 평가 결과, 전체 프로세스는 평균 9 - 12초 내에 수행됨을 확인하였다. 이는 실제 임상 환경에서 즉각적인 진단을 수행하기에 충분한 임상적 실시간성을 확보하였음을 의미한다.

4. 고 찰

스마트폰 기반 현미경은 광학 줌 렌즈와 LED 조명을 통해 기존 고가 장비에 상응하는 수준의 고해상도 이미지를 제공하였으며, 손톱 하부의 미세한 모세혈관 구조를 명확히 시각화할 수 있었다. 본 연구에서 적용한 딥러닝 분할 결과, 자카드 지수 92.57%, 다이스 계수 96.10%, 정확도 93.23%를 기록한 U-Net 모델이 가장 우수한 성능을 보였다. 이는 U-Net 모델이 복잡한 모세혈관 경계와 세밀한 구조를 처리하는 데 적합하며, 딥러닝 모델 중 가장 신뢰할 수 있는 결과를 제공할 수 있음을 보여준다. 특히, 모세혈관 구조의 경계가 불명확한 영역에서도 높은 분할 성능을 보였다는 점은, 딥러닝 기술이 기존 의료인의 주관적 판단에 의존했던 모세혈관 분석을 객관적이고 정밀하게 수행할 수 있는 도구로 자리 잡을 가능성을 시사한다.

반면, 다른 모델들의 경우 U-Net과 유사한 분할 성능을 보였으나, 복잡한 경계에서의 처리 정확도가 상대적으로 낮아 세밀한 구조를 명확히 분할하는 데 한계를 드러냈다. 이는 각 모델의 구조적 설계와 데이터셋의 특성에 따라 성능에 크게 영향을 받는다는 점을 보였다. 따라서, 손톱 하부 모세혈관 분석에서는 U-Net 모델이 비교적 안정적이고 우수한 성능을 제공할 수 있음을 확인하였다. 또한, 모바일 애플리케이션과의 연동을 통해 실시간으로 분할된 이미지를 제공함으로써 시스템의 실시간 데이터 처리 기능과 사용자 인터페이스의 효율성을 확인하였다.

그러나 본 연구에는 몇 가지 한계점이 존재한다. 단일 연령층의 피험자 데이터를 사용하였으며, 데이터셋의 크기가 제한적이었다. 이로 인해 모델이 다양한 질병 상태나 연령대에 대한 데이터를 충분히 학습하지 못해, 새로운 환경이나 데이터에서의 성능 변동성이 증가할 가능성이 있다. 또한, 스마트폰 카메라의 성능 차이가 이미지 품질에 영향을 미쳤다. 이는 분할 성능의 일관성을 저해하는 요인으로 작용하였으며, 낮은 품질의 카메라를 사용하는 환경에서는 일관된 성능을 보장하기 어려운 요인으로 작용하였다.

5. 결 론

본 연구는 손톱 하부 모세혈관 이미지를 효율적으로 촬영하고 분석할 수 있는 스마트폰 기반 시스템을 개발하였다. 스마트폰 현미경과 딥러닝 기술을 결합함으로써, 고가의 전문 장비 없이도 모세혈관 상태를 객관적으로 분석할 수 있는 가능성을 입증하였다. 또한 제안하는 시스템은 촬영-전처리-분석 과정을 하나의 모바일 워크플로우로 통합하여, 기존 고정형 장비 중심 NFC가 가지던 장비 의존성과 기술적 비효율성을 동시에 보완하였다. 클라이언트-서버 구조를 통해 구현된 시스템은 신속한 응답 속도를 제공하여 사용자 편의성과 접근성을 향상시켰으며, 다양한 환경에서 모세혈관 상태를 모니터링할 수 있는 실질적 대안으로 활용 가능성을 보여주었다. 이러한 특징은 개인 맞춤형 건강관리 및 원격 환경에서의 적용 가능성을 넓히며 모바일 기반 NFC 검사의 확장성을 제시한다.

향후 연구에서는 다양한 연령대와 질병군을 포함한 데이터를 추가로 확보하고, 정상과 비정상 분류 기능을 고도화하여 임상 환경에서도 신뢰성 높은 분석 시스템으로 발전시키고자 한다.

Acknowledgements

This work was supported by the Soonchunhyang University Research Fund, BK21 FOUR (Fostering Outstanding Universities for Research) (5199990914048), and the National Research Foundation of Korea (NRF) grant funded by the Korea government (MSIT) (RS-2025-24532986) and Basic Science Research Program through the National Research Foundation of Korea (NRF) funded by the Ministry of Educations (RS-2025-25424745).

References

1 
M. Cutolo, A. Sulli, V. Smith, 2013, How to perform and interpret capillaroscopy, Best practice & research clinical rheumatology, Vol. 27, No. 2, pp. 237-248DOI
2 
M. Cutolo, 2015, Atlas of capillaroscopy in rheumatic diseasesGoogle Search
3 
M. Komai, D. Takeno, C. Fujii, J. Nakano, Y. Ohsaki, H. Shirakawa, 2024, Nailfold Capillaroscopy: A Comprehensive Review on Its Usefulness in Both Clinical Diagnosis and Improving Unhealthy Dietary Lifestyles, Nutrients, Vol. 16, No. 12, pp. 1914DOI
4 
H. S. Kim, 2015, The Efficacy of Nailfold Capillaroscopy in Patients with Raynaud’s Phenomenon, Journal of Rheumatic Diseases, Vol. 22, No. 2, pp. 69-75DOI
5 
W. H. Choi, H. S. Kim, 2019, A Diagnostic Roadmap for Raynaud’s Phenomenon, The Korean Journal of Medicine, Vol. 94, No. 5, pp. 431-437DOI
6 
V. Smith, 2020, Standardisation of nailfold capillaroscopy for the assessment of patients with Raynaud's phenomenon and systemic sclerosis, Autoimmunity reviews, Vol. 19, No. 3, pp. 102458DOI
7 
H. S. Kim, 2016, The Clinical Efficacy of Nailfold Capillaroscopy in Rheumatic Diseases, The Korean Journal of Medicine, Vol. 90, No. 6, pp. 494-500DOI
8 
J. W. Yau, 2012, Global prevalence and major risk factors of diabetic retinopathy, Diabetes care, Vol. 35, No. 3, pp. 556-564DOI
9 
M. Shikama, 2021, Association of crossing capillaries in the finger nailfold with diabetic retinopathy in type 2 diabetes mellitus, Journal of diabetes investigation, Vol. 12, No. 6, pp. 1007-1014DOI
10 
P. G. Bharathi, 2023, A deep learning system for quantitative assessment of microvascular abnormalities in nailfold capillary images, Rheumatology, Vol. 62, No. 6, pp. 2325-2329DOI
11 
S. Y. Bae, O. Lee, 2021, Development of Image Analysis System for Nailfold Capillaries Using Smartphone, The Transactions of The Korean Institute of Electrical Engineers, Vol. 70, No. 6, pp. 905-910DOI
12 
M. Etehad Tavakol, A. Fatemi, A. Karbalaie, Z. Emrani, B.-E. Erlandsson, 2015, Nailfold capillaroscopy in rheumatic diseases: which parameters should be evaluated?, BioMed Research International, Vol. 2015, No. 1, pp. 974530DOI
13 
T.-Y. Lin, P. Goyal, R. Girshick, K. He, P. Dollár, 2017, Focal loss for dense object detection, pp. 2980-2988Google Search
14 
N. Srivastava, G. Hinton, A. Krizhevsky, I. Sutskever, R. Salakhutdinov, 2014, Dropout: a simple way to prevent neural networks from overfitting, The journal of machine learning research, Vol. 15, No. 1, pp. 1929-1958Google Search
15 
O. Ronneberger, P. Fischer, T. Brox, 2015, U-net: Convolutional networks for biomedical image segmentation, pp. 234-241DOI
16 
O. Oktay, 2018, Attention u-net: Learning where to look for the pancreas, arXiv preprint arXiv:1804.03999DOI
17 
V. Badrinarayanan, A. Kendall, R. Cipolla, 2017, Segnet: A deep convolutional encoder-decoder architecture for image segmentation, IEEE transactions on pattern analysis and machine intelligence, Vol. 39, No. 12, pp. 2481-2495DOI
18 
H. Huang, 2020, Unet 3+: A full-scale connected unet for medical image segmentation, pp. 1055-1059DOI
19 
L.-C. Chen, Y. Zhu, G. Papandreou, F. Schroff, H. Adam, 2018, Encoder-decoder with atrous separable convolution for semantic image segmentation, pp. 801-818Google Search
20 
D. Jha, 2019, Resunet++: An advanced architecture for medical image segmentation, pp. 225-230DOI
21 
R. Azad, 2024, Medical Image Segmentation Review: The Success of U-Net, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 46, No. 12, pp. 10076-10095DOI
22 
J. Bertels, 2019, Optimizing the dice score and jaccard index for medical image segmentation: Theory and practice, pp. 92-100DOI
23 
K. Choi, 2016, Real-time artificial neural network for high-dimensional medical image, Journal of the Korean Society of Radiology, Vol. 10, No. 8, pp. 637-643Google Search
24 
Y. Deng, 2019, Deep learning on mobile devices: a review, Mobile Multimedia/Image Processing, Security, and Applications 2019, Vol. 10993, pp. 52-66DOI
25 
T. Zhao, 2022, A survey of deep learning on mobile devices: Applications, optimizations, challenges, and research opportunities, Proceedings of the IEEE, Vol. 110, No. 3, pp. 334-354DOI
26 
P. Hu, 2020, Real-time semantic segmentation with fast attention, IEEE Robotics and Automation Letters, Vol. 6, No. 1, pp. 263-270DOI

저자소개

박영욱(Younguk Park)
../../Resources/kiee/KIEE.2026.75.1.166/au1.png

Younguk Park received B.S. degree at Department of Medical IT Engineering from Soonchunhyang University, Korea, in 2025. His research interests include Artificial Intelligence for Medical Image.

E-mail: young072023@sch.ac.kr
계슬아(Seula Kye)
../../Resources/kiee/KIEE.2026.75.1.166/au2.png

Seula Kye received the B.S., M.S. degrees from Soonchunhyang University, in 2020 and 2022, respectively. Currently, she is a Ph.D. Course in Software Convergence, Soonchunhyang university. Her research interests include Artificial Intelligence for Medical Image.

E-mail: kyeseula@sch.ac.kr
이언석(Onseok Lee)
../../Resources/kiee/KIEE.2026.75.1.166/au3.png

Onseok Lee received the B.S., M.S., and Ph.D. degrees from Korea University, in 2005, 2007, and 2011, respectively. Currently, he is a Professor in Medical IT Engingeering, Soonchunhyang University, Korea.

E-mail: leeos@sch.ac.kr