• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electronic Engineering, Myongji University, Korea)



Structured Light, Laser Projection Point, Image Processing, Inverse Kinematics

1. 서 론

단관절 로봇은 기구부를 정밀하게 설계함에도 불구하고 가공 시에 공차가 유입되며, 조립 시에 오차가 발생하게 된다. 이는 성능을 저하시키는 요인으로 작용하며 링크와 관절이 많은 로봇일수록 더욱 크게 작용하여 로봇의 제어성능 및 정확도의 저하로 이어지게 된다. 오차를 보정하기 위해 여러 가지 방법들이 제안되어 사용되고 있으며, 이들은 크게 대상물과의 물리 접촉에 의한 보정 방식과 광학센서 등에 의존하는 비접촉 보정 방식으로 나눌 수 있다. 접촉 보정 방법의 대표적인 방법에는 충분히 정밀한 기하학 정보를 알고 있는 정밀 지그의 여러 지점을 접촉함으로써 로봇의 기구학 오차 정보를 추정하는 방법이 있다(1)-(3). 접촉 보정 방법은 보정 환경과 비슷한 작업 공간에서는 충분한 정밀도를 제공하나, 보정 환경을 벗어난 작업 공간에서는 정밀도가 낮아지는 경향을 보인다.

그림 1 구조광을 이용한 비접촉 보정 방법 개념도와 측정된 레이저 투사점의 형상 예시

Fig. 1 Concept diagram of the laser shape of the laser correction device.

../../Resources/kiee/KIEE.2022.71.3.534/fig1.png

비접촉 보정 방법에는 영상처리 기반 방법(4)(5), 레이저를 이용한 방법(6) 등이 주로 사용된다. 접촉 방식에 비하여 정밀도가 높지는 않으나, 작업 공간이 넓거나 특정하기 어려운 환경에서도 충분한 정밀도를 제공할 수 있기 때문에 최근 지능형 로봇에서 많이 사용되고 있다.

레이저를 이용하는 방법에서는 구조광(structured light)과 고해상도 카메라를 연동하는 방식이 많이 사용된다. 구조광이란, 특정 구조를 가진 빛을 뜻하며 빛의 특성을 이용하여 물체의 위치나 구조, 성질 등을 파악하는 곳에 주로 활용되고 있다. 구조광을 이용한 대표적인 비접촉 보정 방법인 레이저를 이용한 방법에서는 스크린에 투사되는 레이저 포인터의 위치를 고성능 카메라로 획득한 후 영상처리를 거쳐 로봇의 좌표계를 추정하게 된다. 따라서 카메라가 처리할 수 있는 초당 프레임 수가 적거나 투사점의 이동 속도에 의한 레이저 투사점(laser projection point)의 잔상 등에 의하여 정밀도가 저하될 수 있다(Fig. 1). 즉, 카메라 센서에 영상이 획득된 후 이를 이미지 프레임으로 변환하는데 처리시간이 필요하며, 이로 인하여 스크린에 투사된 이미지와 영상으로 획득한 이미지 간에는 시지연이 발생하게 된다. 또한 보정 시 사용하는 레이저의 투사점이 점이 아닌 면적을 가진 도형으로 획득되기 때문에 레이저 투사점의 정확한 위치를 추정하기 위해서 별도의 처리 알고리즘이 필요하다.

본 논문에서는 비접촉식 보정 방법에서 사용하는 레이저 투사점의 검출 정밀성을 향상하기 위한 알고리즘을 제시한다. 실제 이미지와 카메라로부터 획득한 이미지 사이의 시지연은 실험결과 비교적 일정하게 나타났으며, 이는 실험을 통하여 사전에 측정한 후 보정하여 사용하였다. 레이저 투사점이 닫힌 도형이 아닌 형상으로 획득될 경우 여러 개의 외곽선들로 나뉘어있기 때문에, 이 도형을 하나의 형상으로 인식하기 위해서 클러스터링 알고리즘을 사용하였다. 이 후 각 클러스터에 대한 타원 검출을 통하여 꼭짓점과 무게중심을 추정했으며, 과거 프레임에서 추정된 값과 비교하여 레이블링(labeling) 작업을 진행하였다. 이러한 과정을 통하여 각 레이저가 가리키는 위치 정밀성을 높일 수 있다.

2장에서는 구조광과 카메라에 대해서 서술한 후 레이저 투사점의 위치를 추정하는 알고리즘에 대하여 기술한다. 3장에서는 설명한 방법을 검증하기 위한 실험 환경을 구축하고 실험 결과를 서술한다. 마지막으로 4장에서는 본 논문의 요약 및 결론을 서술한다.

2. 레이저 투사점의 위치 추정

구조광(structured light)이란, 특정 구조를 가진 빛을 뜻하며, 특정 패턴의 광선을 투사하는 방법이다. 레이저 광선은 직진성을 가지기 때문에 스크린에 투사된 지점들을 정밀히 검출할 수 있다면, 직접 접촉하지 않고도 구조광 모듈의 3차원 좌표를 높은 정밀도로 추정할 수 있다. 이러한 구조광 모듈을 매니퓰레이터의 최말단 링크에 부착한 후 구조광 모듈 간의 기하학적 관계를 특정할 수 있다(Fig. 2). 또한 구조광 모듈의 기하학적 정보 역시 스크린에 투사되는 상을 역 운동 기하학을 통하여 얻을 수 있으므로 매니퓰레이터 최말단 링크의 기하학적 정보를 파악할 수 있게 된다.

그림 2 (좌)사면체 구조광 모듈 (우)스크린에 투사된 레이저 투사점의 모습

Fig. 2 (L)Tetrahedron Structured Light Module (R)Image of laser projection point

../../Resources/kiee/KIEE.2022.71.3.534/fig2.png

그림 3 제시된 알고리즘의 순서도

Fig. 3 Flowchart of presented algorithm

../../Resources/kiee/KIEE.2022.71.3.534/fig3.png

2.1 구조광과 카메라 시스템의 특성

비접촉 보정 방법에서는 획득된 레이저 점의 이미지로부터중심점의 위치를 계산해야 한다. 실제로 레이저는 원기둥 모양의 빔 형태로 투사되기 때문에 면적을 가지는 형상으로 검출되며 레이저 포인터가 가리키는 정확한 위치를 알기 위해서는 추가적인 과정을 거쳐야 한다. 레이저가 스크린에 투사된 상을 카메라로 촬영하면 광점과 산란광(flare)으로 나눌 수 있다. Fig. 3에서 볼 수 있듯이 광점은 비교적 일정하며 높은 명도와 포화도를 가진다. 따라서 광점은 레이저의 파장에 관계없이 흰색에 가까운 색을 나타낸다. 산란광은 모양이 미세하게 계속 변하며, 레이저에 파장에 따른 색 특성을 가진다. 또한 레이저 광선은 부피가 있는 원통 형태로 모델링 할 수 있다. 따라서 레이저 광선이 스크린에 수직이 아닌 경우에는 투사점은 점이 아닌 타원의 형태로 나타나게 된다.

본 논문에서 사용하는 카메라는 산란광의 외곽선을 추출하여 위치를 추적하므로 산란광의 비정형성이 위치 값 추정에 미세하게 영향을 준다. 또한 레이저가 기울거나 움직일 경우 카메라의 처리 가능한 초당 프레임 수(FPS: Frame Per Second)의 제한에 의하여 정지상태의 레이저와는 다르게 잔상이 검출된다. 이때 발생하는 잔상은 레이저 포인터의 속도가 빠를수록, 카메라의 샘플링 시간이 길수록 길게 나타난다.

2.2 레이저 투사점의 위치 추정을 위한 알고리즘

구조광의 레이저 투사점의 정확한 위치를 추정하기 위하여 본 논문에서는 수학 모델을 이용한 영상처리 알고리즘을 사용한다(Fig. 3). 카메라를 통하여 레이저 투사점 영상을 받아오면 영상을 이진화한 뒤 이상학적 구조 해석 방법으로 레이저 투사점의 외곽선을 검출한다. 명도와 포화도가 비교적 높은 광점이 항상 레이저 투사점의 중심부에 위치하므로 명도 혹은 포화도를 한계값(threshold)과 비교하여 이진화할 수 있다. 검출된 외곽선이 비정형이며, 완전히 닫히지 않은 곡선이 검출되는 경우에도 무게중심을 검출할 수 있도록 클러스터링 알고리즘을 이용하여 근접한 외곽선을 하나의 형상으로 판단하여 무게중심을 추정한다. 이후 과거의 프레임들로부터 추정한 값과 현재 투사점의 무게중심 값과의 가중치 합으로부터 레이블링(labeling) 작업을 수행한다.

획득된 영상 프레임간의 시간차가 적을수록 레이저 투사점의 이동에 대한 반응성이 높고, 반응성이 높을수록 잔상이 짧게 검출되기 때문에 검출되는 레이저 투사점의 오차가 줄어들게 된다. 영상 프레임의 획득에 소요되는 시간은 컴퓨터의 프로세싱 자원에 의존하지 않고, 카메라의 성능과 통신 대역폭에 크게 의존하기 때문에, 하나의 단일 스레드로 프로그램을 작성할 경우, 프레임 획득 함수의 대기(function block)으로 인하여, 프로세싱 자원이 비효율적으로 낭비되는 현상이 발생한다. 이를 해소하기 위하여, 프레임획득 부분과 영상처리 부분을 별도의 스레드로 나누어 구현하였다. 각각의 스레드에 작업을 분배하여 진행하므로 시스템의 자원을 최대한으로 활용하여 대기 시간을 줄여 초당프레임수를 높일 수 있다. 각 스레드에서 동작하는 프로세스의 실행 시간 및 실행 순서는 Fig. 4와 같다.

그림 4 각 스레드의 수행 시간

Fig. 4 Graph of the performance time of each thread

../../Resources/kiee/KIEE.2022.71.3.534/fig4.png

메인 스레드에서는 샘플 시간에 대해 스레드간의 정확한 동기화를 위해서 timerfd() 타이머를 사용한다. timerfd() 타이머는 리눅스 커널에서 동작하며 높은 정밀도와 적은 자원 소모, 쉬운 구현 난이도를 가진다. 매 샘플 시간마다 메인 스레드는 영상처리 스레드에 신호를 보냄과 동시에 카메라 센서에서부터 이미지 프레임을 획득한 후 다음 샘플시간까지 대기상태로 머물게 된다(busy waiting technique).

영상 처리 스레드에서는 이전 샘플 시간에서 저장된 프레임을 이용하여 레이저 투사점의 좌표를 추정한다. 우선 클러스터링에 필요한 투사점의 중심점 좌표를 얻기 위해 영상을 이진화한 뒤 외곽선 검출 알고리즘을 통해 레이저 투사점의 이미지피처(image feature)를 추출한다. 이 과정에서 노이즈를 줄이기 위해서 블러링 연산을 진행한다. 이후 각 피처의 중심점을 추출한 뒤 클러스터링을 진행한다. 두 점 사이의 거리를 Manhattan distance(7)로 계산한 후, 임계값보다 작을 경우에 동일 클러스터로 결정하는 방법을 사용하였다. 클러스터링을 진행한 피처에 대해 타원 검출을 진행하여 중심점 정보를 추출한다. 이때, 피처의 중심점 추정값을 구하기 위해서 이전 샘플 시간에서의 중심점과 추정 속도를 이용하였으며, 그 식은 식 (1)과 같다.

(1a)
$\hat p_{k|k-1}= 2\hat p_{k-1|k-1}-\hat p_{k-2|k-2}$

(1b)
$\hat p_{k|k}=\alpha p^{m}_{k}+(1-\alpha)\hat p_{k|k-1}$

여기서, $p_{k}$는 샘플시간에서의 실제 좌표, $\hat p_{k}$는 샘플 시간 $T_{k}$에서 추정된 좌표, $\alpha$는 가중치를 의미한다.

클러스터된 피처들을 레이블링하기 위해서 수학적 모델로 추정된 좌표 와 카메라로부터 얻은 좌표를 이용한다. 카메라로부터 얻은 좌표들을 피처의 후보 좌표군으로 지정하고 이 좌표들과 추정된 좌표들 간의 거리를 Manhattan distance로 계산한다. 모든 $\hat p_{k}$-$p^{m}_{k}$간의 거리를 계산하고 모든 경우의 거리 합을 구하여 가장 낮은 조합을 선택한다. 이 때 $p^{m}_{k}$의 레이블 아이디는 $\hat p_{k}$와 같은 아이디를 부여한다. 이후 레이블 된 정보로부터 레이저 투사점의 좌표 정보를 업데이트한다.

3. 실험 결과

3.1 실험 환경 구축

그림 5 실험 환경 개념도

Fig. 5 Concept image of experimental environment

../../Resources/kiee/KIEE.2022.71.3.534/fig5.png

본 논문에서는 제안한 알고리즘의 영상처리 부분에서 외곽선 검출을 위하여 한계점(threshold) 알고리즘(4)을 사용하여 실험한다. 또한 실제 레이저 포인터가 가리키는 각도와 카메라로 촬영되는 레이저 투사점의 시지연을 측정하기 위하여 정밀 엔코더를 사용하였다. 정밀 엔코더에 동기 신호를 사용하여 카메라로 촬영되는 레이저 투사점의 위치와 실제 레이저 포인터가 가리키는 각도 정보를 동기화 하였다. Fig. 5에서와 같이 카메라가 스크린의 정 중앙에 놓이도록 엔코더/카메라를 고정하였다($l_{0}$=$l_{1}$=$l_{2}$=$l_{3}$). 정지 상태에서 레이저 포인터를 카메라의 정중앙으로 촬영되도록 흔들림 없이 고정한 뒤 추정되는 중심점의 평균과 표준편차로부터 레이저의 세기 및 주변 환경의 밝기를 변경하였다. 엔코더 위의 카메라를 회전시켜 투사되는 레이저의 각도를 변경하면서 엔코더로부터 측정된 레이저 포인트의 계산값과 알고리즘에 의한 실측값의 오차를 측정한다. 이 때, 카메라의 특성 및 영상 처리 속도에 따른 시지연이 존재하므로 이를 실측한 후 보정하기 위하여 엔코더로부터 얻어진 데이터를 지연하여 정합 후 사용하였다.

그림 6 구축된 실험 환경 블록도

Fig. 6 Block diagram of experimental environment

../../Resources/kiee/KIEE.2022.71.3.534/fig6.png

실험을 위하여 카메라의 영상을 처리하는 컴퓨터로 Nvidia의 Jetson Nano (ARM-A57@1.43G Hz)를 사용하였으며, 정밀 엔코더에 동기신호를 주고 위치 데이터를 측정하는 인터페이스 보드로 Arduino Due (ARM-M3 AT91SAM3X8E @84MHz)를 사용하여 실험 환경을 구축하였다(Fig. 7).

그림 7 구축된 실험 환경

Fig. 7 Experimental environment

../../Resources/kiee/KIEE.2022.71.3.534/fig7.png

실험에서 사용되는 파라미터는 다음과 같다 (Fig. 8, Table.1). 레이저가 엔코더에 장착된 structured laser module (SLM)과 카메라를 스크린에 최대한 수직으로 배치한 뒤, 측정된 각도를 각도 영점($\theta_{0}$)으로, 레이저 투사점의 좌표를 좌표 영점($p_{0}$)으로 가정한다. 또한 레이저 투사점이 카메라에 잡히는 한계 지점까지 엔코더를 회전한 각도를 각각 좌한 각도($\theta_{L}$), 우한 각도($\theta_{R}$)로 가정한다. 앞서 얻은 파라미터로부터 각도에 따른 좌표를 계산한다. 계산된 좌표($x_{a}$)는 식 (2)로 표현된다.

(2)
$x_{a}(\theta)=\dfrac{r_{x}}{\theta_{L}-\theta_{R}}\theta =\dfrac{r_{x}}{\Delta\theta}\theta$

그림 8 실험에서 사용되는 파라미터

Fig. 8 Parameters used in experiment

../../Resources/kiee/KIEE.2022.71.3.534/fig8.png

표 8 실험에서 사용되는 파라미터 명명법

Table. 8 Nomenclature of parameters used in the algorithm

Notation

Explanation

$\theta_{0}$

초기각도

$p_{0}=(x_{0},\: y_{0})$

초기좌표

$\theta_{L}$

좌한각도

$\theta_{R}$

우한각도

$\Delta\theta =\theta_{L}-\theta_{R}$

각도 범위

$\theta(\theta_{R}\le \theta\le \theta_{L})$

엔코더의 각도

$p_{L}=(x_{L,\:}y_{L})$

좌한 좌표

$p_{R}=(x_{R,\:}y_{R})$

우한 좌표

$p_{k}^{a}$

엔코더의 각도로부터 계산된 좌표

$p_{k}^{m}$

카메라를 통해서 얻은 좌표

$\hat p_{k|k-1}$

과거값으로부터 추정된 좌표

$\hat p_{k|k}$

과거 추정값와 현재 측정값으로부터 추정된 좌표

3.2 실험 결과

알고리즘의 성능 확인을 위하여 다음과 같은 단계로 실험을 진행하였다.

1. SLM의 회전 각도를 다양하게 바꾸며 영상을 촬영한다.

2. 1에서 얻은 영상 정보와 각 샘플 시간에서의 각도 정보를 바탕으로 레이저 투사점의 실제 좌표($x_{k}^{a}$)를 계산한다.

3. 촬영된 영상과 비교하여 시지연을 측정 후 보정한다.

4. 1에서 촬영한 영상을 알고리즘을 통해 처리하여 레이저 투사점의 추정 좌표($\hat x_{k}$)를 계산한다.

5. 2에서 얻은 실제 좌표 $x_{k}^{a}$와 4단계에서 얻은 추정 좌표 $\hat x_{k}$의 차이를 비교하여 알고리즘의 성능을 검증한다.

영상은 100ms의 샘플 시간에 따라 촬영되었으며 촬영된 스크린의 크기는 가로로 500mm, 세로로 281mm이며, 화면 양 끝에 도달했을 때 엔코더가 나타내는 각도는 $+-30^{\circ}$이다 ($\theta_{L}= 30^{\circ},\:\theta_{R}= -30^{\circ}$).

그림 9 레이저 투사점의 $x$좌표를 샘플 시간 t에 대해 나타낸 그래프.

Fig. 9 Graph of the $x$-coordinate of the laser point for sample time.

../../Resources/kiee/KIEE.2022.71.3.534/fig9.png

그림 10 카메라로 인해 발생한 시지연을 보정한 그래프.

Fig. 10 The graph that corrected the time delay caused by the camera.

../../Resources/kiee/KIEE.2022.71.3.534/fig10.png

Fig. 9Fig. 10은 정밀 엔코더의 각도 정보로부터 계산된 레이저 투사점의 궤적($p_{k}^{a}$, 붉은색), 카메라를 통해서 얻은 프레임에서의 레이저 투사점의 궤적($p_{k}^{m}$, 초록색), 과거 프레임에서의 좌표를 이용하여 추정한 레이저 투사점의 궤적($\hat p_{k}$, 파란색)와 과거 프레임에서 레이저 투사점의 좌표와 과거 샘플 시간에서의 속도 추정값을 이용하여 추정한 궤적($\hat p'_{k}$, 자홍색)을 도시하였다. Fig. 9의 그래프에서 보이듯 가로축은 샘플 주기, 세로축은 각 점의 좌표를 나타낸다. 이번 실험에서는 카메라 지연으로 인하여 12주기만큼 (=1200ms) 시지연이 발생하였으며 Fig. 10의 그래프는 이 시지연을 보정한 그래프이다. 두 그래프의 실험 결과 시지연을 보정하기 전에는 $p_{k}^{a}$와 $\hat p_{k|k}$의 오차 norm값과 $p_{k}^{a}$와 $\hat p_{k|k-1}$의 오차 norm값이 모두 로 나타났지만 12주기의 시지연을 보정한 결과 $p_{k}^{a}$와 $\hat p_{k|k}$의 오차 norm값은 , $p_{k}^{a}$와 $\hat p_{k|k-1}$의 오차 norm값은 로 나타났다. 따라서 알고리즘이 추정한 $x$좌표가 정밀 엔코더를 통해 얻은 궤적과 유사하게 진행함을 알 수 있다.

그림 11 시지연을 고려하지 않고 추정된 결과 영상.

Fig. 11 The screen of the video processed through the presented algorithm.

../../Resources/kiee/KIEE.2022.71.3.534/fig11.png

그림 12 시지연을 고려한 후 추정된 결과 영상.

Fig. 12 The screen of the video that corrected the time delay caused by the camera.

../../Resources/kiee/KIEE.2022.71.3.534/fig12.png

Fig. 11Fig. 12는 이번 논문에서 제시한 알고리즘을 통해서 처리된 레이저 포인터의 투사점 영상의 사진이다. 해당 사진에서는 좌표값 추정을 위해 과거 프레임에서 레이저 투사점의 중심 좌표값과 속도 추정값을 사용하였다. 레이저 투사점은 정밀 엔코더에 장착된 레이저 포인터의 투사점이다. 사진에서 검은색 타원은 레이저 포인터의 투사점으로 추정되는 부분을 둘러싸는 타원을 나타내며, 각 투사점에 찍힌 초록색 점은 투사점의 추정된 좌표이며, 붉은색 점은 정밀 엔코더에서 얻은 각도 정보를 토대로 계산된 좌표이다. 화면 좌상단의 실수는 정밀 엔코더에서 얻은 현재 프레임에서의 각도 정보이다. Fig. 13은 그래프에서와 마찬가지로 Fig. 12에서 의 위상만 12 샘플 주기만큼 (=1200ms) 뒤로 이동한 그래프이다. 시뮬레이션 결과 시지연을 고려하였을 때 초록색 점과 붉은색 점의 위치가 높은 정밀도로 일치하는 것을 확인할 수 있다.

4. 결 론

로봇의 기구학적 오차를 보정하기 위하여 많은 알고리즘이 사용되고 있다. 구조광을 사용한 비접촉 보정 알고리즘에서는 카메라로 관측된 스크린에 투사된 레이저 상을 이용한다. 이 때, 실제 레이저 투사점은 레이저 광선의 단면적과 카메라의 시지연 및 잔상으로 인하여 면적을 갖는 형상으로 검출되기 때문에 높은 정밀도로 투사점을 추정하기 위한 알고리즘이 필요하다. 이를 위해 본 논문에서는 수학 모델에 기반한 추정 알고리즘을 제안한다. 제안한 알고리즘의 성능을 검증하기 위한 실험 환경 및 실험 방법을 구성하였으며, 실제 실험 결과 카메라와 영상 처리 성능의 한계로 인해서 시지연이 발생하였지만 좌표 데이터를 샘플 시간에 맞게 보정할 경우 실제 좌표와 근접한 좌표를 추정할 수 있음을 알 수 있었다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIP) (No. NRF-2020R1A2C1010891). This work was also supported by the Technology Innovation Program (20009214, Development of HighStrength HighSpeed and Ultrathin Robot Simulator with Compound Planetary GearBased Sensor) funded By the Ministry of Trade, Industry & Energy(MOTIE, Korea)

References

1 
Z. Roth, B. Mooring, B. Ravani, October 1987, An overview of robot calibration, in IEEE Journal on Robotics and Automation, Vol. 3, No. 5, pp. 377-385DOI
2 
Heping Chen, T. Fuhlbrigge, Sang Choi, Jianjun Wang, Xiongzi Li, 2008, Practical industrial robot zero offset calibration, 2008 IEEE International Conference on Automation Science and Engineering, pp. 516-521DOI
3 
Driels, Morris R., 1990, Significance of observation strategy on the design of robot calibration experiments., Journal of robotic systems 7.2, pp. 197-223DOI
4 
Wenlei Liu, 2019, Calibration method based on the image of the absolute quadratic curve., , pp. 29856-29868DOI
5 
Mili Shah, D. Eastman Roger, Hong Tsai, 2012, An overview of robot-sensor calibration methods for evaluation of perception systems, Proceedings of the Workshop on Performance Metrics for Intelligent Systems. 2012 trics for Intelligent Systems, 12, pp. 15-20DOI
6 
In-Won Park, 2011, Laser-based kinematic calibration of robot manipulator using differential kinematics., IEEE/ASME transactions on mechatronics 17.6, pp. 1059-1067DOI
7 
Eugene F. Krause, 1986, Taxicab geometry: An adventure in non-Euclidean geometry, Courier CorporationGoogle Search

저자소개

김지호 (Jiho Kim)
../../Resources/kiee/KIEE.2022.71.3.534/au1.png

Since 2017, he has been studying electrical engineering at Myongji University and has been researching with interest in embedded systems, hardware, and computer vision.

이범주 (Bumjoo Lee)
../../Resources/kiee/KIEE.2022.71.3.534/au2.png

He received a B.S. degree in electrical engineering from Yonsei University, Seoul, Korea, in 2002, and M.S. and Ph.D. degrees in electrical engineering from Korea Advanced Institute of Science and Technology (KAIST), Korea, in 2004 and 2008, respectively.

Since 2012, he has been with the Department of Electrical Engineering at Myongji University, Korea, where he is currently a Professor.

His research interests include humanoid robotics, especially motion planning and control algorithms.