DGIST 전기전자컴퓨터공학과 진경환 교수 연구팀이 기존 대비 메모리 속도는 절감되고, 해상력은 3dB 증가한 영상처리 딥러닝 기술을 개발하였다.
▲ (왼쪽에서 오른쪽으로). dgist 전기전자컴퓨터공학과 진경환 교수, 정보통신융합연구소 이재원 연구원 (이미지 출처=DGIST)
삼성리서치 최광표 마스터와 공동연구로 개발한 이번 기술은 기존의 “신호처리 기반의 이미지 보간 기술(Bicubic interpolation)”보다 화면의 엘리어싱 현상을 줄여 보다 자연스럽게 영상이 출력될 수 있으며, 특히 이미지의 고주파 부분을 뚜렷하게 복원할 수 있다.
이를 통해 VR 또는 AR 활용 시 자연스러운 화면을 출력할 수 있을 것으로 기대된다. 엘리어싱 현상이란 컴퓨터 그래픽에서 사선이나 곡선을 그리면 톱니 모양처럼 선이 형성되는 현상을 말한다.
▲ (그림1)영상 워핑 예제(이미지 출처=DGIST)
▲ (그림2)제안된 퓨리에 해석기반 영상 워핑 함축적 표현 인공지능망 (LTEW)(이미지 출처=DGIST)
그림1, 그림2 기술의 전체적인 플로우 차트
기존의 "신호처리 기반의 이미지 보간 기술(Bicubic interpolation)”은 이미지의 특정 위치를 지정하여 다양한 환경에서 원하는 이미지 영상을 보전해주는 기술로 메모리와 속도가 절감된다는 장점이 있지만, 화질열화 현상이 발생하여 이미지가 변형되는 문제가 발생했다.
이러한 문제를 해결하기 위해 딥러닝 기반의 초고해상도 영상 이미지 변환 기술들이 등장하였지만, 대부분 합성곱 인공지능망기반 기술 합성곱 인공지능망기반 기술(convolutional neural network)로, 픽셀과 픽셀 사이의 값들 추정이 부정확하여 이미지가 변형된다는 단점이 있었다.
이러한 단점을 극복하고자 함축 표현 신경망 기술 함축표현 신경망(implicit neural representation)이 주목받고 있지만, 함축 표현 신경망 기술은 고주파 성분을 잡아내지 못하고 메모리와 속도 역시 증가한다는 단점을 가지고 있다.
이에 DGIST 진경환 교수 연구팀은 이미지에서 고주파 성분 특징을 표현할 수 있도록 이미지를 여러 주파수로 분해하고, 함축 표현 신경망 기술을 통해 분해된 주파수에 다시 좌표를 부여하여 보다 선명하게 보일 수 있도록 이미지화하는 기술을 개발하였다.
해당 기술은 이미지 딥러닝 기술인 퓨리에 해석과 함축 표현 신경망 기술이 결합된 새로운 기술이라고 볼 수 있다. 새롭게 구현된 기술은 이미지를 복원하는 데 있어서 필수적인 주파수 성분들을 인공지능망을 통해 분해하여, 고주파 성분을 복원하지 못한다는 함축 표현 신경망의 단점을 보완할 수 있었다.
▲ RRDB[48] (기존 기술 1) 의 경우에는 글자정보와 라인정보가 앨리어싱이 생기는 것을 볼 수 있고, SRWarp (기존 기술 2) 신호의 고주파 성분을 잡아내지 못하고 있음. 하지만 LTEW (본 기술) 은 아티팩트가 적으면서 이미지의 고주파 성분을 정확히 예측함.(이미지 출처=DGIST)
▲ 학습과정에서 참조하지 않았던 ERP 영상에서도 LTEW (본 기술) 은 아티팩트가 적으면서, 사람 눈에 고화질이라고 인식될만한 특징들의 영상들을 잘 보간하는 것을 볼수 있음(이미지 출처=DGIST)
진경환 교수는 “이번에 개발한 기술은 기존 이미지 워핑 워핑 : 이미지를 보는 사람이 선명하게 볼 수 있도록 임의로 이미지 형태를 변형(자르기, 축소 또는 확대, 구부림 등)하는 등의 행위
분야에서 활용한 기술보다 복원 성능이 높고, 메모리를 적게 소모한다는 점에서 훌륭하다고 할 수 있다. 앞으로 화질복원과 이미지 편집 분야에서 해당기술이 활용되어 학계와 산업계에 기여하기를 바란다.”고 밝혔다
한편, 이번 연구성과는 한국연구재단(NRF), 정보통신기획평가원(IITP)과 DGIST의 지원을 통해 이뤄졌으며, 비전 기술 분야 세계적 권위의 학술지인 ‘ECCV(European Conference on Computer Vision)’에 게재됐다.
글. 이지은 기자 smile20222@gmail.com | 사진 및 자료출처 = 대구경북과학기술원(DGIST)