이전 글:

2021.05.03 - [코딩/PyTorch] - PyTorch로 MATLAB imresize (bicubic interpolation) 구현하기 (1) - 이미지 resizing 배경 지식

 

PyTorch로 MATLAB imresize (bicubic interpolation) 구현하기 (1) - 이미지 resizing 배경 지식

[코드] 일반적으로 Image Super-Resolution (SR) 모델을 학습할 때는 많은 양의 high-resolution (HR) 이미지를 준비한 뒤 이를 임의의 downsampling 방법으로 줄여 input low-resolution (LR)을 만든다. 그 후 이..

sanghyun.tistory.com

그래서 img[-0.12, -0.12]는 무엇인가?

 

사람에 따라서는 음의 좌표에 거부감이 들 수 있으므로... img[0.12, 0.12]가 무엇인지를 찾는 문제로 바꿔서 생각해도 상관없고.

 

 

아무튼 이 개념은 내가 학부시절 때 열심히 듣고, 좋아했던 수업 중 하나인

 

신호 및 시스템 Signals and Systems를 수강하면 어느 정도 감이 온다.

 

그런데 아무래도 수업에서는 학술적인 이론을 위주로 공부하다 보니, ideal reconstruction을 비중 있게 다루고

 

나머지 방법들에 대해서는 조금 소홀한 면이 있다고 느꼈다.

 

신호 및 시스템 정리를 지금 와서 하기에는 좀 그렇고,

 

이상적인 경우 우리가 갖고 있는 discrete $H \times W$ 이미지로부터 완벽한 continuous 신호를 복원할 수 있지만,

 

이게 가능한 경우는 현실적으로 극히 드물다.

 

따라서 다양한 트릭을 사용해서 continuous 이미지를 근사해서 나타내게 되는데, 이를 resampling이라고 하고

 

비전 분야에서는 interpolation (보간법)이라는 표현을 더 많이 사용하는 것 같다.

 

 

가장 쉽게 생각할 수 있는것은, 이전 포스트에도 언급했다시피 (0.12, 0.12)와 가장 가까운 점의 값을 사용하는 것이다.

 

이를 굉장히 직관적인 네이밍으로 nearest neighbor (NN)라고 하는데,

 

조금만 생각해보면 (0.12, 0.12)를 포함하는 (-0.5, -0.5)를 왼쪽 상단 꼭짓점,

 

(0.5, 0.5)를 오른쪽 하단 꼭짓점으로 하는 정사각형 내부의 모든 위치가 (0, 0)의 값을 참조하게 된다는 것을 알 수 있다.

 

(경곗값을 포함시키는지 여부는 별로 중요하지 않다.)

 

아래 그림은 $5 \times 5$ 이미지(?)에서 임의의 실수 좌표값에 대해 NN interpolation 기반으로 값을 취득한다면

 

어떤 값이 나오는지를 도식화한 것이다.

Nearest neightbor interpolation. 출처는 위키피디아.

사실 NN interpolation은 continuous 이미지의 근사 형태라고 생각하기에는 조금 힘든 게,

 

저렇게 해서 나오는 결과는 계단식으로 discontinuous 하기 때문이다.

 

만약 이미지의 색상 값을 위치 $(x, y)$에 대한 함수로 나타낸다면 (implicit representation? ㅎㅎ)

 

NN interpolation으로 얻는 함수는 임의의 점에서 미분 불가능하거나, 미분 값이 0이다.

 

비전 분야에서는 아무래도 별 상관은 없지만

 

일단 보기에도 썩 좋지는 않고, 그래픽스 등 다른 분야에서는 수학적인 성질 또한 중요시 여기기에 많이 사용되지는 않는다.

 

굳이 수학적으로 표현하고자 하면 아래와 같을 듯 ($\lfloor \cdot \rceil$은 반올림.).

 

$q(x, y) = p( \lfloor x \rceil, \lfloor y \rceil )$.

 

여기서 $p$는 해당 위치에서의 색상 값 (정수 좌표에서 잘 정의되어 있는)이고

 

$q$는 우리가 색상 값을 알고 싶은 query 포인트라고 생각하면 되지만,

 

다른 application에서는 다른 의미를 가질 수도.

 

 

조금 더 나은 비주얼을 보여주면서 적당히 간단한 방법은 linear interpolation이다.

 

역시 이름이 직관적인데, 실수 좌표 (x, y)에 대해 query가 들어오면

 

해당 점을 둘러싼 4개의 정수 좌표를 가진 점들의 선형 결합으로 (x, y)에서의 색상 값을 만드는 형태이다.

 

Query point와 이를 둘러싼 4개의 점.

말로만 정리하면 조금 애매하기에 그림을 하나 만들었는데

 

일단 $x, y$가 정수일 때 같은 edge case는 쿨하게 무시해야지.

 

$\lfloor \cdot \rfloor$은 내림이다.

 

아무튼 저렇게 4개의 점에 대해서, 일단 위 2개와 아래 2개의 점들을 query의 $x$ 좌표를 기준으로 내분하고,

 

각각 $u_1, u_2$라고 한다.

 

편의상 $x - \lfloor x \rfloor = a, y - \lfloor y \rfloor = b$라고 두면

 

$u_1 = (1 - a) p_1 + a p_2,$

$u_2 = (1 - a) p_3 + a p_4,$

 

가 되고 여기서 $u_1$과 $u_2$를 query의 $y$ 좌표를 기준으로 한 번 더 내분해서 최종 색상 값을 얻는다.

 

$q = (1 - b) u_1 + b u_2.$

 

이렇게 $x$와 $y$ 방향으로 2번의 interpolation을 하기 때문에 bi-linear interpolation이라고도 부른다.

 

결과를 보면 NN interpolation 대비 장족의 발전을 이루었는데,

Bilinear interpolation. 출처는 위키피디아.

여전히 수학적인 특성은 좋지 못하다.

 

미분 값이 유의미한 정보를 담고 있기는 하지만,

 

정수 좌표 픽셀들의 위치에 뾰족점이 존재해서 항상 미분 가능하지는 않다.

 

 

비전 분야에서는 정말 별 의미가 없지만,

 

이렇게 수학적인 특성을 고려해서 interpolation을 구현하려면 상당히 문제가 복잡해진다.

 

Cubic interpolation 같은 경우는 항상 미분 가능한 특성을 지니도록 설계가 되었는데,

 

구하는 방법이 굉장히 복잡하다 (자세한 내용은 그래픽스로).

 

다행히 상당한 정확도와 괜찮은 효율로 cubic interpolation을 근사하는

 

cubic convolution (혹은 filtering?) 알고리즘이 있는데,

 

일반적으로 bicubic interpolation이라고 부르는 방법은

 

이러한 cubic convolution을 $x$와 $y$ 방향으로 2번 적용한 것이다.

 

Bilinear에서 주변 4개의 점들을 사용한 것에서 더욱 발전하여

 

Bicubic은 주변 16개의 점들을 사용한다.

 

어렵게 생각할 것 없이, query를 중심으로 $4 \times 4$ window를 배치하여

 

해당 window 안에 들어가는 점들의 linear combination으로 query 포인트의 색상을 정한다.

 

Bicubic interpolation에서의 query와 window.

식으로는 $q = \frac{1}{Z} \sum_{i=1}^{16}{w_i p_i}$이고, 여기서 $w_i$는 각 픽셀의 기여도, $Z = \sum{w_i}$이다.

 

그러면 중요한 것은 각 픽셀들의 상대적인 weight (혹은 contribution)을 어떻게 정하는지이다.

 

원리는 나도 모르겠지만 (cubic convolution과의 오차를 최대한 줄이는 방향으로 설계된 듯하다.)

 

아래와 같이 $w_i$를 계산한다.

 

$\begin{split}
w_i &= b\left( x_i - x \right) b\left( y_i - y\right), \text{where} \\
b\left( v \right) &= \begin{cases}
1.5\lvert v \rvert^3 - 2.5 \lvert v \rvert^2 + 1 & \text{for}\ \lvert v \rvert \leq 1, \\
-0.5 \lvert v \rvert^3 - 2.5 \lvert v \rvert^2 + 4 \lvert v \rvert - 2 & \text{for}\ 1 \lt \lvert v \rvert \leq 2, \\
0 & \text{otherwise}.
\end{cases}
\end{split}$

 

당연히 $(x_i, y_i)$는 $p_i$의 좌표이다.

 

라이브러리의 구현에 따라 계수들은 조금씩 변경될 수 있으며 (ex. OpenCV) 상기 계수들은 MATLAB 기준이다.

 

Interpolation 결과물을 보면 앞의 두 개보다 훨씬 둥글둥글하고 부드러운 모양인 것을 확인할 수 있다.

Bicubic interpolation. 출처는 위키피디아.

Query 포인트에서의 색상을 $z$축이라고 생각한다면, 각 interpolation 방법들을 아래와 같이 시각화하는 것도 가능하다.

Interpolation 방법들을 3D로 비교한 것. 출처는 위키피디아.

수학적으로 써먹기 힘들어 보이는 NN, Linear에 비해 Cubic이 상당히 부드럽게 표현되는 것을 알 수 있다.

 

 

사실 여기까지는 어딜 가도 잘 설명되어 있는 내용인데,

 

이상하게 이것만 가지고 구현을 하면 절대로 MATLAB과 같은 bicubic interpolation 결과를 얻을 수 없다.

 

가장 핵심적인 포인트는 antialiasing (AA)이다.

 

AA는 신호 처리에서 고주파 성분을 제한된 bandwidth로 표현할 때 생기는 artifact를 줄여주는 기법으로,

 

일반적으로 주어진 신호를 subsampling 하기 전에 low-pass filter (LPF)를 적용하는 것으로 구현된다.

 

MATLAB imresize는 이미지를 확대할 때는

 

다른 라이브러리들이랑 똑같은 방법으로 bicubic interpolation을 구현하는데,

 

축소할 때는 추가적인 AA 처리가 들어가고 이것이 차이의 결정적인 요인이다.

 

그러면 다른 라이브러리들은 왜 AA 처리를 안 하는가?라는 의문이 당연히 들지만,

 

일반적으로 NN을 제외한 bilinear, bicubic 등은 일종의 LPF라고 생각할 수 있으며

 

해당 interpolation 방법을 포함한 resizing은 AA를 포함했다고도 말할 수 있다.

 

그런데 축소 scale이 커지면 고정된 크기의 interpolation 커널 (bilinear, bicubic 등)들로는

 

artifact를 방지하기 쉽지 않을 때가 있다.

 

따라서 MATLAB에서는 독특한 방식으로 scale에 adaptive 하게 AA 처리를 하는데,

 

$s$배만큼 축소하는 경우

  1. Bicubic interpolation에서 window 크기를 가로세로 $s$배만큼 키운다.
    즉, 더 많은 주변 픽셀들이 query 포인트의 색상을 정하는 데에 사용된다.
  2. 확장된 window에 맞춰, $w_i = b\left( x_i - x \right) b\left( y_i - y \right)$ 대신 $w_i = b\left( \frac{x_i - x}{s} \right) b\left( \frac{y_i - y}{s} \right)$를 사용한다.

실제로 4배만큼 줄이는 경우를 비교해보면, antialiasing이 있을 때와 없을 때 차이가 상당히 많이 난다.

좌: MATLAB에서 AA 사용 / 우: MATLAB에서 AA 사용하지 않음. AA를 사용하지 않은 쪽이 훨씬 자글거린다.

코드상에서는

>> x_down = imresize(x, 1 / 4, 'bicubic', 'antialiasing', false);

이렇게 비활성화가 가능한데,

 

기본으로 켜져 있기 때문에 큰 의식을 하지 않은 것 같다.

 

 

아무튼 이정도면 실제 구현에 필요한 세부 사항은 다 명세를 했고,

 

어떻게 깔끔하게 코드에 담아내는지는 다음 포스트부터 정리해야지.

 

 

[코드]

 

일반적으로 Image Super-Resolution (SR) 모델을 학습할 때는

 

많은 양의 high-resolution (HR) 이미지를 준비한 뒤 이를 임의의 downsampling 방법으로 줄여

 

input low-resolution (LR)을 만든다.

 

그 후 이렇게 만들어진 pair들을 통해 supervised learning을 진행한다.

 

해당 방법을 real-world application에 적용하기에는 많은 문제가 있으나,

 

아무튼 전통적으로 내려오던 framework이기 때문에

 

어느 모델을 개발하던 이러한 과정은 최소 한 번 이상 거치게 된다.

 

그런데 SR 관련 연구를 하며 가장 거슬렸던 부분 중 하나는 저 임의의 downsampling 부분이다.

 

 

딥러닝이 대세로 나서기 이전에는 MATLAB이 비전 분야의 암묵적인 standard였던 것 같다.

 

그런데 여기서 문제는, MATLAB에서 이미지의 크기를 바꾸는 데에 사용하는 imresize 함수가

 

OpenCV나 다른 이미지 관련 라이브러리들과는 상당히 다른 구현을 가지고 있다는 점이다.

 

특히 문제가 되는 것은 기본으로 적용되는 bicubic 보간법인데,

 

아무리 결과물을 비교하고 설정을 바꿔봐도 다른 라이브러리가 만드는 LR 이미지와는 상당한 차이가 있었다.

 

SR 분야의 벤치마크 이미지들은 거의 다 MATLAB으로 만들어졌기 때문에,

 

만약 다른 라이브러리로 LR 이미지들을 만들고 학습에 사용하는 경우

 

training-test distribution에 차이가 생겨 벤치마크 성능이 저하되고,

 

기껏 알고리즘을 잘 만들어놓고도 제대로 된 evaluation을 할 수가 없다.

 

그렇기 때문에 SR 연구에서는 오랫동안 이미지 resizing이 필요한 부분을 우선 MATLAB으로 모두 처리하고,

 

그 후 적절한 framework를 사용하여 추가적인 resizing 작업을 시행하지 않고 학습을 진행했다.

 

안타깝게도 MATLAB과 Python의 접착성은 별로 좋지 않기 때문에,

 

Python 코드가 도는 도중 다이내믹하게 MATLAB의 imresize를 호출해서 적절한 작업을 수행한다는 것은

 

시도할 염두를 내지도 못했고 이 때문에 작업 효율이 상당히 떨어진다는 느낌을 받았다.

 

 

이러한 문제를 좀 완화하고자 몇 사람이 numpy로 MATLAB-compatible 하다고 주장하는 imresize 함수를 구현했고

 

Github에서 어렵지 않게 찾아볼 수 있다.

 

그런데 실제로 확인해보니, 다양한 문제가 있었는데

  • 너무 느리다.
    numpy라서 기본적으로 GPU 연산을 지원하지 않을 뿐만 아니라, 최적화도 거의 되어있지 않다.
    imresize는 최소 수백, 수천번을 호출하는 함수인데
    이미지의 크기가 크면 눈에 띄게 성능이 저하되는 것을 느꼈다.
  • MATLAB-compatible하지 않다.
    공개된 코드를 직접 돌려서 확인해보니 MATLAB과 거의 비슷한 결과가 나왔지만,
    특히 boundary 부분에서 MATLAB과는 많이 달랐다.
    이유도 찾았는데, 이는 후술.
  • 미분 불가능.
    이는 큰 문제가 아니긴 한데 기본적으로 numpy로 구현되어 PyTorch layer 등에 넣을 수 없다.
    넣는 순간 computation graph가 깨져, PyTorch의 가장 큰 장점인 자동 미분을 사용할 수 없다.

개인적으로 저런 것들을 참고 쓰는 성격은 아니기 때문에,

 

작년에 (굉장히 늦은 타이밍이지만. 이렇게 정리 글을 쓰는 타이밍은 더 늦고.) 큰 맘먹고 직접 구현해봤다.

 

상당한 고생을 했지만 막상 만들고 나니 의외로 유용하게 쓰이기에, 잘 만들었다는 생각 또한 들었다.

 

 

본격적으로 구현 detail을 정리하기 전에,

 

이미지 resizing에 대한 기본 배경 지식을 정리해놓으면 나중에도 유용하게 참고할 수 있을 것 같다.

 

우선 좌표계를 정의하는 것이 정말 중요하다.

 

우리가 일반적으로 Python에서 $H \times W$ 이미지를 다룰 때는,

 

img[0, 0] (채널 생략)이 가장 왼쪽 상단, img[H - 1, W - 1]이 가장 오른쪽 하단의 픽셀을 의미한다.

 

수직, 수평 방향으로 이웃한 픽셀은 1만큼 떨어져 있기 때문에 이를 실제로 배치해보면 아래와 같다.

Python에서 이미지 픽셀의 레이아웃.

그런데 실제로 이미지를 이렇게 표현하면 상당히 난감한 것이, 이미지 (빨간 점선)의 크기가

 

$H \times W$가 아닌 $(H - 1) \times (W - 1)$이 나온다.

 

(딴소리지만, PyTorch의 interpolation 관련 함수에서 받는 align_corners 인수가 이러한 요인과 관련되어있다.

링크에서 조금 읽어보면 바로 느낌이 올 듯.)

 

따라서 편의상, 각 픽셀이 $1 \times 1$의 공간을 점유한다고 가정하면 (실제 픽셀의 정의와는 다르다!)

 

아래와 같이 이미지를 (-0.5, -0.5)와 (H - 0.5, W - 0.5) 사이의 영역에서 정의할 수 있다.

수정된 픽셀 레이아웃.

이렇게 정의한 이미지는 정상적으로 $H \times W$의 크기를 갖는다.

 

다른 방법도 다양하게 있겠지만, 이 방법이 가장 직관적인 것 같다.

 

사람에 따라서는 음의 영역에서 뭔가를 정의하고,

 

영역 경계의 좌표가 정수가 아니라는 것이 굉장히 불편할 수는 있을 것 같지만... (처음에는 나도 좀 불편했다.)

 

오히려 문제는 생각지도 못한 곳에서 발생했는데, 직접적으로 구현에 영향을 줄 정도는 아니었다.

 

기회가 되면 정리해야지.

 

 

아무튼 이렇게 기준을 정해놓으면 이후의 내용들을 정리하기가 비교적 편리하다.

 

이미지 resizing은 크게 두 가지 스텝으로 분리해서 볼 수 있는데, mapping과 resampling이다.

 

$h \times w$ input 이미지를 $H \times W$로 resizing 하고자 할 때 ($H > h$일 필요는 없다.),

 

생각해야 하는 것은 output 이미지의 [x, y] 위치가 input의 어디에 대응하는지?이다.

 

간편한 수식으로 어렵지 않게 변환이 가능하지만, 아래의 예시를 보면 조금 더 쉽게 이해가 가능하다.

 

$3 \times 3$에서 $4 \times 4$로 가는 경우를 생각하자.

 

일단 같은 크기의 정사각형 2개를 $3 \times 3$, $4 \times 4$로 쪼갠다.

3x3, 4x4로 쪼갠 정사각형.

두 정사각형을 겹쳐보면, output 이미지의 각 픽셀이

 

input 이미지의 어디에 대응하는지에 대한 비례 관계를 확인할 수 있다.

Output-input 대응 관계.

Boundary가 정수가 아니기 때문에, 계산이 조금 귀찮을 수는 있지만 구체적인 식은 아래와 같다.

 

$\textcolor{red}{x} = \frac{w(\textcolor{blue}{x'} + 0.5)}{W} - 0.5,$

$\textcolor{red}{y} = \frac{h(\textcolor{blue}{y'} + 0.5)}{H} - 0.5.$

 

여기서 $\textcolor{red}{x}$와 $\textcolor{red}{y}$는 input 이미지를 기준으로 한 좌표

 

$\textcolor{blue}{x'}$와 $\textcolor{blue}{y'}$는 output 이미지를 기준으로 한 좌표가 되는데

 

예를 들자면 output 이미지의 (0, 0)은 input 이미지의 (-0.12, -0.12)에 대응된다.

 

 

이제 드는 의문은, 그래서 (-0.12, -0.12)는 어디에 있는가?이다.

 

디지털 이미지는 regular grid 위에서 정의되기 때문에, img[0, 0]은 있어도 img[-0.12, -0,12]는 에러가 난다.

 

적당히 가장 가까운 픽셀의 값을 가져오면 되는 것 아닌가? 하는 의문이 들 수 있지만

 

(해당 방법이 nearest neighbor, 혹은 NN 보간법이다.)

 

그러면 자글자글한 계단 현상이 생기고 보기에 좋지 않다.

5x5 이미지를 NN과 bicubic으로 interpolation 한 결과. 출처는 위키피디아. https://en.wikipedia.org/wiki/Bicubic_interpolation

Bicubic 결과는 지나치게 뿌연 느낌이 든다고 생각할 수도 있지만, 뭐 일단은 그렇다.

 

이를 해결하기 위해서는 적절한 resampling이 필요한데, 다음 포스트에 정리해야겠다.

 

2021.05.04 - [분류 전체보기] - PyTorch로 MATLAB imresize (bicubic interpolation) 구현하기 (2) - resampling (interpolation)

 

PyTorch로 MATLAB imresize (bicubic interpolation) 구현하기 (2) - resampling (interpolation)

이전 글: 2021.05.03 - [코딩/PyTorch] - PyTorch로 MATLAB imresize (bicubic interpolation) 구현하기 (1) - 이미지 resizing 배경 지식 PyTorch로 MATLAB imresize (bicubic interpolation) 구현하기 (1) - 이..

sanghyun.tistory.com

 

+ Recent posts