从泊松方程的解法,聊到泊松图像融合 | 社区征文

社区征文

2004 年 SIGGRAPH 上,Microsoft Research UK 有篇经典的图像融合文章《Poisson Image Editing》。先看看其惊人的融合结果(非论文配图,本人实验结果):

image.png

这篇文章的实现,无关目前算法领域大火的神经网络,而是基于泊松方程推导得出。

泊松方程是什么?

很多朋友比较熟悉概率论里面的泊松分布。泊松方程,也是同一个数学家泊松发明的。但却和泊松分布没有什么关系,是泊松物理学领域提出的一个偏微分方程。

Δf=Ω\Delta f=\Omega

这里Δ\Delta表示的是拉普拉斯算子,ffΩ\Omega在泊松方程中是已知量)可以是实数或复数值方程,特殊情况当Δf=0\Delta f=0时被称为拉普拉斯方程。当处于欧几里得空间时,拉普拉斯算子通常表示为2\nabla^2

学习图像处理的朋友对于Δ\Delta\nabla比较熟悉,分别表示二阶微分(直角坐标系下的散度)、一阶微分(直角坐标系下的梯度)。

微分与卷积

连续空间中的微分计算,就是大学里微积分那一套公式。但是在计算机的世界里,数据都是在离散空间中进行表示,对于图像而言,基本的计算单元就是像素点。让我们从最简单的情形,一维数组的微分说起:

\nabla表示位置xx一阶微分计算(一阶中心导):df(x)dx=f(x+h)f(xh)2h\frac{df(x)}{dx}=\frac{f(x+h)-f(x-h)}{2h}

Δ\Delta表示位置xx二阶微分计算(二阶中心导):d2f(x)dx2=f(x+h)2f(x)+f(xh)h2\frac{d^2f(x)}{dx^2}=\frac{f(x+h)-2f(x)+f(x-h)}{h^2}

随着h0h \rightarrow 0,上面的微分算式的结果会逐渐逼近真实的微分值。对于图像而言,这里hh最小可分割单元是像素,也就表示像素间的间距,可视为11。再看看,二阶微分的公式,是不是可以看成1×31\times3的卷积核[1,2,1][1,-2,1]在一维数组上进行卷积计算的结果(卷积中心在xx上)。

至此,不难理解,离散数据(例如图像)上的微分操作完全可以转换为卷积操作。

当数组维度更高,变成二维数组呢?也就是处理图像的拉普拉斯算子:Δ=2x2+2y2\Delta =\frac{\partial^2}{\partial x^2}+\frac{\partial^2}{\partial y^2}

此时,卷积核尺寸应该是3×33\times3,具体数值为[010141010]\begin{bmatrix} 0 & 1 & 0 \\ 1 & -4 & 1 \\ 0 & 1 & 0 \end{bmatrix},称为拉普拉斯卷积核。

记住拉普拉斯卷积核,我们后面会用到。

泊松方程求解

这个时候,想想我们学会了什么?泊松方程的形式,以及拉普拉斯卷积核。

再想想,在图像场景下,什么是泊松方程的核心问题?

已知图像点二阶微分值(直角坐标系下即散度div{\rm div})的情况下,求解各个图像点的像素值。

一个简单的例子,假设有一张4×44\times4的图像XX[x1x2x3x4x5x6x7x8x9x10x11x12x13x14x15x16]\begin{bmatrix} x_1 & x_2 & x_3 & x_4 \\ x_5 & x_6 & x_7 & x_8 \\ x_9 & x_{10} & x_{11} & x_{12} \\ x_{13} & x_{14} & x_{15} & x_{16} \end{bmatrix}xix_i表示各个位置上的图像像素值,共 16 个未知参数需要被求解。

应用拉普拉斯卷积核后,得到 4 个方程式:

x2+x5+x7+x104x6=divx6x_2+x_5+x_7+x_{10}-4 x_6={\rm div} x_6

x3+x6+x8+x114x7=divx7x_3+x_6+x_8+x_{11}-4 x_7={\rm div} x_7

x6+x9+x11+x144x10=divx10x_6+x_9+x_{11}+x_{14}-4 x_{10}={\rm div} x_{10}

x7+x10+x12+x154x11=divx11x_7+x_{10}+x_{12}+x_{15}-4 x_{11}={\rm div} x_{11}

4 个方程式求解出 16 个未知参数?这是不可能的。

因此,我们需要另加入至少 12 个更多的方程式,也就是说,需要把剩余 12 个边界点的值确定,即需要确定边界条件。边界一般符合 2 种常见的边界条件:

  • Neumann 边界,译为纽曼边界或黎曼边界,给出函数在边界处的二阶导数值;
  • Dirichlet 边界,狄利克雷边界,给出边界处函数在边界处的实际值。

但给定边界条件之后,就可以有 16 个方程式组成的方程组了,矩阵化表示此方程组之后,得到形式为Ax=bA\textbf{x}=b

看到Ax=bA\textbf{x}=b,大家就应该放松了,不就是解方程嘛,用雅可比迭代法或者高斯赛德尔迭代法来求解就 OK 了。

Poisson Image Editing

背景知识储备好了后,让我们把目光拉回到论文《Poisson Image Editing》上。

在图像融合任务中,前景放置在背景上时,需要保证两点:

  • 前景本身主要内容相比于背景而言,尽量平滑;
  • 边界处无缝,即前景、背景在边界点位置上的像素值,需要保持边界一致。

重点关注两个词:内容平滑、边界一致。平滑是什么?可以理解成图像前景、背景梯度相同。边界一致是指什么?可以理解成在边界上像素值相同。再用一张图来说明:

image.png

蓝色图片表示前景图片,需要被融合到肉色的背景图片上

上图中uu表示需要被合成的前景图片,VVuu的梯度场。SS是背景图片,Ω\Omega是合并后目标图像中被前景所覆盖的区域,则Ω\partial \OmegaΩ\Omega的边界。设合并后图像在Ω\Omega内的像素表示函数是ff,在Ω\Omega外的像素值表示函数是ff^{*}

此时,平滑可表示为:minfΩfv2\min_{\substack{f}} \iint_{\Omega}\left| \nabla f-\textbf{v} \right|^2;保持边界一致可表示为:fΩ=fΩf|_{\partial \Omega}=f^{*}|_{\partial \Omega}

这里如果接触过泛函的朋友会比较开心,没接触过的朋友可以先看看欧拉-拉格朗日方程

F=fv2=(fxvx)2+(fyvy)2F=\left| \nabla f-\textbf{v} \right|^2=(\nabla f_x-\textbf{v}_x)^2+(\nabla f_y-\textbf{v}_y)^2

代入欧拉-拉格朗日方程后则有:Ff=ddx[F(fxvx)2]+ddy[F(fyvy)2]\frac{\partial F}{\partial f}=\frac{d}{dx}\left[ \frac{\partial F}{\partial (\nabla f_x-\textbf{v}_x)^2} \right]+\frac{d}{dy}\left[ \frac{\partial F}{\partial (\nabla f_y-\textbf{v}_y)^2} \right]

0=ddx[2(fxvx)]+ddy[2(fyvy)]\Rightarrow0=\frac{d}{dx}\left[ 2 (\nabla f_x-\textbf{v}_x) \right]+\frac{d}{dy}\left[ 2 ( f_y-\textbf{v}_y) \right]

注意:FFf\nabla f的函数,不是对ff的,因此Ff=0\frac{\partial F}{\partial f}=0

0=(2fx2vx)+(2fy2vy)Δf=div v\Rightarrow0=(\frac{\partial^2 f}{\partial x^2}-\frac{\partial \textbf{v}}{\partial x})+(\frac{\partial^2 f}{\partial y^2}-\frac{\partial \textbf{v}}{\partial y})\Rightarrow \Delta f=\textbf{div v}

怎么样,看起来是不是一个泊松方程呢?当然,还差两步:

  • 因为需要平滑,div v\textbf{div v}取值需要同时参考前景图片和背景图片,可以直接等于前景像素的散度,也可以在前景和背景在同一点像素的散度进行某种组合得到(论文中在 Selection cloning 和 Selection editing 章节有讨论各自合适的场景,但个人以为这里采取学习的方法应该更鲁棒,而不是用固定的策略来区分)。anyway,div v\textbf{div v}是可以计算的已知量;
  • 因为需要保持边界一致,边界条件上像素值等于背景图片即可。当然也可以做一些策略,但同样也可以计算得到的已知量。

现在很轻松了,边界条件已知、散度已知,在离散空间中求解泊松方程中的ff,参考上一节的求解过程即可。

代码实现

函数代码已经收录在了 OpenCV 的官方函数 seamlessClone 里:github source code

使用的时候,需要三张图片:前景图、背景图、mask图(指明前景图中需要融合的区域,最简单的就是直接等于前景图大小的 mask,待融合区域是白色,其余位置黑色)。

下面我们使用 OpenCV 的 Python 接口来动手试试,用到以下两张图以及一段代码:

  • foreground.jpg image.png

  • background.jpg image.png

import cv2
import numpy as np

# Read images : src image will be cloned into dst
dst = cv2.imread("background.jpg")
obj= cv2.imread("foreground.jpg")

# Create an all white mask
mask = 255 * np.ones(obj.shape, obj.dtype)

# The location of the center of the src in the dst
width, height, channels = dst.shape
center = (height/2, width/2)

# Seamlessly clone src into dst and put the results in output
normal_clone = cv2.seamlessClone(obj, dst, mask, center, cv2.NORMAL_CLONE)
mixed_clone = cv2.seamlessClone(obj, dst, mask, center, cv2.MIXED_CLONE)

# Write results
cv2.imwrite("images/opencv-normal-clone-example.jpg", normal_clone)
cv2.imwrite("images/opencv-mixed-clone-example.jpg", mixed_clone)

最终效果如下:

image.png

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论