图片拼接技术

图像拼接是计算机视觉中最成功的应用之一。 如今,很难找到不包含此功能的手机或图像处理API。

在这篇文章中,我们将讨论如何使用Python和OpenCV执行图像拼接。 鉴于一对共享一些共同区域的图像,我们的目标是“缝合”它们并创建全景图像场景。

在整篇文章中,我们将介绍一些最着名的计算机视觉技术。 这些包括:

  • 关键点检测
  • 局部不变描述符(SIFT,SURF等)
  • 特征匹配
  • 使用RANSAC进行的旋转估计(Homography estimation)
  • 透视畸变(Perspective warping)

我们探索了许多特征提取算子,如SIFT,SURF,BRISK和ORB。 你可以使用这款Colab笔记本,甚至可以用你的照片试试。

Colab:https://colab.research.google.com/drive/11Md7HWh2ZV6_g3iCYSUw76VNr4HzxcX5

特征检测和提取

给定一对像上面那样的图像,我们想要把它们拼接起来创建一个全景场景。 值得注意的是,两个图像都需要共享一些共同的区域。

此外,即使图片在以下一个或多个方面存在差异,我们的解决方案也必须强大:

  • Scaling
  • Angle
  • Spacial position
  • Capturing devices

朝这个方向迈出的第一步是提取一些感兴趣的关键点和特征。 但是,这些功能需要具有一些特殊属性。

我们首先考虑一个简单的解决方案。

关键点检测

一开始可能使用简单些的方法,诸如使用Harris Corners之类的算法提取关键点。 然后,我们可以尝试根据欧几里德距离之类的相似度量来匹配相应的关键点。 我们知道,角点(corner)有一个很好的属性:它们对旋转是不变的。 这意味着,一旦我们检测到一个角点,如果我们旋转图像,那个角点仍将存在。

但是,如果我们旋转然后缩放图像怎么办? 在这种情况下,我们会很难,因为角点不是规模不变的。 也就是说,如果我们放大图像,先前检测到的角可能会变成一条线!

总之,我们需要对旋转和缩放不变的特征。 这就是SIFT,SURF和ORB等更强大的方法的用武之地。

关键点和描述子

像SIFT和SURF这样的方法试图解决角点检测算法的局限性。通常,角点检测器算法使用固定大小的内核来检测图像上的感兴趣区域(角点)。很容易看出,当我们缩放图像时,这个内核可能会变得太小或太大。

为了解决这个限制,像SIFT这样的方法使用高斯差分(DoD)。我们的想法是在同一图像的不同比例版本上应用DoD。它还使用相邻像素信息来查找和细化关键点和相应的描述子。

首先,我们需要加载2个图像,查询图片和训练图片。最初,我们首先从两者中提取关键点和描述符。我们可以通过使用OpenCV detectAndCompute()函数一步完成。请注意,为了使用detectAndCompute(),我们需要一个关键点检测器和描述符对象的实例。它可以是ORB,SIFT或SURF等。另外,在将图像馈送到detectAndCompute()之前,我们将它们转换为灰度。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
def detectAndDescribe(image, method=None):
"""
Compute key points and feature descriptors using an specific method
"""

assert method is not None, "You need to define a feature detection method. Values are: 'sift', 'surf'"

# detect and extract features from the image
if method == 'sift':
descriptor = cv2.xfeatures2d.SIFT_create()
elif method == 'surf':
descriptor = cv2.xfeatures2d.SURF_create()
elif method == 'brisk':
descriptor = cv2.BRISK_create()
elif method == 'orb':
descriptor = cv2.ORB_create()

# get keypoints and descriptors
(kps, features) = descriptor.detectAndCompute(image, None)

return (kps, features)

我们对查询和训练的图片都运行detectAndCompute()。 此时,我们为这两个图像提供了一组关键点和描述子。 如果我们使用SIFT作为特征提取器,它将为每个关键点返回128维特征向量。 如果选择SURF,我们将获得64维特征向量。 以下图像显示了使用SIFT,SURF,BRISK和ORB提取的一些功能。

特征匹配

我们可以看到,我们从两个图像中都有大量的特征。 现在,我们想比较两组特征并以线段相连的形式显示更多相似性的特征点对。

使用OpenCV,功能匹配需要Matcher对象。 在这里,我们探索两种方法:

  • Brute Force Matcher(暴力匹配法)
  • KNN(k-最近邻)

BruteForce(BF)Matcher正如其名称所表明的那样。 给定2组特征(来自图片A和图片B),来自集合A的每个特征与集合B中的所有特征进行比较。默认情况下,BF匹配器计算两点之间的欧几里德距离。 因此,对于集合A中的每个特征,它返回集合B中最接近的特征。对于SIFT和SURF,OpenCV建议使用欧几里德距离。 对于其他特征提取器,如ORB和BRISK,建议使用汉明距离。

要使用OpenCV创建BruteForce Matcher,我们只需要指定2个参数。 第一个是距离度量。 第二个是crossCheck布尔参数。

1
2
3
4
5
6
7
8
def createMatcher(method,crossCheck):
"Create and return a Matcher Object"

if method == 'sift' or method == 'surf':
bf = cv2.BFMatcher(cv2.NORM_L2, crossCheck=crossCheck)
elif method == 'orb' or method == 'brisk':
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=crossCheck)
return bf

crossCheck bool参数指示两个特征是否必须相互匹配才能被视为有效。 换句话说,对于被认为有效的一对特征(f1,f2),f1需要匹配f2,并且f2也必须匹配f1作为最接近的匹配。 此过程可确保更强大的匹配功能集,并在原始SIFT文章中进行了描述。

但是,对于我们想要考虑多个候选匹配的情况,我们可以使用基于KNN的匹配过程。

KNN不返回给定特征的单个最佳匹配,而是返回k个最佳匹配。

注意,k的值必须是由用户预先定义的。如我们预期的那样,KNN提供了一个更的的候选特征集合。但是,我们需要确保所有这些匹配对在进一步发展之前都是健壮的。

比率测试(Ratio Testing)

为了确保KNN返回的特征具有良好的可比性,SIFT论文的作者提出了一种称为比率测试(Ratio Testing)的技术。 基本上,我们迭代KNN返回的每个对并执行距离测试。 对于每对特征(f1,f2),如果f1和f2之间的距离在一定比例内,我们保留它,否则,我们将它丢弃。 此外,必须手动选择比率值。

从本质上讲,比率测试与BruteForce Matcher的交叉检查选项完成相同的工作。 两者都确保一对检测到的特征确实足够近以至于被认为是相似的。 下面的2个数字显示了BF和KNN Matcher对SIFT特征的结果。 我们选择仅显示100个匹配点以清除可视化。

[^8]: 在SIFT功能上使用Brute Force Matcher进行特征匹配

请注意,即使在KNN中交叉验证——暴力匹配(Brute force)和比率测试之后,某些功能也无法正确匹配。

然而,Matcher算法将为我们提供两个图像中最好的(更相似的)特征集。 现在,我们需要获取这些点并找到基于匹配点将2个图像拼接在一起的变换矩阵。

这种转换称为Homography matrix(单应性矩阵)。 简而言之,如果Homography是3x3矩阵,可用于许多应用,例如相机姿态估计,透视校正和图像拼接。 如果Homography是2D变换。 它将点从一个平面(图像)映射到另一个平面。 让我们看看我们是如何得到它的。

Estimating the Homography

RANdom SAmple Consensus或RANSAC是一种适合线性模型的迭代算法。与其他线性回归器不同,RANSAC设计为对异常值具有鲁棒性。

像线性回归这样的模型使用最小二乘估计来使最佳模型适合数据。然而,普通最小二乘法对异常值非常敏感。因此,如果异常值的数量很大,它可能会失败。

RANSAC通过仅使用数据中的内部子集估计参数来解决此问题。下图显示了线性回归和RANSAC之间的比较。首先,请注意数据集包含相当多的异常值。

我们可以看到线性回归模型很容易受到异常值的影响。那是因为它试图减少平均误差。因此,它倾向于支持最小化从所有数据点到模型本身的总距离的模型。这包括异常值。

相反,RANSAC仅将模型拟合到被识别为内点的点子集上。

这个特性对我们的用例非常重要。在这里,我们将使用RANSAC来估计Homography矩阵。事实证明,Homography对我们传递给它的数据质量非常敏感。因此,重要的是有一个算法(RANSAC)可以过滤明显不属于数据分布的点。

[^8]: 最小二乘与RANSAC模型拟合的比较。 请注意数据中的大量异常值。

一旦我们得到 estimated Homography,我们需要将其中一个图像变换到一个共同的平面。

在这里,我们将对其中一个图像应用透视变换。 基本上,透视变换可以组合一个或多个操作,例如旋转,缩放,平移或剪切。 这个想法是转换其中一个图像,使两个图像合并为一个。 为此,我们可以使用OpenCV warpPerspective()函数。 它采用图像和homography作为输入。 然后,它根据homography将源图像变换到目的平面上。

1
2
3
4
5
6
7
8
9
10
11
12
# Apply panorama correction
width = trainImg.shape[1] + queryImg.shape[1]
height = trainImg.shape[0] + queryImg.shape[0]

result = cv2.warpPerspective(trainImg, H, (width, height))
result[0:queryImg.shape[0], 0:queryImg.shape[1]] = queryImg

plt.figure(figsize=(20,10))
plt.imshow(result)

plt.axis('off')
plt.show()

生成的全景图像如下所示。 如我们所见,结果中有几个工件。 更具体地说,我们可以看到与图像边界处的照明条件和边缘效应有关的一些问题。 理想情况下,我们可以执行后处理技术来标准化直方图匹配等强度。 这可能会使结果看起来更加真实。

谢谢阅读!

可能存在的报错

(1)Qt 链接报错 version `Qt_5’ not found]

python3: relocation error: /usr/lib/x86_64-linux-gnu/libQt5XcbQpa.so.5: symbol _ZN20QPlatformIntegration11screenAddedEP15QPlatformScreenb version Qt_5_PRIVATE_API not defined in file libQt5Gui.so.5 with link time reference

解决方案:https://www.cnblogs.com/sunchaothu/p/9962675.html

(2)AttributeError: module ‘cv2.cv2’ has no attribute ‘xfeatures2d’

需要回退版本到3.4.2.16,记得要先卸载之前安装好的opencv-python

解决方案:https://blog.csdn.net/weixin_43167047/article/details/82841750

原文链接:https://towardsdatascience.com/image-panorama-stitching-with-opencv-2402bde6b46c

代码:https://colab.research.google.com/drive/11Md7HWh2ZV6_g3iCYSUw76VNr4HzxcX5

更多优质内容请关注:

Contents
  1. 1. 特征检测和提取
  2. 2. 关键点检测
  3. 3. 关键点和描述子
  4. 4. 特征匹配
  • KNN不返回给定特征的单个最佳匹配,而是返回k个最佳匹配。
    1. 1. 比率测试(Ratio Testing)
  • Estimating the Homography
  • |