发布时间:2023-02-19 17:30
应用场景:
1.图像搜索,如以图搜图,提取图片中的主要特征点进行搜索
2.拼图游戏
3.图像拼接,将两张有关联的图拼接到一起
拼图方法:
1.寻找特征
2.特征点唯一,可追踪,能比较
3.平坦部分很难找到它在原图中的位置
4.边缘相比平坦要好找一些,但也不能一下确定具体位置
5.角点可以一下就能找到其在原图的位置
图像特征就是指有意义的图像区域,具有独特性、易于识别性,比如角点,斑点以及高密度区
在特征中最重要的是角点
灰度梯度的最大值对应的像素、两条线的交点、极值点(一阶导数最大值,但二阶导数为0)
第一种情况:对于这个窗口来说,它可以朝任何方向进行移动,如果在这个窗口范围内它向任何一块方向移动之后,窗口内的像素没有任何的变化,说明这是一个平坦的图片,也就是说在这张图片中没有角点。
第二种情况:如果这个检测窗口在一条边沿上移动,虽然这个边缘与周围的像素不同,但是由于它上下移动,所以其中心点像素不会发生改变,线上及左右两边也不会发生改变,当检测窗口左右移动时像素有变化,则为一条边缘。
第三种情况:检测窗口在一个焦点上
注:角点检测应为一张灰度图
cornerHarris(img, dst, blockSize, ksize, k)
dst 输出结果(检测到焦点时,输出矩阵)
blockSize 检测窗口的大小,设置的窗口越大,敏感度越高
ksize Sobel(索贝尔)的卷积核,朝着横向或者纵向进行卷积,卷积核一般设置为3
k 权重系数,经验值,一般取0.02~0.04之间
import cv2
from matplotlib.pyplot import gray
import numpy as np
blockSize = 2
ksize = 3
k = 0.04
img = cv2.imread(\"E:\\\\chess.png\")
# 灰度化
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# Harris角点检测
dst = cv2.cornerHarris(gray, blockSize, ksize, k)
# 角点展示,取dst中的最大值进行判断,大于阈值的全被显示出来
img[dst > 0.01*dst.max()] = [0,0,255] # 红色显示
cv2.imshow(\'harris\',img)
cv2.waitKey(0)
shi—Tomasi是Harris角点检测的改进。Harris角点检测算的稳定性和K有关,而K是个经验值,不好设定最佳值。
默认采用false不使用Harris角点检测,若使用Harris角点检测(true),则需要设置K,默认为0.04
在实际使用中,填写前4个参数即可
import cv2
from cv2 import cornerSubPix
from matplotlib.pyplot import gray
import numpy as np
# tomasi
maxCorners = 1000
qualityLevel = 0.01
minDistance = 10 # 距离越大,检测的角数越少
img = cv2.imread(\"E:\\\\chess.png\")
# 灰度化
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
corners = cv2.goodFeaturesToTrack(gray, maxCorners, qualityLevel, minDistance)
corners = np.int0(corners) # 将浮点型转换为整型
# shi_Tomasi 绘制角点
for i in corners:
x,y = i.ravel() #转换为一维数组
cv2.circle(img, (x,y), 3, (0,0,255),-1)
cv2.imshow(\'shi_Tomasi\',img)
cv2.waitKey(0)
Scale-Invariant Feature Transform(SIFI) 与缩放无关的角点检测,也是OPENCV中获取角点的一个重要方法。
sift出现的原因:
Harris角点具有旋转不变的特性,但缩放后,原来的角点有可能就不是角点了
sift优点:原来检测的为角,放大后检测的还是一个角
harris检测:原来检测的为角,但是放大后,检测的就变为了边缘,不是一个角。
import cv2
from cv2 import cornerSubPix
from matplotlib.pyplot import gray
import numpy as np
img = cv2.imread(\"E:\\\\chess.png\")
# 灰度化
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# 创建sift对象
sift = cv2.SIFT_create()
kp = sift.detect(gray, None) # 第二个参数为mask区域
# 绘制角点,第三个参数为在那张图上进行绘制
cv2.drawKeypoints(gray, kp, img)
cv2.imshow(\'img\',img)
cv2.waitKey(0)
SIFI算法的报错处理
将 sift = cv2.xfeatures2d.SIFT_create()
改为 sift = cv2.SIFT_create() 即可
关键点和描述子
计算描述子
kp, des = sift.compute(img, kp) 其作用是进行特征匹配
kp, des = sift.detectAndCompute(gray, None)
print(des) #打印描述子
描述子主要用在特征匹配上
Speeded-Up Robust Features(SURF) :加速的鲁棒性特征检测
SIFT最大的优点:进行检测时,特征点检测的特别准确,描述子也描述的非常详细
SURF的优点:SIFT最大的问题是速度慢,因此才有SURF,进行一系列图片检测时,处理速度非常慢,SURF保留了SIFT的优点
import cv2
import numpy as np
img = cv2.imread(\"E:\\\\chess.png\")
# 灰度化
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# 创建surf对象
surf = cv2.xfeatures2d.SURF_create() #surf检测
# 使用surf进行检测
kp, des = surf.detectAndCompute(gray, None)
# print(des) #打印描述子
# 绘制角点,第三个参数为在那张图上进行绘制
cv2.drawKeypoints(gray, kp, img)
cv2.imshow(\'img\',img)
cv2.waitKey(0)
经过以上步骤,即可解决程序报错问题
Oriented FAST and Rotated BRIEF 特征点检测与描述子计算的结合
需要抛弃部分数据,才能提升速度,检测准确度有所下降,当检测大量数据时采用该方法。
注:ORB没有版权问题,是开源的
FAST 可以做到特征点的实时检测,不带方向
BRIEF 其是对已检测到的特征点进行描述,它加快了特征描述符建立的速度,同时也极大的降低了特征匹配的时间
# 创建orb对象
orb = cv2.ORB_create()
kp, des = orb.detectAndCompute(gray, None)
SIFT 计算准确率最高,但是速度较慢
SURF 准确率略低于SIFT,但是速度块
ORB 可以进行实时检测,速度更快,但是准确性没有前两者好
经过以上几节的特征点检测的学习,接下来进行两张图片的特征点匹配学习
特征匹配方法:
BF(Brute- Force) 暴力特征匹配方法,通过枚举的方式实现
FLANN 最快邻近区特征匹配方法
它使用第一组中的每个特征的描述子,与第二组中的所有特征描述子进行匹配,计算他们之间的差距,然后将最接近一个匹配返回
import cv2
import numpy as np
img1 = cv2.imread(\'E:\\\\opencv_photo\\\\opencv_search.png\')
img2 = cv2.imread(\'E:\\\\opencv_photo\\\\opencv_orig.png\')
# 灰度化
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
# 创建surf对象
surf = cv2.xfeatures2d.SURF_create()
# 计算特征点和描述子
kp1, des1 = surf.detectAndCompute(gray1, None)
kp2, des2 = surf.detectAndCompute(gray2, None)
# 创建匹配器
bf = cv2.BFMatcher(cv2.NORM_L1)
# 进行特征匹配
match = bf.match(des1, des2)
img3 = cv2.drawMatches(img1, kp1, img2, kp2, match, None)
cv2.imshow(\'img3\',img3)
cv2.waitKey(0)
当选择SIFT和SURF时,选择KDTREE,若为ORB选择LSH
经验值,一般KDTREE设为5
# FLANN特征匹配
import cv2
import numpy as np
img1 = cv2.imread(\'E:\\\\opencv_photo\\\\opencv_search.png\')
img2 = cv2.imread(\'E:\\\\opencv_photo\\\\opencv_orig.png\')
# 灰度化
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
# 创建surf对象
surf = cv2.xfeatures2d.SURF_create()
# 计算特征点和描述子
kp1, des1 = surf.detectAndCompute(gray1, None)
kp2, des2 = surf.detectAndCompute(gray2, None)
# 创建匹配器
index_params = dict(algorithm = 1, trees = 5)
search_params = dict(checks = 50)
flann = cv2.FlannBasedMatcher(index_params, search_params)
#对描述子进行匹配计算
matchs = flann.knnMatch(des1, des2, k=2)
# 过滤,对所有匹配点进行优化
good = []
for i, (m,n) in enumerate(matchs):
if m.distance < 0.7 * n.distance:
good.append(m)
ret = cv2.drawMatchesKnn(img1, kp1, img2, kp2, [good], None)
cv2.imshow(\'result\',ret)
cv2.waitKey()
结果与暴力匹配类似,但是速度更快,暴力匹配的精度更高一点
用到两种技术:特征匹配+单应性矩阵
单应性矩阵作用:获取到一个矩阵,这个矩阵与图像A进行运算,可以得到图像2的位置
图像2经过计算可以得到原始的位置
抠图,贴图
步骤:
首先进行特征点匹配,计算单应性矩阵,计算透视变换
# 图像查找
import cv2
import numpy as np
img1 = cv2.imread(\'E:\\\\opencv_photo\\\\opencv_search.png\')
img2 = cv2.imread(\'E:\\\\opencv_photo\\\\opencv_orig.png\')
# 灰度化
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
# 创建surf对象
surf = cv2.xfeatures2d.SURF_create()
# 计算特征点和描述子
kp1, des1 = surf.detectAndCompute(gray1, None)
kp2, des2 = surf.detectAndCompute(gray2, None)
# 创建匹配器
index_params = dict(algorithm = 1, trees = 5)
search_params = dict(checks = 50)
flann = cv2.FlannBasedMatcher(index_params, search_params)
#对描述子进行匹配计算
matchs = flann.knnMatch(des1, des2, k=2)
# 过滤,对所有匹配点进行优化
good = []
for i, (m,n) in enumerate(matchs):
if m.distance < 0.7 * n.distance:
good.append(m)
# ret = cv2.drawMatchesKnn(img1, kp1, img2, kp2, [good], None)
# 匹配点必须大于等于4
if len(good) >= 4:
# 查找单应性矩阵
srcpts = np.float32([kp1[m.queryIdx].pt for m in good]).reshape(-1,1,2)
#对数组进行重新变换,有无数行,每一行有1个元素,每个元素由2个子元素组成
dstpts = np.float32([kp2[m.trainIdx].pt for m in good]).reshape(-1,1,2)
H,_ = cv2.findHomography(srcpts, dstpts, cv2.RANSAC, 5.0)
# 第三个参数是对匹配点进行过滤,随机抽样获取规律,最后一个参数为阈值
# 第一个返回值为单应性矩阵,第二个参数为其掩码,不需要显示,所以用_代替
# 透视变换
h,w = img1.shape[:2]
pts = np.float32([[0,0],[0,h-1], [w-1, h-1], [w-1, 0]]).reshape(-1,1,2) # 四个角点,左上角,左下角,右下角,右上角
dst = cv2.perspectiveTransform(pts, H)
# 用多边形框起来
cv2.polylines(img2, [np.int32(dst)], True,(0,255,255))
else:
print(\'the number of good is less than 4.\')
exit()
# 绘制图像
ret = cv2.drawMatchesKnn(img1, kp1, img2, kp2, [good], None)
cv2.imshow(\'result\',ret)
cv2.waitKey()