发布时间:2024-12-01 18:01
准备两张有关联关系的图片
课后作业:去除两张图片相接的边缘,对图像进行裁剪去除黑边
(1)图像合并的步骤
首先找到中心点
# 图像拼接大作业
import cv2
import numpy as np
# 第一步,读取文件,将图片设置成一样大小,640*480(跟实际图像最接近的尺寸)
img1 = cv2.imread(\'E:\\\\opencv_photo\\\\map1.png\')
img2 = cv2.imread(\'E:\\\\opencv_photo\\\\map2.png\')
img1 = cv2.resize(img1,(610,480))
img2 = cv2.resize(img2,(610,480))
# 将两张图排列在一起
inputs = np.hstack((img1, img2))
# 第二步,找特征点,计算描述子,计算单应性矩阵
# 第三步,根据单应性矩阵对图像进行变换,然后平移
# 第四步,拼接并输出最终结果
cv2.imshow(\'input img\',inputs)
cv2.waitKey()
# 图像拼接大作业
import cv2
import numpy as np
def stitch_image(img1, img2, H) :
# 1.获得每张图片的4个角点
# 2.对图片进行变换,通过单应性矩阵使图像进行旋转,然后进行平移
# 3.创建一张大图,将两张图拼接到一起
# 4.将结果输出
h1, w1 = img1.shape[:2] # 获得原始图的高和宽
h2, w2 = img2.shape[:2]
img1_dims = np.float32([[0,0],[0,h1],[w1,h1],[w1,0]]).reshape(-1,1,2) # 四个角点逆时针进行排序
img2_dims = np.float32([[0,0],[0,h2],[w2,h2],[w2,0]]).reshape(-1,1,2)
# 图像变换
img1_transform = cv2.perspectiveTransform(img1_dims,H)
# print(img1_dims)
# print(img2_dims)
# print(img1_transform)
result_dims = np.concatenate((img2_dims, img1_transform), axis=0) # 横向拼接,主要是为了求出图像的最大值最小值
# print(result_dims) # 混合后的结果
[x_min, y_min] = np.int32(result_dims.min(axis=0).ravel()-0.5) # axis=0按x轴获取数值,ravel()将二维变为一维,根据四舍五入的原则,最小值-0.5,最大值+0.5
[x_max, y_max ] = np.int32(result_dims.max(axis=0).ravel()+0.5)
# 平移的距离
transform_dist = [-x_min, -y_min] # 最小的x距离和y
#[1, 0, dx]
#[0, 1, dy]
#[0, 0, 1 ]
# 矩阵平移的方法,乘以一个齐次矩阵
transform_array = np.array([[1, 0, transform_dist[0]],
[0, 1, transform_dist[1]],
[0, 0, 1]])
# 投影变换
result_img = cv2.warpPerspective(img1, transform_array.dot(H), (x_max-x_min, y_max-y_min))
result_img[transform_dist[1]:transform_dist[1]+h2,
transform_dist[0]:transform_dist[0]+w2] = img2
return result_img
# 计算单应性矩阵的方法
def get_homo(img1, img2):
# 1.创建特征转换对象
sift = cv2.xfeatures2d.SIFT_create()
# 2.通过特征转换对象获得特征点和描述子
k1,d1 = sift.detectAndCompute(img1,None) # k1为特征点,d1为描述子
k2,d2 = sift.detectAndCompute(img2,None)
# 3.创建特征匹配
# 4.进行特征匹配
# 5.过滤特征,找出有效的特征匹配点
bf = cv2.BFMatcher() # 采用暴力特征匹配
matches = bf.knnMatch(d1,d2,k=2) # 匹配特征点
verify_ratio = 0.8 # 过滤
verify_matches = []
for m1, m2 in matches: # m1,m2之间的距离越小越好,小于0.8认为有效,大于0.8无效
if m1.distance < 0.8*m2.distance:
verify_matches.append(m1)
# 最小匹配数
min_matches = 8
if len(verify_matches) > min_matches:
img1_pts = []
img2_pts = []
for m in verify_matches:
img1_pts.append(k1[m.queryIdx].pt) # 图像1的坐标特征点
img2_pts.append(k2[m.trainIdx].pt) # 图像2的坐标特征点
#[(x1, y1), (x2, y2), ...]
#[[x1, y1], [x2, y2], ...]
img1_pts = np.float32(img1_pts).reshape(-1,1,2) # 适应findHomography的格式
img2_pts = np.float32(img2_pts).reshape(-1,1,2)
H, mask = cv2.findHomography(img1_pts, img2_pts, cv2.RANSAC,5.0) # 获取单应性矩阵
return H
else:
print(\'error: Not enough matches!\')
exit()
# 第一步,读取文件,将图片设置成一样大小,640*480(跟实际图像最接近的尺寸)
img1 = cv2.imread(\'E:\\\\opencv_photo\\\\map1.png\')
img2 = cv2.imread(\'E:\\\\opencv_photo\\\\map2.png\')
img1 = cv2.resize(img1,(640,480))
img2 = cv2.resize(img2,(640,480))
# 将两张图排列在一起
inputs = np.hstack((img1, img2))
# 第二步,找特征点,计算描述子,计算单应性矩阵
H = get_homo(img1, img2) # 获得单应性矩阵
# 第三步,根据单应性矩阵对图像进行变换,然后平移
result_image = stitch_image(img1, img2, H) # 进行图像拼接
# 第四步,拼接并输出最终结果
cv2.imshow(\'input img\',result_image)
cv2.waitKey()
层层剖析,让你彻底搞懂Self-Attention、MultiHead-Attention和Masked-Attention的机制和原理
英伟达光追支持Java吗,我的世界要有光:NVIDIA和微软共同宣布《Minecraft》将加入RTX光线追踪支持...
《MATLAB智能算法30个案例》:第3章 基于遗传算法的BP神经网络优化算法
【目标跟踪】Yolov5_DeepSort_Pytorch复现
SpringBoot整合Spring Security【超详细教程】
MySQL Community Server 8.0.29安装配置方法图文教程
Vue2.7正式发布!代号为:Naruto(火影忍者),原生支持 Composition API +终于可以在Vue2项目中使用Vue3的新特性了,真香~