发布时间:2023-01-24 22:00
资源:背景建模(对视频处理+python实现+原理+实验报告)
运行代码所需的库有两个,numpy和opencv,安装命令:
pip install numpy
pip install opencv-python
将视频test.avi与代码Background_Generation.py放到同一个文件夹中,运行Background_Generation.py即可。
背景是指在视频中长时间不变化的图像内容。背景建模分为帧差法和混合高斯模型两种。
帧差法:由于场景中的目标在运动,目标的影像在不同图像帧中的位置不同。该类算法对时间上连续的两帧图像进行差分运算,不同帧对应的像素点相减,判断灰度差的绝对值,当绝对值超过一定阈值时,即可判断为运动目标,从而实现目标的检测功能。
帧差法非常简单,但是会引发噪音和空洞问题。
混合高斯模型:在进行前景检测前,先对背景进行训练,对图像中每个背景采用一个混合高斯模型进行模似,每个背景的混合高斯的个数可以自适应。然后在测试阶段,对新来的像素进行GMM匹配,如果该像素值能够匹配其中一个高斯,则认为是背景,否则认为是前景。由于整个过程GMM模型在不断更新学习中,所以对动态背景有一定 的鲁棒性。最后通过对一个有树枝摇摆的动态背景进行前景检测,取得了较好的效果。
在视频中对于像索点的变化情况应当是符合高斯分布
背景的实际分布应当是多个高斯分布混合在一起,每个高斯模型也可以带有权重。
混合高斯模型学习方法
• 1.首先初始化每个高斯模型矩阵参数。
• 2.取视频中T帧数据图像用来训练高斯混合模型。来了第一个像素之后用它来当做第一个高斯分布。
• 3.当后面来的像索值时,与前面已有的高斯的均值比较,如果该像索点的值与其模型均值差在3倍的方差内,则属于该分布,并对其进行参数更新。
• 4.如果下一次来的像索不满足当前高斯分布,用它来创建一个新的高斯分布。
1. 导入库
import numpy as np
import cv2
2. 读取视频
cap = cv2.VideoCapture('test.avi')
3. 创建一个核
kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(3,3))
4. 创建高斯混合模型 createBackgroundSubtractorMOG2()
fgbg = cv2.createBackgroundSubtractorMOG2()
5. 进入循环 apply()
#进入循环后读取图像,将创建的高斯混合模型应用于每一帧的图像中
#开运算去除噪点
fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel)
#寻找视频中的轮廓
#之后遍历每个轮廓,计算每个轮廓的周长,如果周长大于188,则将轮廓近似为矩形,然后画出这个矩形因为我们这个视频中只有人,这个188是照着人的图像测出来这个值的,所以才能检测出运动的人
#计算各轮廓的周长
#找到一个直矩形(不会旋转)
#画出这个矩形
#之后将图像展示出来,按ESC可以关闭图像,关闭后结束视频流然后关闭所有窗口
cv2.imshow('frame',frame)
cv2.imshow('fgmask', fgmask)
k = cv2.waitKey(150) & 0xff
if k == 27:
break
cap.release()
cv2.destroyAllWindows()
完整相关代码及实验报告见:
背景建模(对视频处理+python实现+原理+实验报告)
华云数据支持的临沂中联水泥智能管控平台上榜工信部2020年企业上云典型案例
绘制图形可以使用什么python数据库_地图数据库_地图绘制软件_可视化数据图_在线制作地图-帆软...
用CPU方案打破内存墙?学PayPal堆傲腾扩容量,漏查欺诈交易量可降至1/30
Docker创始人兼CTO宣布离职;特斯拉被爆处于破产边缘;iOS更新,支持京沪地铁卡;谷歌安卓侵权案面临88亿美元赔款丨Q新闻...
【前端】解决Bootstrap3与Bootstrap4同时使用的CSS冲突问题
【云原生】3.2 Kubernetes 实战之多租户系统实战