python opencv 檢測移動物體并截圖保存實例
最近在老家找工作,無奈老家工作真心太少,也沒什么面試機會,不過之前面試一家公司,提了一個有意思的需求,檢測河面沒有有什么船只之類的物體,我當時第一反應是用opencv做識別,不過回家想想,河面相對的東西比較少,畫面比較單一,只需要檢測有沒有移動的物體不就簡單很多嘛,如果做街道垃圾檢測的話可能就很復雜了,畢竟街道上行人,車輛,動物,很多干擾物,于是就花了一個小時寫了一個小的demo,只需在程序同級目錄創建一個img目錄就可以了
# -*-coding:utf-8 -*- __author__ = 'ZJL' import cv2import time # 保存截圖save_path = ’./img/’ # 定義攝像頭對象,其參數0表示第一個攝像頭camera = cv2.VideoCapture(0) # 判斷視頻是否打開if (camera.isOpened()): print(’Open’)else: print(’攝像頭未打開’) # 測試用,查看視頻sizesize = (int(camera.get(cv2.CAP_PROP_FRAME_WIDTH)), int(camera.get(cv2.CAP_PROP_FRAME_HEIGHT)))print(’size:’+repr(size)) # 幀率fps = 5# 總是取前一幀做為背景(不用考慮環境影響)pre_frame = None while(1): start = time.time() # 讀取視頻流 ret, frame = camera.read() # 轉灰度圖 gray_lwpCV = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) if not ret: break end = time.time() cv2.imshow('capture', frame) # 運動檢測部分 seconds = end - start if seconds < 1.0 / fps: time.sleep(1.0 / fps - seconds) gray_lwpCV = cv2.resize(gray_lwpCV, (500, 500)) # 用高斯濾波進行模糊處理 gray_lwpCV = cv2.GaussianBlur(gray_lwpCV, (21, 21), 0) # 如果沒有背景圖像就將當前幀當作背景圖片 if pre_frame is None: pre_frame = gray_lwpCV else: # absdiff把兩幅圖的差的絕對值輸出到另一幅圖上面來 img_delta = cv2.absdiff(pre_frame, gray_lwpCV) #threshold閾值函數(原圖像應該是灰度圖,對像素值進行分類的閾值,當像素值高于(有時是小于)閾值時應該被賦予的新的像素值,閾值方法) thresh = cv2.threshold(img_delta, 25, 255, cv2.THRESH_BINARY)[1] # 膨脹圖像 thresh = cv2.dilate(thresh, None, iterations=2) # findContours檢測物體輪廓(尋找輪廓的圖像,輪廓的檢索模式,輪廓的近似辦法) image, contours, hierarchy = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for c in contours: # 設置敏感度 # contourArea計算輪廓面積 if cv2.contourArea(c) < 1000: continue else: print('出現目標物,請求核實') # 保存圖像 cv2.imwrite(save_path + str(time.strftime(’%Y-%m-%d %H:%M:%S’,time.localtime(time.time()))) + ’.jpg’, frame) break pre_frame = gray_lwpCV if cv2.waitKey(1) & 0xFF == ord(’q’): break # release()釋放攝像頭camera.release()#destroyAllWindows()關閉所有圖像窗口cv2.destroyAllWindows()
想出現一個矩形框跟隨移動物于是進行了改造,結果發現效果不是很理想,不能很好的框住移動目標,要么只框一部分,要么出現在移動目標附近,尷尬
# -*-coding:utf-8 -*- __author__ = 'ZJL' import cv2import time # 保存截圖save_path = ’./img/’ # 定義攝像頭對象,其參數0表示第一個攝像頭camera = cv2.VideoCapture(0) # 判斷視頻是否打開if (camera.isOpened()): print(’Open’)else: print(’攝像頭未打開’) # 測試用,查看視頻sizesize = (int(camera.get(cv2.CAP_PROP_FRAME_WIDTH)), int(camera.get(cv2.CAP_PROP_FRAME_HEIGHT)))print(’size:’+repr(size)) # 幀率fps = 5# 總是取前一幀做為背景(不用考慮環境影響)pre_frame = None while(1): start = time.time() # 讀取視頻流 ret, frame = camera.read() # 轉灰度圖 gray_lwpCV = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) if not ret: break end = time.time() # 顯示圖像 # cv2.imshow('capture', frame) # 運動檢測部分 seconds = end - start if seconds < 1.0 / fps: time.sleep(1.0 / fps - seconds) gray_lwpCV = cv2.resize(gray_lwpCV, (500, 500)) # 用高斯濾波進行模糊處理 gray_lwpCV = cv2.GaussianBlur(gray_lwpCV, (21, 21), 0) # 如果沒有背景圖像就將當前幀當作背景圖片 if pre_frame is None: pre_frame = gray_lwpCV else: # absdiff把兩幅圖的差的絕對值輸出到另一幅圖上面來 img_delta = cv2.absdiff(pre_frame, gray_lwpCV) #threshold閾值函數(原圖像應該是灰度圖,對像素值進行分類的閾值,當像素值高于(有時是小于)閾值時應該被賦予的新的像素值,閾值方法) thresh = cv2.threshold(img_delta, 25, 255, cv2.THRESH_BINARY)[1] # 膨脹圖像 thresh = cv2.dilate(thresh, None, iterations=2) # findContours檢測物體輪廓(尋找輪廓的圖像,輪廓的檢索模式,輪廓的近似辦法) image, contours, hierarchy = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for c in contours: # 設置敏感度 # contourArea計算輪廓面積 if cv2.contourArea(c) < 1000: continue else: # 畫出矩形框架,返回值x,y是矩陣左上點的坐標,w,h是矩陣的寬和高 (x, y, w, h) = cv2.boundingRect(c) # rectangle(原圖,(x,y)是矩陣的左上點坐標,(x+w,y+h)是矩陣的右下點坐標,(0,255,0)是畫線對應的rgb顏色,2是所畫的線的寬度) cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) # putText 圖片中加入文字 cv2.putText(frame, 'now time: {}'.format(str(time.strftime(’%Y-%m-%d %H:%M:%S’,time.localtime(time.time()))) ), (10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 2) print('出現目標物,請求核實') # 保存圖像 cv2.imwrite(save_path + str(time.strftime(’%Y-%m-%d %H:%M:%S’,time.localtime(time.time()))) + ’.jpg’, frame) break pre_frame = gray_lwpCV # 顯示圖像 cv2.imshow('capture', frame) # cv2.imshow('Thresh', thresh) # 進行閥值化來顯示圖片中像素強度值有顯著變化的區域的畫面 cv2.imshow('Frame Delta', img_delta) if cv2.waitKey(1) & 0xFF == ord(’q’): break # release()釋放攝像頭camera.release()#destroyAllWindows()關閉所有圖像窗口cv2.destroyAllWindows()
補充知識:基于python使用opencv監測視頻指定區域是否有物體移動
緣由:車停車位,早上看到右后輪有很明顯的干了的水漬,前一天下雨,車身其他位置沒有如此顯眼的水漬,不可能是前天雨水的水漬,仔細一看,從油箱蓋一直往下,很明顯,有某個X德的人故意尿在車上的,找物業拿到視頻監控文件,自己看太費時間,于是。。。
思路:讀取視頻的關鍵幀,對比指定區域的數據,如果變化較大(排除環境光線變化),則有物體移動,截取當前幀保存備用。
行動:對于python處理視頻不了解,找來找去,找到opencv,符合需求。
原來是個熊孩子小學生,上樓就到家了,這爹媽教也沒管教說不能隨地大小便么。
代碼如下:
#!/usr/bin/env python# coding: utf-8# @author: sSWans# @file: main.py# @time: 2018/1/11 15:54 import osimport randomfrom _datetime import datetime import cv2 path = ’F:111’ # 遍歷目錄下的視頻文件def get_files(fpath): files_list = [] for i in os.listdir(fpath): files_list.append(os.path.join(fpath, i)) return files_list # 視頻處理def process(file, fname): # camera = cv2.VideoCapture(0) # 參數0表示第一個攝像頭 camera = cv2.VideoCapture(file) # 參數設置,監測矩形區域 rectangleX = 880 # 矩形最左點x坐標 rectangleXCols = 0 # 矩形x軸上的長度 rectangleY = 650 # 矩形最上點y坐標 rectangleYCols = 100 # 矩形y軸上的長度 KeyFrame = 17 # 取關鍵幀的間隔數,根據視頻的幀率設置,我的視頻是16FPS counter = 1 # 取幀計數器 pre_frame = None # 總是取視頻流前一幀做為背景相對下一幀進行比較 # 判斷視頻是否打開 if not camera.isOpened(): print(’視頻文件打開失敗!’) width = int(camera.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(camera.get(cv2.CAP_PROP_FRAME_HEIGHT)) print(’視頻尺寸(高,寬):’, height, width) if rectangleXCols == 0: rectangleXCols = width - rectangleX if rectangleYCols == 0: rectangleYCols = height - rectangleY start_time = datetime.now() print(’{} 開始處理文件: {}’.format(start_time.strftime(’%H:%M:%S’), fname)) while True: grabbed, frame_lwpCV = camera.read() # 讀取視頻流 if grabbed: if counter % KeyFrame == 0: # if not grabbed: # print(’{} 完成處理文件: {} 。。。 ’.format(datetime.now().strftime(’%H:%M:%S’),fname)) # break gray_lwpCV = cv2.cvtColor(frame_lwpCV, cv2.COLOR_BGR2GRAY) # 轉灰度圖 gray_lwpCV = gray_lwpCV[rectangleY:rectangleY + rectangleYCols, rectangleX:rectangleX + rectangleXCols] lwpCV_box = cv2.rectangle(frame_lwpCV, (rectangleX, rectangleY), (rectangleX + rectangleXCols, rectangleY + rectangleYCols), (0, 255, 0), 2) # 用綠色矩形框顯示監測區域 # cv2.imshow(’lwpCVWindow’, frame_lwpCV) # 顯示視頻播放窗口,開啟消耗時間大概是3倍 gray_lwpCV = cv2.GaussianBlur(gray_lwpCV, (21, 21), 0) if pre_frame is None: pre_frame = gray_lwpCV else: img_delta = cv2.absdiff(pre_frame, gray_lwpCV) thresh = cv2.threshold(img_delta, 25, 255, cv2.THRESH_BINARY)[1] thresh = cv2.dilate(thresh, None, iterations=2) image, contours, hierarchy = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for x in contours: if cv2.contourArea(x) < 1000: # 設置敏感度 continue else: cv2.imwrite(’image/’ + fname + ’_’ + datetime.now().strftime(’%H%M%S’) + ’_’ + str( random.randrange(0, 9999)) + ’.jpg’,frame_lwpCV) # print('監測到移動物體。。。 ', datetime.now().strftime(’%H:%M:%S’)) break pre_frame = gray_lwpCV counter += 1 key = cv2.waitKey(1) & 0xFF if key == ord(’q’): break else: end_time = datetime.now() print(’{} 完成處理文件: {} 耗時:{}’.format(end_time.strftime(’%H:%M:%S’), fname, end_time - start_time)) break camera.release() # cv2.destroyAllWindows() # 與上面的imshow對應 for file in get_files(path): fname = file.split(’’)[-1].replace(’.mp4’, ’’) process(file, fname)
以上這篇python opencv 檢測移動物體并截圖保存實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持好吧啦網。
相關文章: