python人物视频背景替换实现虚拟空间穿梭
引言
近期网上这位卖蜂蜜的小伙鬼畜挺火的,大家质疑背景造假,这里我就带着大家实现“背景造假”(PS:原视频小伙是在真实场景拍摄的)
准备工作
在实现该功能之前,我们需要准备好python==3.7 然后执行:
pip install mediapipe
方案一: PC端可以选择外界摄像头或者连接网络摄像头,最好挑选一个纯属的背景板作为视频画面背景(这样有利于任务分割);
方案二: 网上下载有人物活动的视频,然后用下载的视频替代连接摄像头。
到这里我们基础物件已经搭建好了,本实验代码选择方案二,对下载视频分析,其shape=(740,640,3)。接下来我将带领大家实现三个版本的背景替换
纯RGB背景替换
基础板:将人物提取出来,替换成设定好的纯色背景(可以通过RGB设定)。其基本流程如下:
1. 输入视频
2. 获取视频帧
3. 提取帧内人物图像
4. 设定背景RGB值
5. 创建同视频帧同shape的RGB图像
6. 结合背景图与人物图
7. 输出结合图
示例demo:
import cv2
import mediapipe as mp
import numpy as np
mp_drawing = mp.solutions.drawing_utils
mp_selfie_segmentation = mp.solutions.selfie_segmentation
BG_COLOR = (0, 0, 225) # red
cap = cv2.VideoCapture('111.mp4')
with mp_selfie_segmentation.SelfieSegmentation(
model_selection=0) as selfie_segmentation:
bg_image = None
while cap.isOpened():
success, image = cap.read()
if not success:
break
image = cv2.cvtColor(cv2.flip(image, 1), cv2.COLOR_BGR2RGB)
image.flags.writeable = False
results = selfie_segmentation.process(image)
image.flags.writeable = True
image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)
condition = np.stack(
(results.segmentation_mask,) * 3, axis=-1) > 0.8
if bg_image is None:
bg_image = np.zeros(image.shape, dtype=np.uint8)
bg_image[:] = BG_COLOR
print(bg_image.shape)
output_image = np.where(condition, image, bg_image)
cv2.imshow('MediaPipe Selfie Segmentation', output_image)
if cv2.waitKey(5) & 0xFF == 27:
break
cap.release()
原视频节选帧&替换背景帧:
自定义图像背景板替换
由于我们已知图像的shape,我们可以在网上挑选自己喜欢的背景图,然后调整背景图的shape,使其与视频图像保持一致。整体流程图下:
1. 下载选择喜欢的背景图像
2. 调整下载图像的shape=(740,604,3)
3. 读取视频
4. 获取视频帧
5. 获取视频帧内人物图像
6. 结合背景图和人物图像
7. 输出视频画面
修改图像大小并进行50%缩放后的背景图:
背景图结合人物图:
这里我的背景图选择的有些单调,也不是那么适合,望读者见谅! 代码部分修改:
bg_image = cv2.imread("BBB.jpg")
以上就是python实现人物视频背景替换的详细内容,更多关于python视频背景替换的资料请关注编程网其它相关文章!
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341