我的编程空间,编程开发者的网络收藏夹
学习永远不晚

python+pygame+opencv+gpt实现虚拟数字人直播(一)

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

python+pygame+opencv+gpt实现虚拟数字人直播(一)

AI技术突飞猛进,不断的改变着人们的工作和生活。数字人直播作为新兴形式,必将成为未来趋势,具有巨大的、广阔的、惊人的市场前景。它将不断融合创新技术和跨界合作,提供更具个性化和多样化的互动体验,成为未来的一种趋势。

前言

马斯克称:“人工智能将在我们所看到的人类进化和文明的未来发挥非常深远的作用。未来我们会拥有大量的机器人,到时候,全球的生产效率将会提高到令人难以置信的水平。”,机器人可以完成行走、上下楼、下蹲、拿取物品等动作,也已具备了保护自身和周围人安全的能力,未来还可以做饭、修剪草坪、帮助照看老人,或在工厂里面替代人类从事枯燥和有危险的工作。

不久前的世界互联网大会数字文明尼山对话上,阿里巴巴集团董事会主席兼首席执行官、阿里云智能集团董事长兼首席执行官张勇也表示,AI的发展将会带来更多的就业机会。站在智能化新时代,所有行业都值得基于人工智能技术重做一遍。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

只不过效率提升的同时,迎面而来的也是人类与AI的近距离博弈。在AIGC时代影响下,人们已经可以用非常低的成本用上ChatGPT、StableDiffusion以及 Mid-journey等AI产品。很多岗位面临着替代的风险,文字工作者、画师、广告设计,甚至是带货主播等。

虽然网上有些公司已实现了虚拟数字人技术,但收费都不菲。这里使用python尝试玩一下虚拟数字人直播,作为有趣的探索和低成本的实现。如果探索可行,可以自己搞一个虚拟数字人直播玩玩儿,挂在自己的抖音上二十四小时在线,岂不美哉!

python实现的虚拟数字人直播

利用AI技术除了虚拟数字人直播外,AR 导购、虚拟试穿、虚拟主播、3D 样板间等新玩法的出现,实现了直播电商在观看体验、直播效率、商业价值上的全面提速。在不同的应用场景下,人工智能和真人主播可以互补互助,为消费者提供多元的观看体验,例如人工智能的语言处理可以更快速地理解和回应用户的问题和需求,而真人主播则可以在直播过程中与用户进行情感上的交流互动,拉近直播间与用户间的距离。 

数字人直播的惊天优势

利用数字人直播新媒体平台,可以让数字人直播24小时随时开播、自动带货。

数字人直播帮助本地生活商家实现爆破式增长。

数字人直播深度还原真人形象告别出镜难题。

数字人直播文案一键输入3S出片短视频产量指数级增长。

数字人直播可利用GPT互动功能,GPT直播生成内容自动互动,回复不重样。

利用文心一言、讯飞星火或chatGPT等人工智能语音交互技术,让数字人直播真正的走向实战,成为可能。

Python实现的技术方案

Python可以用于实现虚拟数字人,使其具备动画和说话的能力。

一个可行的技术方案探索:

人物建模和动画:使用计算机图形学技术,可以使用Python库如Pygame、Pyglet、OpenGL等创建人物的3D模型,并为其添加动画效果。可以使用3D建模软件(如Blender)创建人物模型,并使用Python编写脚本来控制模型的动画。

语音合成:使用Python库如pyttsx3、gTTS等,可以将文本转换为语音。这些库提供了API,可以将文本输入,并生成相应的语音输出。

对话系统:使用Python的自然语言处理(NLP)和机器学习技术,可以构建一个对话系统,使虚拟数字人能够理解和生成自然语言的对话。可以使用NLP库如NLTK、SpaCy等来处理自然语言,并使用机器学习库如TensorFlow、PyTorch等来训练对话模型。

用户界面:使用Python的GUI库如Tkinter、PyQt等,可以创建一个用户界面,使用户能够与虚拟数字人进行交互。可以在界面上显示虚拟人物的动画,并提供文本框或语音输入来与其进行对话。

方案介绍

人物建模和动画: 使用计算机图形学技术创建人物的2D或3D模型,可以使用Blender等建模软件进行建模。将人物的不同面部表情和动作设计为不同的图像帧或动画序列。或自己录制,或从网上剪辑需要的人物视频和图片素材。

精灵类的使用: - 创建一个继承自pygame.sprite.Sprite的虚拟数字人类。  在虚拟数字人类中,使用pygame.image.load()加载人物的图像帧或动画序列。  使用pygame.Surface.blit()方法在屏幕上绘制当前的图像帧。

面部表情和动作切换: - 在虚拟数字人类中,定义方法来切换人物的面部表情和动作。 - 使用pygame.time.set_timer()来定时触发表情和动作的切换,创建一个定时器事件。

发音和语音合成: - 使用Python的语音合成库,如pyttsx3、gTTS等,或百度、科大讯飞等的语音接口,将文本转换为语音。 - 定义方法来触发虚拟数字人的发音,根据需要播放相应的语音。

用户交互: - 创建一个pygame窗口,用于显示虚拟数字人和与用户进行交互。  使用pygame.event.get()监听用户的事件,例如键盘输入或鼠标点击。 - 根据用户的输入,调用相应的方法来切换人物的面部表情、动作和发音。让用户的聊天内容文字发给GPT,形成内容并通过文字转语音回复给用户,同时配合不同的动作和表情。

环境依赖

下载安装python3,Python 官网:Welcome to Python.org

安装依赖的模块: pygame,pygame-pgu,opencv,rembg

pip install rembg -i https://pypi.tuna.tsinghua.edu.cn/simple/pip install opencv-python

替换pip安装的资源镜像(否则下载模块很慢)

pip  config set  global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
4.图片和语音素材

讯飞离线语音合成工具

素材制作

可以使用3D建模软件(如Blender)创建人物模型,这里简单起见,部分素材从网上搜索下载到的,仅用于学习研究目的,如有侵权请联系我。

Rembg是一款图片背景去除工具. 这里我先简单介绍下它的特点。

  • 开源、免费

  • 基于 Python 开发

  • 后台引擎是用于显著对象检测的深度网络架构 U²-Net(后文有简单介绍)

  • 安装简单

背景图片

人物图片

 

代码实现

加载图片背景

#背景实现class BackGround(pygame.sprite.Sprite):    def __init__(self):        super().__init__()        self.image = pygame.image.load('./image/background.png').convert()        self.image = pygame.transform.scale(self.image, (WIDTH, HEIGHT))        self.rect = self.image.get_rect()        self.ready_to_move = 0        self.index = 0    def update(self, *args):        pass

提取视频图片帧

从一段视频中提取视频图片帧。

在pygame中,Sprite精灵通常使用图像来实现动画效果。尽管pygame本身不直接支持加载和播放mp4格式的视频文件,但可以通过一些额外的库来实现加载和播放视频的功能。 一个常用的库是 moviepy ,它是一个用于视频编辑和处理的Python库。可以使用 moviepy 库将mp4视频文件转换为一系列图像帧,然后使用这些图像帧来创建Sprite精灵动画。

下面是一个示例:

import pygamefrom moviepy.editor import VideoFileClip# 加载mp4视频并提取图像帧video = VideoFileClip("animation.mp4")frames = [pygame.image.fromstring(video.get_frame(t), video.size, "RGB") for t in range(0, int(video.duration*video.fps))]# 初始化pygamepygame.init()screen = pygame.display.set_mode(video.size)# 创建Sprite精灵对象class AnimatedSprite(pygame.sprite.Sprite):    def __init__(self, frames):        super().__init__()        self.frames = frames        self.current_frame = 0        self.image = self.frames[self.current_frame]        self.rect = self.image.get_rect()    def update(self):        self.current_frame = (self.current_frame + 1) % len(self.frames)        self.image = self.frames[self.current_frame]# 创建精灵对象并添加到精灵组sprite = AnimatedSprite(frames)sprite_group = pygame.sprite.Group(sprite)clock = pygame.time.Clock()# 游戏循环running = Truewhile running:    for event in pygame.event.get():        if event.type == pygame.QUIT:            running = False    sprite_group.update()    screen.fill((0, 0, 0))    sprite_group.draw(screen)    pygame.display.flip()    clock.tick(30)pygame.quit()

提取视频帧并保存为png格式的图片,同时去除背景:

# 加油动作手势    def comeOn(self):        # 加载mp4视频并提取图像帧        video = VideoFileClip("./mp4/1.mp4")        # Get the video dimensions        video_width, video_height = video.size        # 创建一个pygame surface        #surface = pygame.Surface((video_width, video_height))        #frames = [pygame.image.fromstring(np.array(video.get_frame(t)).tobytes(), video.size, "RGB") for t in range(0, int(video.duration*video.fps))]        # Create a pygame surface with alpha channel        surface = pygame.Surface((video_width, video_height), pygame.class="lazy" data-srcALPHA)        # Convert each frame of the video to an image with transparency        frames = []        for t in range(int(video.duration * video.fps)):            frame = video.get_frame(t)            pygame.surfarray.blit_array(surface, frame.swapaxes(0, 1))            # 将帧保存为PNG图像            image = pygame.surfarray.array3d(surface).swapaxes(0, 1)            image = np.uint8(image)            pil_image = Image.fromarray(image)            #去除图片的白色背景            image = remove(pil_image)            #保存png图片            image.save(f"framet_{t}.png")            # Convert PIL Image to pygame surface            pygame_image = pygame.image.fromstring(image.tobytes(), image.size, image.mode).convert_alpha()                        frames.append(pygame_image)        self.frames = frames        print("frames count:"+str(len(self.frames)))        self.current_frame = 0        self.image = self.frames[self.current_frame]        self.state = "comeOn"        self.start = time.time()

也可以使用opencv提取mp4视频中的图片帧,代码示例:

import cv2# 打开视频文件video = cv2.VideoCapture('2.mp4')# 设置帧计数器frame_count = 0while True:    # 读取视频的每一帧    ret, frame = video.read()    # 如果没有读到帧,说明视频已经结束    if not ret:        break    # 保存帧图片    cv2.imwrite(f'output/frame_{frame_count}.jpg', frame)    # 帧计数器自增    frame_count += 1# 释放视频对象video.release()

实现过程

# -*- coding: utf-8 -*-# @Author : yangyongzhen# @Email : 534117529@qq.com# @File : mqttclienttool.py# @Project : studyimport pygamefrom moviepy.editor import VideoFileClipimport numpy as npimport timefrom PIL import Imagefrom rembg import removeimport cv2# 常量 屏幕大小WIDTH, HEIGHT = 500, 900print(cv2.__version__)# 初始化操作pygame.init()pygame.mixer.init()# 创建窗口screen = pygame.display.set_mode((WIDTH, HEIGHT))# 设置窗口标题pygame.display.set_caption('虚拟数字人--关注作者:blog.csdn.net/qq8864')# 添加背景音乐pygame.mixer.music.load('./sound/bgLoop.wav')pygame.mixer.music.set_volume(0.5)  # 音量#pygame.mixer.music.play(-1, 0)# 添加系统时钟FPS = 30clock = pygame.time.Clock()# 创建用户自定义事件,每隔1000毫秒触发一次事件USER_EVENT = pygame.USEREVENTpygame.time.set_timer(USER_EVENT, 1000)# 加载字体文件font_path = "./font/SIMYOU.ttf"  # 替换为你的字体文件路径font_size = 24font = pygame.font.Font(font_path, font_size)       # ========虚拟数字人主角==========# class Hero(pygame.sprite.Sprite)# class BackGround(pygame.sprite.Sprite)# 虚拟人主角 (静默状态保持微笑和3秒眨一次眼睛)class VirtualMan(pygame.sprite.Sprite):    def __init__(self, speed):        super().__init__()        self.image = pygame.image.load('./image/man.png')        self.image_index = 0        self.readt_to_change = 0        self.rect = self.image.get_rect()        self.rect.width *= 0.5        self.rect.height *= 0.5        self.image = pygame.transform.scale(self.image, (self.rect.width, self.rect.height))        self.rect.x, self.rect.y = 0, 100        self.speed = speed        self.frames = None        self.current_frame = 0        self.state = "idle"    def update(self, *args):        #这里用上下左右、空格几个按键来测试虚拟数字人的不同动作        keys = pygame.key.get_pressed()        if keys[pygame.K_UP]:            #加油动作手势            self.comeOn()        if keys[pygame.K_DOWN]:            #欢迎动作手势            self.welcome()        if keys[pygame.K_LEFT]:            #说话动作和表情            self.say()        if keys[pygame.K_RIGHT]:            #停下来            self.stop()        if keys[pygame.K_SPACE]:            #欢迎动作手势            self.goodbye()                    if self.state == "comeOn":                  self.current_frame = (self.current_frame + 1) % len(self.frames)               self.image = pygame.transform.scale(self.frames[self.current_frame], (self.rect.width, self.rect.height))               #print("current_frame:"+str(self.current_frame))               if self.current_frame == 0:                   self.frames.clear()                   self.state = "idle"                   print("idle")                   self.end = time.time()                   print("time:"+str(self.end - self.start))                   img = pygame.image.load('./image/man.png')                   self.image = pygame.transform.scale(img, (self.rect.width, self.rect.height))                   pass                # 加油动作手势    def comeOn(self):        # 加载mp4视频并提取图像帧        #video = VideoFileClip("./mp4/1.mp4")        frames = []        '''        video = cv2.VideoCapture("./mp4/1.mp4")        # 设置帧计数器        frame_count = 0        while True:            # 读取视频的每一帧            ret, frame = video.read()            # 如果没有读到帧,说明视频已经结束            if not ret:                break            # 保存帧图片            #cv2.imwrite(f'output/frame_{frame_count}.png', frame)            #OpenCV转换成PIL.Image格式            pil_image = Image.fromarray(cv2.cvtColor(frame,cv2.COLOR_BGR2RGB))            image = remove(pil_image)            image.save(f"framet_{frame_count}.png")            # Convert PIL Image to pygame surface            pygame_image = pygame.image.fromstring(image.tobytes(), image.size, image.mode).convert_alpha()                        frames.append(pygame_image)            # 帧计数器自增            frame_count += 1        # 释放视频对象        video.release()        '''        for i in range(0,75):            img = pygame.image.load(f"./doc/img2/framet_{i}.png")            frames.append(img)        self.frames = frames        print("frames count:"+str(len(self.frames)))        self.current_frame = 0        self.image = self.frames[self.current_frame]        self.state = "comeOn"        self.start = time.time()    #再见动作手势    def goodbye(self):        pass    #欢迎动作手势    def welcome(self):        pass    #停止所有动作    def stop(self):        pass    #开始说话    def say(self):        pass        #sound = pygame.mixer.Sound('./sound/nihao.wav')        #sound.play()#背景class BackGround(pygame.sprite.Sprite):    def __init__(self):        super().__init__()        self.image = pygame.image.load('./image/background.png').convert()        self.image = pygame.transform.scale(self.image, (WIDTH, HEIGHT))        self.rect = self.image.get_rect()        self.ready_to_move = 0        self.index = 0    def update(self, *args):        pass# 初始化精灵组bg_sprite = pygame.sprite.Group()man_sprite = pygame.sprite.Group()# 定义人物man = VirtualMan(4)man_sprite.add(man)bg1 = BackGround()bg_sprite.add(bg1)# 保持游戏运行状态(游戏循环)while True:    # ===========游戏帧的刷新===========    clock.tick(FPS)    #print("Runtime:", pygame.time.get_ticks(), "ms")    # 检测事件    for event in pygame.event.get():        # 检测关闭按钮被点击的事件        if event.type == pygame.QUIT:            # 退出            pygame.quit()            exit()        if event.type == USER_EVENT:           man.say()           pass        else:            try:                pass            except Exception as e:                print(e)            # screen.fill((0,0,0))    for group in [bg_sprite, man_sprite]:        group.update()        group.draw(screen)    #screen.fill((0,0,0))    #生成一个屏幕      pygame.display.flip()    #pygame.display.update()    #app.paint()             #将pgu容器的内容画出

其他资源 

【代码抠图】4行Python代码帮你消除图片背景 - 知乎

【Python】推荐三个好玩的图像处理库_python rembg_赵卓不凡的博客-CSDN博客

百度安全验证

无需Photoshop!Rembg:图像背景自动去除工具_研道鸠摩智的博客-CSDN博客

数字人涌入直播间,虚拟主播的未来到底如何?

光生资讯 |虚拟数字人直播火热,前景广阔但仍需改进_进行_用户_问题

【Python】推荐三个好玩的图像处理库_python rembg_赵卓不凡的博客-CSDN博客

Python自动化:一款基于AI的自动图片背景去除软件 - 墨天轮

rembg 模型库放置位置设置_桑榆肖物的博客-CSDN博客

Matting库rembg使用测评 - 知乎

Python OpenCV 详解_pythonopencv-CSDN博客

Python+OpenCV计算机视觉全面基础概述(上篇) - 知乎

Py之cv2:cv2库(OpenCV,opencv-python)的简介、安装、使用方法(常见函数、方法等)最强详细攻略_顺其自然~的博客-CSDN博客

OpenCV视频操作 · OpenCV-Python初学自码 · 看云

来源地址:https://blog.csdn.net/qq8864/article/details/133383638

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

python+pygame+opencv+gpt实现虚拟数字人直播(一)

下载Word文档到电脑,方便收藏和打印~

下载Word文档

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录