我的编程空间,编程开发者的网络收藏夹
学习永远不晚

C语言ffmpeg与sdl实现播放视频同时同步时钟详解

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

C语言ffmpeg与sdl实现播放视频同时同步时钟详解

前言

视频的时钟同步有时是很难理解的,甚至知道了理论并不能确保实现,需要通过实践获取各种参数以及具体的实现逻辑。本文将介绍一些视频时钟同步的具体实现方式。

一、直接延时

我们播放视频是可以直接延时的,这种方式比较不准确,但是也算是一种初级的方法。

1、根据帧率延时

每渲染一帧都进行一个固定的延时,这个延时的时间是通过帧率计算得来。

//获取视频帧率
AVRational framerate = play->formatContext->streams[video->decoder.streamIndex]->avg_frame_rate;
//根据帧率计算出一帧延时
double duration = (double)framerate.num / framerate.den;
//显示视频
略
//延时
av_usleep(duration* 1000000);

2、根据duration延时

每渲染一帧根据其duration进行延时,这个duration在视频的封装格式中通常会包含。

//获取当前帧的持续时间,下列方法有可能会无法获取duration,还有其他方法获取duration这里不具体说明,比如ffplay通过缓存多帧,来计算duartion。或者自己实现多帧估算duration。
AVRational timebase = play->formatContext->streams[video->decoder.streamIndex]->time_base;
double duration = frame->pkt_duration * (double)timebase.num / timebase.den;
//显示视频
略
//延时
av_usleep(duration* 1000000);

二、同步到时钟

注:这一部分讲的只有视频时钟同步不涉及音频。

上面的简单延时一定程度可以满足播放需求,但也有问题,不能确保时间的准确性。尤其是解复用解码也会消耗时间,单纯的固定延时会导致累计延时。这个时候我们就需要一个时钟来校准每一帧的播放时间。

1、同步到绝对时钟

比较简单的方式是按绝对的方式同步到时钟,即视频有多长,开始之后一定是按照系统时间的长度播放完成,如果视频慢了则会不断丢帧,直到追上时间。

定义一个视频起始时间,在播放循环之外的地方。

//视频起始时间,单位为秒
double videoStartTime=0;

播放循环中进行时钟同步。下列代码的frame为解码的AVFrame。

//以下变量时间单位为s	
//当前时间
double currentTime = av_gettime_relative() / 1000000.0 - videoStartTime;
//视频帧的时间
double	pts = frame->pts * (double)timebase.num / timebase.den;
//计算时间差,大于0则late,小于0则early。
double diff = currentTime - pts;
//视频帧的持续时间,下列方法有可能会无法获取duration,还有其他方法获取duration这里不具体说明,比如ffplay通过缓存多帧,来计算duartion。
double duration = frame->pkt_duration * (double)timebase.num / timebase.den;
//大于阈值,修正时间,时钟和视频帧偏差超过0.1s时重新设置起点时间。
if (diff > 0.1)
{
	videoStartTime = av_gettime_relative() / 1000000.0 - pts;
	currentTime = pts;
	diff = 0;
}
//时间早了延时
if (diff < 0)
{
    //小于阈值,修正延时,避免延时过大导致程序卡死
    if (diff< -0.1)
    {
	    diff =-0.1;
    }
	av_usleep(-diff * 1000000);
	currentTime = av_gettime_relative() / 1000000.0 -videoStartTime;
	diff = currentTime - pts;
}
//时间晚了丢帧,duration为一帧的持续时间,在一个duration内是正常时间,加一个duration作为阈值来判断丢帧。
if (diff > 2 * duration)
{
	av_frame_unref(frame);
	av_frame_free(&frame);
	//此处返回即不渲染,进行丢帧。也可以渲染追帧。
	return;
}
//显示视频
略

2、同步到视频时钟

同步到视频时钟就是,按照视频播放的pts为基准,每次渲染的时候都根据当前帧的pts更新视频时钟。与上面的差距只是多了最底部一行时钟更新代码。

//更新视频时钟
videoStartTime = av_gettime_relative() / 1000000.0 - pts;

因为与上一节代码基本一致,所以不做具体说明,直接参考上一节说明即可。

//以下变量时间单位为s	
//当前时间
double currentTime = av_gettime_relative() / 1000000.0 - videoStartTime;
//视频帧的时间
double	pts = frame->pts * (double)timebase.num / timebase.den;
//计算时间差,大于0则late,小于0则early。
double diff = currentTime - pts;
//视频帧的持续时间,下列方法有可能会无法获取duration,还有其他方法获取duration这里不具体说明,比如ffplay通过缓存多帧,来计算duartion。
double duration = frame->pkt_duration * (double)timebase.num / timebase.den;
//大于阈值,修正时间,时钟和视频帧偏差超过0.1s时重新设置起点时间。
if (diff > 0.1)
{
	videoStartTime = av_gettime_relative() / 1000000.0 - pts;
	currentTime = pts;
	diff = 0;
}
//时间早了延时
if (diff < 0)
{
    //小于阈值,修正延时,避免延时过大导致程序卡死
    if (diff< -0.1)
    {
	    diff =-0.1;
    }
	av_usleep(-diff * 1000000);
	currentTime = av_gettime_relative() / 1000000.0 - videoStartTime;
	diff = currentTime - pts;
}
//时间晚了丢帧,duration为一帧的持续时间,在一个duration内是正常时间,加一个duration作为阈值来判断丢帧。
if (diff > 2 * duration)
{
	av_frame_unref(frame);
	av_frame_free(&frame);
	//此处返回即不渲染,进行丢帧。也可以渲染追帧。
	return;
}
//更新视频时钟
videoStartTime = av_gettime_relative() / 1000000.0 - pts;
//显示视频
略

三、同步到音频

1、音频时钟的计算

要同步到音频我们首先得计算音频时钟,通过音频播放的数据长度可以计算出pts。

定义两个变量,音频的pts,以及音频时钟的起始时间startTime。

//下列变量单位为秒
double audioPts=0;
double audioStartTime=0;

在sdl的音频播放回调中计算音频时钟。其中spec为SDL_AudioSpec是SDL_OpenAudioDevice的第四个参数。

//音频设备播放回调
static void play_audio_callback(void* userdata, uint8_t* stream, int len) {
    //写入设备的音频数据长度
    int dataSize;
    //将数据拷贝到stream
    略
    //计算音频时钟
    if (dataSize > 0)
	{
	  //计算当前pts
      audioPts+=(double) (dataSize)*/ (spec.freq * av_get_bytes_per_sample(forceFormat) * spec.channels);
      //更新音频时钟
      audioStartTime= = av_gettime_relative() / 1000000.0 -audioPts;
    }
}

2、同步到音频时钟

有了音频时钟后,我们需要将视频同步到音频,在二、2的基础上加入同步逻辑即可。

//同步到音频	
double avDiff = 0;
avDiff = videoStartTime - audioStartTime;
diff += avDiff;

完整代码

//以下变量时间单位为s	
//当前时间
double currentTime = av_gettime_relative() / 1000000.0 - videoStartTime;
//视频帧的时间
double	pts = frame->pts * (double)timebase.num / timebase.den;
//计算时间差,大于0则late,小于0则early。
double diff = currentTime - pts;
//视频帧的持续时间,下列方法有可能会无法获取duration,还有其他方法获取duration这里不具体说明,比如ffplay通过缓存多帧,来计算duartion。
double duration = frame->pkt_duration * (double)timebase.num / timebase.den;
//同步到音频	
double avDiff = 0;
avDiff = videoStartTime - audioStartTime;
diff += avDiff;
//大于阈值,修正时间,时钟和视频帧偏差超过0.1s时重新设置起点时间。
if (diff > 0.1)
{
	videoStartTime = av_gettime_relative() / 1000000.0 - pts;
	currentTime = pts;
	diff = 0;
}
//时间早了延时
if (diff < 0)
{
    //小于阈值,修正延时,避免延时过大导致程序卡死
    if (diff< -0.1)
    {
	    diff =-0.1;
    }
	av_usleep(-diff * 1000000);
	currentTime = av_gettime_relative() / 1000000.0 - videoStartTime;
	diff = currentTime - pts;
}
//时间晚了丢帧,duration为一帧的持续时间,在一个duration内是正常时间,加一个duration作为阈值来判断丢帧。
if (diff > 2 * duration)
{
	av_frame_unref(frame);
	av_frame_free(&frame);
	//此处返回即不渲染,进行丢帧。也可以渲染追帧。
	return;
}
//更新视频时钟
videoStartTime = av_gettime_relative() / 1000000.0 - pts;
//显示视频
略

总结

就是今天要讲的内容,本文简单介绍了几种视频时钟同步的方法,不算特别难,但是在网上查找的资料比较少。可以参考的ffplay的实现也有点复杂,本文的实现部分借鉴了ffplay。本文实现的时钟同步还是可以继续优化的,比如用pid进行动态控制。以及duration的计算可以细化调整。

到此这篇关于C语言 ffmpeg与sdl实现播放视频同时同步时钟详解的文章就介绍到这了,更多相关C语言 ffmpeg与sdl内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

C语言ffmpeg与sdl实现播放视频同时同步时钟详解

下载Word文档到电脑,方便收藏和打印~

下载Word文档

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录