ffmpeg concat video and mix audio,ffmpeg简单快速的合并视频

2019-12-17 11:56:05

参考地址 ffmpeg concat video and mix audio

需求

将N个片段视频文件连接,并合并额外的音频文件

解决方案:

ffmpeg中,官网给出两种连接媒体文件(音频、视频、etc..)的解决方案。

  • the concat "demuxer"

  • the concat "protocol"

对比而言, demuxer更加灵活一些,需要媒体文件是属于相同的编解码器,但是可以属于不同的容器格式(mp3,wav, mp4, mov, etc..).
protocol只适用于少数集中容器格式。

使用concat demuxer连接视频文件

demuxer从一个文本文件中读取文件或者其他指令的列表,然后注意的对他们进行解复用。就像把他们的数据包混合到一起。

步骤:

1.创建一个文件mylist.txt,包含你想要连接的所有文件,格式如下:

file 'path/to/file1'
file 'path/to/file2'
file 'path/to/file3'

其中的文件路径可以是相对路径或者是绝对路径。

2.ffmpeg命令

ffmpeg -f concat -safe 0 -i mylist.txt -c copy output

如果对应的路径为相对路径 参数-safe 0就不是必须的。

3.自动生成输入文本文件的

可以使用如下shell脚本生成。

# with bash or zsh for loop
for f in *.mp4; do echo "file '$f'" >> mylist.txt; done
# or with printf
printf "file '%s'\n" *.mp4 > mylist.txt

使用Concat protocol 连接视频文件

demuxer 是在文件流级别工作,而cancat protocol则是在文件级别操作。
可以将使用MPEG-2传输流的文件连接在一起。类似于在类unix系统上使用cat,或在windows系统上使用copy.

1.下面的命令连接了三个MPEG-2 TS文件,并将它们连接在一起,但不进行重编码

ffmpeg -i "concat:input1.ts|input2.ts|input3.ts" -c copy output.ts

2.使用中间文件

ffmpeg -i input1.mp4 -c copy -bsf:v h264_mp4toannexb -f mpegts intermediate1.ts
ffmpeg -i input2.mp4 -c copy -bsf:v h264_mp4toannexb -f mpegts intermediate2.ts
ffmpeg -i "concat:intermediate1.ts|intermediate2.ts" -c copy -bsf:a aac_adtstoasc output.mp4

3.使用命名管道避免中间文件

mkfifo temp1 temp2
ffmpeg -i input1.mp4 -c copy -bsf:v h264_mp4toannexb -f mpegts temp1 2> /dev/null & \
ffmpeg -i input2.mp4 -c copy -bsf:v h264_mp4toannexb -f mpegts temp2 2> /dev/null & \
ffmpeg -f mpegts -i "concat:temp1|temp2" -c copy -bsf:a aac_adtstoasc output.mp4

所有MPEG格式(MPEG-4 Part 10 / AVC, MPEG-4 Part 2, MPEG-2 Video, MPEG-1 Audio Layer II,
MPEG-2 Audio Layer III (MP3), MPEG-4 Part III (AAC)).都可以转换成MPEG-TS.但是其中的一些参数需要改变,比如-bsf比特流过滤器需要改变

合并音频和视频

默认情况下,ffmpeg只会处理一个音频流和一个视频流,

先给命令:

ffmpeg -i input.mp4 -i input.mp3 -c copy -map 0:v:0 -map 1:a:0 output.mp4

相关解释:

  • map 参数制指定了从哪一个输入流中映射到输出中。

  • 0:v:0 从第一个输出文件中取第一个视频流,1:a:0从第二个文件中取第一个音频流。 v/a参数不是必需的。
    但是如果输入文件中包含多个流,这样有助于消除歧义。

  • 如果你的音频流时长超过视频流,或者相反,你可以使用-shortest参数,使ffmpeg参数在处理到两个输入短的结束时结束。

  • -c copy 复制音频流和视频流,这意味着进程会处理的更快,并且质量也与之前一样。但是在添加一个wav音频到视频中时,最好先
    压缩一下音频。例如:
    ffmpeg -i input.mp4 -i input.wav -c:v copy -map 0:v:0 -map 1:a:0 -c:a aac -b:a 192k output.mp4
    命令中,我们复制了视频流,但是使用ffmpeg内置的AAC编码器重编码了音频,设置为了192kBit/s.

  • 如果你的输出并不支持特定的编解码器, 例如(添加WAV到MP4,或者AAC到AVI中)重编码也是需要的。

我的解决方案:

由于需要合并片段文件和相应的音频文件,首先会拆离视频文件中的音频文件, 并与另外的音频文件混合。可以使用sox或者ffmpeg

然后在执行连接命令。

命令如下:

ffmpeg -hide_banner -f concat -i list.txt -i if.mp3 -c:v copy -c:a aac -strict -2 -map 0:v:0 -map 1:a:0  test.mp4

参考资料:

  • 2017-09-05 11:48:16

    Laravel 服务容器实例教程 —— 深入理解控制反转(IoC)和依赖注入(DI)

    容器,字面上理解就是装东西的东西。常见的变量、对象属性等都可以算是容器。一个容器能够装什么,全部取决于你对该容器的定义。当然,有这样一种容器,它存放的不是文本、数值,而是对象、对象的描述(类、接口)或者是提供对象的回调,通过这种容器,我们得以实现许多高级的功能,其中最常提到的,就是 “解耦” 、“依赖注入(DI)”。本文就从这里开始。

  • 2017-09-11 09:22:09

    nginx配置返回文本或json

     有些时候请求某些接口的时候需要返回指定的文本字符串或者json字符串,如果逻辑非常简单或者干脆是固定的字符串,那么可以使用nginx快速实现,这样就不用编写程序响应请求了,可以减少服务器资源占用并且响应性能非常快

  • 2017-09-11 11:30:09

    linux 获取经过N层Nginx转发的访问来源真实IP

    通常情况下我们使用request.getRemoteAddr()就可以获取到客户端ip,但是当我们使用了nginx作为反向代理后,由于在客户端和web服务器之间增加了中间层,因此web服务器无法直接拿到客户端的ip,通过$remote_addr变量拿到的将是反向代理服务器的ip地址。如果我们想要在web端获得用户的真实ip,就必须在nginx这里作一个赋值操作,如下:

  • 2017-09-11 16:15:11

    Nginx日志管理

    通过访问日志,你可以得到用户地域来源、跳转来源、使用终端、某个URL访问量等相关信息;通过错误日志,你可以得到系统某个服务或server的性能瓶颈等。因此,将日志好好利用,你可以得到很多有价值的信息。

  • 2017-09-11 16:34:14

    Nginx如何保留真实IP和获取前端IP

    squid,varnish以及nginx等,在做反向代理的时候,因为要代替客户端去访问服务器,所以,当请求包经过反向代理后,在代理服务器这里这个IP数据包的IP包头做了修改,最终后端web服务器得到的数据包的头部的源IP地址是代理服务器的IP地址,这样一来,后端服务器的程序给予IP的统计功能就没有任何意义,所以在做代理或集群的时候必须解决这个问题,这里,我以nginx做集群或代理的时候如何给后端web服务器保留(确切的说是传递)客户端的真实IP地址。

  • 2017-09-11 16:35:22

    ngx_http_realip_module使用详解

    网络上关于ngx_http_realip_module的文章千篇一律,全是在说怎么安装,最多贴一个示例配置,却没有说怎么用,为什么这么用,官网文档写得也十分简略,于是就自己探索了一下。