FFmpeg
来自项目主页
- FFmpeg 是一个完整的跨平台解决方案,用于录制、转换和流式传输音频和视频。它包括 libavcodec - 领先的音频/视频编解码器库。
安装
对于开发版本,安装 ffmpeg-gitAUR 软件包。还有 ffmpeg-fullAUR,它构建时启用了尽可能多的可选功能。
编码示例
- 重要的是,参数应按正确的顺序指定(例如,输入、视频、滤镜、音频、输出)。不这样做可能会导致参数被跳过或阻止 FFmpeg 执行。
- FFmpeg 应该会自动选择可用的 CPU 线程数。但是,您可能希望通过参数
-threads number
强制指定可用的线程数。
请参阅 FFmpeg 编码 wiki 和 ffmpeg(1) § 示例。
屏幕捕获
FFmpeg 包括 x11grab 和 ALSA 虚拟设备,可以捕获整个用户显示和音频输入。
要截取屏幕截图 screen.png
$ ffmpeg -f x11grab -video_size 1920x1080 -i $DISPLAY -vframes 1 screen.png
其中 -video_size
指定要捕获区域的大小。
要录制无损编码且无音频的屏幕录像 screen.mkv
$ ffmpeg -f x11grab -video_size 1920x1080 -framerate 25 -i $DISPLAY -c:v ffvhuff screen.mkv
这里使用了 Huffyuv 编解码器,它速度很快,但会产生巨大的文件大小。
要录制有损编码且带音频的屏幕录像 screen.mp4
$ ffmpeg -f x11grab -video_size 1920x1080 -framerate 25 -i $DISPLAY -f alsa -i default -c:v libx264 -preset ultrafast -c:a aac screen.mp4
这里使用了 x264 编解码器,并采用尽可能快的编码速度。可以使用其他编解码器;如果写入每个帧太慢(由于磁盘性能不足或编码速度慢),则帧将被丢弃,视频输出将变得卡顿。
如果视频流不应保存为文件,而是用作屏幕共享的虚拟摄像头,请参阅 v4l2loopback#使用 FFmpeg 投射 X11。
另请参阅 官方文档。
录制网络摄像头
FFmpeg 包括 video4linux2 和 ALSA 输入设备,可以捕获网络摄像头和音频输入。
以下命令将从网络摄像头录制视频 webcam.mp4
,不带音频,假设网络摄像头在 /dev/video0
下被正确识别
$ ffmpeg -f v4l2 -video_size 640x480 -i /dev/video0 -c:v libx264 -preset ultrafast webcam.mp4
其中 -video_size
指定网络摄像头允许的最大图像尺寸。
以上操作会生成静音视频。要从带有音频的网络摄像头录制视频 webcam.mp4
$ ffmpeg -f v4l2 -video_size 640x480 -i /dev/video0 -f alsa -i default -c:v libx264 -preset ultrafast -c:a aac webcam.mp4
这里使用了 x264 编解码器,并采用尽可能快的编码速度。可以使用其他编解码器;如果写入每个帧太慢(由于磁盘性能不足或编码速度慢),则帧将被丢弃,视频输出将变得卡顿。
另请参阅 官方文档。
VOB 转任何容器
将所需的 VOB 文件连接成单个流,并将它们混合到 MPEG-2 中
$ cat f0.VOB f1.VOB f2.VOB | ffmpeg -i - out.mp2
x264
无损
ultrafast 预设将提供最快的编码,并且对于快速捕获(例如屏幕录制)非常有用
$ ffmpeg -i input -c:v libx264 -preset ultrafast -qp 0 -c:a copy output
预设频谱的另一端是 veryslow,它的编码速度比 ultrafast 慢,但会提供更小的输出文件大小
$ ffmpeg -i input -c:v libx264 -preset veryslow -qp 0 -c:a copy output
这两个示例都将提供相同的质量输出。
-preset superfast
,则应使用它而不是 -preset ultrafast
。与 superfast 相比,Ultrafast 的压缩效率远低得多。恒定速率因子
当您想要特定的质量输出时使用。一般用法是使用仍然提供可接受质量的最高 -crf
值。值越低质量越高;0 是无损,18 是视觉上无损,23 是默认值。合理的范围在 18 到 28 之间。使用您有耐心等待的最慢的 -preset
。有关更多信息,请参阅 x264 编码指南。
$ ffmpeg -i video -c:v libx264 -tune film -preset slow -crf 22 -x264opts fast_pskip=0 -c:a libmp3lame -aq 4 output.mkv
-tune
选项可用于 匹配正在编码的媒体的类型和内容。
两遍编码(极高质量)
音频已停用,因为在多遍运行的第一遍期间仅记录视频统计信息
$ ffmpeg -i video.VOB -an -vcodec libx264 -pass 1 -preset veryslow \ -threads 0 -b:v 3000k -x264opts frameref=15:fast_pskip=0 -f rawvideo -y /dev/null
容器格式会自动检测并从输出文件扩展名 (.mkv
) 混合到其中
$ ffmpeg -i video.VOB -acodec aac -b:a 256k -ar 96000 -vcodec libx264 \ -pass 2 -preset veryslow -threads 0 -b:v 3000k -x264opts frameref=15:fast_pskip=0 video.mkv
视频稳定
使用 vid.stab 插件进行视频稳定需要两遍编码。
第一遍
第一遍将稳定参数记录到文件和/或用于视觉分析的测试视频。
- 仅将稳定参数记录到文件
$ ffmpeg -i input -vf vidstabdetect=stepsize=4:mincontrast=0:result=transforms.trf -f null -
- 将稳定参数记录到文件并创建用于视觉分析的测试视频“output-stab”
$ ffmpeg -i input -vf vidstabdetect=stepsize=4:mincontrast=0:result=transforms.trf output-stab
第二遍
第二遍解析从第一遍生成的稳定参数,并将它们应用于生成“output-stab_final”。您将希望在此处应用任何其他滤镜,以避免后续转码以尽可能保留视频质量。以下示例除了视频稳定之外还执行以下操作
- vid.stab 的作者推荐使用
unsharp
。这里我们只是简单地使用默认值 5:5:1.0:5:5:1.0 - 提示: fade=t=in:st=0:d=4从文件开头开始,从黑色淡入 4 秒
- 提示: fade=t=out:st=60:d=4从视频的第 60 秒开始,淡出到黑色 4 秒
-c:a pcm_s16le
XAVC-S 编解码器以 pcm_s16be 录制,后者无损转码为 pcm_s16le
$ ffmpeg -i input -vf vidstabtransform=smoothing=30:interpol=bicubic:input=transforms.trf,unsharp,fade=t=in:st=0:d=4,fade=t=out:st=60:d=4 -c:v libx264 -tune film -preset veryslow -crf 8 -x264opts fast_pskip=0 -c:a pcm_s16le output-stab_final
x265
示例命令显示在不带任何参数调用 libx265 时的默认值(恒定速率因子编码)
ffmpeg -i input -c:v libx265 -crf 28 -preset medium -c:a libvorbis output.mp4
有关更多信息,请参阅 FFmpeg H.265/HEVC 视频编码指南。
单遍 MPEG-2(接近无损)
允许 FFmpeg 自动设置 DVD 标准化参数。以约 30 FPS 编码为 DVD MPEG-2
$ ffmpeg -i video.VOB -target ntsc-dvd output.mpg
以约 24 FPS 编码为 DVD MPEG-2
$ ffmpeg -i video.VOB -target film-dvd output.mpg
字幕
提取
嵌入在容器文件(例如 MPEG-2 和 Matroska)中的字幕可以提取并转换为 SRT、SSA、WebVTT 等字幕格式 [1]。
- 检查文件以确定它是否包含字幕流
$ ffprobe -hide_banner foo.mkv
... Stream #0:0(und): Video: h264 (High), yuv420p, 1920x800 [SAR 1:1 DAR 12:5], 23.98 fps, 23.98 tbr, 1k tbn, 47.95 tbc (default) Metadata: CREATION_TIME : 2012-06-05 05:04:15 LANGUAGE : und Stream #0:1(und): Audio: aac, 44100 Hz, stereo, fltp (default) Metadata: CREATION_TIME : 2012-06-05 05:10:34 LANGUAGE : und HANDLER_NAME : GPAC ISO Audio Handler Stream #0:2: Subtitle: ssa (default)
foo.mkv
具有嵌入的 SSA 字幕,可以将其提取到独立文件中
$ ffmpeg -i foo.mkv foo.ssa
添加 -c:s srt
以将字幕保存为所需的格式,例如 SubRip
$ ffmpeg -i foo.mkv -c:s srt foo.srt
在处理多个字幕时,您可能需要使用 -map key:stream
参数指定需要提取的流
$ ffmpeg -i foo.mkv -map 0:2 foo.ssa
硬字幕
(说明基于 FFmpeg wiki 上的 HowToBurnSubtitlesIntoVideo)
硬字幕是指将字幕与视频合并。硬字幕无法禁用,也无法切换语言。
- 将
foo.mpg
与foo.ssa
中的字幕叠加
$ ffmpeg -i foo.mpg -vf subtitles=foo.ssa out.mpg
音量增益
可以通过 ffmpeg 的滤镜功能修改音量增益。首先使用 -af
或 -filter:a
选择音频流,然后选择 volume 滤镜,后跟您想要更改流的数值。例如
$ ffmpeg -i input.flac -af volume=1.5 ouput.flac
这里 volume=1.5
提供 150% 的音量增益,例如使用 0.5 而不是 1.5 来将音量减半。音量滤镜也可以采用分贝度量,使用 volume=3dB
将音量增加 3dB,或使用 volume=-3dB
将音量降低 3dB。
ffmpeg -i input.flac -af volumedetect -f null -
。然后,可以将目标电平和当前电平之间的差异提供给 volume 滤镜以达到所需的电平。音量标准化
给定的平均音量和峰值音量也可以通过使用 loudnorm 滤镜进行标准化来实现。要使用 fmpeg 的默认值(目标平均响度、峰值响度和范围响度分别为 -24 LUFS、-2 dBTP 和 7 LU)来标准化文件的感知响度,请使用
$ ffmpeg -i input.flac -af loudnorm output.flac
要获得不同的响度配置文件,请使用滤镜的 i
、tp
和 lra
参数分别指示integrated(综合)、true peak(真峰值)和 loudness range(响度范围)。例如,对于比默认值更高的感知响度,请使用
$ ffmpeg -i input.flac -af loudnorm=i=-16:tp=-1.5:lra=11:print_format=summary output.flac
在此示例中,还添加了 print_format=summary
以显示音频文件的输入和输出响度值。
ffmpeg -i input.flac -af loudnorm=print_format=summary -f null -
。提取音频
$ ffmpeg -i video.mpg output.ext
... Input #0, avi, from 'video.mpg': Duration: 01:58:28.96, start: 0.000000, bitrate: 3000 kb/s Stream #0.0: Video: mpeg4, yuv420p, 720x480 [PAR 1:1 DAR 16:9], 29.97 tbr, 29.97 tbn, 29.97 tbc Stream #0.1: Audio: ac3, 48000 Hz, stereo, s16, 384 kb/s Stream #0.2: Audio: ac3, 48000 Hz, 5.1, s16, 448 kb/s Stream #0.3: Audio: dts, 48000 Hz, 5.1 768 kb/s ...
完全按照复用到文件中的方式提取第一个 (-map 0:1
) AC-3 编码音频流
$ ffmpeg -i video.mpg -map 0:1 -acodec copy -vn video.ac3
将第三个 (-map 0:3
) DTS 音频流转换为比特率为 192 kb/s 且 采样率 为 96000 Hz 的 AAC 文件
$ ffmpeg -i video.mpg -map 0:3 -acodec aac -b:a 192k -ar 96000 -vn output.aac
-vn
禁用视频流的处理。
提取具有特定时间间隔的音频流
$ ffmpeg -ss 00:01:25 -t 00:00:05 -i video.mpg -map 0:1 -acodec copy -vn output.ac3
-ss
指定起始点,-t
指定持续时间。
去除音频
- 复制第一个视频流 (
-map 0:0
) 以及第二个 AC-3 音频流 (-map 0:2
)。 - 将 AC-3 音频流转换为比特率为 128 kb/s 且采样率为 48000 Hz 的双声道 MP3。
$ ffmpeg -i video.mpg -map 0:0 -map 0:2 -vcodec copy -acodec libmp3lame \ -b:a 128k -ar 48000 -ac 2 video.mkv
$ ffmpeg -i video.mkv
... Input #0, avi, from 'video.mpg': Duration: 01:58:28.96, start: 0.000000, bitrate: 3000 kb/s Stream #0.0: Video: mpeg4, yuv420p, 720x480 [PAR 1:1 DAR 16:9], 29.97 tbr, 29.97 tbn, 29.97 tbc Stream #0.1: Audio: mp3, 48000 Hz, stereo, s16, 128 kb/s
分割文件
您可以使用 copy
编解码器对文件执行操作,而无需更改编码。例如,这使您可以轻松地将任何类型的媒体文件拆分为两个
$ ffmpeg -i file.ext -t 00:05:30 -c copy part1.ext -ss 00:05:30 -c copy part2.ext
硬件视频加速
通过使用硬件加速 API,可以提高编码/解码性能,但是仅允许特定类型的编解码器,和/或使用硬件编码时可能并不总是产生与软件编码相同的结果。
VA-API
VA-API 可用于在 Intel CPU 上进行编码和解码(需要 intel-media-driver 或 libva-intel-driver)以及在使用开源 AMDGPU 驱动程序时,在某些 AMD GPU 上进行编码和解码(需要 mesa)。有关可用参数和支持平台的信息,请参阅 FFmpeg 文档。
使用受支持的 H.264 编解码器进行编码的示例
$ ffmpeg -threads 1 -i file.ext -vaapi_device /dev/dri/renderD128 -vcodec h264_vaapi -vf format='nv12|vaapi,hwupload' output.mp4
对于快速参考,可以使用以下方法实现恒定质量编码
$ ffmpeg -vaapi_device /dev/dri/renderD128 -i input.mp4 -vf 'format=nv12,hwupload' -c:v hevc_vaapi -f mp4 -rc_mode 1 -qp 25 output.mp4
如果使用 hevc_vaapi,请在 25(视觉上相同)和更高(28 开始出现非常小的视觉损失)之间调整 -qp。如果使用 h264_vaapi,请在 18(视觉上相同)和更高(20 开始出现非常小的视觉损失)之间调整。此外,hevc_vaapi 的编码速度似乎比 h264_vaapi 快 50%。
NVIDIA NVENC/NVDEC
当使用专有的 NVIDIA 驱动程序并安装 nvidia-utils 软件包时,NVENC 和 NVDEC 可用于编码/解码。最低支持的 GPU 来自 600 系列,有关详细信息,请参阅 硬件视频加速#NVIDIA。
这个旧 gist 提供了一些技术。NVENC 在某种程度上类似于 CUDA,因此即使从终端会话也可以工作。根据硬件的不同,NVENC 比 Intel 的 VA-API 编码器快几倍。
要打印可用选项,请执行(hevc_nvenc
也可能可用)
$ ffmpeg -help encoder=h264_nvenc
使用示例
$ ffmpeg -i source.ext -c:v h264_nvenc -rc constqp -qp 28 output.mkv
Intel QuickSync (QSV)
Intel® Quick Sync Video 使用 Intel GPU 的媒体处理能力来快速解码和编码,使处理器能够完成其他任务并提高系统响应速度。
这需要安装 libmfx 运行时实现。libmfx 是一个调度程序库,它根据底层硬件平台在运行时加载实现。
在 Iron Lake (Gen5) 到 Ice Lake (Gen10) GPU 下运行时,它将加载 intel-media-sdk 作为运行时实现。
在 Tiger Lake (Gen11) 和更新的 GPU 下运行时,libmfx 将加载 vpl-gpu-rt。另请参阅 vpl-gpu-rt 系统要求。
在具有单个 Intel GPU 的系统上,运行时实现无法更改或选择,并且应根据将在其上运行的硬件安装相应的实现。
未能安装所述运行时将导致如下错误
[AVHWDeviceContext @ 0x558283838c80] Error initializing an MFX session: -3. Device creation failed: -1313558101.
在 FFmpeg Wiki 中描述了 QuickSync 的用法。建议使用 VA-API [2] 以及 iHD 或 i965 驱动程序,而不是直接使用 libmfx,有关编码示例,请参阅 FFmpeg Wiki 部分混合转码,有关驱动程序说明,请参阅 硬件视频加速#配置 VA-API。
AMD AMF
AMD 通过 AMD 视频编码引擎(GPU 编码)在 Linux 上添加了对 H264 视频编码的支持,使用 AMDGPU PRO 专有软件包,并且 ffmpeg 添加了对 AMF 视频编码的支持,因此为了使用 h264_amf 视频编码器进行编码,需要 amf-amdgpu-proAUR。您可能需要链接到 AMDGPU PRO 软件包提供的 ICD 文件作为变量,否则 ffmpeg 可能会使用开放的 AMDGPU 的 ICD 文件,并且无法使用此视频编码器。以下是编码命令的示例
$ VK_DRIVER_FILES=/usr/share/vulkan/icd.d/amd_pro_icd64.json ffmpeg -hwaccel auto -vaapi_device /dev/dri/renderD128 -i input.mkv -c:v h264_amf -rc 1 -b:v 8M h264_amf_8M.mp4
对于快速参考,可以使用以下方法实现恒定质量编码
$ VK_DRIVER_FILES=/usr/share/vulkan/icd.d/amd_pro_icd64.json ffmpeg -hwaccel auto -vaapi_device /dev/dri/renderD128 -i input.mp4 -c:v h264_amf -f mp4 -rc 0 -qp_b 22 -qp_i 22 -qp_p 22 -quality 2 output.mp4
一起调整三个 -qp_(b|i|p),18 是视觉上相同的,22 是开始出现非常小的视觉损失的。
动画 GIF
虽然动画 GIF 通常是视频格式的糟糕选择,因为它们的图像质量差、文件大小相对较大且缺乏音频支持,但它们仍然在 Web 上频繁使用。以下命令可用于将视频转换为动画 GIF
$ ffmpeg -i input.mp4 -vf "fps=10,split[s0][s1];[s0]palettegen[p];[s1][p]paletteuse" -loop -1 output.gif
有关使用调色板滤镜生成高质量 GIF 的更多信息,请参阅 https://blog.pkh.me/p/21-high-quality-gif-with-ffmpeg.html。
预设文件
使用默认 预设文件 填充 ~/.ffmpeg
$ cp -iR /usr/share/ffmpeg ~/.ffmpeg
创建新的和/或修改默认预设文件
~/.ffmpeg/libavcodec-vhq.ffpreset
vtag=DX50 mbd=2 trellis=2 flags=+cbp+mv0 pre_dia_size=4 dia_size=4 precmp=4 cmp=4 subcmp=4 preme=2 qns=2
使用预设文件
在声明所需的 -vcodec
后启用 -vpre
选项
libavcodec-vhq.ffpreset
libavcodec
= vcodec/acodec 的名称vhq
= 要调用的特定预设的名称ffpreset
= FFmpeg 预设文件类型后缀
技巧与窍门
减少冗余信息
结合使用以下选项可将冗余信息减少到所需级别
-hide_banner
:阻止 ffmpeg 输出其版权声明、构建选项和库版本-loglevel
:调节冗余级别(提供微调选项),例如-loglevel warning
-nostats
:禁用编码进度/统计信息的打印
输出视频时长
$ ffprobe -select_streams v:0 -show_entries stream=duration -of default=noprint_wrappers=1:nokey=1 file.ext
以 JSON 格式输出流信息
$ ffprobe -v quiet -print_format json -show_format -show_streams file.ext
每 X 帧创建一个视频截图
$ ffmpeg -i file.ext -an -s 319x180 -vf fps=1/100 -qscale:v 75 %03d.jpg
参见
- FFmpeg 文档 - 官方文档
- FFmpeg Wiki - 官方 wiki
- 使用 x264 编解码器编码 - MEncoder 文档
- H.264 编码指南 - Avidemux wiki
- 使用 FFmpeg - Linux how to pages
- 列表 支持的音频和视频流