大家好,今天小编来为大家解答以下的问题,关于高效处理iOS视频:FFmpeg命令行应用指南,这个很多人还不知道,现在让我们一起来看看吧!
1、各模块的功能:
libavformat:用于各种音视频封装格式的生成和解析; libavcodec:用于各种类型声音、图像编解码; libavutil:包含一些公共的工具函数; libswscale:用于视频场景比例缩放、色彩映射转换; libpostproc:用于后期效果处理; ffmpeg:该项目提供的一个工具,可用于格式转换、解码或电视卡即时编码等; ffsever:一个 HTTP 多媒体即时广播串流服务器; ffplay:是一个简单的播放器,使用ffmpeg 库解析和解码,通过SDL显示;
2、导入iOS工程的配置及使用命令行工具的配置
1、编译成功之后会得到FFmpeg-iOS这么一个目录,里面有lib、include两个子目录,把FFmpeg-iOS直接拖进工程里\
2、添加需要的系统依赖库,Build Phases — Link Binary With Libraries,添加 libz.tbd、libbz2.tbd、libiconv.tbd、CoreMedia.framework、VideoToolbox.framework、AudioToolbox.framework
3、设置 Header Search Paths 路径,指向项目中include目录
到这里command+B已经可以编译成功了,只使用FFmpeg API的话配置到这里就可以了,下面关于使用命令行的配置基于FFmpeg4.2版本,不同的版本之间可能会存在一些小的差异
4、找到源码ffmpeg-4.2/fftools目录下的这些文件导入项目中,如下图
config.h文件在ffmpeg-4.2文件夹同级的scratch文件夹中,scratch下面有不同架构的,真机选用arm64的即可
5、修改命令行工具的代码
全局搜索这些头文件,有引用的地方全部注释
#include "compat/va_copy.h"#include "libavresample/avresample.h"#include "libpostproc/postprocess.h"#include "libavutil/libm.h"#include "libavutil/time_internal.h"#include "libavutil/internal.h"#include "libavformat/network.h"#include "libavcodec/mathops.h"#include "libavformat/os_support.h"#include "libavutil/thread.h"
ffmpeg.c文件中,注释下面的函数调用 并导入系统头文件 #include
nb0_frames = nb_frames = mid_pred(ost->last_nb0_frames[0], ost->last_nb0_frames[1], ost->last_nb0_frames[2]);ff_dlog(NULL, "force_key_frame: n:%f n_forced:%f prev_forced_n:%f t:%f prev_forced_t:%f ->res:%f\n", ost->forced_keyframes_expr_const_values[FKF_N], ost->forced_keyframes_expr_const_values[FKF_N_FORCED], ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_N], ost->forced_keyframes_expr_const_values[FKF_T], ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_T], res);
cmdutils.c文件中print_all_libs_info函数里注释以下两行代码
PRINT_LIB_INFO(avresample, AVRESAMPLE, flags, level);PRINT_LIB_INFO(postproc, POSTPROC, flags, level);
ffmpeg_opt.c文件中注释以下两行代码
{ "videotoolbox", videotoolbox_init, HWACCEL_VIDEOTOOLBOX, AV_PIX_FMT_VIDEOTOOLBOX },{ "videotoolbox_pixfmt", HAS_ARG | OPT_STRING | OPT_EXPERT, { &videotoolbox_pixfmt}, "" },
解决mian函数重复的问题,修改如下
修改执行一次 ffmpeg_main 方法后 App闪退问题
看到一些文章里说修改cmdutils.c中的exit_program函数,注释掉退出进程的代码,本人实测还是有问题,最终修改是 ffmpeg.c文件中把所有调用 exit_program 函数的地方改为调用 ffmpeg_cleanup 函数就可以了。
注意:当前全部改成ffmpeg_cleanup会出现的一些情况,比如执行查看视频信息的命令,这个命令里面没有设置输出路径,原来的代码里走到判断没有输出路径的分支直接调用exit_program就退出了进程,改成调用ffmpeg_cleanup后代码会继续往下走导致一些访问空指针的崩溃,这种个别情况自己再针对进行处理就好了,不过一般使用场景中都会有输入和输出
修改多次调用 ffmpeg_main 时,访问空指针的问题:
ffmpeg.c 文件中在 ffmpeg_cleanup 方法中重置计数器,在 term_exit(); 这行代码前添加重置计数的代码修改后如下:nb_filtergraphs = 0;nb_output_files = 0;nb_output_streams = 0;nb_input_files = 0;nb_input_streams = 0;term_exit();
以上这些都修改完,command+B,编译成功!可以使用命令行了,在使用的地方引入头文件 #import "ffmpeg.h"即可。
3、命令行的使用及处理进度回调
我这里封装了一个使用cmd的方法,代码如下
#import "HEFFmpegTools.h"#import "ffmpeg.h"@implementation HEFFmpegTools///执行ffmpeg指令," "为分割标记符+ (void)runCmd:(NSString *)commandStr completionBlock:(void(^)(int result))completionBlock { dispatch_async(dispatch_get_global_queue(0, 0), ^{ // 根据 " " 将指令分割为指令数组 NSArray *argv_array = [commandStr componentsSeparatedByString:(@" ")]; // 将OC对象转换为对应的C对象 int argc = (int)argv_array.count; char** argv = (char**)malloc(sizeof(char*)*argc); for(int i=0; i< argc; i++) { argv[i] = (char*)malloc(sizeof(char)*1024); strcpy(argv[i],[[argv_array objectAtIndex:i] UTF8String]); } // 传入指令数及指令数组,result==0表示成功 int result = ffmpeg_main(argc,argv); NSLog(@"执行FFmpeg命令:%@,result = %d",commandStr,result); dispatch_async(dispatch_get_main_queue(), ^{ completionBlock(result); }); });}@end
使用runCmd函数的示例代码,把一个视频旋转90度并保存到相册
let videoPath = NSSearchPathForDirectoriesInDomains(.cachesDirectory, .userDomainMask, true).first! + "/tempvideo.mp4"let inputVideo = "(Bundle.main.bundlePath)/ffm_video2.mp4"let transformCmd = "ffmpeg -i (inputVideo) -y -vf rotate=PI/2 (videoPath)";HEFFmpegTools.runCmd(transformCmd) { (result) in if FileManager.default.fileExists(atPath: videoPath) { print("保存到相册"); UISaveVideoAtPathToSavedPhotosAlbum(videoPath, nil, nil, nil) }}
///获取输入源文件的时长void setDuration(long long duration);///获取当前的处理进度void setCurrentTimeFromProgressInfo(char *progressInfo);
.m中删除代码只保留头文件的引用,实现如下
#import "HEFFmpegBridge.h"#import
从上面的代码可以看到,处理进度的回调主要是通过setDuration获取输入源文件的总时长,setCurrentTimeFromProgressInfo获取当前已处理的时长,然后根据两者比例计算出当前的进度,细节直接看代码
2、什么时机调用这两个函数?
ffmpeg_opt.c文件中 open_input_file函数里在err = avformat_open_input(&ic, filename, file_iformat, &o->g->format_opts); 之后调用 setDuration(ic->duration);
ffmpeg.c文件中 print_report函数里 fflush(stderr); 前调用 setCurrentTimeFromProgressInfo(buf.str);
看完这些觉得麻烦也可以直接用我编译配置好的库,导入可以直接使用 github地址,如果觉得有帮助给个️吧
4、命令行使用的整理
命令基本格式:ffmpeg [global_options] {[input_file_options] -i input_url} ... {[output_file_options] output_url} ...
用户评论
终于找到一个可以帮助我处理 iOS 视频的方法!这篇文章讲解特别清楚,我昨天才遇到这个问题,还浪费了几个小时在网上找不到答案,还好找到了这篇博客!
有8位网友表示赞同!
对于我这种对 FFmpeg 不太了解的初学者来说,这篇教程简直太棒了!一步步地讲解每一个命令,加上详细的例子,很容易就能理解。感谢作者分享!
有18位网友表示赞同!
iOS 端使用 FFmpeg 命令行处理视频的确挺强大,不过说实话,很多时候还是更习惯图形化界面操作,手动输入命令确实容易犯错...
有8位网友表示赞同!
文章中提到的代码片段很简洁易懂,但我觉得再多些详细的解释会更好。例如,对于某些参数的具体作用和数值范围,可以再做一些补充说明。
有20位网友表示赞同!
学习 iOS 编程两年多了,才第一次知道可以用 FFmpeg 在 iOS 上处理视频文件! 感谢作者分享这么好的资源,我现在就去实践一下试试...
有14位网友表示赞同!
其实很多第三方库也实现了类似的功能,比如 AVFoundation 等。用命令行的方式确实比较麻烦,如果能提供一些更直观的界面操作方法那太完美了!
有5位网友表示赞同!
这篇文章的代码示例和讲解都很好理解,我现在尝试着把视频文件转换成 MP4 格式,希望效果不会太差...
有19位网友表示赞同!
iOS 开发中处理视频确实需要用到 FFmpeg 命令行,文章提供的教程非常实用。希望以后能更新一些更深入的应用场景,比如实时视频编码、解码等。
有8位网友表示赞同!
我有个疑问:在 iOS 上运行 FFmpeg 命令行需要额外设置什么环境变量吗? 感觉这部分内容没有详细说明...
有18位网友表示赞同!
对于学习 iOS 开发的新手来说,这篇博客简直是雪中送炭!FFmpeg 命令行的使用确实比较复杂,但通过这篇教程可以更容易地上手
有16位网友表示赞同!
虽然文章讲解的很清楚了,但是我还是觉得用第三方库来处理视频更简单高效一些。命令行操作需要很强的编程基础才能熟练运用啊...
有20位网友表示赞同!
在 iOS 实际开发中,使用 FFmpeg 命令行的场景其实不多吧?大部分情况下我们还是可以用现成的 API 库来完成视频处理功能。
有8位网友表示赞同!
我试着用这篇文章提供的代码实现了将 MP4 文件转换成 MOV 格式的转换,但是转换后的文件大小却比原文件大得多。应该哪里出了问题呢?
有5位网友表示赞同!
iOS 端使用 FFmpeg 命令行确实很强大,可以实现很多复杂的视频处理功能。不过,对于硬件要求很高类型的操作,还是建议用专业的视频处理库来完成,避免出现运行缓慢或崩溃的问题......
有13位网友表示赞同!
在 iOS 项目中,如果只偶尔需要进行简单的视频处理,那使用 FFmpeg 命令行就比较便捷了。但是如果是高强度、复杂的视频处理需求,最好考虑更合适的专业库。
有16位网友表示赞同!
感谢作者分享这么宝贵的资源!iOS 上用 FFmpeg 来处理视频真是个好方法,我以后会经常用到这篇博客的教程!
有9位网友表示赞同!
iOS端的FFmpeg命令行确实不太容易上手,希望以后能有更多针对初学者进行更详细讲解的文章。 对于一些常用的命令和参数,可以提供更具体的解释和使用场景,比如视频编码,解码等操作。
有9位网友表示赞同!