FFmpeg 中最关键的结构体之间的关系

FFmpeg 中结构体很多。最关键的结构体可以分成以下几类:
1)解协议(http, rtsp, rtmp, mms)
AVIOContext,URLProtocol,URLContext 主要存储音视频使用的协议的类型以及状态。URLProtocol 存储输入音视频使用的封装格式。每种协议都对应一个 URLProtocol 结构。(注意:FFmpeg 中文件也被当做一种协议 “file”)
2)解封装(flv, avi, rmvb, mp4)
AVFormatContext 主要存储音视频封装格式中包含的信息;AVInputFormat 存储输入音视频使用的封装格式。每种音视频封装格式都对应一个 AVInputFormat 结构。
3)解码(h264, mpeg2, aac, mp3)
每个 AVStream 存储一个视频/音频流的相关数据;每个 AVStream 对应一个 AVCodecContext,存储该视频/音频流使用解码方式的相关数据;每个 AVCodecContext 中对应一个 AVCodec,包含该视频/音频对应的解码器。每种解码器都对应一个 AVCodec 结构。
4)存数据
视频的话,每个结构一般是存一帧;音频可能有好几帧。解码前数据:AVPacket;解码后数据:AVFrame。

image.png

1. AVFormatContext

AVFormatContext 是存储音视频封装格式中包含的信息的结构体。

  1. struct AVInputFormat *iformat; // 输入数据的封装格式
  2. AVIOContext *pb; // 输入数据的缓存
  3. unsigned int nb_streams; // 音视频流的个数
  4. AVStream **streams; // 音视频流
  5. char filename[1024]; // 文件名
  6. int64_t duration; // 时长(单位:微秒us,转换为秒需要除以1000000)
  7. int bit_rate; // 比特率(单位bps,转换为kbps需要除以1000)
  8. AVDictionary *metadata; // 元数据

2. AVFrame

AVFrame 结构体一般用于存储原始数据(即非压缩数据,例如对视频来说是 YUV,RGB,对音频来说是 PCM),此外还包含了一些相关的信息。

  1. uint8_t *data[AV_NUM_DATA_POINTERS]; // 解码后原始数据(对视频来说是YUV,RGB,对音频来说是PCM)
  2. int linesize[AV_NUM_DATA_POINTERS]; // data中“一行”数据的大小。注意:未必等于图像的宽,一般大于图像的宽。
  3. int width, height; // 视频帧宽和高(1920x1080,1280x720...)
  4. int nb_samples; // 音频的一个AVFrame中可能包含多个音频帧,在此标记包含了几个
  5. int format; // 解码后原始数据类型(YUV420,YUV422,RGB24...)
  6. int key_frame; // 是否是关键帧
  7. enum AVPictureType pict_type; // 帧类型(I,B,P...)
  8. AVRational sample_aspect_ratio; // 宽高比(16:9,4:3...)
  9. int64_t pts; // 显示时间戳
  10. int coded_picture_number; // 编码帧序号
  11. int display_picture_number; // 显示帧序号
  12. int8_t *qscale_table; // QP表
  13. uint8_t *mbskip_table; // 跳过宏块表
  14. int16_t (*motion_val[2])[2]; // 运动矢量表
  15. uint32_t *mb_type; // 宏块类型表
  16. short *dct_coeff; // DCT系数,这个没有提取过
  17. int8_t *ref_index[2]; // 运动估计参考帧列表(貌似H.264这种比较新的标准才会涉及到多参考帧)
  18. int interlaced_frame; // 是否是隔行扫描
  19. uint8_t motion_subsample_log2; // 一个宏块中的运动矢量采样个数,取log的

3. AVCodecContext

AVCodecContext 是一个描述编解码器上下文的结构体,包含了众多编解码器需要的参数信息。

  1. enum AVMediaType codec_type; // 编解码器的类型(视频,音频...)
  2. struct AVCodec *codec; // 采用的解码器AVCodec(H.264,MPEG2...)
  3. int bit_rate; // 平均比特率
  4. uint8_t *extradata; int extradata_size; // 针对特定编码器包含的附加信息(例如对于H.264解码器来说,存储SPS,PPS等)
  5. AVRational time_base; // 根据该参数,可以把PTS转化为实际的时间(单位为秒s)
  6. int width, height; // 如果是视频的话,代表宽和高
  7. int refs; // 运动估计参考帧的个数(H.264的话会有多帧,MPEG2这类的一般就没有了)
  8. int sample_rate; // 采样率(音频)
  9. int channels; // 声道数(音频)
  10. enum AVSampleFormat sample_fmt; // 采样格式
  11. int profile; // 型(H.264里面就有,其他编码标准应该也有)
  12. int level; // 级(和profile差不太多)

4. AVIOContext

AVIOContext 是 FFmpeg 管理输入输出数据的结构体。

  1. unsigned char *buffer; // 缓存开始位置
  2. int buffer_size; // 缓存大小(默认32768)
  3. unsigned char *buf_ptr; // 当前指针读取到的位置
  4. unsigned char *buf_end; // 缓存结束的位置
  5. void *opaque; // URLContext结构体

5. AVCodec

AVCodec 是存储编码器信息的结构体。

  1. const char *name; // 编解码器的名字的简称
  2. const char *long_name; // 编解码器名字的全称
  3. enum AVMediaType type; // 指明了类型,是视频,音频,还是字幕
  4. enum AVCodecID id; // ID,不重复
  5. const AVRational *supported_framerates; // 支持的帧率(仅视频)
  6. const enum AVPixelFormat *pix_fmts; // 支持的像素格式(仅视频),如RGB24、YUV420P等。
  7. const int *supported_samplerates; // 支持的采样率(仅音频)
  8. const enum AVSampleFormat *sample_fmts; // 支持的采样格式(仅音频)
  9. const uint64_t *channel_layouts; // 支持的声道数(仅音频)
  10. int priv_data_size; // 私有数据的大小

6. AVStream

AVStream 是存储每一个音频/视频流信息的结构体。

  1. int index; // 标识该视频/音频流
  2. AVCodecContext *codec; // 指向该视频/音频流的AVCodecContext(它们是一一对应的关系)
  3. AVRational time_base; // 时基。通过该值可以把PTS,DTS转化为真正的时间。FFMPEG其他结构体中也有这个字段,但是根据我的经验,只有AVStream中的time_base是可用的。PTS*time_base=真正的时间
  4. int64_t duration; // 该视频/音频流长度
  5. AVDictionary *metadata; // 元数据信息
  6. AVRational avg_frame_rate; // 帧率(注:对视频来说,这个挺重要的)
  7. AVPacket attached_pic; // 附带的图片。比如说一些MP3,AAC音频文件附带的专辑封面。

7. AVPacket

AVPacket 是存储压缩编码数据相关信息的结构体。

  1. uint8_t *data; // 压缩编码的数据。
  2. /* 例如对于H.264来说。1个AVPacket的data通常对应一个NAL。
  3. 注意:在这里只是对应,而不是一模一样。他们之间有微小的差别:使用FFMPEG类库分离出多媒体文件中的H.264码流。因此在使用FFMPEG进行音视频处理的时候,常常可以将得到的AVPacket的data数据直接写成文件,从而得到音视频的码流文件。*/
  4. int size; // data的大小
  5. int64_t pts; // 显示时间戳
  6. int64_t dts; // 解码时间戳
  7. int stream_index; // 标识该AVPacket所属的视频/音频流。