FFmpeg Examples 涉及的 API

本文最后更新于:1 年前

Reference


编译出对应 FFmpeg 源码的 API doc

1、下载 doxygen

1
sudo apt-get install doxygen

2、编译

1
make apidoc

执行完成后在 ffmpeg-5.0/doc/doxy/html 目录内生成 html 形式的 doc,访问入口是 index.html。

TODO Examples list 缺少:avio_list_dir、extract_mvs、qsvdec、vaapi_encode、vaapi_transcode,这些在 ffmpeg-5.0/doc/examples 可以找到。

3、编译好的 API doc
FFmpeg-5.0 doc


Examples

(前例写过的 API 不会在后例中写)

avio_list_dir

API example program to show how to list files in directory accessed through AVIOContext.

API 示例程序显示如何列出通过 AVIOContext 访问的目录中的文件。

打开输入的路径

1
2
3
4
AVIODirContext *ctx = NULL;
const char *input_dir = 不能为空;

int ret = avio_open_dir(&ctx, input_dir, NULL);

关闭输入的路径

1
2
3
AVIODirContext *ctx = 不能为空;

avio_close_dir(&ctx);

错误信息转字符串

1
2
3
int ret = 不能为空;

av_err2str(ret);

打印信息

1
2
3
av_log(NULL, AV_LOG_INFO, "%-9s %12s %30s %10s %s %16s %16s %16s\n",
"TYPE", "SIZE", "NAME", "UID(GID)", "UGO", "MODIFIED",
"ACCESSED", "STATUS_CHANGED");

读目录内的文件

1
2
3
4
AVIODirEntry *entry = NULL;
AVIODirContext *ctx = 不能为空;

int ret = avio_read_dir(ctx, &entry);

释放对文件的引用

1
2
3
AVIODirEntry *entry = 不能为空;

avio_free_directory_entry(&entry);

获取文件模式(操作文件的权限)

1
2
3
4
5
6
7
8
AVIODirEntry *entry = 不能为空;
char filemode[4];

if (entry->filemode == -1) {
snprintf(filemode, 4, "???");
} else {
snprintf(filemode, 4, "%3" PRIo64, entry->filemode);
}

获取 User ID 和 Group ID

1
2
3
4
AVIODirEntry *entry = 不能为空;
char uid_and_gid[20];

snprintf(uid_and_gid, 20, "%" PRId64"(%" PRId64")", entry->user_id, entry->group_id);

打印文件信息

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
static const char *type_string(int type) {
switch (type) {
case AVIO_ENTRY_DIRECTORY:
return "<DIR>";
case AVIO_ENTRY_FILE:
return "<FILE>";
case AVIO_ENTRY_BLOCK_DEVICE:
return "<BLOCK DEVICE>";
case AVIO_ENTRY_CHARACTER_DEVICE:
return "<CHARACTER DEVICE>";
case AVIO_ENTRY_NAMED_PIPE:
return "<PIPE>";
case AVIO_ENTRY_SYMBOLIC_LINK:
return "<LINK>";
case AVIO_ENTRY_SOCKET:
return "<SOCKET>";
case AVIO_ENTRY_SERVER:
return "<SERVER>";
case AVIO_ENTRY_SHARE:
return "<SHARE>";
case AVIO_ENTRY_WORKGROUP:
return "<WORKGROUP>";
case AVIO_ENTRY_UNKNOWN:
default:
break;
}
return "<UNKNOWN>";
}
1
2
3
4
5
6
7
8
9
10
11
12
13
AVIODirEntry *entry = 不能为空;
char uid_and_gid[20] = 不能为空;
char filemode[4] = 不能为空;

av_log(NULL, AV_LOG_INFO, "%-9s %12" PRId64" %30s %10s %s %16" PRId64" %16" PRId64" %16" PRId64"\n",
type_string(entry->type),
entry->size,
entry->name,
uid_and_gid,
filemode,
entry->modification_timestamp,
entry->access_timestamp,
entry->status_change_timestamp);

avio_reading

API example program to show how to read from a custom buffer accessed through AVIOContext.

API 示例程序显示如何从通过 AVIOContext 访问的自定义缓冲区中读取数据。

映射文件的内容到缓冲区

1
2
3
4
5
uint8_t *buffer = NULL;
size_t buffer_size;
char *input_filename = 不能为空;

int ret = av_file_map(input_filename, &buffer, &buffer_size, 0, NULL);

取消映射文件的内容到缓冲区

1
2
3
4
uint8_t *buffer = 不能为空;
size_t buffer_size = 不能为空;

av_file_unmap(buffer, buffer_size);

创建 AVFormatContext

1
2
3
AVFormatContext *fmt_ctx = NULL;

fmt_ctx = avformat_alloc_context();

关闭 AVFormatContext

1
2
3
AVFormatContext *fmt_ctx = 不能为空;

avformat_close_input(&fmt_ctx);

创建缓冲区

1
2
3
4
uint8_t *avio_ctx_buffer = NULL;
size_t avio_ctx_buffer_size = 4096;

avio_ctx_buffer = (uint8_t *) (av_malloc(avio_ctx_buffer_size));

释放缓冲区

1
2
if (avio_ctx)
av_freep(&avio_ctx->buffer);

创建 AVIOContext

1
2
3
4
struct buffer_data {
uint8_t *ptr;
size_t size; ///< size left in the buffer
};
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
static int read_packet(void *opaque, uint8_t *buf, int buf_size) {
struct buffer_data *bd = (struct buffer_data *) opaque;
buf_size = FFMIN(buf_size, bd->size);

if (!buf_size)
return AVERROR_EOF;
LOGD("ptr:%p size:%zu\n", bd->ptr, bd->size);

/* copy internal buffer data to buf */
memcpy(buf, bd->ptr, buf_size);
bd->ptr += buf_size;
bd->size -= buf_size;

return buf_size;
}
1
2
3
4
5
6
7
8
9
10
11
AVIOContext *avio_ctx = NULL;

uint8_t *avio_ctx_buffer = 不能为空;
size_t avio_ctx_buffer_size = 4096;

struct buffer_data bd = {0};
bd.ptr = 不能为空;
bd.size = 不能为空;

avio_ctx = avio_alloc_context(avio_ctx_buffer, avio_ctx_buffer_size,
0, &bd, &read_packet, NULL, NULL);

后一个数组向前一个数组复制 n 个数据

1
2
3
4
struct buffer_data {
uint8_t *ptr;
size_t size; ///< size left in the buffer
};
1
2
3
4
5
6
7
struct buffer_data *bd = 不能为空;
uint8_t *buf = 不能为空;
int buf_size = 不能为空;

memcpy(buf, bd->ptr, buf_size);
bd->ptr += buf_size;
bd->size -= buf_size;

释放 AVIOContext

1
2
3
AVIOContext *avio_ctx = 不能为空;

avio_context_free(&avio_ctx);

建立 AVFormatContext 对 AVIOContext 的引用

1
2
3
4
AVFormatContext *fmt_ctx = 不能为空;
AVIOContext *avio_ctx = 不能为空;

fmt_ctx->pb = avio_ctx;

打开输入的文件

1
2
3
AVFormatContext *fmt_ctx = 不能为空;

int ret = avformat_open_input(&fmt_ctx, NULL, NULL, NULL);

获取文件的流信息

1
2
3
AVFormatContext *fmt_ctx = 不能为空;

int ret = avformat_find_stream_info(fmt_ctx, NULL);

打印输入或输出的详细信息

1
2
3
4
AVFormatContext *fmt_ctx = 不能为空;
char *input_filename = 不能为空;

av_dump_format(fmt_ctx, 0, input_filename, 0);

decode_audio

audio decoding with libavcodec API example

使用 libavcodec API 进行音频解码示例

1
2
#define AUDIO_INBUF_SIZE 20480
#define AUDIO_REFILL_THRESH 4096

创建 AVPacket

1
AVPacket *pkt = av_packet_alloc();

释放 AVPacket

1
2
3
AVPacket *pkt = 不能为空;

av_packet_free(&pkt);

获取指定的 AVCodec

1
const AVCodec *codec = avcodec_find_decoder(AV_CODEC_ID_MP2);

创建并初始化 AVCodecParserContext

1
2
3
const AVCodec *codec = 不能为空;

AVCodecParserContext *parser = av_parser_init(codec->id);

关闭 AVCodecParserContext

1
2
3
AVCodecParserContext *parser  = 不能为空;

av_parser_close(parser);

创建 AVCodecContext

1
2
3
const AVCodec *codec = 不能为空;

AVCodecContext *c = avcodec_alloc_context3(codec);

释放 AVCodecContext

1
2
3
AVCodecContext *c = 不能为空;

avcodec_free_context(&c);

初始化 AVCodecContext

For some codecs, such as msmpeg4 and mpeg4, width and height MUST be initialized there because this information is not available in the bitstream.

对于某些编解码器,例如 msmpeg4 和 mpeg4,必须在此处初始化宽度和高度,因为此信息在比特流中不可用。

1
2
3
4
5
6
7
8
9
10
11
AVCodecContext *c = 不能为空;
const AVCodec *codec = 不能为空;

int ret = avcodec_open2(c, codec, NULL);

// 给参数赋值
AVDictionary *opts = NULL;

ret = av_dict_set(&opts, "flags2", "+export_mvs", 0);
ret = avcodec_open2(c, codec, &opts);
av_dict_free(&opts);

释放 AVCodecContext

1
2
3
AVCodecContext *c = 不能为空;

av_free(c);

释放 AVCodecContext

1
2
3
AVCodecContext *c = 不能为空;

avcodec_free_context(&c);

打开文件

1
2
3
const char *filename;

FILE *f = fopen(filename, "rb");

关闭文件

1
2
3
FILE *f = 不能为空;

int ret = fclose(f);

读文件的内容

1
2
3
4
uint8_t inbuf[AUDIO_INBUF_SIZE + AV_INPUT_BUFFER_PADDING_SIZE];
FILE *f = 不能为空;

size_t data_size = fread(inbuf, 1, AUDIO_INBUF_SIZE, f);

创建 AVFrame

1
AVFrame *decoded_frame = av_frame_alloc();

释放 AVFrame

1
2
3
AVFrame *decoded_frame = 不能为空;

av_frame_free(&decoded_frame);

解析数据包

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
AVCodecParserContext *parser = 不能为空;
AVCodecContext *c = 不能为空;
AVPacket *pkt = 不能为空;
uint8_t *data = 不能为空;
size_t data_size = 不能为空;

int ret = av_parser_parse2(parser, c, &pkt->data, &pkt->size,
data, data_size,
AV_NOPTS_VALUE, AV_NOPTS_VALUE, 0);
if (ret < 0) {
LOGE("Error while parsing\n");
return 1;
} else
LOGD("av_parser_parse2()");
data += ret;
data_size -= ret;

提供原始数据包数据作为解码器的输入

1
2
3
4
AVCodecContext *dec_ctx = 不能为空;
AVPacket *pkt = 不能为空;

int ret = avcodec_send_packet(dec_ctx, pkt);

获取解码器解码后的输出数据

1
2
3
4
AVCodecContext *dec_ctx = 不能为空;
AVFrame *frame = 不能为空;

int ret = avcodec_receive_frame(dec_ctx, frame);

获取每个样本的字节数

1
2
3
AVCodecContext *dec_ctx = 不能为空;

int data_size = av_get_bytes_per_sample(dec_ctx->sample_fmt);

写数据到文件

1
2
3
4
5
6
7
8
9
AVFrame *frame = 不能为空;
AVCodecContext *dec_ctx = 不能为空;
int i, ch;
int data_size = 不能为空;
FILE *outfile = 不能为空;

for (i = 0; i < frame->nb_samples; i++)
for (ch = 0; ch < dec_ctx->channels; ch++)
fwrite(frame->data[ch] + data_size * i, 1, data_size, outfile);

后一个数组向前一个数组复制 n 个数据

1
2
3
4
5
6
7
8
9
10
uint8_t inbuf[AUDIO_INBUF_SIZE + AV_INPUT_BUFFER_PADDING_SIZE];
uint8_t *data = 不能为空;
size_t data_size = 不能为空;

memmove(inbuf, data, data_size);
data = inbuf;
len = fread(data + data_size, 1,
AUDIO_INBUF_SIZE - data_size, f);
if (len > 0)
data_size += len;

刷新解码器

1
2
3
4
5
6
AVPacket *pkt = 不能为空;

pkt->data = NULL;
pkt->size = 0;
// 执行一次解码流程
decode(c, pkt, decoded_frame, outfile);

检查样本格式是否是平面的

1
2
3
enum AVSampleFormat sfmt = 不能为空;

int ret = av_sample_fmt_is_planar(sfmt);

获取样本格式名称

1
2
3
enum AVSampleFormat sfmt = 不能为空;

const char *packed = av_get_sample_fmt_name(sfmt);

获取样本格式的打包

1
2
3
enum AVSampleFormat sfmt = 不能为空;

sfmt = av_get_packed_sample_fmt(sfmt);

获取 ffplay 时的参数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
static int get_format_from_sample_fmt(const char **fmt,
enum AVSampleFormat sample_fmt) {
int i;
struct sample_fmt_entry {
enum AVSampleFormat sample_fmt;
const char *fmt_be, *fmt_le;
} sample_fmt_entries[] = {
{AV_SAMPLE_FMT_U8, "u8", "u8"},
{AV_SAMPLE_FMT_S16, "s16be", "s16le"},
{AV_SAMPLE_FMT_S32, "s32be", "s32le"},
{AV_SAMPLE_FMT_FLT, "f32be", "f32le"},
{AV_SAMPLE_FMT_DBL, "f64be", "f64le"},
};
*fmt = NULL;

for (i = 0; i < FF_ARRAY_ELEMS(sample_fmt_entries); i++) {
struct sample_fmt_entry *entry = &sample_fmt_entries[i];
if (sample_fmt == entry->sample_fmt) {
*fmt = AV_NE(entry->fmt_be, entry->fmt_le);
return 0;
}
}

LOGE(
"sample format %s is not supported as output format\n",
av_get_sample_fmt_name(sample_fmt));
return -1;
}
1
2
3
4
const char *fmt;
enum AVSampleFormat sfmt = 不能为空;

int ret = get_format_from_sample_fmt(&fmt, sfmt);

decode_video

video decoding with libavcodec API example

使用 libavcodec API 进行视频解码示例

And check your input file is encoded by mpeg1video please.

请检查您的输入文件是否由 mpeg1video 编码。

1
#define INBUF_SIZE 4096

创建 AVPacket

1
AVPacket *pkt = av_packet_alloc();

将缓冲区的结尾设置为 0

这可确保损坏的 MPEG 流不会发生过度读取

1
2
3
uint8_t inbuf[INBUF_SIZE + AV_INPUT_BUFFER_PADDING_SIZE];

memset(inbuf + INBUF_SIZE, 0, AV_INPUT_BUFFER_PADDING_SIZE);

输出缓冲区中的数据

1
2
// 没什么用,而且 example 中用法应该不对,参考 https://www.runoob.com/cprogramming/c-function-fflush.html
fflush(stdout);

刷新解码器

1
2
3
AVCodecContext *dec_ctx = 不能为空;

int ret = avcodec_send_packet(dec_ctx, NULL);

demuxing_decoding

API example program to show how to read frames from an input file.
This program reads frames from a file, decodes them, and writes decoded video frames to a rawvideo file named video_output_file, and decoded audio frames to a rawaudio file named audio_output_file.

API 示例程序,展示如何从输入文件中读取帧。
该程序从文件中读取帧,对其进行解码,并将解码的视频帧写入名为 video_output_file 的 rawvideo 文件,并将解码的音频帧写入名为 audio_output_file 的 rawaudio 文件。

打开输入的文件

1
2
3
4
static AVFormatContext *fmt_ctx = NULL;
static const char *src_filename = 不能为空;

int ret = avformat_open_input(&fmt_ctx, src_filename, NULL, NULL);

获取最佳流

1
2
3
4
5
6
7
8
9
10
11
12
13
14
AVFormatContext *fmt_ctx = 不能为空;
enum AVMediaType type = 不能为空;
int ret, stream_index;
AVStream *st;

ret = av_find_best_stream(fmt_ctx, type, -1, -1, NULL, 0);
if (ret < 0) {
LOGE("Could not find %s stream in input file '%s'\n",
av_get_media_type_string(type), src_filename);
return ret;
} else {
stream_index = ret;
st = fmt_ctx->streams[stream_index];
}

获取指定的 AVCodec

1
2
3
AVStream *st = 不能为空;

const AVCodec *dec = avcodec_find_decoder(st->codecpar->codec_id);

覆盖 AVCodecContext 对应的参数

1
2
3
4
AVCodecContext **dec_ctx = 不能为空;
AVStream *st = 不能为空;

int ret = avcodec_parameters_to_context(*dec_ctx, st->codecpar);

创建图像缓冲区

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
static uint8_t *video_dst_data[4] = {NULL};
static int video_dst_linesize[4];
static int width = 不能为空;
static int height = 不能为空;
static enum AVPixelFormat pix_fmt = 不能为空;
static int video_dst_bufsize;

int ret = av_image_alloc(video_dst_data, video_dst_linesize,
width, height, pix_fmt, 1);
if (ret < 0) {
LOGE("Could not allocate raw video buffer\n");
goto end;
} else
LOGD("av_image_alloc()");
video_dst_bufsize = ret;

循环读数据到 AVPacket,读成功后调用解码函数进行解码

1
2
3
4
5
6
7
8
9
10
11
12
13
AVFormatContext *fmt_ctx = 不能为空;
static AVPacket *pkt = NULL;

/* read frames from the file */
while (av_read_frame(fmt_ctx, pkt) >= 0) {
if (pkt->stream_index == video_stream_idx)
ret = decode_packet(video_dec_ctx, pkt);
else if (pkt->stream_index == audio_stream_idx)
ret = decode_packet(audio_dec_ctx, pkt);
av_packet_unref(pkt);
if (ret < 0)
break;
}

复制图像

1
2
3
4
5
6
7
8
9
10
11
static uint8_t *video_dst_data[4] = {NULL};
static int video_dst_linesize[4];
static enum AVPixelFormat pix_fmt = 不能为空;
static int width = 不能为空;
static int height = 不能为空;

AVFrame *frame = 不能为空;

av_image_copy(video_dst_data, video_dst_linesize,
(const uint8_t **) (frame->data), frame->linesize,
pix_fmt, width, height);

刷新解码器

1
2
3
4
if (video_dec_ctx)
decode_packet(video_dec_ctx, NULL);
if (audio_dec_ctx)
decode_packet(audio_dec_ctx, NULL);

encode_audio

获取指定的 AVCodec

1
const AVCodec *codec = avcodec_find_encoder(AV_CODEC_ID_MP2);

获取通道数

1
2
3
4
5
const AVCodec *codec = 不能为空;
const uint64_t *p;

p = codec->channel_layouts;
int nb_channels = av_get_channel_layout_nb_channels(*p);

创建缓冲区

1
2
3
AVFrame *frame = 不能为空;

int ret = av_frame_get_buffer(frame, 0);

确保帧数据可写

确保帧数据是可写的。
在第一轮中,帧是来自 av_frame_get_buffer() 的新帧,因此我们知道它是可写的。
但在接下来的几轮中,encode() 将调用 avcodec_send_frame(),并且编解码器可能在其内部结构中保留了对该帧的引用,这使得该帧不可写。
av_frame_make_writable() 检查并仅在必要时为帧分配新缓冲区。

1
2
3
AVFrame *frame = 不能为空;

int ret = av_frame_make_writable(frame);

提供原始视频或音频帧作为编码器的输入

1
2
3
4
AVCodecContext *ctx = 不能为空;
AVFrame *frame = 不能为空;

int ret = avcodec_send_frame(ctx, frame);

从编码器返回编码后的输出数据

1
2
3
4
AVCodecContext *ctx = 不能为空;
AVPacket *pkt = 不能为空;

int ret = avcodec_receive_packet(ctx, pkt);

刷新编码器

1
2
3
4
5
6
AVCodecContext *c = 不能为空;
AVPacket *pkt = 不能为空;
FILE *f = 不能为空;

// 执行一次编码流程
encodeSound(c, NULL, pkt, f);

encode_video

获取指定的 AVCodec

1
2
3
const char *codec_name = 不能为空;

const AVCodec *codec = avcodec_find_encoder_by_name(codec_name);

给参数赋值

1
2
3
AVCodecContext *c = 不能为空;

int ret = av_opt_set(c->priv_data, "preset", "slow", 0);

添加序列结束代码,以获得真正的 MPEG 文件

之所以有意义,是因为这个小示例直接写入数据包。这称为“基本流”,仅适用于某些编解码器。
要创建有效的文件,通常需要将数据包写入适当的文件格式或协议; 参见 muxing.c。

1
2
3
4
5
const AVCodec *codec = 不能为空;
uint8_t endcode[] = {0, 0, 1, 0xb7};

if (codec->id == AV_CODEC_ID_MPEG1VIDEO || codec->id == AV_CODEC_ID_MPEG2VIDEO)
fwrite(endcode, 1, sizeof(endcode), f);

extract_mvs

获取边数据

1
2
3
4
5
6
7
8
9
10
11
12
13
14
static AVFrame *frame = 不能为空;

int i;
AVFrameSideData *sd = av_frame_get_side_data(frame, AV_FRAME_DATA_MOTION_VECTORS);
if (sd) {
const AVMotionVector *mvs = (const AVMotionVector *) sd->data;
for (i = 0; i < sd->size / sizeof(*mvs); i++) {
const AVMotionVector *mv = &mvs[i];
printf("%d,%2d,%2d,%2d,%4d,%4d,%4d,%4d,0x%" PRIx64"\n",
video_frame_count, mv->source,
mv->w, mv->h, mv->src_x, mv->src_y,
mv->dst_x, mv->dst_y, mv->flags);
}
}

ffhash

This example is a simple command line application that takes one or more arguments. It demonstrates a typical use of the hashing API with allocation, initialization, updating, and finalizing.

此示例是一个简单的命令行应用程序,它采用一个或多个参数。 它演示了哈希 API 的典型用法,包括分配、初始化、更新和完成。

1
#define SIZE 65536

获取支持的 hash 算法

1
2
3
4
5
6
7
8
9
10
int i = 0;
const char *name;
LOGD("usage: ffhash [b64:]algorithm [input]...\n");
LOGD("Supported hash algorithms:");
do {
name = av_hash_names(i);
if (name)
LOGD(" %s", name);
i++;
} while (name);

获取指定的位置

1
2
3
const char *hash_name = 不能为空;

static int out_b64 = av_strstart(hash_name, "b64:", &hash_name);

创建 AVHashContext

1
2
3
4
static struct AVHashContext *hash;
const char *hash_name = 不能为空;

int ret = av_hash_alloc(&hash, hash_name);

初始化 AVHashContext

1
2
3
static struct AVHashContext *hash = 不能为空;

av_hash_init(hash);

更新 AVHashContext

1
2
3
4
static struct AVHashContext *hash = 不能为空;
uint8_t buffer[SIZE];

av_hash_update(hash, buffer, size);

释放 AVHashContext

1
2
3
static struct AVHashContext *hash;

av_hash_freep(&hash);

打开文件

1
2
3
4
char *file = 不能为空;
int flags = O_RDONLY;

int fd = open(file, flags);

关闭文件

1
2
3
int fd = 不能为空;

int ret = close(fd);

获取 hash 算法名

1
2
3
static struct AVHashContext *hash = 不能为空;

av_hash_get_name(hash);

hash 值转字符串

1
2
3
4
5
6
7
8
9
10
11
static struct AVHashContext *hash = 不能为空;
static int out_b64 = 不能为空;
char res[2 * AV_HASH_MAX_SIZE + 4];

if (out_b64) {
av_hash_final_b64(hash, (uint8_t *) res, sizeof(res));
LOGD("b64:%s", res);
} else {
av_hash_final_hex(hash, (uint8_t *) res, sizeof(res));
LOGD("0x%s", res);
}

filter_audio

This example will generate a sine wave audio, pass it through a simple filter chain, and then compute the MD5 checksum of the output data.
The filter chain it uses is: (input) -> abuffer -> volume -> aformat -> abuffersink -> (output)
abuffer: This provides the endpoint where you can feed the decoded samples.
volume: In this example we hardcode it to 0.90.
aformat: This converts the samples to the samplefreq, channel layout, and sample format required by the audio device.
abuffersink: This provides the endpoint where you can read the samples after they have passed through the filter chain.

这个例子将生成一个正弦波音频,通过一个简单的过滤器链,然后计算输出数据的 MD5 校验和。
它使用的过滤器链是:(input) -> abuffer -> volume -> aformat -> abuffersink -> (output)
abuffer:这提供了您可以提供解码样本的端点。
volume:在本例中,我们将其硬编码为 0.90。
aformat:这会将样本转换为音频设备所需的样本频率、通道布局和样本格式。
abuffersink:这提供了端点,您可以在样本通过过滤器链后读取样本。

1
2
3
4
5
#define INPUT_SAMPLERATE     48000
#define INPUT_FORMAT AV_SAMPLE_FMT_FLTP
#define INPUT_CHANNEL_LAYOUT AV_CH_LAYOUT_5POINT0

#define VOLUME_VAL 0.90

字符串转 float

1
2
3
char *argv[] = 不能为空;

float duration = atof(argv[1]);

创建 AVMD5

1
struct AVMD5 *md5 = av_md5_alloc();

初始化 AVMD5

1
2
3
struct AVMD5 *md5 = 不能为空;

av_md5_init(md5);

计算 MD5 值

1
2
3
4
5
6
7
8
AVFrame *frame = 不能为空;
int planar = av_sample_fmt_is_planar((enum AVSampleFormat) frame->format);
int channels = av_get_channel_layout_nb_channels(frame->channel_layout);
int bps = av_get_bytes_per_sample((enum AVSampleFormat) frame->format);
int plane_size = bps * frame->nb_samples * (planar ? 1 : channels);
uint8_t checksum[16];

av_md5_sum(checksum, frame->extended_data[i], plane_size);

创建 AVFilterGraph

1
AVFilterGraph *filter_graph = avfilter_graph_alloc();

释放 AVFilterGraph

1
2
3
AVFilterGraph *graph = 不能为空;

avfilter_graph_free(&graph);

获取指定的 AVFilter

1
const AVFilter *abuffer = avfilter_get_by_name("abuffer");

创建 AVFilterContext

1
2
3
4
AVFilterGraph *filter_graph = 不能为空;
const AVFilter *abuffer = 不能为空;

AVFilterContext *abuffer_ctx = avfilter_graph_alloc_filter(filter_graph, abuffer, "src");

获取通道布局的描述

1
2
3
uint8_t ch_layout[64];

av_get_channel_layout_string((char *) ch_layout, sizeof(ch_layout), 0, INPUT_CHANNEL_LAYOUT);

设置 AVFilterContext 的参数

1
2
3
4
5
6
7
AVFilterContext *abuffer_ctx = 不能为空;
uint8_t ch_layout[64] = 不能为空;

av_opt_set(abuffer_ctx, "channel_layout", (char *) ch_layout, AV_OPT_SEARCH_CHILDREN);
av_opt_set(abuffer_ctx, "sample_fmt", av_get_sample_fmt_name(INPUT_FORMAT), AV_OPT_SEARCH_CHILDREN);
av_opt_set_q(abuffer_ctx, "time_base", (AVRational) {1, INPUT_SAMPLERATE}, AV_OPT_SEARCH_CHILDREN);
av_opt_set_int(abuffer_ctx, "sample_rate", INPUT_SAMPLERATE, AV_OPT_SEARCH_CHILDREN);
1
2
3
4
5
AVFilterContext *buffersink_ctx = 不能为空;
static const enum AVSampleFormat out_sample_fmts[] = {AV_SAMPLE_FMT_S16, (enum AVSampleFormat) -1};

int ret = av_opt_set_int_list(buffersink_ctx, "sample_fmts", out_sample_fmts, -1,
AV_OPT_SEARCH_CHILDREN);

初始化 AVFilterContext

1
2
3
AVFilterContext *abuffer_ctx = 不能为空;

int ret = avfilter_init_str(abuffer_ctx, NULL);
1
2
3
4
AVFilterContext *volume_ctx = 不能为空;
AVDictionary *options_dict = 不能为空;

int ret = avfilter_init_dict(volume_ctx, &options_dict);
1
2
3
4
5
6
7
8
AVFilterContext *aformat_ctx = 不能为空;
uint8_t options_str[1024];

snprintf((char *) options_str, sizeof(options_str),
"sample_fmts=%s:sample_rates=%d:channel_layouts=0x%" PRIx64,
av_get_sample_fmt_name(AV_SAMPLE_FMT_S16), 44100,
(uint64_t) AV_CH_LAYOUT_STEREO);
int ret = avfilter_init_str(aformat_ctx, (char *) options_str);

转字符串

1
const char *value = AV_STRINGIFY(VOLUME_VAL);

释放 AVDictionary

1
2
3
AVDictionary *options_dict = 不能为空;

av_dict_free(&options_dict);

链接过滤器

1
2
3
4
AVFilterContext *aformat_ctx = 不能为空;
AVFilterContext *volume_ctx = 不能为空;

int ret = avfilter_link(abuffer_ctx, 0, volume_ctx, 0);

配置图

1
2
3
AVFilterGraph *filter_graph = 不能为空;

int ret = avfilter_graph_config(filter_graph, NULL);

将帧发送到 AVFilterGraph 的输入

1
2
3
4
AVFilterContext *src = 不能为空;
AVFrame *frame = 不能为空;

int ret = av_buffersrc_add_frame(src, frame);

获取 AVFilterGraph 的输出

1
2
3
4
AVFilterContext *sink = 不能为空;
AVFrame *frame = 不能为空;

int ret = av_buffersink_get_frame(sink, frame);

释放对 AVFrame 的引用

1
2
3
AVFrame *frame = 不能为空;

av_frame_unref(frame);

filtering_audio

API example for audio decoding and filtering

用于音频解码和过滤的 API 示例

1
static const char *audio_filter_descr = "aresample=8000,aformat=sample_fmts=s16:channel_layouts=mono";

创建 AVFilterInOut

1
AVFilterInOut *outputs = avfilter_inout_alloc();

释放 AVFilterInOut

1
2
3
AVFilterInOut *outputs = 不能为空;

avfilter_inout_free(&outputs);

获取指定数量频道的默认频道布局

1
2
3
static AVCodecContext *dec_ctx = 不能为空;

dec_ctx->channel_layout = av_get_default_channel_layout(dec_ctx->channels);

创建过滤器并添加到图中

1
2
3
4
5
6
7
8
9
10
11
12
13
14
AVFilterContext *buffersrc_ctx = 不能为空;
const AVFilter *abuffersrc = 不能为空;
char args[512];
AVFilterGraph *filter_graph = 不能为空;

AVRational time_base = 不能为空;
static AVCodecContext *dec_ctx = 不能为空;
snprintf(args, sizeof(args),
"time_base=%d/%d:sample_rate=%d:sample_fmt=%s:channel_layout=0x%" PRIx64,
time_base.num, time_base.den, dec_ctx->sample_rate,
av_get_sample_fmt_name(dec_ctx->sample_fmt), dec_ctx->channel_layout);

int ret = avfilter_graph_create_filter(&buffersrc_ctx, abuffersrc, "in",
args, NULL, filter_graph);

设置 AVFilterInOut 的参数

1
2
3
4
5
6
7
8
9
AVFilterInOut *outputs = 不能为空;
AVFilterContext *buffersrc_ctx = 不能为空;

// 缓冲源输出必须连接到由 filters_descr 描述的第一个滤波器的输入板;
// 由于未指定第一个过滤器的输入标签,因此默认设置为“in”。
outputs->name = av_strdup("in");
outputs->filter_ctx = buffersrc_ctx;
outputs->pad_idx = 0;
outputs->next = NULL;
1
2
3
4
5
6
7
8
9
AVFilterInOut *inputs = 不能为空;
AVFilterContext *buffersink_ctx = 不能为空;

// 缓冲接收器输入必须连接到由 filters_descr 描述的最后一个滤波器的输出板;
// 由于未指定最后一个过滤器输出标签,因此默认设置为“out”。
inputs->name = av_strdup("out");
inputs->filter_ctx = buffersink_ctx;
inputs->pad_idx = 0;
inputs->next = NULL;

添加图

1
2
3
4
5
6
7
AVFilterGraph *filter_graph = 不能为空;
const char *filters_descr = 不能为空;
AVFilterInOut *inputs = 不能为空;
AVFilterInOut *outputs = 不能为空;

int ret = avfilter_graph_parse_ptr(filter_graph, filters_descr,
&inputs, &outputs, NULL)

将帧添加到缓冲区源

1
2
3
4
AVFilterContext *buffersrc_ctx = 不能为空;
AVFrame *frame = 不能为空;

int ret = av_buffersrc_add_frame_flags(buffersrc_ctx, frame, AV_BUFFERSRC_FLAG_KEEP_REF);

filtering_video

API example for decoding and filtering

用于解码和过滤的 API 示例

睡眠一段时间

1
2
3
4
5
6
7
const AVFrame *frame = 不能为空;

// 该操作在数学上等价于 a * bq / cq
int64_t delay = av_rescale_q(frame->pts - last_pts,
time_base, AV_TIME_BASE_Q);
if (delay > 0 && delay < 1000000)
usleep(delay);

将视频中的像素点替换成字符,然后从终端输出

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
const AVFrame *frame = 不能为空;
int x, y;
uint8_t *p0, *p;

p0 = frame->data[0];
// 把一个字符串写入到标准输出 stdout
puts("\033c");
for (y = 0; y < frame->height; y++) {
p = p0;
for (x = 0; x < frame->width; x++)
putchar(" .-+#"[*(p++) / 52]);
putchar('\n');
p0 += frame->linesize[0];
}
fflush(stdout);

http_multiclient

API example program to serve http to multiple clients.
This example will serve a file without decoding or demuxing it over http.Multiple clients can connect and will receive the same file.

为多个客户端提供 http 服务的 API 示例程序。
此示例将提供一个文件,而无需通过 http 对其进行解码或解复用。多个客户端可以连接并接收相同的文件。

创建并初始化服务端 AVIOContext

1
2
3
4
5
AVDictionary *options = 不能为空;
AVIOContext *server = 不能为空;
const char *out_uri = 不能为空;

int ret = avio_open2(&server, out_uri, AVIO_FLAG_WRITE, NULL, &options);

接受并创建客户端 AVIOContext

1
2
3
4
AVIOContext *client = NULL;
AVIOContext *server = 不能为空;

int ret = avio_accept(server, &client);

刷新 AVIOContext

1
2
3
AVIOContext *client = 不能为空;

avio_flush(client);

关闭 AVIOContext

1
2
3
AVIOContext *server = 不能为空;

int ret = avio_close(server);
1
2
3
AVFormatContext *ofmt_ctx = 不能为空;

avio_closep(&ofmt_ctx->pb);

创建进程

1
int pid = fork();

HTTP 握手

1
2
3
AVIOContext *client = 不能为空;

int ret = avio_handshake(client);

获取指定参数的值

1
2
3
4
AVIOContext *client = 不能为空;
uint8_t *resource = NULL;

int ret = av_opt_get(client, "resource", AV_OPT_SEARCH_CHILDREN, &resource);

打开指定的文件

1
2
3
4
AVIOContext *input = NULL;
const char *in_uri = 不能为空;

int ret = avio_open2(&input, in_uri, AVIO_FLAG_READ, NULL, NULL)

循环读,并发给客户端,直到读完

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
AVIOContext *input = 不能为空;
AVIOContext *client = 不能为空;
uint8_t buf[1024];
int n;

for (;;) {
n = avio_read(input, buf, sizeof(buf));
if (n < 0) {
if (n == AVERROR_EOF)
break;
av_log(input, AV_LOG_ERROR, "Error reading from input: %s.\n",
av_err2str(n));
break;
}
avio_write(client, buf, n);
avio_flush(client);
}

hw_decode

HW-Accelerated decoding example.
This example shows how to do HW-accelerated decoding with output frames from the HW video surfaces.

硬件加速解码示例。
此示例说明如何使用来自硬件视频表面的输出帧进行硬件加速解码。

获取指定的 AVHWDeviceType

1
2
3
char *argv[] = 不能为空;

enum AVHWDeviceType type = av_hwdevice_find_type_by_name(argv[1]);

遍历受支持的 AVHWDeviceType

1
2
3
enum AVHWDeviceType type = 不能为空;

type = av_hwdevice_iterate_types(type);

获取 AVHWDeviceType 的字符串名称

1
2
3
enum AVHWDeviceType type = 不能为空;

const char* str = av_hwdevice_get_type_name(type);

获取 AVCodec 支持的硬件配置

1
2
3
4
const AVCodec *decoder = 不能为空;
int i;

const AVCodecHWConfig *config = avcodec_get_hw_config(decoder, i);

打开指定类型的设备,并创建 AVCodecContext

1
2
3
4
5
static AVBufferRef *hw_device_ctx = 不能为空;
enum AVHWDeviceType type = 不能为空;

int err = av_hwdevice_ctx_create(&hw_device_ctx, type,
NULL, NULL, 0);

创建新的引用

1
2
3
static AVBufferRef *hw_device_ctx = 不能为空;

AVBufferRef *ref = av_buffer_ref(hw_device_ctx);

释放引用

1
2
3
static AVBufferRef *hw_device_ctx = 不能为空;

av_buffer_unref(&hw_device_ctx);

在不同硬件之间复制数据

1
2
3
4
AVFrame *frame = 不能为空;
AVFrame *sw_frame = 不能为空;

int ret = av_hwframe_transfer_data(sw_frame, frame, 0);

获取所需的内存大小

1
2
3
4
AVFrame *tmp_frame = 不能为空;

int size = av_image_get_buffer_size((enum AVPixelFormat) tmp_frame->format, tmp_frame->width,
tmp_frame->height, 1);

复制数据到缓冲区

1
2
3
4
5
6
7
8
uint8_t *buffer = 不能为空;
int size = 不能为空;
AVFrame *tmp_frame = 不能为空;

int ret = av_image_copy_to_buffer(buffer, size,
(const uint8_t *const *) tmp_frame->data,
(const int *) tmp_frame->linesize, (enum AVPixelFormat) tmp_frame->format,
tmp_frame->width, tmp_frame->height, 1);

metadata

example program to demonstrate the use of the libavformat metadata API.

示例程序来演示 libavformat 元数据 API 的使用。

获取 AVDictionaryEntry

1
const AVDictionaryEntry *tag = av_dict_get(fmt_ctx->metadata, "", tag, AV_DICT_IGNORE_SUFFIX);

muxing

API example program to output a media file with libavformat.
This program generates a synthetic audio and video stream, encodes and muxes them into a file named output_file.
The output format is automatically guessed according to the file extension.
Raw images can also be output by using ‘%%d’ in the filename.

使用 libavformat 输出媒体文件的 API 示例程序。
该程序生成合成的音频和视频流,将它们编码并复用到一个名为 output_file 的文件中。
根据文件扩展名自动猜测输出格式。
也可以通过在文件名中使用“%%d”来输出原始图像。

1
2
3
4
5
#define STREAM_DURATION   10.0
#define STREAM_FRAME_RATE 25 /* 25 images/s */
#define STREAM_PIX_FMT AV_PIX_FMT_YUV420P /* default pix_fmt */

#define SCALE_FLAGS SWS_BICUBIC

比较两个字符串的值

1
2
3
char **argv = 不能为空;

int ret = strcmp(argv[i], "-flags");

创建输出的 AVFormatContext

1
2
3
4
AVFormatContext *oc;
const char *filename = 不能为空;

int ret = avformat_alloc_output_context2(&oc, NULL, NULL, filename);

释放 AVFormatContext

1
2
3
AVFormatContext *oc = 不能为空;

avformat_free_context(oc);

获取 AVCodec 的字符串名称

1
2
3
enum AVCodecID codec_id = 不能为空;

const char *codec = avcodec_get_name(codec_id);

创建 AVStream

1
2
3
AVFormatContext *oc = 不能为空;

AVStream *st = avformat_new_stream(oc, NULL);

复制 AVDictionary

1
2
3
4
AVDictionary *opt_arg = 不能为空;
AVDictionary *opt = NULL;

int ret = av_dict_copy(&opt, opt_arg, 0);

设置 AVCodecParameters 的值

1
2
3
4
OutputStream *ost = 不能为空;
AVCodecContext *c = ost->enc;

int ret = avcodec_parameters_from_context(ost->st->codecpar, c);

创建 SwrContext

1
2
3
OutputStream *ost = 不能为空;

ost->swr_ctx = swr_alloc();

释放 SwrContext

1
2
3
OutputStream *ost = 不能为空;

swr_free(&ost->swr_ctx);

设置 SwrContext 的参数

1
2
3
OutputStream *ost = 不能为空;

int ret = av_opt_set_sample_fmt(ost->swr_ctx, "in_sample_fmt", AV_SAMPLE_FMT_S16, 0);

初始化 SwrContext

1
2
3
OutputStream *ost = 不能为空;

int ret = swr_init(ost->swr_ctx);

创建 AVIOContext

1
2
3
4
AVFormatContext *oc = 不能为空;
const char *filename = 不能为空;

int ret = avio_open(&oc->pb, filename, AVIO_FLAG_WRITE);

写文件头

1
2
3
4
AVFormatContext *oc = 不能为空;
AVDictionary *opt = 不能为空;

int ret = avformat_write_header(oc, &opt);

比较时间戳

1
2
3
4
OutputStream video_st = {0}, audio_st = {0};

int ret = av_compare_ts(video_st.next_pts, video_st.enc->time_base,
audio_st.next_pts, audio_st.enc->time_base)

创建 SwsContext

1
2
3
4
5
6
7
AVCodecContext *c = 不能为空;

struct SwsContext *sws_ctx = sws_getContext(c->width, c->height,
AV_PIX_FMT_YUV420P,
c->width, c->height,
c->pix_fmt,
SCALE_FLAGS, NULL, NULL, NULL);

释放 SwsContext

1
2
3
OutputStream *ost = 不能为空;

sws_freeContext(ost->sws_ctx);

缩放

1
2
3
4
5
6
OutputStream *ost = 不能为空;
AVCodecContext *c = 不能为空;

int ret = sws_scale(ost->sws_ctx, (const uint8_t *const *) ost->tmp_frame->data,
ost->tmp_frame->linesize, 0, c->height, ost->frame->data,
ost->frame->linesize);

转换 timebase

1
2
3
4
5
AVPacket *pkt = 不能为空;
AVCodecContext *c = 不能为空;
AVStream *st = 不能为空;

av_packet_rescale_ts(pkt, c->time_base, st->time_base);

打印 AVPacket 的信息

1
2
3
4
5
6
7
8
9
10
const AVFormatContext *fmt_ctx = 不能为空;
const AVPacket *pkt = 不能为空;

AVRational *time_base = &fmt_ctx->streams[pkt->stream_index]->time_base;

printf("pts:%s pts_time:%s dts:%s dts_time:%s duration:%s duration_time:%s stream_index:%d\n",
av_ts2str(pkt->pts), av_ts2timestr(pkt->pts, time_base),
av_ts2str(pkt->dts), av_ts2timestr(pkt->dts, time_base),
av_ts2str(pkt->duration), av_ts2timestr(pkt->duration, time_base),
pkt->stream_index);

写 AVPacket 到文件,并重置 AVPacket

1
2
3
4
const AVFormatContext *fmt_ctx = 不能为空;
const AVPacket *pkt = 不能为空;

int ret = av_interleaved_write_frame(fmt_ctx, pkt);

获取下一个输入样本相对于下一个输出样本将经历的延迟

1
int64_t delay = swr_get_delay(ost->swr_ctx, c->sample_rate);

使用指定的舍入重新调整 64 位整数

该运算在数学上相当于a * b / c

1
2
int dst_nb_samples = av_rescale_rnd(swr_get_delay(ost->swr_ctx, c->sample_rate) + frame->nb_samples,
c->sample_rate, c->sample_rate, AV_ROUND_UP);

转换音频

1
2
3
4
5
6
7
OutputStream *ost = 不能为空;
int dst_nb_samples = 不能为空;
AVFrame *frame = 不能为空;

int ret = swr_convert(ost->swr_ctx,
ost->frame->data, dst_nb_samples,
(const uint8_t **) frame->data, frame->nb_samples);

写文件尾

只能在成功调用 avformat_write_header 后调用。

1
2
3
AVFormatContext *oc = 不能为空;

int ret = av_write_trailer(oc);

qsvdec

This example shows how to do QSV-accelerated H.264 decoding with output frames in the GPU video surfaces.

此示例说明如何使用 GPU 视频表面中的输出帧进行 QSV 加速 H.264 解码。

获取指定的 AVCodec

1
const AVCodec *decoder = avcodec_find_decoder_by_name("h264_qsv");

获取所需的内存

1
2
3
4
AVStream *video_st = 不能为空;

uint8_t *mem = (uint8_t *) av_mallocz(video_st->codecpar->extradata_size +
AV_INPUT_BUFFER_PADDING_SIZE);

remuxing

API example program to remux a media file with libavformat and libavcodec.

使用 libavformat 和 libavcodec 重新混合媒体文件的 API 示例程序。

获取所需的内存

1
2
3
4
int *stream_mapping = 不能为空;
int stream_mapping_size = 不能为空;

int *mem = (int *) av_calloc(stream_mapping_size, sizeof(*stream_mapping));

复制 AVCodecParameters

1
2
3
4
AVStream *out_stream = 不能为空;
AVCodecParameters *in_codecpar = 不能为空;

int ret = avcodec_parameters_copy(out_stream->codecpar, in_codecpar);

resampling_audio

API example program to show how to resample an audio stream with libswresample.
This program generates a series of audio frames, resamples them to a specified output format and rate and saves them to an output file named output_file.

API 示例程序,展示如何使用 libswresample 重新采样音频流。
该程序生成一系列音频帧,将它们重新采样为指定的输出格式和速率,并将它们保存到名为 output_file 的输出文件中。

创建缓冲区

1
2
3
4
5
6
7
8
uint8_t **src_data = 不能为空;
int src_linesize = 不能为空;
int src_nb_channels = 不能为空;
int src_nb_samples = 不能为空;
enum AVSampleFormat src_sample_fmt = 不能为空;

int ret = av_samples_alloc_array_and_samples(&src_data, &src_linesize, src_nb_channels,
src_nb_samples, src_sample_fmt, 0);

创建缓冲区

1
2
3
4
5
6
7
8
uint8_t **dst_data = 不能为空;
int dst_linesize = 不能为空;
int dst_nb_channels = 不能为空;
int dst_nb_samples = 不能为空;
enum AVSampleFormat dst_sample_fmt = 不能为空;

int ret = av_samples_alloc(dst_data, &dst_linesize, dst_nb_channels,
dst_nb_samples, dst_sample_fmt, 1);

获取所需的内存大小

1
2
3
4
5
6
int dst_linesize = 不能为空;
int dst_nb_channels = 不能为空;
enum AVSampleFormat dst_sample_fmt = 不能为空;

int dst_bufsize = av_samples_get_buffer_size(&dst_linesize, dst_nb_channels,
ret, dst_sample_fmt, 1);

scaling_video

API example program to show how to scale an image with libswscale.
This program generates a series of pictures, rescales them to the given output_size and saves them to an output file named output_file.

展示如何使用 libswscale 缩放图像的 API 示例程序。
该程序生成一系列图片,将它们重新缩放到给定的 output_size 并将它们保存到名为 output_file 的输出文件中。

解析出视频的宽高数据

1
2
3
4
const char *dst_size = 不能为空;
int dst_w, dst_h;

int ret = av_parse_video_size(&dst_w, &dst_h, dst_size);

获取像素格式的短名称

1
2
3
enum AVPixelFormat dst_pix_fmt = 不能为空;

char *str = av_get_pix_fmt_name(dst_pix_fmt);

transcode_aac

Simple audio converter
Convert an input audio file to AAC in an MP4 container using FFmpeg.Formats other than MP4 are supported based on the output file extension.

简单的音频转换器
使用 FFmpeg 将输入音频文件转换为 MP4 容器中的 AAC。根据输出文件扩展名,支持 MP4 以外的格式。

1
2
3
#define OUTPUT_BIT_RATE 96000

#define OUTPUT_CHANNELS 2

获取 AVOutputFormat

1
2
const AVOutputFormat *format = av_guess_format(NULL, filename,
NULL)

创建 SwrContext 并设置参数

// 为简单起见,假定基于通道数量的默认通道布局(解复用器和/或解码器有时无法正确检测到它们)。

1
2
3
4
5
6
7
8
9
10
11
12
AVCodecContext *input_codec_context = 不能为空;
AVCodecContext *output_codec_context = 不能为空;
SwrContext **resample_context = 不能为空;

*resample_context = swr_alloc_set_opts(NULL,
av_get_default_channel_layout(output_codec_context->channels),
output_codec_context->sample_fmt,
output_codec_context->sample_rate,
av_get_default_channel_layout(input_codec_context->channels),
input_codec_context->sample_fmt,
input_codec_context->sample_rate,
0, NULL);

创建 AVAudioFifo

1
2
3
4
5
AVAudioFifo **fifo = 不能为空;
AVCodecContext *output_codec_context = 不能为空;

*fifo = av_audio_fifo_alloc(output_codec_context->sample_fmt,
output_codec_context->channels, 1);

释放 AVAudioFifo

1
2
3
AVAudioFifo *fifo = 不能为空;

av_audio_fifo_free(fifo);

获取可用的样本数

1
2
3
AVAudioFifo *fifo = 不能为空;

int size = av_audio_fifo_size(fifo);

获取所需的内存

1
2
3
4
5
uint8_t ***converted_input_samples = 不能为空;
AVCodecContext *output_codec_context = 不能为空;

*converted_input_samples = (uint8_t **) calloc(output_codec_context->channels,
sizeof(**converted_input_samples))

重新创建 AVAudioFifo

1
2
3
4
AVAudioFifo *fifo = 不能为空;
const int frame_size = 不能为空;

int error = av_audio_fifo_realloc(fifo, av_audio_fifo_size(fifo) + frame_size)

写数据到 AVAudioFifo

1
2
3
4
5
6
AVAudioFifo *fifo = 不能为空;
uint8_t **converted_input_samples = 不能为空;
const int frame_size = 不能为空;

int size = av_audio_fifo_write(fifo, (void **) converted_input_samples,
frame_size)

从 AVAudioFifo 读数据

1
2
3
4
5
AVAudioFifo *fifo = 不能为空;
AVFrame *output_frame = 不能为空;
const int frame_size = 不能为空;

int size = av_audio_fifo_read(fifo, (void **) output_frame->data, frame_size)

写数据到文件

1
2
3
4
AVFormatContext *output_format_context = 不能为空;
AVPacket *output_packet = 不能为空;

int error = av_write_frame(output_format_context, output_packet);

transcoding

API example for demuxing, decoding, filtering, encoding and muxing

用于解复用、解码、过滤、编码和复用的 API 示例

获取 AVRational

1
2
3
4
static AVFormatContext *ifmt_ctx = 不能为空;
AVStream *stream = 不能为空;

AVRational rat = av_guess_frame_rate(ifmt_ctx, stream, NULL);

反转 AVRational

1
2
3
AVCodecContext *dec_ctx = 不能为空;

AVRational rat = av_inv_q(dec_ctx->framerate);

获取所需的内存

1
2
3
static AVFormatContext *ifmt_ctx = 不能为空;

static FilteringContext *filter_ctx = (FilteringContext *) av_malloc_array(ifmt_ctx->nb_streams, sizeof(*filter_ctx));

设置 AVFilterContext 的参数

1
2
3
4
5
6
AVFilterContext *buffersink_ctx = 不能为空;
AVCodecContext *enc_ctx = 不能为空;

int ret = av_opt_set_bin(buffersink_ctx, "pix_fmts",
(uint8_t *) &enc_ctx->pix_fmt, sizeof(enc_ctx->pix_fmt),
AV_OPT_SEARCH_CHILDREN);

vaapi_encode

Intel VAAPI-accelerated encoding example.
This example shows how to do VAAPI-accelerated encoding. now only support NV12 raw file, usage like: vaapi_encode 1920 1080 input.yuv output.h264

英特尔 VAAPI 加速编码示例。
这个例子展示了如何进行 VAAPI 加速编码。 现在只支持 NV12 原始文件,用法如:vaapi_encode 1920 1080 input.yuv output.h264

创建 AVHWFramesContext

1
2
3
AVBufferRef *hw_device_ctx = 不能为空;

AVBufferRef *hw_frames_ref = av_hwframe_ctx_alloc(hw_device_ctx);

初始化 AVHWFramesContext

1
2
3
AVBufferRef *hw_frames_ref = 不能为空;

int err = av_hwframe_ctx_init(hw_frames_ref);

创建帧的缓冲区

1
2
3
4
AVCodecContext *avctx = 不能为空;
AVFrame *hw_frame = 不能为空;

int err = av_hwframe_get_buffer(avctx->hw_frames_ctx, hw_frame, 0)

vaapi_transcode

Intel VAAPI-accelerated transcoding example.
This example shows how to do VAAPI-accelerated transcoding.
Usage: vaapi_transcode input_stream codec output_stream
e.g: vaapi_transcode input.mp4 h264_vaapi output_h264.mp4
vaapi_transcode input.mp4 vp9_vaapi output_vp9.ivf
The output format is guessed according to the file extension.

英特尔 VAAPI 加速转码示例。
这个例子展示了如何进行 VAAPI 加速的转码。
用法:vaapi_transcode input_stream codec output_stream
例如:vaapi_transcode input.mp4 h264_vaapi output_h264.mp4
vaapi_transcode input.mp4 vp9_vaapi output_vp9.ivf
根据文件扩展名猜测输出格式。



FFmpeg Examples 涉及的 API
https://weichao.io/b2111a6fca0e/
作者
魏超
发布于
2022年3月27日
更新于
2022年12月4日
许可协议