FFMPegでH264 Rawストリームをデコードしようとしています。問題のデコードH264フレームのFFMpeg
私が保存されたビデオを持って、コマンドを使用してffmpegのに走ってきました:
ffmpeg -i 20161201-090322.264 -pixel_format yuv420p -filter:v fps=fps=600/60 $filename%03d.raw
し、正常にビデオからフレームを得ました。 次に、私はダイレクトストリーム(これらのビデオに保存されている正確なコンテンツ)のデコードを開始しました。このような
私は初期化していffmpegの:私は、ストリームコンテンツを受信すると、私は次の手順を行い
AVCodecContext *ffmpgContext;
AVCodec *ffmpegCodec;
AVFrame *ffmpegFrame;
AVCodecParserContext *ffmpegParser;
:これらのに対し
cam->ffmpegCodec = avcodec_find_decoder(AV_CODEC_ID_H264);
cam->ffmpgContext = avcodec_alloc_context3(cam->ffmpegCodec);
cam->ffmpgContext->width = cam->Width;
cam->ffmpgContext->height = cam->Height;
cam->ffmpgContext->pix_fmt = AV_PIX_FMT_YUV420P;
cam->ffmpegFrame = av_frame_alloc();
cam->ffmpegParser = av_parser_init(AV_CODEC_ID_H264);
if(!cam->ffmpegParser)
{
sprintf(msg, "Error, initializing parser");
libLogCtx(msg, MODULE_NAME, PLogFileRelease, true);
}
int res = avcodec_open2(cam->ffmpgContext, cam->ffmpegCodec, 0);
if(res != 0)
{
sprintf(msg, "Error, openning codec [%d]", res);
libLogCtx(msg, MODULE_NAME, PLogFileRelease, true);
}
カム構造内部の私の宣言がある
/// Copy the received data to buffer
memcpy(cam->imageBuffer + cam->imageBufferSz, pBuffer, dwBufSize);
cam->imageBufferSz += dwBufSize;
/// If there's some data,
if(cam->imageBufferSz > 0)
{
/// Try to parse
uint8_t* data = NULL;
int size = 0;
int len = av_parser_parse2(cam->ffmpegParser, cam->ffmpgContext, &data, &size,
cam->imageBuffer, cam->imageBufferSz, 0, 0, AV_NOPTS_VALUE);
if(size > 0 && len >= 0)
{
/// Fill the packet and decode
AVPacket pkt;
av_init_packet(&pkt);
pkt.data = cam->imageBuffer;
pkt.size = cam->imageBufferSz;
int frameFinished = 0;
int nres = avcodec_decode_video2(cam->ffmpgContext, cam->ffmpegFrame, &frameFinished, &pkt);
/// If decoding was successfully, Save only the Y to file (i'm just testing).
if(frameFinished)
{
char fnm[255];
sprintf(fnm, "C:\\Users\\Black_Spiders\\Desktop\\Rls\\test%d.raw", n);
n++;
FILE* f = (FILE*)fopen(fnm, "w");
for (int y = 0; y < cam->ffmpegFrame->height; y++)
{
fwrite(cam->ffmpegFrame->data[0] + y*cam->ffmpegFrame->linesize[0], 1, cam->ffmpegFrame->width, f);
}
fclose(f);
}
}
}
私のコードは大丈夫です(インターネットでいくつかの時間を掘り下げたようですが)ヴィングこの結果:
は、誰かが私に何かアドバイスを与えることはできますか?ここで
私は適切なパーサAPIの使用法はわかりませんが、あなたの考えは間違っています。 'len'と' data'と 'size'の出力をどういうふうに使うのでしょうか?そして 'av_parser_parse2'呼び出し/消費の周りにループがあるはずです。 –
@AndreyTurkinこれは、私が作業しているDVRによって呼び出されるコールバックです。そのため、av_parser_parse2はループ内にありません(DVRにデータがあるたびに呼び出されます)。私はh264とffmpegに慣れていないので、このチュートリアルに従いました:[link](http://roxlu.com/2014/039/decoding-h264-and- yuv420p再生)。このチュートリアルではこの方法を使用していますが、目的はavcodec_decode_video2を使用するのに十分なデータがあるかどうかを確認することです。私はpktサイズとして 'len'を使用しようとしましたが、依然として同じ結果です。 –