2016-12-08 7 views
-1

FFMPegでH264 Rawストリームをデコードしようとしています。問題のデコードH264フレームのFFMpeg

私が保存されたビデオを持って、コマンドを使用してffmpegのに走ってきました:

ffmpeg -i 20161201-090322.264 -pixel_format yuv420p -filter:v fps=fps=600/60 $filename%03d.raw 

し、正常にビデオからフレームを得ました。 次に、私はダイレクトストリーム(これらのビデオに保存されている正確なコンテンツ)のデコードを開始しました。このような

私は初期化していffmpegの:私は、ストリームコンテンツを受信すると、私は次の手順を行い

AVCodecContext *ffmpgContext; 
AVCodec   *ffmpegCodec; 
AVFrame   *ffmpegFrame; 
AVCodecParserContext *ffmpegParser; 

:これらのに対し

cam->ffmpegCodec = avcodec_find_decoder(AV_CODEC_ID_H264); 
    cam->ffmpgContext = avcodec_alloc_context3(cam->ffmpegCodec); 
    cam->ffmpgContext->width = cam->Width; 
    cam->ffmpgContext->height = cam->Height; 
    cam->ffmpgContext->pix_fmt = AV_PIX_FMT_YUV420P; 

    cam->ffmpegFrame = av_frame_alloc(); 
    cam->ffmpegParser = av_parser_init(AV_CODEC_ID_H264); 

    if(!cam->ffmpegParser) 
    { 
     sprintf(msg, "Error, initializing parser"); 
     libLogCtx(msg, MODULE_NAME, PLogFileRelease, true); 
    } 

    int res = avcodec_open2(cam->ffmpgContext, cam->ffmpegCodec, 0); 
    if(res != 0) 
    { 
     sprintf(msg, "Error, openning codec [%d]", res); 
     libLogCtx(msg, MODULE_NAME, PLogFileRelease, true); 
    } 

カム構造内部の私の宣言がある

/// Copy the received data to buffer 
memcpy(cam->imageBuffer + cam->imageBufferSz, pBuffer, dwBufSize); 
cam->imageBufferSz += dwBufSize; 

/// If there's some data, 
if(cam->imageBufferSz > 0) 
{ 
    /// Try to parse 
    uint8_t* data = NULL; 
    int size = 0; 
    int len = av_parser_parse2(cam->ffmpegParser, cam->ffmpgContext, &data, &size, 
     cam->imageBuffer, cam->imageBufferSz, 0, 0, AV_NOPTS_VALUE); 

    if(size > 0 && len >= 0) 
    { 
     /// Fill the packet and decode 
     AVPacket pkt; 
     av_init_packet(&pkt); 
     pkt.data = cam->imageBuffer; 
     pkt.size = cam->imageBufferSz; 
     int frameFinished = 0; 

     int nres = avcodec_decode_video2(cam->ffmpgContext, cam->ffmpegFrame, &frameFinished, &pkt); 
     /// If decoding was successfully, Save only the Y to file (i'm just testing). 
     if(frameFinished) 
     { 
      char fnm[255]; 
      sprintf(fnm, "C:\\Users\\Black_Spiders\\Desktop\\Rls\\test%d.raw", n); 
      n++; 
      FILE* f = (FILE*)fopen(fnm, "w"); 

      for (int y = 0; y < cam->ffmpegFrame->height; y++) 
      { 
       fwrite(cam->ffmpegFrame->data[0] + y*cam->ffmpegFrame->linesize[0], 1, cam->ffmpegFrame->width, f); 
      } 

      fclose(f); 
     } 
    } 


} 

私のコードは大丈夫です(インターネットでいくつかの時間を掘り下げたようですが)ヴィングこの結果:

Original

Result

は、誰かが私に何かアドバイスを与えることはできますか?ここで

+0

私は適切なパーサAPIの使用法はわかりませんが、あなたの考えは間違っています。 'len'と' data'と 'size'の出力をどういうふうに使うのでしょうか?そして 'av_parser_parse2'呼び出し/消費の周りにループがあるはずです。 –

+0

@AndreyTurkinこれは、私が作業しているDVRによって呼び出されるコールバックです。そのため、av_parser_parse2はループ内にありません(DVRにデータがあるたびに呼び出されます)。私はh264とffmpegに慣れていないので、このチュートリアルに従いました:[link](http://roxlu.com/2014/039/decoding-h264-and- yuv420p再生)。このチュートリアルではこの方法を使用していますが、目的はavcodec_decode_video2を使用するのに十分なデータがあるかどうかを確認することです。私はpktサイズとして 'len'を使用しようとしましたが、依然として同じ結果です。 –

答えて

0

はストレートffmpegのドキュメントからのサンプルコードで

よろしく、:

while(in_len) { 
    len = av_parser_parse2(myparser, AVCodecContext, &data, &size, 
           in_data, in_len, 
           pts, dts, pos); 
    in_data += len; 
    in_len -= len; 
    if(size) 
     decode_frame(data, size); 
} 

ので、アイデアは、この関数を呼び出すと、それが返されます:

1)ポインタへとデコーダに渡す符号化フレームのサイズ。あなたが指摘した例では、サイズの使用に注意してください(ただし、ポインタは間違っています; H264ビットストリームの本質とバッファの使用のためにラッキーです)

2)処理された部分の長さ入力。入力には複数のフレームや不完全なフレームが含まれている可能性があります。入力の残りの部分で関数をもう一度呼び出すことになっています(データのブロック全体が解析されるまで)。あなたの例を詳細にチェックすると、そのことがわかり、コードは表示されません。

また、パーザは不完全なフレームを内部的にバッファする必要があるため、入力データをバッファする必要はありません。

関連する問題