yuv

    9

    2答えて

    私は、OpenGL ESとffmpegを使用して、Apple TV向けのメディアプレーヤーフレームワークを作成しています。 OpenGL ESでのレンダリングにはRGBAへの変換が必要です。swscaleを使用したソフトコンバートはとても遅いので、インターネット上の情報を使用して、ネオン(hereなど)を使用するか、フラグメントシェーダーとGL_LUMINANCEおよびGL_LUMINANCE_A

    2

    1答えて

    Y'CbCr空間の画像に対してガンマ補正を行う必要があるので、画像の飽和領域と枯渇領域で細部を引き出すことができます。色度を調整する必要があるかどうか疑問に思っていますチャンネル? 私が輝度チャンネルのピクセルを枯らしてしまうと、調整しなければ彩度が出ることが分かります。ガンマ補正を行う際にも同じ考慮事項が必要ですか?クロマチャンネルを調整する価値はありますか?

    0

    1答えて

    から/使用YUV画像バッファを作成し、我々は33 fpsの@カメラからのキャプチャフレームを使用してサーバーに送信する前に圧縮するためにそれを渡す必要がありますYV12 プレビューコールバック 0123で次のように、 幅= 500 PX、 高さ= 300ピクセル、 イメージフォーマット、私のカメラ設定を画像を圧縮します camera.setPreviewCallback(new PreviewCa

    3

    3答えて

    私はiOS用のOpenGL ESについて研究しています。 YUV形式のデータはRGBを変換せずに表示できますか? ほとんどの場合、yuvデータは表示用にRGBを変換する必要があります。しかし、変換プロセスは非常に遅いです、その後、それは円滑に表示されません。 私はRGBに変換せずにYUVデータを表示しようとしたいと思います。 可能ですか?可能であれば、私は何ができますか? お願いします。

    8

    2答えて

    私は、例えば4 * 4の画像を持っています。私は、Y、U、Vの成分を別々に抽出したい。 画像がYUV 422、YUV 420、およびYUV 444の場合の操作方法。 私は配列の構造を知って、Y、U、Vがどのように422,420と444、 に格納されているのか知っています。

    0

    4答えて

    は、我々は、バッファを受け取るために、私はフォーマット設定されている は、カメラパラメータとしてYV12で、我々はバッファをキャプチャし、送信先に送信するCameraクラスを使用している、ビデオを転送する必要があります500X300バッファ用 、我々は230400バイト、 私が知りたいの受信バッファ、この予想されるバッファサイズですか? 私はサイズがあろうと信じ y平面=幅*高さ= 500X300

    -3

    1答えて

    matlabのrgb2ycbcrの計算式は何ですか?これにはどのスタンドアーツが使用していますか

    0

    1答えて

    私は、ビデオストリームからYUVフレームを取得するさまざまな方法を見てきましたが、私が見たことの大部分はpreviewSizeから幅と高さを得ることに頼っていました。しかし、携帯電話は720pでビデオを撮影することができますが、多くの携帯電話ではそれを低い解像度(800x480)でしか表示できないため、1920x1080に近いスクリーンショット(720pでビデオを撮影している場合)を取り込むことは

    1

    1答えて

    USB経由でウェブカメラの非圧縮動画を渡すのですか?誰がどのような形式のビデオが渡されているか知っていますか? ありがとう

    10

    5答えて

    RGB画像をYUV420に変換するアルゴリズムを書いた。私はそれをより速くしようと長い時間を費やしていますが、私は効率を高めるために他の方法を見つけることができませんでしたので、今私はあなたに回って、これが私が得るほど良いかどうか、それを行う方法(アルゴリズムはCであるが、++、Cとアセンブラもオプションです) namespace { // lookup tables int lookup_m