2012-06-26 11 views
5

Apache Pigで1回のパスでテーブルをピボットできるかどうかは疑問です。Apache Pigを使用したピボットテーブル

入力:

Id Column1 Column2 Column3 
1  Row11 Row12 Row13 
2  Row21 Row22 Row23 

出力:

Id Name  Value 
1  Column1 Row11 
1  Column2 Row12 
1  Column3 Row13 
2  Column1 Row21 
2  Column2 Row22 
2  Column3 Row23 

実際のデータは、列の数十を持っています。

これをawkで1回実行してから、Hadoop Streamingで実行できます。しかし、私のコードの大部分はApache Pigですので、Pigでそれを効率的に実行できるかどうかは疑問です。

答えて

7

2通りの方法で実行できます。 1.タプルの袋を返すUDFを作成します。これは最も柔軟なソリューションですが、Javaコードが必要です。 2.書き込み、このような剛性のスクリプト:

inpt = load '/pig_fun/input/pivot.txt' as (Id, Column1, Column2, Column3); 
bagged = foreach inpt generate Id, TOBAG(TOTUPLE('Column1', Column1), TOTUPLE('Column2', Column2), TOTUPLE('Column3', Column3)) as toPivot; 
pivoted_1 = foreach bagged generate Id, FLATTEN(toPivot) as t_value; 
pivoted = foreach pivoted_1 generate Id, FLATTEN(t_value); 
dump pivoted; 

このスクリプトを実行するには、次のような結果私を得た:

(1,Column1,11) 
(1,Column2,12) 
(1,Column3,13) 
(2,Column1,21) 
(2,Column2,22) 
(2,Column3,23) 
(3,Column1,31) 
(3,Column2,32) 
(3,Column3,33) 
3

は、私はオプション(NULL)データ

を処理する方法を示すために、ID 1からCOL3を削除

ID名前値 1列1 Row11 1列2 Row12 2列1 Row21 2列2 Row22 2 COLUMN3 Row23

--pigscript.pig

data1  = load 'data.txt' using PigStorage() as (id:int, key:chararray, value:chararray); 
grped  = group data1 by id; 
pvt   = foreach grped { 
    col1  = filter data1 by key =='Column1'; 
    col2  =filter data1 by key =='Column2'; 
    col3  =filter data1 by key =='Column3'; 
    generate flatten(group) as id, 
     flatten(col1.value) as col1, 
     flatten(col2.value) as col2, 
     flatten((IsEmpty(col3.value) ? {('NULL')} : col3.value)) as col3; --HANDLE NULL 
}; 
dump pvt; 

結果:

(1、Row11、Row12、NULL)

(2、Row21、Row22、Row23)

関連する問題