-1
spark-cassandra-connector-javaとSpark SQL DataFrame apisでSpark 1.5.1を使用すると、指定された長さ以下の文字列をフィルタリングする最良の方法はありますか?列の長さに基づいてSpark DataFrame(Java)の列を削減/フィルタリングする方法は?
私はfunctions.length(列)APIの作業を行う方法この
DataFrame df = context.sql("select key from mytable where key is not null")
DataFrame fdf = df.filter(functions.length(df.col("key").gt(10))))
ような何かをしようとしていますか?列を取り込んで列を返しますが、長さはどうなりますか?
よりも大きいすべての値はありがとう取得しません。これは非常に役に立ちます。私はこの[link] {https://docs.datastax.com/en/datastax_enterprise/4.8/datastax_enterprise/spark/sparkSqlSupportedSyntax.html}でDataStaxのドキュメントを参照していましたが、そこにリストされているLENGTHキーワード/機能は表示されませんでした。両方の選択肢が機能しますが、この記事の例を簡略化しました。使用する必要があるのはフィルタ関数の例です。 – Joe