pipeline

    0

    1答えて

    パイプラインを使用してロジスティック回帰を推定しました。 from pyspark.ml.feature import VectorAssembler from pyspark.ml.classification import LogisticRegression lr = LogisticRegression(featuresCol="lr_features", labelCol = "ta

    0

    1答えて

    私はGitLab CI/CD(EDIT:v10.2.2)を使用しています。 私は自分のプロジェクトに2つの支店を持っている:develとtesting の両方が保護されています。 develがデフォルトブランチです。 ワークフローは:develを押してから、develをマージリクエストによってtestingにマージします。 はここにある私の.gitlab-ci.yml V1:私はdevelに修正を

    1

    1答えて

    2行のPowerShellを一緒にステッチしようとしていますが、構文を理解できません。 a postが必要なように聞こえますが、-LDAPFilterを使用していません。最後の100日間に作成ADユーザーのリストを生成する 、私は $now = ((Get-Date).AddDays(-100)).Date $users = Get-ADUser -Filter {whenCreated -ge

    0

    1答えて

    私はAirflowを初めて使用しています。私は私が私のDAGを参照してくださいWebサーバーのインタフェースを使用する場合 from airflow.models import DAG from airflow.operators.python_operator import PythonOperator import datetime DAG = DAG( dag_id='exa

    0

    1答えて

    File.lsからファイル/フォルダのリストを取得し、それらにフルパスを追加し、ディレクトリであるかどうかに基づいてフィルタリングするツールを作成しようとしています。か否か。 これは動作します: directory_contents = File.ls!(directory_path) contents_with_full_paths = Enum.map directory_contents

    0

    1答えて

    Mongoサーバーの最新バージョン(3.6)は、$lookupアグリゲーションの段階で優れた機能を導入しました。ここで、演算子は、(例えば、hereのように)結合するコレクションを実行するための引数としてパイプラインをとります。これは、たとえば、結合する前に結合されるドキュメントをフィルタリングすることを許可します。 Javaドライバで使用する方法はありますか?私はドライバのreferenceとA

    1

    2答えて

    ここでは、PowerShellで複数のパラメータを持つ関数を作成する際に問題が発生しています。私は4つのパラメータを持っていて、それらの値はPowerShellウィンドウのパイプラインまたは直接入力を介して渡すことができます。 4つのパラメータをプロセスセクションで使用できるようにする方法がわかりません。ここで は( Write-Hostセクションはもちろん、唯一のテストのためである)私が持ってい

    2

    1答えて

    の実行順序私は、次の は、単語数、ハッシュタグの数のように(テキストに新しい機能を作成してくださいしたいテキスト分類に取り組んでいますなど)、顧客の変圧器とTextCounts クリーンテキストカスタムトランスとCleanText、それ にCountVectorizerを適用し、私のCLのための入力として、ステップ1と2の機能を組み合わせassifier 私はこのためにパイプラインを作成することが

    0

    1答えて

    私は、カスタムアクティビティのみを実行する必要のある単純なパイプラインをデータファクトリに作成しています。パイプラインの配置テンプレートは次のようになります。 { "type": "pipelines", "name": "MyCustomActivityPipeline", "dependsOn": [ "DataFactoryName",

    1

    1答えて

    現在、データファクトリV1を使用しています。 : は、私は2つのチェーン活動とのパイプラインを持っています。最初のアクティビティは、SQL ServerからData Lake Storeの.tsvファイルにテーブルを抽出するコピーアクティビティです。 。 2つ目のアクティビティは、以前作成した.tsvファイルのデータを収集し、Data Lakeデータベースの既存のテーブルに追加するData Lak