data-analysis

    0

    1答えて

    ニューラルネットワークを1つの隠れ層で作成しようとしました(データベクトルに4つの値があり、入力層に3つのニューロン、隠れ層に3つのニューロン、出力レベルに1つのニューロンがあるとしましょう) )。私は2つの既知の結果を持つ2つのベクトルのデータを持っています。 私は最初のデータセットを使ってネットワークを教えて、次に2番目のセットを適用します。重みは、バックプロパゲーション法を用いて補正される。

    -1

    1答えて

    入力排除することなく、パンダの列をシフト: ## x2 ##0 214 ##1 234 ##2 253 ##3 272 ##4 291 所望の出力を:次のコード ## x2 ##0 291 ##1 214 ##2 234 ##3 253 ##4 272 がシフトカラムの底部を除去し、上部にNAを置きます。しかし、私はサイクルとしてそれをしたい。 a = pd.Dat

    10

    1答えて

    pandas.dataframeの行の順序を逆にするにはどうすればよいですか? 私が欲しい... を私はどこにでも見てきたし、人々が話している唯一のことは、列の順序を逆に、列をソートされて簡単です: の場合 :私はそれがこのなりたい A B C ------------------ LOVE IS ALL THAT MAT TERS :私のデータフレームは、このように

    0

    1答えて

    私は、このDFを変換したい具体的なケースがあります。私は、線形回帰モデルのためにnumpyの配列に変換できるように、この形式で取得する必要があり Schoolname Attribute Value 0 xyz School Safe 3.44 1 xyz School Cleanliness 2.34 2 xyz School Money 4.65 3 abc School Saf

    6

    1答えて

    私はIPythonノートブックでプロットしたい大規模なデータセットを持っています。 私はread_csvを使ってパンダDataFrameに〜0.5ギガバイトの.csvファイルを読んで、これは約2分かかります。次に、私はこのデータをプロットしようとします。 data = pd.read_csv('large.csv') output_notebook() p1 = figure() p1.ci

    0

    1答えて

    与えられた複数のテキストインスタンスの類似性を判断する方法はありますか。 T1 = abcabcabc T2 = xyzabcxyzabcxyz T3 = abcxyzabc 類似性のようなものになるだろう:私は、現時点では具体的にすることはできません *abc*abc* or maybe 66% 。 コードが提供されていれば、私はPythonが好きですが、スクリプト言語などは、良いコ

    3

    2答えて

    私は400カラムの大きなデータセットを扱っていますが、カラムのいくつかはすべてゼロの値を持ち、他のカラムはゼロがすべて '999999999'しかありません。私はそのような列を取り除きたい。私はちょうどゼロを含む列のためにそれを行うことができたが、ゼロを含む列のためにそれを行うには鍬と「999999999」 後はzeroes- df = df.loc[:, (df != 0).any(axis=0

    0

    2答えて

    「データ解析」 - >「乱数生成」というExcelツールを使用して、「ポアソン」分布の100個の数値を生成しています。 「変数の数:1」、「乱数の数:100」、「分布:ポアソン」、「ラムダ:5」の各値を入力します。私が望むように、0から10の数字の大部分を出力します。しかし、countifステートメントを使用して0、1、2などの数を取得すると、生成されるすべての値が0から10の間であるため、合計が

    -3

    1答えて

    私は入力データセットを.csv形式で持っています。これはPythonで入力しようとしていて、データ解析を行います。サンプル形式は次のとおりです。 col1 col2 col3 col4 col5 1 0 0 1 NA 2 3 5 1 NA 1 1 4 6 NA 7 8 9 1 1 12 13 0 34 5 4 5 6 1 2 ここに表

    5

    2答えて

    ここに例があります。このデータがあります。 datetime keyword COUNT 0 2016-01-05 a_click 100 1 2016-01-05 a_pv 200 2 2016-01-05 b_pv 150 3 2016-01-05 b_click 90 4 2016-01-05 c_pv 120 5 2016-01-05 c_click 90 と私は、このデー