embedding

    2

    1答えて

    TensorFlowで実装された自動エンコーダーによって実行される次元削減を視覚化するためにAymeric Damien's codeを適応しようとしています。私が見たすべての例はmnistディジットのデータセットで処理されていましたが、このメソッドを使用して、2次元のアイリスデータセットをおもちゃの例として視覚化して、実際のデータセットを調整する方法を見つけ出すことができました。 私の質問はどの

    1

    1答えて

    で初期化します。embed typeを初期化する方法と関連するQ&Aを読んでいます。 このコードをコンパイルするときに私の問題とは何か、私が得た: [エラー]、未知のフィールド「feature.DefaultSsh​​Helper」タイプのdala02 type FDH feature.DefaultSshHelper

    1

    1答えて

    私はtensorflowでword2vecモデルを訓練しました。しかし、セッションを保存するときには、model.ckpt.data/.index/.meta個のファイルしか出力されませんでした。 私は、最も近い単語を検索する際にKNNメソッドを実装することを考えていました。私はgensimを使った答えを見ましたが、まずテンソルフローword2vecモデルを.txtに保存することはできますか?

    0

    1答えて

    PythonインタプリタをC++アプリケーションに埋め込みしようとしています。それはまっすぐだと思っていましたが、私はリンクして考えるのが苦労しています。唯一の珍しいことは、特定のAnacondaパッケージを使用しようとしていることです。単純なC++コードは次のとおりです。は gcc pythonTest.cc -I/path/to/anaconda/include/python3.6m -L/p

    0

    1答えて

    同僚と私はユニットテストで使用されるXMLフラグメントは、テストファイルに生きるべきか、外部化する必要があるかどうかの上に興味深い議論がありました。試験の一部で 他に、我々は処理の部分をテストするためにフラグメントを使用しながら、我々は、長さが多かれ少なかれ5行であってもよい断片を入力として使用される完全なXMLファイルを持っています。それはサイド・バイ・サイド、それに本質的に依存しているテストコ

    1

    1答えて

    tf.contrib.legacy_seq2seq.embedding_rnn_seq2seqの公式文書はoutput_projection引数の以下の説明がありません: output_projection :出力投影重みおよびバイアスのいずれ又は対(W、B)。 Wは形状[出力サイズ×num_decoder_symbols]を持ち、Bは形状[num_decoder_symbols]を持つ。 fee

    0

    1答えて

    私はGoogleスプレッドシートを使って電卓のようなものを作って、これを自分のウェブサイトのiframeに入れようとしています。私が持っている問題は、埋め込まれたコードがスプレッドシートを編集不可能にすることです。サイズを変更する方法はわかっていますが、シートを編集可能にする方法はわかりません。どんな助けも高く評価されます... Andre

    4

    1答えて

    私はケラスでカスタム損失機能を実装しています。モデルはautoencoderです。第1層は埋め込み層であり、(batch_size, sentence_length)の入力を(batch_size, sentence_length, embedding_dimension)に埋め込みます。次に、モデルは埋め込みを特定の次元のベクトルに圧縮し、最終的に埋め込みを再構築する必要があります。(batch

    2

    1答えて

    これは私の最初の質問です。私はそれが正しいことを望んでいます。これまでのところ解決策を見つけることができなかった、私のいくつかのコーディングの友人、まだ十分な答えを尋ねた。 私のサイドプロジェクトSaaSは、JavaScript埋め込みコードをウェブサイトにコピー/ペーストすることによって最適化されています。 GoogleアナリティクスやTwitterのような操作が必要です。 他の人たちのやり方を

    0

    1答えて

    udacity notebook exerciseから:埋め込みが訓練された後、私は入力単語からすべての関連単語を取得しようとしています。 以下のコードは正しいですか? udacity exercise final_embeddings = normalized_embeddings.eval() word='history' nearest = (-final_embeddings[dict