torch

    0

    1答えて

    私はトーチを初めて使いました。私はトレーニングと検証のエラーのプロットを各繰り返しで作成したい神経ネットワークモデルを訓練しています。クイック検索でgnuplotをプロットすると、http://torch.ch/docs/five-simple-examples.htmlが表示されますが、リアルタイムでは行われません。各時間ステップ/反復からのデータが得られる。 私はリアルタイムpythonでプロ

    0

    1答えて

    おそらく、私はここで依存関係のスタックをよく知っていませんが、TorchとCUDAを使用するDeep Learningプロジェクトをインストールしました:https://github.com/donglixp/lang2logic。 (発行することにより、例えば:./pretrain.sh seq2seq jobqueries lstm)プロジェクトを実行すると、私はこのエラーを取得: THCud

    0

    1答えて

    Torch用のcunnをインストールしようとしていますが、インストールが失敗します。 8はOSX 10.10をサポートしていないため、Cudaは7.5.27です。 私はこれをしばらくの間デバッグしようとしていましたが、私は試してみたいものがなくなっています。 解決策を探しているうちに、同様の問題(https://github.com/TRIQS/cthyb/issues/8,https://git

    0

    1答えて

    私はUbuntu 16.04にIPythonノートブック、トーチ、Itorchをインストールしました。 は、私が使用してiTorchノートブックを開きます。ノートブックで itorch notebook 私が使用することができる午前: require 'nn' nn.Sequential() nn.SpatialConvolution(1, 6, 5, 5) は基本的に私は、トーチの機

    19

    2答えて

    torch.utils.data.Datasetおよびtorch.utils.data.DataLoaderを独自のデータ(torchvision.datasetsだけでなく)で使用するにはどうすればよいですか? で使用するinbuilt DataLoadersを使用する方法はありますか。どのデータセットでも使用できますか?

    0

    1答えて

    私は単純な畳み込みニューラルネットワークを持っています。その出力は、単一チャネルの4x4特徴マップです。訓練中、(回帰)損失は、16個の出力のうちの1つの値のみで計算する必要があります。 この値の位置は、往路通過後に決定されます。バックプロップ中に無関係なグラデーションがすべてゼロになっていることを確認しながら、この1つの出力からの損失をどのように計算すればよいですか。 のは、私がトーチで以下のよ

    0

    1答えて

    を一括表す私はいくつかの画像を訓練するOpenFaceのスクリプト./batch-represent/main.luaを実行しようと、次のエラーを取得しています: /Users/conor/torch/install/bin/luajit: /Users/conor/torch/install/share/lua/5.1/torch/File.lua:375: unknown object st

    0

    1答えて

    require 'nn' criterion = nn.ClassNLLCriterion() print(criterion) これは nn.ClassNLLCriterion { sizeAverage : true output : 0 gradInput : DoubleTensor - empty output_tensor : Doub

    0

    1答えて

    私のCentOS Linuxリリース7.3.1611(コア)64ビットノートでTorch/LuaプロジェクトにEclipseを使用したいと思います。 最新のEclipse Luna IDEをインストールした後、websiteの「既存のEclipseインストール」に従ってLua開発ツール(LDT)パッケージをインストールしようとしました。 残念ながら、パッケージをインストールしようとした後、Ecli

    0

    2答えて

    torch.Tensorを使用してforループの実数値の行列を更新しようとしています。ここ は私がやりたいものです: -- W and P are of size NxN, r is of size N delta_W = P * r:view(N, 1) * r:view(1, N) * P -- this is an NxN denominator = 1 + r:view(1, N) *