amazon-glacier

    1

    1答えて

    にパラメータを受け付けない: aws s3api restore-object --restore-request Days=7 --bucket mybucket --key some-file.ext これは素晴らしい作品。しかし、私は、スクリプトではなく、何かしようとした場合、ファイルの束にこれをしたい: $ export I="some-file.ext" $ aws s3api r

    0

    1答えて

    ドライブから、85Tbのデータが時間の経過とともに生成されたデータをバックアップしようとしています。約300GBのデータをグループ化しています。それを氷河に保存するには、300GBの単一のアーカイブにしてファイルをアップロードする必要があります。誰でも氷河にアーカイブしてアップロードする方法に関する提案があります。私はより良い圧縮アルゴリズムを探しているわけではありません。 300GBのアーカイブ

    1

    1答えて

    Amazon S3とAmazon Glacierに保存されたデータをHadoop/EMRで処理し、出力データをRDBMSに保存する必要があります。 Vertica 私は大きなデータでnoobです。そして、私はいくつかのオンラインセッションとマップリダクションとsparxについてのpptsを行っただけです。学習目的のためにダミー・マップ・リダクション・コードをほとんど作成しませんでした。 これまでは

    -2

    1答えて

    私は氷河php sdkを使ってPHP apiを作成して起動し、ダウンロードしています。私はローカルサーバにファイルをダウンロードしました。 ダウンロードしたアーカイブファイルを氷河からS3の場所に保存します。 私はいくつかの調査を行い、助けてください可能な方法を見つけませんでした。

    0

    1答えて

    Linuxのソフトウェアの助けを借りずにAmazon Glacier Vaultに名前を付けてファイルを一覧表示できますか? 私はこのような何かしようとしています:get-job-outputに応じて、あなたの代わりにArchiveIdが表示されますので、 aws glacier get-job-output --account-id - --vault-name newone --job-id

    0

    1答えて

    私のAmazon RedshiftクラスタのスナップショットをAmazon Glacierにバックアップしたいと思います。 私はRedshiftまたはGlacierのいずれかのAPIを使用してこれを行う方法はありません。 RedshiftスナップショットをカスタムS3バケットにエクスポートして、ファイルを氷河に移動するためのスクリプトを書くこともできません。 どのように私はこれを達成する必要があり

    0

    1答えて

    私はAWS Glacierへのmultipart-uploadsを行う方法を理解しようとしており、this documentation pageにいくつかの例題リクエストがあります。この例をPythonで実装するにはどうすればよいですか?私は '要求'モジュールを使うべきだと思いますが、それを動作させる方法は正確には分かりません。ここで は、私がやっていることです: import requests

    0

    1答えて

    aws-sdkのノードバージョンのmultipartupload機能を使用して600mbの.zipファイルを氷河にアップロードしようとしています。私はバッファとしてファイルを読み込み、awsのドキュメントからスクリプトを使ってアップロードを開始する方法を考え出しました。 スクリプトはファイルの各部分に対してアップロードを開始しますが、それぞれが400エラーで失敗します。以下は Uploading

    3

    2答えて

    私は毎日データを氷河に移動させるライフサイクルルールを使って、S3バケットに格納された日付を回復するスクリプトをテストしています。したがって、理論上、S3バケットにファイルをアップロードすると、1日後にAmazonインフラストラクチャがそれを氷河に移動させる必要があります。 しかし私は 復元プロセスをテストするためにPythonで開発しているスクリプトをテストしたいと思います。したがって、私がbo

    6

    1答えて

    Amazon S3S Glacierを使用したAthena Log Analysis Services S3には1ペタバイトのデータがあります。私たちはhttps://www.pubnub.com/であり、私たちは課金目的でネットワークのS3に使用データを保存します。タブ区切りのログファイルがS3バケットに格納されています。アテナは私たちにHIVE_CURSOR_ERRORの失敗を与えています。