coreml

    0

    1答えて

    this CoreMLモデルを使用してスケッチ認識をテストしますが、結果は返されません。ここに私のコードです: func predict(){ guard let image = UIImage(named: "test.png") else{ print("Image not found") return } do{ let mo

    0

    1答えて

    (コードがkeras 1.1.0使用して開発されました)私は最近、私のkerasバージョン1.1.0から1.2.2にアップグレードし、私は手のジェスチャーの分類のためのCNNを走りました。訓練されたモデルを保存しました。coremltoolsを使用してCoreMLモデルに変換しようとしました。コードは以下の通りです: import coremltools import theano from

    6

    1答えて

    私は現在、iOS 11+とARKitを使用して、水平面上の平面を検出することができ、その平面上にその平面を視覚化することもできます。 何らかの画像ファイルを使って、平面を検出したい特定のサーフェスを宣言できるのだろうかと思いますか? (ARKitが他のサーフェスから検出した他のすべてのプレーンを無視する可能性があります) - それができない場合は、検出されたプレーンを画像でキャプチャしてコアMLモ

    1

    1答えて

    問題が発生しました。二値化された画像上に光点をどのように定義できますか?私は今ios11とVisionを使用しています。 私は、二値化フィルタCIColorControls(もCIColorInvertと組み合わせるしようとした)を使用します。 光検出のために、VNImageRequestHandlerとVNDetectRectanglesRequestを使用します。 VNDetectRectan

    0

    1答えて

    私はCoreMLの探索を始めました。同じものを使用してバイナリ分類モデルを訓練する方法があるかどうか疑問に思っていました。 私はMLのnoobであるので、私に参考文献または例を提供してください。

    1

    1答えて

    Visionフレームワークを使用してローカルの録画済みビデオで顔を検出しようとしています。提供されたサンプルのほとんどは、ライブカムビデオの顔を検出しています。 Vision/CoreMLフレームワークを使用して、ローカルビデオで顔検出を行い、検出された顔に実行時に矩形を配置する方法はありますか?あなたのvideoItemが それに出力を追加 をプレイする準備ができてするため

    1

    1答えて

    CoreMLで数値分類モデルを作成しようとしていて、ナイーブなベイベイ分類子を使用したいが、それを使用する方法を見つけることはできません。私のアルゴリズムは現時点でナイーブベイズ

    1

    1答えて

    KerasモデルをCoreMLモデル形式に変換する必要がありますが、CoreMLのドキュメントを見つけることができません。https://pypi.python.org/pypi/coremltoolsのすべてのリンクが機能しておらず、pythonhosted.orgも機能していません。

    3

    2答えて

    iOSで最近導入されたCore MLを試して、画像を認識して分類しました。問題は、送信された画像に適切な結果を与えていないことです。 地球の画像(グローブ)を送ると、クラスが私に泡として与えられます。以下は、私が使用したコード、 let model = Resnet50() let pixelBuffer: CVPixelBuffer = (modelImg.pixelBuff

    8

    2答えて

    私はARKit(SceneKit付き)を使って仮想オブジェクト(ボールなど)を追加しています。ビジョンフレームワークを使用し、ビジョン要求完了ハンドラメソッドでその更新された位置を受け取ることによって、実世界のオブジェクト(例:足)を追跡しています。 let request = VNTrackObjectRequest(detectedObjectObservation: lastObservat