python-asyncio

    1

    1答えて

    2つのコルーチン間でパイプを実装するためにasyncioを使用するにはどうすればよいですか?ストリームから読み込み、もう一方は書き込みを行います。 この既存のコード、2つの簡単なスクリプトがあるとします。 # produce.py import asyncio import random import sys async def produce(stdout): for i

    0

    1答えて

    websocketエンドポイント経由で利用できるPythonサーバーがあります。 接続の処理中は、バックエンドサービスと通信します。この通信は非同期であり、websocketのsend()メソッドを起動することがあります。 単一のクライアントがサービスされると、正常に動作しているようです。ただし、複数のクライアントが並行して処理される場合、接続を処理するルーチンの中には時折スタックされることがあり

    0

    2答えて

    サブプロセスコマンドを非同期に実行して結果を返す関数があります。私は同期動作するように余裕があれば、私はサブプロセスモジュールには、このコールを使用する傾向があり、 import asyncio async def async_subprocess_command(*args): # Create subprocess process = await asyncio.crea

    0

    1答えて

    asyncioとos.fork()サブプロセス間でソケットを共有する方法を使用する必要があります。 data_received()コールバックにはheavy_jobs()関数があり、多くのCPU時間を費やします。従来の方法では import asyncio class EchoClientProtocol(asyncio.Protocol): def __init__(self, m

    1

    1答えて

    私はasyncioループ内で、将来の結果を取得する必要があり 、それは完全に異なるCalling a coroutine from asyncio.Protocol.data_received しかし、PY35とPY34でasyncioに似ているで、ここPY34で正しく実行できるコードですが、PY35にそれがで一時停止しますyield fromと決して戻ってきません。 # PY34 class

    1

    1答えて

    バックエンドが実行されていないときにこの問題に遭遇しました。 あなたがここに私の場合を再現するために、本当に簡単なデモを見つけることができます(あなたには、いくつかの時間のテストを保存したい場合は、1にタイムアウトを減らすことができます): #!/usr/bin/env python3 import threading import logging import asyncio from

    0

    2答えて

    は基本的に私は現在、次のことをやっている: for bigLogFile in bigLogFileFolder: with open(bigLogFile) as bigLog: processBigLogfile(bigLog) 私はネットワークドライブからこのログファイルをロードしておりますので、実行時間の大部分は、ファイルを待っていますロードする。しかし、proc

    25

    2答えて

    私は読み取りが含まれているとasyncio接続のストリームを書き込むために使用されConnectionオブジェクトがあります。サーバー側で class Connection(object): def __init__(self, stream_in, stream_out): object.__init__(self) self.__in = stream_i

    3

    1答えて

    私のプロジェクトでは、PyCharmデバッガでデバッグするasyncioとasyncio tcp接続に基づいて、非常に非常に間違ったエラーが発生します。 実行後にコードにブレークポイントを置くと、ブレークポイントは決して起動しません。 しかし、プログラムを開始する前にブレークポイントが置かれていれば、ブレークポイントが起動します。 しかし、ブレークポイントで発生すると、(ブレークポイントで一時停止

    11

    2答えて

    aiohttpを使用して、同期コードをasyncioに移動するプロセスにあります。同期コードは実行するのに15分かかりましたので、私はこれを改善したいと考えています。 いくつかのURLからデータを取得し、それぞれの本体を返す作業コードがあります。しかし、これはちょうど1つの研究室サイトに対してです、私は70以上の実際のサイトを持っています。 したがって、リスト内の700個のURLを処理するすべての