特定の構造を含む大きなファイルがあります。構造内の特定のフィールドの上位10の最も一般的な値を知りたい。私はできるそれは単一の解析でですか?単一の解析で大きなファイルを解析する
0
A
答えて
1
フィールドと出現回数を含む連想配列を保存して更新する必要があります。いくつのフィールドがあるかによって、あなたの記憶は限界になります。
これが終わったら、値に基づいて並べ替えを行います。
AFAIK、Cには連想配列のデータ型が含まれていないため、サードパーティのライブラリを使用する必要があります。一部のオプションについてはLooking for a good hash table implementation in Cを参照してください。
ソートはhttp://linux.die.net/man/3/qsortです。
メモリ要件を無視して、1回のパスで実行できます。
関連する問題
- 1. 大きなJSONファイルを解析する
- 2. 巨大なJSONファイルを解析する
- 3. Androidで大きなxmlファイルを解析する際の問題
- 4. 巨大なファイルの解析のアルゴリズム
- 5. Javaで大きなXMLファイルを解析する
- 6. 大きなJSONファイルをJSONで解析する(OutOfMemoryError)
- 7. 非常に大きなXMLファイルをPHPで解析する
- 8. REGEX:大きな文字列の解析
- 9. PHPはXMLファイルで単一の結果を解析します
- 10. ANTLR4大きなファイルを解析するPython
- 11. 非常に大きなファイルを解析するPython json
- 12. 大きなtxtファイルを解析する場所ASP.NET
- 13. 解析HTMLファイル
- 14. 大きなファイルをANTLRで解析することはできますか?
- 15. Pythonで大規模な疑似XMLファイルを解析する
- 16. XmlSlurperで大規模なXMLファイルを解析する
- 17. 大きなxlsxファイルの解析、日付形式の場合
- 18. アンドロイドでの単純なJsonの解析
- 19. Ubuntuマシンでのフォント解析でのPDFファイルの解析
- 20. ファイルを解析する
- 21. pdfファイルを解析する
- 22. ファイルを解析するツール
- 23. INIファイルを解析する
- 24. MIDIファイルの解析
- 25. BPMNファイルの解析
- 26. EDGARファイルの解析
- 27. apkファイルの解析
- 28. XMLファイルの解析
- 29. OBJファイルの解析
- 30. PL/SQLで大きなXML(> 4k)を解析する
情報が不十分です。 –
なぜこの情報が不足しているのですか?私の質問はほとんどが理論的には理論的です。 – liv2hak