私はおよそ350のテキストファイルを持っています(それぞれのファイルは約75MBです)。私はすべてのファイルを結合し、重複したエントリを削除しようとしています。ファイルのフォーマットは次のとおりです。複数のテキストファイルを結合して重複を取り除く
ip1,dns1
ip2,dns2
...
私は、多くの場合、この処理をやっていると私は改善するために何ができるものがあるかどうかと思いまして、この
#!/bin/bash
for file in data/*
do
cat "$file" >> dnsFull
done
sort dnsFull > dnsSorted
uniq dnsSorted dnsOut
rm dnsFull dnsSorted
を行うには、小さなシェルスクリプトを書きました私はそれを実行する次回の処理。私はどのプログラミング言語や提案にもオープンしています。ありがとう!
あなたはsort -ma try - >これを使って個々のファイルをソートし、それに応じてマージするので、時間がかなり節約できます.... -mオプションは、このようなシナリオではesplで利用できました... sort -mファイル* |ユニーク-u – nsd