私はいくつかの行のデータを削除することができるファイル(csv、json、txt、フォーマットを決めていない)を使用しようとしています。pythonスクリプトは実行するcron上にあります新しいものがあれば5分ごとにファイルをチェックし、もしあればそれを処理し、処理されるごとに各行を削除します。ファイルを編集するpythonスクリプト
プロセスがデータをつかんで、ファイルを空にしますが、私の保存にそれを書き戻すことで来ている間、私は、私はファイルを開く事態を防止するため、いくつかの変更を行い、それを保存しようとしています。
を私は考えましたこの安全にするための唯一の方法は、フォルダを処理して新しいファイルを探すことです。すべての変更は新しいファイルにドロップされます。したがって、このような事態の危険は決してありません。
良い方法がありますか、これが最善の方法ですか?
これがあなたが探しているものかどうかわからない:https://stackoverflow.com/questions/30407352/how-to-prevent-a-race-condition-when-multiple-processes-attempt-to-write-to- – RetardedJoker
私は上記の提案を2番目に挙げています。ファイルシステムレベルのロックはこの目的には十分です。また、ファイルシステムがそれをサポートしている場合、inotifyイベントを扱うデーモンとしてpythonスクリプトを実行することもできます。 [この記事のinotifyおよびクロスプラットフォームソリューションの提案](https://stackoverflow.com/q/12582720/1328439)を参照してください。 –