私は約100のURLをスクラップするスクレイパーをしなければなりません。スクレーパーはCronJobによって呼び出されるPHP CLIで実行する必要があります。私はこれを管理する方法が全く失われています...各URLについて特定のURLのコードを更新する必要があるときに新しいファイルを作成して明確にすることを考えています。PHPアプリケーションの設計
これは良い選択肢でしょうか?それから、1つのCronJobからすべてのファイルを呼び出すことは可能ですか?
私は約100のURLをスクラップするスクレイパーをしなければなりません。スクレーパーはCronJobによって呼び出されるPHP CLIで実行する必要があります。私はこれを管理する方法が全く失われています...各URLについて特定のURLのコードを更新する必要があるときに新しいファイルを作成して明確にすることを考えています。PHPアプリケーションの設計
これは良い選択肢でしょうか?それから、1つのCronJobからすべてのファイルを呼び出すことは可能ですか?
100個のURLをデータベースやテキストファイルに保存すると、簡単に管理できます。 次に、すべてのURLをロードし、ループして、スクレイプ機能を呼び出します。で何ができる
、
はデータベースに(何で、http://google.comのための「Google」を言うことができる)エイリアス名と一緒にすべての100件のURLのリストを維持します。
次の命名規則に従って、各URLのファイルを作成します。 'Alias name.php'、そのファイルのURLを解析するコードを記述します。
これで、データベースからすべてのURLを取得する1つのCronjobを呼び出すことができます。各URLをループして、対応するエイリアス名でファイルを実行できます。
たとえば、 URLがの場合はhttp://google.com、別名は、Googleです。そのためには、Google.phpという名前のファイルを作成し、Scrappingのコードを記述する必要があります。 cronジョブでは、
$urls = getAllURLs();
foreach($urls as $url){
include_once($url['alias'].".php");
}
のようなコードがあります。これは役に立ちます。
ありがとうございます!
Hussain
ハードコードされた配列またはテキストファイルを使用してください。 – moteutsch