2017-02-03 15 views
1

file_get_contents私はURLから1万のレコードを取得し、結果をjson形式で出力しています。ページングに行くことができず、現在メモリを増やすことで作業しています。これには他の解決策がありますか?URLから大きなデータを取得しているPHP -

+0

呼び出しているURLは、あなた次第ですか!私はあなたのページを改ページしてデータを返すあなたのURLをプログラムすることはできません。最適化には非常に多くの方法があります。 – webDev

+1

ストリームベースのソリューションを使用します。 https://github.com/salsify/jsonstreamingparser – awiebe

+0

申し訳ありませんが、100万行は大きなデータではありません。 –

答えて

1

あなたが大量のデータを処理している場合は、関数fscanfはおそらく分割 とはsprintfコマンドが続く 貴重と使用して、たとえば、より効率的なファイルを証明します。対照的に、大きな変更を加えた大量の というテキストを単純にエコーしているのであれば、ファイルfile_get_contentsまたは readfileが理にかなっています。 あなたがキャッシングにPHPを使用している場合や、暫定的なプロキシーを作成している場合も同様です

もっと The right way to read files with PHP

関連する問題