1
file_get_contents
私はURLから1万のレコードを取得し、結果をjson形式で出力しています。ページングに行くことができず、現在メモリを増やすことで作業しています。これには他の解決策がありますか?URLから大きなデータを取得しているPHP -
file_get_contents
私はURLから1万のレコードを取得し、結果をjson形式で出力しています。ページングに行くことができず、現在メモリを増やすことで作業しています。これには他の解決策がありますか?URLから大きなデータを取得しているPHP -
あなたが大量のデータを処理している場合は、関数fscanfはおそらく分割 とはsprintfコマンドが続く 貴重と使用して、たとえば、より効率的なファイルを証明します。対照的に、大きな変更を加えた大量の というテキストを単純にエコーしているのであれば、ファイルfile_get_contentsまたは readfileが理にかなっています。 あなたがキャッシングにPHPを使用している場合や、暫定的なプロキシーを作成している場合も同様です
呼び出しているURLは、あなた次第ですか!私はあなたのページを改ページしてデータを返すあなたのURLをプログラムすることはできません。最適化には非常に多くの方法があります。 – webDev
ストリームベースのソリューションを使用します。 https://github.com/salsify/jsonstreamingparser – awiebe
申し訳ありませんが、100万行は大きなデータではありません。 –