私は大量のデータを扱うプロジェクトに取り組んでいます。基本的には、ダウンロード可能なExcelファイルの一部のWebサイトに大きなリポジトリが存在します。サイトにはいくつかのフィルタのリストがあり、フィルタリングしてからデータを収集するいくつかの異なるパラメータがあります。全体的に見ると、このプロセスでは、1,000以上のExcelファイルをダウンロードしてコピー&ペーストする必要があります。Pythonはデータスクレイピングを自動化するのに適したツールですか?
Pythonにはこのプロセスを自動化する機能がありますか?基本的に私がやっていることは、フィルタ1 = A、フィルタ2 = B、フィルタ3 = C、ファイルのダウンロードを設定し、次に異なるパラメータで繰り返し、ファイルをコピー&ペーストすることです。 Pythonがこれに適しているなら、誰でも良いチュートリアルや出発点の指示に向けることができますか?そうでない場合は、背景の少ない人にはどの言語がこれに適していますか?
ありがとうございます!
これはかなり意見に基づいています。おそらく、Pythonは、ほとんどの汎用言語と同様に、ほぼすべてに適していると言うのは間違いありません。 – Carcigenicate
このコミュニティは、この種の質問に適していますか?私は恐れる:いいえ。 – GhostCat