私は2550カラムのcsvファイルを持っており、postgreSQLにインポートします。多くのカラムを持つ大きなcsvをpostgreSQLにインポート
最初にpostgreSQLでcsvをインポートするには、テーブルを作成して、\copy
を使用してcsvからテーブルにコピーしてください。私の場合のようにテーブルに膨大な量のカラムがあると、テーブルを手動で作成することはできません。
どのような解決策ですか?
更新
データ構造は以下の通りである:dZと(2550)まで dZと(01)+50 -50との間に基本的に次のとおり
id | date | time | localtime | pid | dZ(0)..dZ(1)......dZ(2550)|
---|---------|-----------|-----------|-----|---------------------------|
17|11-11-2014| 16:33:21 | 1.45E+15 |2375 |0 0 0 0 0 -1 0 -1 0 -5 -10|
CSV構造:(I 'を使用';'デリミタ)
17;13-11-2014;08:09:37;1.45E+15;4098;0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -4 3 0 -2 3 -2 1 0 0 1 1 3 -2 3 4 2 -2 -2 ....
これは1行のデータです。
は、私はあなた怖い
は、タイムスタンプに日付と時刻をマージし、配列にdZ
を回し決定的なテーブルを作成します。テーブルでは1600列に制限されているので、カスタムの区切り文字を設定して行全体を1つの列としてインポートしようとします。後で 'split_part'またはregexをseverに選択できますすべての列。しかし、とにかく、すべての2550を同じテーブルにインポートすることはできません。 –各行はどれくらいの大きさですか?たぶんあなたはそれを1つの 'text'カラムだけを持つテーブルにインポートし、それをデータベースで処理することができます。多くの列を持つテーブルは、リレーショナルデータベースではあまり意味がありません。 –
繰り返しグループのように見えます。多分それを配列に格納しますか? BTW:日付+時間は1(タイムスタンプ)フィールドでなければなりません。 – wildplasser