pentaho-data-integration

    0

    1答えて

    複数の値(請求書番号、日付、場所)といくつかの値(製品、価格、税)を含む請求書行が不明な請求書ヘッダがある場合は、インボイス・ラインの数量が請求書によって異なる場合に、このデータを1行にまとめます。 {"InvoiceRecords": [{ "InvoiceDate": "8/9/2017 12:00:00 AM", "InvoiceLocation": "002",

    0

    1答えて

    PostgreSQLにテーブル 'TICKETS'があります。このテーブルを作成するためにPentahoを使用してETLジョブを実行します。 ユーザーが変更を加え、その結果がこの表に反映されるGUIもあります。表中の フィールドは次のとおりです。 "OID" Char(36) <------ **PRIMARY KEY** , "CUSTOMER" VARCHAR(255) , "TICKET

    0

    1答えて

    PDIで実行しているジョブが、異なるソースから別のターゲットに、特定のシステムのバックを転送しています。この仕事には多くの子どもの仕事があります。そのJob MasterJob1と呼んでみましょう。 別の目的で同じシステムを実行しています。したがって、PDIでそのジョブをコピーしたいと思います。ここでは、いくつかの設定を変更するだけです。 MasterJob2と呼ぶことにしましょう。 ジョブ全体(

    0

    1答えて

    私は、result_slalomテーブルを持っています。ここでは、データはPentahoのETL Jobsを介して入力されます。 ETLを初めて実行すると、バージョン1が作成されます。 新しい計算後にデータが変更されると、バージョン2になります。 計算バージョン-2でのみ変更する必要があります.2つ以上のバージョンをresult_slalomテーブルに追加する必要があります。 (バージョン-1およ

    0

    1答えて

    私はPentaho Data Integrationを初めて使用しています。以下の列データを取得し、日付列の各エントリの出力を得ようとしています。これがスプーンでどのように行われるのかよく分かりません。 私はデノーマライゼーションステップを検討しましたが、例はあまり良くありません。また、私はそれが私に各列の値の出力を得るだろうか分からない。 始まるデータ: 目的のデータ: Pentaho Foru

    0

    1答えて

    pentahoデータの統合を使用してSQL ServerからPostgreSQLにデータを移行する際にアクセントに問題がありますが、場合によっては1つのシンボルが増えます。 SQL Serverのデータ型はVARCHAR(MAX)を入力し、PostgreSQLはたとえばテキスト を入力します: Sql Server: CARREOCERÃA PostgreSQL: CARREOCERÃ?A

    0

    2答えて

    フィールドitem_idがある変換ステップから別の変換ステップに渡されました。私は、UNIONで使用するために、次の変換ステップでそのフィールドを複数回使用したいと考えています。 select x、y from table1 where item_id =? UNION select w、z from table2 where item_id =? トランスフォームはフィールド単位でプレースホルダ

    0

    1答えて

    自分のサーバー上に私のUbuntu 14.04サーバーでCrontabを使用しているスクリプトを実行していて、すべて正常に動作するPDI Kitchenジョブがあります。 今私は(同じサーバーにインストールされている)ジェンキンスを使用して、それをスケジュールしようとしていますし、私は次のエラーを取得する: 2017/10/26 14:55:01 - Kitchen - Logging is at

    0

    1答えて

    文字列の日付値を五十音データ変換で有効な日付形式に変換する際に問題があります。誰かが日付'08-Mar-2017 '形式(2017-03-08 00:00:00)をペンタホで入力します。

    1

    1答えて

    StarschemaのJDBCドライバを使用して、PentahoとBigQueryを接続しています。 BigQueryからPentahoにデータを正常に取得できました。しかし、私はPentahoからBigQueryにデータを書き込むことはできません。 BigQueryに行を挿入中に例外がスローされ、その操作がサポートされていないようです。これをどうすれば解決できますか? エラーメッセージ: 201