私はparticle.ioの大ファンであり、Google Cloud Platform(GCP)統合を追加したときにとても興奮して、IoTを保存できますデータをGCPの "データストア"に保存します。Google Cloud Platformで完全に管理された、常に利用可能なnode.jsスクリプトの実行
私はチュートリアルに従って作業しましたが、これを実装するためのアドバイスが必要なので、GCPで拡張できます。
私の現在の実装ではそうのようなものです: https://docs.particle.io/tutorials/integrations/google-cloud-platform/#example-use-cases
基本的に私は(私のIoTデバイスによって送信された)PubSubのイベントをリッスンNode.jsのスクリプトを実行して保存しますGCP「Compute Engineの」インスタンスを持っていますデータストアに転送します。
これをスケールしたいので、理想的には、このnode.jsスクリプトはスパイクに自動的に応答できる管理対象サービスで実行する必要があります。しかし、GCPはこのようなものを持っていないようです。
私はこの可能性がAWSで: のIoTデータ - > Particle.io AWSウェブフック - > AWS APIゲートウェイエンドポイント - > AWSラムダ - > AWS DynamoDBの
は、すべてのAWSポイントが管理されています。
node.jsスクリプトをGCPで常に完全に管理された、常に利用可能な方法で実行するにはどうすればよいですか? PubSubのイベントをリッスンしてデータストアに保存し、負荷の増加に応じて自動的にスケールするnode.jsスクリプトを実行することができます。
何か助けてください。他の誰かが言及した
の1-として、クラウドの機能があります:
おかげで非常に多く、 マーク
Google Cloudの機能が利用できます。これはAWS Lambdaと同等です。私はそれがアルファにあると思う。見てみな。 GCFを使用して同じサーバーレスワークフローを確立できます。 –
はい、クラウド機能はこれには理想的ですが、まだプレビューにあり、私はProduction Readyオプションが必要です。 – newbreedofgeek