Professional-Data-Engineer日本語 無料問題集「Google Certified Professional Data Engineer Exam (Professional-Data-Engineer日本語版)」

新しい顧客から、Google Cloud コンピューティング リソースの純消費量とリソースの使用者を示す日次レポートの要求がありました。これらの日次レポートを迅速かつ効率的に生成する必要があります。どうすればよいでしょうか。

解説: (JPNTest メンバーにのみ表示されます)
Google Cloud 上のデータ パイプライン用に、Cloud Pub/Sub から BigQuery に JSON メッセージを書き込んで変換するサービスを選択しています。サービス費用を最小限に抑えたいと考えています。また、手動による介入を最小限に抑えて、サイズが変化する入力データ量を監視して対応したいと考えています。どうすればよいでしょうか。

あるオンライン小売業者は、現在のアプリケーションを Google App Engine 上に構築しました。同社の新しい取り組みでは、顧客がアプリケーションを介して直接取引できるようにアプリケーションを拡張することが義務付けられています。
ショッピング取引を管理し、ビジネス インテリジェンス (BI) ツールを使用して複数のデータセットから結合されたデータを分析する必要があります。この目的のために、単一のデータベースのみを使用したいと考えています。どの Google Cloud データベースを選択すればよいでしょうか。

解説: (JPNTest メンバーにのみ表示されます)
Apache Kafka を中心に構築された IoT パイプラインを運用しており、通常は 1 秒あたり約 5,000 件のメッセージを受信します。1 時間の移動平均が 1 秒あたり 4,000 件のメッセージを下回るとすぐに、Google Cloud Platform を使用してアラートを作成したいと考えています。どうすればよいでしょうか。

Cloud Storage には、データ サイエンス チームがモデルで使用したいさまざまなファイルがあります。現在、ユーザーには Cloud Storage 内のデータを探索、クレンジング、検証する方法がありません。データ サイエンス チームが Cloud Storage 内のデータをすばやくクレンジングおよび探索するために使用できるローコード ソリューションを探しています。どうすればよいでしょうか。

解説: (JPNTest メンバーにのみ表示されます)
次のソースのうち、BigQuery にデータをロードできないのはどれですか。

解説: (JPNTest メンバーにのみ表示されます)
BigQuery で処理される行数を減らすには、どの方法を使用できますか?

解説: (JPNTest メンバーにのみ表示されます)
Pub/Sub サブスクリプションから直接データを取り込む BigQuery テーブルがあります。取り込まれたデータは、Google が管理する暗号鍵で暗号化されます。保存データを暗号化するには、一元化された Cloud Key Management Service(Cloud KMS)プロジェクトの鍵を使用する必要があるという新しい組織ポリシーを満たす必要があります。どうすればよいでしょうか。

解説: (JPNTest メンバーにのみ表示されます)
3 つのデータ処理ジョブを開発しました。1 つは、Cloud Storage にアップロードされたデータを変換し、結果を BigQuery に書き込む Cloud Dataflow パイプラインを実行します。2 つ目は、オンプレミス サーバーからデータを取り込んで Cloud Storage にアップロードします。3 つ目は、サードパーティのデータ プロバイダから情報を取得して Cloud Storage にアップロードする Cloud Dataflow パイプラインです。これら 3 つのワークフローの実行をスケジュールして監視し、必要に応じて手動で実行できる必要があります。どうすればよいでしょうか。

Dataflow を使用して Cloud Storage から BigQuery にデータを処理するアーキテクチャを設計しています。ネットワーク チームから、パイプラインで使用する共有 VPC ネットワークとサブネットワークが提供されました。共有 VPC ネットワーク上でパイプラインのデプロイを有効にする必要があります。何をすればよいでしょうか。

解説: (JPNTest メンバーにのみ表示されます)
分析には BigQuery のデータセットを使用します。サードパーティの企業に同じデータセットへのアクセスを提供したいと考えています。データ共有のコストを低く抑え、データが最新であることを保証する必要があります。どうすればよいでしょうか?

解説: (JPNTest メンバーにのみ表示されます)
約 3 年前に新しいゲーム アプリをリリースしました。前日のログ ファイルを、テーブル名形式が LOGS_yyyymmdd である別の Google BigQuery テーブルにアップロードしています。テーブル ワイルドカード関数を使用して、すべての期間の日次レポートと月次レポートを生成しています。最近、長い日付範囲をカバーする一部のクエリが 1,000 テーブルの制限を超えて失敗していることに気付きました。この問題を解決するにはどうすればよいでしょうか。

Cloud Storage バケットに存在する Apache Hive パーティション分割データの外部テーブルを作成しました。このバケットには多数のファイルが含まれています。このテーブルに対するクエリが遅いことに気付きました。これらのクエリのパフォーマンスを改善したいと考えています。どうすればよいでしょうか。

解説: (JPNTest メンバーにのみ表示されます)

弊社を連絡する

我々は12時間以内ですべてのお問い合わせを答えます。

オンラインサポート時間:( UTC+9 ) 9:00-24:00
月曜日から土曜日まで

サポート:現在連絡