DP-200日本語 無料問題集「Microsoft Implementing an Azure Data Solution (DP-200日本語版)」

Stream Analyticsを使用してイベント処理を実装し、一貫したJSONドキュメントを作成する必要があります。
どの3つのアクションを実行する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注:それぞれの正しい選択には1ポイントの価値があります。

正解:B、C、D 解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Microsoft Azureで新しいLambdaアーキテクチャを設計しています。
リアルタイム処理レイヤーは、次の要件を満たしている必要があります。
摂取:
1秒あたり数百万のイベントを受信する
完全に管理されたPlatform-as-a-Service(PaaS)ソリューションとして機能する
Azure Functionsと統合する
ストリーム処理:
ジョブごとに処理する
Azureサービスとのシームレスな接続を提供する
SQLベースのクエリ言語を使用する
分析データストア:
マネージドサービスとして機能する
ドキュメントストアを使用する
保管中のデータ暗号化を提供する
最小限の労力でLambdaアーキテクチャを構築するには、正しいテクノロジーを特定する必要があります。どのテクノロジーを使用する必要がありますか?回答するには、回答エリアで適切なオプションを選択します。
注:それぞれの正しい選択には1ポイントの価値があります。
正解:

References:
https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/
Azure SQLデータウェアハウスにSalesFactという名前のテーブルがあります。 SalesFactには、過去36か月の販売データが含まれており、次の特性があります。
* Is partitioned by month
* Contains one billion rows
* Has clustered columnstore indexes
毎月初め、36か月より古いデータSalesFactをできるだけ早く削除する必要があります。
ストアドプロシージャで順番に実行する必要がある3つのアクションはどれですか?回答するには、適切なアクションをアクションのリストから回答エリアに移動し、正しい順序に並べます。
正解:

References:
https://docs.microsoft.com/en-us/azure/sql-data-warehouse/sql-data-warehouse-tables-partition
Note: This question is part of a series of questions that present the same scenario. Each question in the series contains a unique solution that might meet the stated goals. Some question sets might have more than one correct solution, while others might not have a correct solution.
After you answer a question in this scenario, you will NOT be able to return to it. As a result, these questions will not appear in the review screen.
You have an Azure Storage account that contains 100 GB of files. The files contain text and numerical values.
75% of the rows contain description data that has an average length of 1.1 MB.
You plan to copy the data from the storage account to an Azure SQL data warehouse.
You need to prepare the files to ensure that the data copies quickly.
解決策:ファイルを変更して、各行が1 MB未満になるようにします。
これは目標を達成していますか?

解説: (JPNTest メンバーにのみ表示されます)
Azure ストレージ アカウントがあります。
アカウントで管理アクションが実行されたときに電子メールを送信するようにストレージ アカウントを構成する必要があります。
あなたは何をするべきか?

解説: (JPNTest メンバーにのみ表示されます)
会社のデータエンジニアリングソリューションを開発します。
会社の社内Microsoft SQL ServerデータをMicrosoft Azure SQLと統合する必要があります
データベース。データは段階的に変換する必要があります。
データ統合ソリューションを実装する必要があります。
データをコピーするパイプラインを構成するには、どのツールを使用する必要がありますか?

解説: (JPNTest メンバーにのみ表示されます)
必要に応じて、次のログイン資格情報を使用します。
Azureユーザー名:xxxxx
Azureパスワード:xxxxx
以下の情報は、技術サポートのみを目的としています。
ラボインスタンス:10277521
次の情報を機密として分類する必要があります。
データベース:db3
スキーマ:SalesLT
表:顧客
列:電話情報
タイプ:連絡先情報
このタスクを完了するには、Azureポータルにサインインします。
正解:
1. In Azure Portal, locate and select database db3.
2. Select Security and Advance Data Security, and Click Enable advanced Data Security Protection

3. Click the Data Discovery & Classification card.
4. Click on Add classification in the top menu of the window.

5. In the context window that opens, select the schema > table > column that you want to classify, and the information type and sensitivity label. Then click on the blue Add classification button at the bottom of the context window.
Select/enter the following
Schema: SalesLT
Table: Customer
Column: Phone Information
Information type: Contact Info

6. To complete your classification and persistently label (tag) the database columns with the new classification metadata, click on Save in the top menu of the window.

References:
https://docs.microsoft.com/en-us/azure/sql-database/sql-database-data-discovery-and-classification
Azure Synapse Analyticsにエンタープライズデータウェアハウスがあります。
現在のワークロードに対応するために、より高いサービスレベルにスケールアップする必要があるかどうかを識別するために、データウェアハウスを監視する必要があります。
監視するのに最適なメトリックはどれですか?
複数の回答を選択することで目標を達成できる場合があります。最良の答えを選択してください。

解説: (JPNTest メンバーにのみ表示されます)
DW1という名前のAzure SQLデータウェアハウスを含むAzureデータソリューションがあります。
複数のユーザーがDW1に対してアドホッククエリを同時に実行します。
DW1への自動データロードを定期的に実行します。
アドホッククエリを実行するときに、自動化されたデータロードに迅速かつ正常に完了するのに十分なメモリがあることを確認する必要があります。

解説: (JPNTest メンバーにのみ表示されます)
Microsoft Azure SQL Databaseの新しい単一のデータベースインスタンスを作成する予定です。
データベースは、データエンジニアのワークステーションからの通信のみを許可する必要があります。 Microsoft SQL Server Management Studioを使用して、インスタンスに直接接続する必要があります。
データベースを作成および構成する必要があります。ソリューションを開発するには、どの3つのAzure PowerShellコマンドレットを使用する必要がありますか?回答するには、適切なコマンドレットをコマンドレットのリストから回答領域に移動し、正しい順序に並べます。
正解:

References:
https://docs.microsoft.com/en-us/azure/sql-database/scripts/sql-database-create-and-configure-database-powershell?toc=%2fpowershell%2fmodule%2ftoc.json
Azure Databricksリソースがあります。
Databricksリソースによってトリガーされた計算の変更に関連するアクションをログに記録する必要があります。
どのDatabricksサービスをログに記録する必要がありますか?

解説: (JPNTest メンバーにのみ表示されます)
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
AzureStorageアカウントを含むAzureサブスクリプションがあります。
規制およびコンプライアンスの基準を満たすために、データストレージソリューションに変更を実装することを計画しています。
Azureは毎日、過去100日間に変更されなかったBLOBを識別して削除する必要があります。
解決策:ストレージアカウントにタグを付けるAzureポリシーを適用します。
これは目標を達成していますか?

解説: (JPNTest メンバーにのみ表示されます)
You have an Azure Stream Analytics query. The query returns a result set that contains 10,000 distinct values for a column named clusterID.
You monitor the Stream Analytics job and discover high latency.
You need to reduce the latency.
Which two actions should you perform? Each correct answer presents a complete solution.
注:それぞれの正しい選択には1ポイントの価値があります。

正解:D、E 解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
会社はいくつかのAzure HDInsightクラスターを使用しています。
データエンジニアリングチームは、これらのクラスターを使用する一部のアプリケーションでいくつかのエラーを報告します。
クラスターの正常性を確認するソリューションを推奨する必要があります。
推奨事項に何を含めるべきですか?

解説: (JPNTest メンバーにのみ表示されます)
Azure Data Factoryを使用して、Azure StorageアカウントとAzure SQLデータウェアハウスがあります。ソリューションは次の要件を満たしている必要があります。
*データが常に英国南部地域に残るようにします。
*管理作業を最小限に抑えます。
どのタイプの統合ランタイムを使用する必要がありますか?

解説: (JPNTest メンバーにのみ表示されます)

弊社を連絡する

我々は12時間以内ですべてのお問い合わせを答えます。

オンラインサポート時間:( UTC+9 ) 9:00-24:00
月曜日から土曜日まで

サポート:現在連絡