DP-203 Korean 無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Korean Version)」

Sales라는 테이블을 포함하는 Pool1이라는 Azure Synapse Analytics 전용 SQL 풀이 있습니다. Sales에는 RLS(행 수준 보안)가 적용되어 있습니다. RLS는 다음 조건자 필터를 사용합니다.

SalesUser1이라는 사용자에게 Pool1에 대한 db_datareader 역할이 할당되었습니다. SalesUser1이 테이블을 쿼리할 때 반환되는 Sales 테이블의 행은 무엇입니까?

통합 파이프라인에 대한 버전 변경 사항을 구현해야 합니다. 솔루션은 데이터 통합 ​​요구 사항을 충족해야 합니다.
어떤 순서로 작업을 수행해야 합니까? 응답하려면 작업 목록에서 모든 작업을 응답 영역으로 이동하고 올바른 순서로 정렬하십시오.
正解:

Explanation:

Scenario: Identify a process to ensure that changes to the ingestion and transformation activities can be version-controlled and developed independently by multiple data engineers.
Step 1: Create a repository and a main branch
You need a Git repository in Azure Pipelines, TFS, or GitHub with your app.
Step 2: Create a feature branch
Step 3: Create a pull request
Step 4: Merge changes
Merge feature branches into the main branch using pull requests.
Step 5: Publish changes
Reference:
https://docs.microsoft.com/en-us/azure/devops/pipelines/repos/pipeline-options-for-git
Topic 1, Contoso Case StudyTransactional Date
Contoso has three years of customer, transactional, operation, sourcing, and supplier data comprised of 10 billion records stored across multiple on-premises Microsoft SQL Server servers. The SQL server instances contain data from various operational systems. The data is loaded into the instances by using SQL server integration Services (SSIS) packages.
You estimate that combining all product sales transactions into a company-wide sales transactions dataset will result in a single table that contains 5 billion rows, with one row per transaction.
Most queries targeting the sales transactions data will be used to identify which products were sold in retail stores and which products were sold online during different time period. Sales transaction data that is older than three years will be removed monthly.
You plan to create a retail store table that will contain the address of each retail store. The table will be approximately 2 MB. Queries for retail store sales will include the retail store addresses.
You plan to create a promotional table that will contain a promotion ID. The promotion ID will be associated to a specific product. The product will be identified by a product ID. The table will be approximately 5 GB.
Streaming Twitter Data
The ecommerce department at Contoso develops and Azure logic app that captures trending Twitter feeds referencing the company's products and pushes the products to Azure Event Hubs.
Planned Changes
Contoso plans to implement the following changes:
* Load the sales transaction dataset to Azure Synapse Analytics.
* Integrate on-premises data stores with Azure Synapse Analytics by using SSIS packages.
* Use Azure Synapse Analytics to analyze Twitter feeds to assess customer sentiments about products.
Sales Transaction Dataset Requirements
Contoso identifies the following requirements for the sales transaction dataset:
* Partition data that contains sales transaction records. Partitions must be designed to provide efficient loads by month. Boundary values must belong: to the partition on the right.
* Ensure that queries joining and filtering sales transaction records based on product ID complete as quickly as possible.
* Implement a surrogate key to account for changes to the retail store addresses.
* Ensure that data storage costs and performance are predictable.
* Minimize how long it takes to remove old records.
Customer Sentiment Analytics Requirement
Contoso identifies the following requirements for customer sentiment analytics:
* Allow Contoso users to use PolyBase in an A/ure Synapse Analytics dedicated SQL pool to query the content of the data records that host the Twitter feeds. Data must be protected by using row-level security (RLS). The users must be authenticated by using their own A/ureAD credentials.
* Maximize the throughput of ingesting Twitter feeds from Event Hubs to Azure Storage without purchasing additional throughput or capacity units.
* Store Twitter feeds in Azure Storage by using Event Hubs Capture. The feeds will be converted into Parquet files.
* Ensure that the data store supports Azure AD-based access control down to the object level.
* Minimize administrative effort to maintain the Twitter feed data records.
* Purge Twitter feed data records;itftaitJ are older than two years.
Data Integration Requirements
Contoso identifies the following requirements for data integration:
Use an Azure service that leverages the existing SSIS packages to ingest on-premises data into datasets stored in a dedicated SQL pool of Azure Synaps Analytics and transform the data.
Identify a process to ensure that changes to the ingestion and transformation activities can be version controlled and developed independently by multiple data engineers.
pool1이라는 Azure Synapse Analytics 전용 SQL 풀이 있습니다.
민감한 데이터에 영향을 미치는 SQL 문의 월별 감사를 수행해야 합니다. 솔루션은 관리 노력을 최소화해야 합니다.
솔루션에 무엇을 포함해야 합니까?

MP1이라는 Microsoft Purview 계정, DF1이라는 Azure 데이터 팩터리 및 storage라는 스토리지 계정이 포함된 Azure 구독이 있습니다. MP1이 구성됨
10 스캔 저장1. DF1은 MP1에 연결되어 있으며 DS1이라는 3개의 데이터 세트를 포함합니다. DS1은 스토리지에서 2개의 파일을 참조합니다.
DF1에서 DS1의 데이터를 처리할 파이프라인을 만들 계획입니다.
DS1에서 참조하는 데이터에 대해 MP1의 스키마 및 계보 정보를 검토해야 합니다.
정보를 찾는 데 사용할 수 있는 두 가지 기능은 무엇입니까? 각 정답은 완전한 솔루션을 제시합니다.
참고: 각 정답은 1점의 가치가 있습니다.

正解:A、C 解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Azure 구독이 있습니다. 이 구독에는 DB1이라는 Azure SQL 데이터베이스와 PySpark 노트북이 있는 Azure Synapse Analytics 작업 영역이 포함되어 있습니다. 이 노트북에는 다음과 같은 기능이 포함된 셀이 있습니다.
%%sql
DB1에 연결하는 셀에 SQL 코드를 추가해야 합니다.
마법이 실행된 후 실행되는 코드에 어떤 SQL 방언을 사용해야 할까요?

Azure Synapse Analytics 전용 SQL Pool1이 있습니다. Pool1에는 dbo.Sales라는 분할된 팩트 테이블과 일치하는 테이블 및 파티션 정의가 있는 stg.Sales라는 준비 테이블이 있습니다.
dbo.Sales의 첫 번째 파티션 내용을 stg.Sales의 동일한 파티션 내용으로 덮어써야 합니다. 솔루션은 로드 시간을 최소화해야 합니다.
어떻게 해야 합니까?

Azure Synapse Analytics에서 Apache Spark 풀을 사용하여 Azure Data Lake Storage Gen2 계정에 데이터를 로드할 계획입니다.
Data Lake Storage 계정에 데이터를 저장하는 데 사용할 파일 형식을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다.
* 열 이름과 데이터 유형은 Data Lake Storage 계정에 로드된 파일 내에서 정의되어야 합니다.
* Azure Synapse Analytics 서버리스 SQL 풀의 쿼리를 사용하여 데이터에 액세스할 수 있어야 합니다.
* 특정 파티션을 지정하지 않아도 파티션 제거가 지원되어야 합니다.
무엇을 추천해야 할까요?

Azure Synapse Analytics에서 엔터프라이즈 데이터 웨어하우스를 관리합니다.
사용자는 일반적으로 사용되는 쿼리를 실행할 때 성능이 저하된다고 보고합니다. 사용자는 자주 사용되지 않는 쿼리에 대한 성능 변화를 보고하지 않습니다.
성능 문제의 원인을 확인하려면 리소스 활용도를 모니터링해야 합니다.
어떤 지표를 모니터링해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)
Customers라는 테이블을 포함할 Azure Synapse Analytics에서 엔터프라이즈 데이터 웨어하우스를 설계하고 있습니다. 고객은 신용 카드 정보를 포함합니다.
고객의 모든 항목을 볼 수 있는 기능을 영업 사원에게 제공하는 솔루션을 추천해야 합니다.
솔루션은 모든 영업 사원이 신용 카드 정보를 보거나 유추하는 것을 방지해야 합니다.
추천서에 무엇을 포함해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)
Pool1이라는 Azure Synapse Analytics 전용 SQL 풀과 DB1이라는 데이터베이스가 있습니다. DB1에는 Table1이라는 팩트 테이블이 있습니다.
Table1에서 데이터 왜곡의 범위를 식별해야 합니다.
Synapse Studio에서 무엇을 해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)
저장소 계정이 포함된 Azure 구독이 있습니다. 해당 계정에는 blob1이라는 blob 컨테이너와 Azure Synapse Analytics 서버리스 SQL 풀이 포함되어 있습니다.
blob1에 저장된 CSV 파일을 쿼리해야 합니다. 솔루션은 csv라는 폴더와 그 하위 폴더의 모든 파일이 쿼리되도록 해야 합니다.
질의를 어떻게 완료해야 합니까? 답변하려면 답변 영역에서 적절한 옵션을 선택하세요.
참고사항: 정답 하나당 1점입니다.
正解:

Explanation:
A computer screen shot of a computer code Description automatically generated

BULK Path (first dropdown):
* Correct Option: abfs:
* Since the storage account uses Azure Data Lake Storage Gen2, the abfs:// (Azure Blob File System) protocol is the correct option for accessing the files.
Path to Query Files:
* The path 'abfs://[email protected]/blob1/' specifies the container (blob1) and the folder (csv) within the storage account.
* This ensures that all files in the csv folder and its subfolders are included in the query.
FORMAT (last dropdown):
* Correct Option: 'CSV'
* This indicates that the queried files are in the CSV format, which matches the requirement in the question.
Azure Databricks를 사용하여 DBTBL1이라는 데이터 세트를 개발합니다.
DBTBL1에는 다음 열이 포함됩니다.
SensorTypeID
GeographyRegionID
년도


시간

온도
바람 속도
다른
각 GeographyRegionID에 따라 달라지는 일일 증분 로드 파이프라인을 지원하려면 데이터를 저장해야 합니다. 솔루션은 스토리지 비용을 최소화해야 합니다.
코드를 어떻게 완성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
正解:

Explanation:

弊社を連絡する

我々は12時間以内ですべてのお問い合わせを答えます。

オンラインサポート時間:( UTC+9 ) 9:00-24:00
月曜日から土曜日まで

サポート:現在連絡