DP-203 Korean 無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Korean Version)」

Azure Event Hubs의 실시간에 가까운 데이터에 대해 사용자 지정 독점1 Python 함수를 사용하는 통계 분석 솔루션을 설계하고 있습니다.
통계 분석을 수행하는 데 사용할 Azure 서비스를 추천해야 합니다. 솔루션은 대기 시간을 최소화해야 합니다.
무엇을 추천해야 할까요?

解説: (JPNTest メンバーにのみ表示されます)
Azure Synapse Analytics 전용 SQL 풀이 있습니다.
지난 3년 동안의 판매 데이터를 저장할 Table1이라는 팩트 테이블을 만들어야 합니다. 솔루션은 다음 쿼리 작업에 맞게 최적화되어야 합니다.
주별 주문 수를 표시합니다.
* 지역별 매출 합계를 계산합니다.
* 제품별 매출 합계를 계산합니다.
* 주어진 달의 모든 주문을 찾으십시오.
Table1을 분할하는 데 어떤 데이터를 사용해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)
Azure Synapse Analytics 전용 SQL 풀에서 공급업체 데이터에 대한 SCD(천천히 변경되는 차원)를 설계하고 있습니다.
사용 가능한 필드에 대한 변경 사항을 기록할 계획입니다.
공급업체 데이터에는 다음 열이 포함됩니다.

유형 2 SCD를 생성하기 위해 데이터에 추가해야 하는 세 개의 추가 열은 무엇입니까? 각 정답은 솔루션의 일부를 나타냅니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.

正解:A、D、E 解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
게임 데이터를 검색하기 위해 Azure Stream Analytics 작업을 빌드하고 있습니다.
작업이 각 게임의 각 5분 시간 간격에 대해 가장 높은 득점 레코드를 반환하는지 확인해야 합니다.
Stream Analytics 쿼리를 어떻게 완료해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
正解:

Explanation:
Box 1: TopOne OVER(PARTITION BY Game ORDER BY Score Desc)
TopOne returns the top-rank record, where rank defines the ranking position of the event in the window according to the specified ordering. Ordering/ranking is based on event columns and can be specified in ORDER BY clause.
Box 2: Hopping(minute,5)
Hopping window functions hop forward in time by a fixed period. It may be easy to think of them as Tumbling windows that can overlap and be emitted more often than the window size. Events can belong to more than one Hopping window result set. To make a Hopping window the same as a Tumbling window, specify the hop size to be the same as the window size.

Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/topone-azure-stream-analytics
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-window-functions
준비 영역이 포함된 Azure Data Lake Storage 계정이 있습니다.
준비 영역에서 증분 데이터를 수집하고 R 스크립트를 실행하여 데이터를 변환한 다음 변환된 데이터를 Azure Synapse Analytics의 데이터 웨어하우스에 삽입하는 일일 프로세스를 설계해야 합니다.
솔루션: Azure Data Factory 일정 트리거를 사용하여 매핑 데이터 흐름을 실행하는 파이프라인을 실행한 다음 데이터 웨어하우스에 데이터 정보를 삽입합니다.
이것이 목표를 달성합니까?

解説: (JPNTest メンバーにのみ表示されます)
실시간 데이터 처리 솔루션의 고가용성을 높이려면 어떻게 해야 할까요?

解説: (JPNTest メンバーにのみ表示されます)
Azure Synapse Analytics 전용 SQL 풀에 분할된 테이블이 있습니다.
파티션 제거의 이점을 최대화하도록 쿼리를 디자인해야 합니다.
Transact-SQL 쿼리에 무엇을 포함해야 합니까?

Azure Synapse Analytics 전용 SQL 풀에서 테이블을 일괄 로드하고 있습니다.
준비 테이블에서 대상 테이블로 데이터를 로드해야 합니다. 솔루션은 대상 테이블에 데이터를 로드하는 동안 오류가 발생하는 경우 해당 배치의 모든 삽입이 실행 취소되도록 해야 합니다.
Transact-SQL 코드를 어떻게 완성해야 합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고 각 올바른 선택은 1점의 가치가 있습니다.
正解:

Explanation:
Azure Synapse Analytics 전용 SQL 풀에서 금융 거래 테이블을 디자인하고 있습니다. 테이블에는 클러스터형 columnstore 인덱스가 있으며 다음 열이 포함됩니다.
TransactionType: 트랜잭션 유형당 4천만 행
CustomerSegment: 고객 세그먼트당 400만
TransactionMonth: 매월 6,500만 행
AccountType: 계정 유형당 5억
다음 쿼리 요구 사항이 있습니다.
분석가는 일반적으로 해당 월의 거래를 분석합니다.
트랜잭션 분석은 일반적으로 트랜잭션 유형, 고객 분류 및/또는 계정 유형별로 트랜잭션을 요약합니다. 쿼리 시간을 최소화하려면 테이블에 대한 분할 전략을 권장해야 합니다.
어떤 열에서 테이블 분할을 권장해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)
Azure Synapse Analytics 전용 SQL Pool1이 있습니다. Pool1에는 dbo.Sales라는 분할된 팩트 테이블과 일치하는 테이블 및 파티션 정의가 있는 stg.Sales라는 준비 테이블이 있습니다.
dbo.Sales의 첫 번째 파티션 내용을 stg.Sales의 동일한 파티션 내용으로 덮어써야 합니다. 솔루션은 로드 시간을 최소화해야 합니다.
어떻게 해야 합니까?

고객용 JSON 파일이 포함된 Azure Data Lake Storage Gen2 계정이 있습니다. 파일에는 FirstName 및 LastName이라는 두 가지 특성이 포함되어 있습니다.
Azure Databricks를 사용하여 JSON 파일에서 Azure Synapse Analytics 테이블로 데이터를 복사해야 합니다. FirstName 및 LastName 값을 연결하는 새 열을 만들어야 합니다.
다음 구성 요소를 생성합니다.
Azure Synapse의 대상 테이블
Azure Blob 스토리지 컨테이너
서비스 주체
어떤 순서로 작업을 수행해야 합니까? 응답하려면 작업 목록에서 해당 작업을 응답 영역으로 이동하고 올바른 순서로 정렬하십시오.
正解:

Explanation:

Step 1: Mount the Data Lake Storage onto DBFS
Begin with creating a file system in the Azure Data Lake Storage Gen2 account.
Step 2: Read the file into a data frame.
You can load the json files as a data frame in Azure Databricks.
Step 3: Perform transformations on the data frame.
Step 4: Specify a temporary folder to stage the data
Specify a temporary folder to use while moving data between Azure Databricks and Azure Synapse.
Step 5: Write the results to a table in Azure Synapse.
You upload the transformed data frame into Azure Synapse. You use the Azure Synapse connector for Azure Databricks to directly upload a dataframe as a table in a Azure Synapse.
Reference:
https://docs.microsoft.com/en-us/azure/azure-databricks/databricks-extract-load-sql-data-warehouse
Azure Databricks 작업 영역과 storage라는 Azure Data Lake Storage Gen2 계정이 있습니다!
새 파일은 storage1에 매일 업로드됩니다.
* 새로운 파일은 구조화된 스트리밍 소스로 업코리지1 되면서 점진적으로 처리됩니다. 솔루션은 다음 요구 사항을 충족해야 합니다.
* 구현 및 유지 관리 노력을 최소화합니다.
* 수백만 개의 파일을 처리하는 비용을 최소화합니다.
* 스키마 추론 및 스키마 드리프트를 지원합니다.
권장 사항에 어떤 항목을 포함해야 합니까?

참고: 이 질문은 동일한 시나리오를 제시하는 일련의 질문의 일부입니다. 시리즈의 각 질문에는 명시된 목표를 달성할 수 있는 고유한 솔루션이 포함되어 있습니다. 일부 질문 세트에는 정답이 두 개 이상 있을 수 있지만 다른 질문 세트에는 정답이 없을 수도 있습니다.
이 섹션의 질문에 답변한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 표시되지 않습니다.
준비 영역이 포함된 Azure Data Lake Storage 계정이 있습니다.
준비 영역에서 *증분 데이터를 수집하고 R 스크립트를 실행하여 데이터를 변환한 다음 변환된 데이터를 Azure Synapse Analytics의 데이터 웨어하우스에 삽입하는 일일 프로세스를 설계해야 합니다.
해결 방법: Azure Data Factory 일정 트리거를 사용하여 매핑 데이터 흐름을 실행하는 파이프라인을 실행한 다음 데이터를 데이터 웨어하우스에 삽입합니다.
이것이 목표를 달성합니까?

Microsoft Purview 계정이 포함된 Azure 구독이 있습니다.
테이블 또는 뷰의 자산 유형 속성이 있는 자산을 식별하려면 Microsoft Purview 데이터 카탈로그를 검색해야 합니다. 어떤 쿼리를 실행해야 합니까?

Azure 이벤트 허브에서 클릭스트림 데이터를 수신하는 Azure Stream Analytics 작업이 있습니다.
Stream Analytics 작업에서 쿼리를 정의해야 합니다. 쿼리는 다음 요구 사항을 충족해야 합니다.
방문자의 국가를 기준으로 각 10초 창 내의 클릭 수를 계산합니다.
각 클릭이 두 번 이상 계산되지 않도록 합니다.
쿼리를 어떻게 정의해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)
Azure Synapse Analytics 전용 SQL 풀의 테이블에 데이터를 업서트하는 Azure Data Factory의 데이터 흐름을 빌드하고 있습니다.
데이터 흐름에 변환을 추가해야 합니다. 변환은 입력 데이터의 행을 싱크로 업서트해야 하는 시기를 나타내는 논리를 지정해야 합니다.
데이터 흐름에 어떤 유형의 변환을 추가해야 합니까?

解説: (JPNTest メンバーにのみ表示されます)

弊社を連絡する

我々は12時間以内ですべてのお問い合わせを答えます。

オンラインサポート時間:( UTC+9 ) 9:00-24:00
月曜日から土曜日まで

サポート:現在連絡