DP-203 Deutsch 無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)」
Sie entwickeln einen Datensatz mit dem Namen DBTBL1 mithilfe von Azure Databricks.
DBTBL1 enthält die folgenden Spalten:
* SensorTypeID
* GeographyRegionID
* Jahr
* Monat
* Tag
* Stunde
* Minute
* Temperatur
* Windgeschwindigkeit
* Andere
Sie müssen die Daten speichern, um tägliche inkrementelle Ladepipelines zu unterstützen, die für jede GeographyRegionID unterschiedlich sind.
Die Lösung muss die Lagerkosten minimieren.
Wie soll der Code vervollständigt werden? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

DBTBL1 enthält die folgenden Spalten:
* SensorTypeID
* GeographyRegionID
* Jahr
* Monat
* Tag
* Stunde
* Minute
* Temperatur
* Windgeschwindigkeit
* Andere
Sie müssen die Daten speichern, um tägliche inkrementelle Ladepipelines zu unterstützen, die für jede GeographyRegionID unterschiedlich sind.
Die Lösung muss die Lagerkosten minimieren.
Wie soll der Code vervollständigt werden? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die den Mapping-Datenfluss ausführt und dann die Dateninformationen in das Data Warehouse einfügt.
Erfüllt dies das Ziel?
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die den Mapping-Datenfluss ausführt und dann die Dateninformationen in das Data Warehouse einfügt.
Erfüllt dies das Ziel?
正解:A
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie verfügen über einen Azure Event Hub mit dem Namen „retailhub“, der über 16 Partitionen verfügt. Transaktionen werden im Retailhub veröffentlicht.
Zu jeder Transaktion gehören die Transaktions-ID, die einzelnen Posten und die Zahlungsdetails. Als Partitionsschlüssel wird die Transaktions-ID verwendet.
Sie entwerfen einen Azure Stream Analytics-Auftrag, um potenziell betrügerische Transaktionen in einem Einzelhandelsgeschäft zu identifizieren. Der Job verwendet Retailhub als Eingabe. Der Job gibt die Transaktions-ID, die einzelnen Posten, die Zahlungsdetails, einen Betrugsscore und einen Betrugsindikator aus.
Sie planen, die Ausgabe an einen Azure Event Hub mit dem Namen Fraudhub zu senden.
Sie müssen sicherstellen, dass die Betrugserkennungslösung hoch skalierbar ist und Transaktionen so schnell wie möglich verarbeitet.
Wie sollten Sie die Ausgabe des Stream Analytics-Auftrags strukturieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

Zu jeder Transaktion gehören die Transaktions-ID, die einzelnen Posten und die Zahlungsdetails. Als Partitionsschlüssel wird die Transaktions-ID verwendet.
Sie entwerfen einen Azure Stream Analytics-Auftrag, um potenziell betrügerische Transaktionen in einem Einzelhandelsgeschäft zu identifizieren. Der Job verwendet Retailhub als Eingabe. Der Job gibt die Transaktions-ID, die einzelnen Posten, die Zahlungsdetails, einen Betrugsscore und einen Betrugsindikator aus.
Sie planen, die Ausgabe an einen Azure Event Hub mit dem Namen Fraudhub zu senden.
Sie müssen sicherstellen, dass die Betrugserkennungslösung hoch skalierbar ist und Transaktionen so schnell wie möglich verarbeitet.
Wie sollten Sie die Ausgabe des Stream Analytics-Auftrags strukturieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Box 1: 16
For Event Hubs you need to set the partition key explicitly.
An embarrassingly parallel job is the most scalable scenario in Azure Stream Analytics. It connects one partition of the input to one instance of the query to one partition of the output.
Box 2: Transaction ID
Reference:
https://docs.microsoft.com/en-us/azure/event-hubs/event-hubs-features#partitions
Sie verfügen über mehrere Azure Data Factory-Pipelines, die eine Mischung aus den folgenden Aktivitätstypen enthalten.
* Streitender Datenfluss
* Notizbuch
* Kopieren
* Krug
Welche beiden Azure-Dienste sollten Sie zum Debuggen der Aktivitäten verwenden? Jede richtige Antwort stellt einen Teil der Lösung dar. HINWEIS: Jede richtige Antwort ist einen Punkt wert.
* Streitender Datenfluss
* Notizbuch
* Kopieren
* Krug
Welche beiden Azure-Dienste sollten Sie zum Debuggen der Aktivitäten verwenden? Jede richtige Antwort stellt einen Teil der Lösung dar. HINWEIS: Jede richtige Antwort ist einen Punkt wert.
正解:D、E
解答を投票する
Sie erstellen einen Azure Data Factory-Datenfluss, der Daten aus einer CSV-Datei aufnimmt, Spalten in bestimmte Datentypen umwandelt und die Daten in eine Tabelle in einem dedizierten Azure Synapse Analytic-SQL-Pool einfügt. Die CSV-Datei enthält drei Spalten mit den Namen Benutzername, Kommentar und Datum.
Der Datenfluss enthält bereits Folgendes:
* Eine Quelltransformation.
* Eine abgeleitete Spaltentransformation zum Festlegen der entsprechenden Datentypen.
* Eine Senkentransformation, um die Daten im Pool zu landen.
Sie müssen sicherstellen, dass der Datenfluss die folgenden Anforderungen erfüllt:
* Alle gültigen Zeilen müssen in die Zieltabelle geschrieben werden.
* Kürzungsfehler in der Kommentarspalte müssen proaktiv vermieden werden.
* Alle Zeilen mit Kommentarwerten, die beim Einfügen zu Abschneidefehlern führen, müssen in eine Datei im Blobspeicher geschrieben werden.
Welche zwei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Der Datenfluss enthält bereits Folgendes:
* Eine Quelltransformation.
* Eine abgeleitete Spaltentransformation zum Festlegen der entsprechenden Datentypen.
* Eine Senkentransformation, um die Daten im Pool zu landen.
Sie müssen sicherstellen, dass der Datenfluss die folgenden Anforderungen erfüllt:
* Alle gültigen Zeilen müssen in die Zieltabelle geschrieben werden.
* Kürzungsfehler in der Kommentarspalte müssen proaktiv vermieden werden.
* Alle Zeilen mit Kommentarwerten, die beim Einfügen zu Abschneidefehlern führen, müssen in eine Datei im Blobspeicher geschrieben werden.
Welche zwei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:A、B
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie entwickeln Data-Engineering-Lösungen für ein Unternehmen.
Ein Projekt erfordert die Bereitstellung von Daten in Azure Data Lake Storage.
Sie müssen eine rollenbasierte Zugriffskontrolle (RBAC) implementieren, damit Projektmitglieder die Azure Data Lake Storage-Ressourcen verwalten können.
Welche drei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Ein Projekt erfordert die Bereitstellung von Daten in Azure Data Lake Storage.
Sie müssen eine rollenbasierte Zugriffskontrolle (RBAC) implementieren, damit Projektmitglieder die Azure Data Lake Storage-Ressourcen verwalten können.
Welche drei Aktionen sollten Sie durchführen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:A、C、E
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Ein Unternehmen plant, Platform-as-a-Service (PaaS) zu nutzen, um den neuen Datenpipeline-Prozess zu erstellen. Der Prozess muss folgende Anforderungen erfüllen:
Aufnehmen:
* Greifen Sie auf mehrere Datenquellen zu.
* Bieten Sie die Möglichkeit, Arbeitsabläufe zu orchestrieren.
* Bieten Sie die Möglichkeit, SQL Server Integration Services-Pakete auszuführen.
Speichern:
* Optimieren Sie den Speicher für Big-Data-Workloads.
* Sorgen Sie für die Verschlüsselung ruhender Daten.
* Betrieb ohne Größenbeschränkung.
Bereiten Sie sich vor und trainieren Sie:
* Stellen Sie einen vollständig verwalteten und interaktiven Arbeitsbereich zur Erkundung und Visualisierung bereit.
* Bieten Sie die Möglichkeit, in R, SQL, Python, Scala und Java zu programmieren.
* Bieten Sie eine nahtlose Benutzerauthentifizierung mit Azure Active Directory.
Modellieren und bedienen:
* Implementieren Sie nativen Spaltenspeicher.
* Unterstützung für die SQL-Sprache
* Bieten Sie Unterstützung für strukturiertes Streaming.
Sie müssen die Datenintegrationspipeline aufbauen.
Welche Technologien sollten Sie nutzen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

Aufnehmen:
* Greifen Sie auf mehrere Datenquellen zu.
* Bieten Sie die Möglichkeit, Arbeitsabläufe zu orchestrieren.
* Bieten Sie die Möglichkeit, SQL Server Integration Services-Pakete auszuführen.
Speichern:
* Optimieren Sie den Speicher für Big-Data-Workloads.
* Sorgen Sie für die Verschlüsselung ruhender Daten.
* Betrieb ohne Größenbeschränkung.
Bereiten Sie sich vor und trainieren Sie:
* Stellen Sie einen vollständig verwalteten und interaktiven Arbeitsbereich zur Erkundung und Visualisierung bereit.
* Bieten Sie die Möglichkeit, in R, SQL, Python, Scala und Java zu programmieren.
* Bieten Sie eine nahtlose Benutzerauthentifizierung mit Azure Active Directory.
Modellieren und bedienen:
* Implementieren Sie nativen Spaltenspeicher.
* Unterstützung für die SQL-Sprache
* Bieten Sie Unterstützung für strukturiertes Streaming.
Sie müssen die Datenintegrationspipeline aufbauen.
Welche Technologien sollten Sie nutzen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Sie planen, ein Azure Data Lake Storage Gen2-Konto zu erstellen
Sie müssen eine Speicherlösung empfehlen, die die folgenden Anforderungen erfüllt:
* Bietet ein Höchstmaß an Datenstabilität
* Stellt sicher, dass Inhalte für Schreibvorgänge verfügbar bleiben, wenn ein primäres Rechenzentrum ausfällt. Was sollten Sie in die Empfehlung aufnehmen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.

Sie müssen eine Speicherlösung empfehlen, die die folgenden Anforderungen erfüllt:
* Bietet ein Höchstmaß an Datenstabilität
* Stellt sicher, dass Inhalte für Schreibvorgänge verfügbar bleiben, wenn ein primäres Rechenzentrum ausfällt. Was sollten Sie in die Empfehlung aufnehmen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.

正解:

Explanation:

Availability : "Microsoft recommends RA-GZRS for maximum availability and durability for your applications." Failover: "The customer initiates the account failover to the secondary endpoint. "
https://docs.microsoft.com/en-us/azure/storage/common/storage-disaster-recovery-guidance?toc=/azure
/storage/blobs/toc.json
https://docs.microsoft.com/en-us/answers/questions/32583/azure-data-lake-gen2-disaster-recoverystorage- acco.html
Sie haben einen Microsoft Entra-Mandanten.
Der Mandant enthält ein Azure Data Lake Storage Gen2-Konto mit dem Namen „storage!“ das hat zwei Container namens fs1 und fs2. Sie haben eine Microsoft Entra-Gruppe mit dem Namen OepartmentA. Sie müssen die folgenden Anforderungen erfüllen:
* OepartmentA muss in der Lage sein, alle Dateien in fs1 zu lesen, zu schreiben und aufzulisten.
* OepartmentA muss daran gehindert werden, auf Dateien in fs2 zuzugreifen
* Die Lösung muss das Prinzip der geringsten Rechte nutzen.
Welche Rolle sollten Sie AbteilungA zuweisen?
Der Mandant enthält ein Azure Data Lake Storage Gen2-Konto mit dem Namen „storage!“ das hat zwei Container namens fs1 und fs2. Sie haben eine Microsoft Entra-Gruppe mit dem Namen OepartmentA. Sie müssen die folgenden Anforderungen erfüllen:
* OepartmentA muss in der Lage sein, alle Dateien in fs1 zu lesen, zu schreiben und aufzulisten.
* OepartmentA muss daran gehindert werden, auf Dateien in fs2 zuzugreifen
* Die Lösung muss das Prinzip der geringsten Rechte nutzen.
Welche Rolle sollten Sie AbteilungA zuweisen?
正解:B
解答を投票する
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die das gleiche Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die einen Zuordnungsdatenfluss ausführt und die Daten dann in das Data Warehouse einfügt.
Erfüllt dies das Ziel?
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die einen Zuordnungsdatenfluss ausführt und die Daten dann in das Data Warehouse einfügt.
Erfüllt dies das Ziel?
正解:B
解答を投票する
Sie verfügen über ein Azure Data Lake Storage Gen2-Konto mit dem Namen „konto1“, das Protokolle speichert, wie in der folgenden Tabelle gezeigt.

Sie gehen nicht davon aus, dass während der Aufbewahrungsfristen auf die Protokolle zugegriffen wird.
Sie müssen eine Lösung für Konto1 empfehlen, die die folgenden Anforderungen erfüllt:
* Löscht die Protokolle automatisch am Ende jedes Aufbewahrungszeitraums
* Minimiert Lagerkosten
Was sollten Sie in die Empfehlung aufnehmen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.


Sie gehen nicht davon aus, dass während der Aufbewahrungsfristen auf die Protokolle zugegriffen wird.
Sie müssen eine Lösung für Konto1 empfehlen, die die folgenden Anforderungen erfüllt:
* Löscht die Protokolle automatisch am Ende jedes Aufbewahrungszeitraums
* Minimiert Lagerkosten
Was sollten Sie in die Empfehlung aufnehmen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Box 1: Store the infrastructure logs in the Cool access tier and the application logs in the Archive access tier For infrastructure logs: Cool tier - An online tier optimized for storing data that is infrequently accessed or modified. Data in the cool tier should be stored for a minimum of 30 days. The cool tier has lower storage costs and higher access costs compared to the hot tier.
For application logs: Archive tier - An offline tier optimized for storing data that is rarely accessed, and that has flexible latency requirements, on the order of hours. Data in the archive tier should be stored for a minimum of 180 days.
Box 2: Azure Blob storage lifecycle management rules
Blob storage lifecycle management offers a rule-based policy that you can use to transition your data to the desired access tier when your specified conditions are met. You can also use lifecycle management to expire data at the end of its life.
Reference:
https://docs.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview
Sie verfügen über eine Azure Data Factory-Pipeline mit dem in der folgenden Abbildung dargestellten Logikfluss.

Wählen Sie für jede der folgenden Aussagen „Ja“ aus, wenn die Aussage wahr ist. Wählen Sie andernfalls „Nein“ aus.
HINWEIS: Jede Kegelauswahl ist einen Punkt wert.


Wählen Sie für jede der folgenden Aussagen „Ja“ aus, wenn die Aussage wahr ist. Wählen Sie andernfalls „Nein“ aus.
HINWEIS: Jede Kegelauswahl ist einen Punkt wert.

正解:

Explanation:

Sie müssen versionierte Änderungen an den Integrationspipelines implementieren. Die Lösung muss die Datenintegrationsanforderungen erfüllen.
In welcher Reihenfolge sollten Sie die Aktionen ausführen? Um zu antworten, verschieben Sie alle Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.

In welcher Reihenfolge sollten Sie die Aktionen ausführen? Um zu antworten, verschieben Sie alle Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.

正解:

Explanation:

Scenario: Identify a process to ensure that changes to the ingestion and transformation activities can be version-controlled and developed independently by multiple data engineers.
Step 1: Create a repository and a main branch
You need a Git repository in Azure Pipelines, TFS, or GitHub with your app.
Step 2: Create a feature branch
Step 3: Create a pull request
Step 4: Merge changes
Merge feature branches into the main branch using pull requests.
Step 5: Publish changes
Reference:
https://docs.microsoft.com/en-us/azure/devops/pipelines/repos/pipeline-options-for-git
Sie haben einen Azure Synapse Analytics-Arbeitsbereich namens WS1.
Sie verfügen über einen Azure Data Lake Storage Gen2-Container, der JSON-formatierte Dateien im folgenden Format enthält.

Sie müssen den serverlosen SQL-Pool in WS1 verwenden, um die Dateien zu lesen.
Wie sollten Sie die Transact-SQL-Anweisung vervollständigen? Um diese Frage zu beantworten, ziehen Sie die entsprechenden Werte an die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder gar nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Bereichen ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

Sie verfügen über einen Azure Data Lake Storage Gen2-Container, der JSON-formatierte Dateien im folgenden Format enthält.

Sie müssen den serverlosen SQL-Pool in WS1 verwenden, um die Dateien zu lesen.
Wie sollten Sie die Transact-SQL-Anweisung vervollständigen? Um diese Frage zu beantworten, ziehen Sie die entsprechenden Werte an die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder gar nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Bereichen ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:

Box 1: openrowset
The easiest way to see to the content of your CSV file is to provide file URL to OPENROWSET function, specify csv FORMAT.
Example:
SELECT *
FROM OPENROWSET(
BULK 'csv/population/population.csv',
DATA_SOURCE = 'SqlOnDemandDemo',
FORMAT = 'CSV', PARSER_VERSION = '2.0',
FIELDTERMINATOR =',',
ROWTERMINATOR = '\n'
Box 2: openjson
You can access your JSON files from the Azure File Storage share by using the mapped drive, as shown in the following example:
SELECT book.* FROM
OPENROWSET(BULK N't:\books\books.json', SINGLE_CLOB) AS json
CROSS APPLY OPENJSON(BulkColumn)
WITH( id nvarchar(100), name nvarchar(100), price float,
pages_i int, author nvarchar(100)) AS book
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/query-single-csv-file
https://docs.microsoft.com/en-us/sql/relational-databases/json/import-json-documents-into-sql-server
Sie stellen eine Lake-Datenbank mithilfe einer Azure Synapse-Datenbankvorlage bereit.
Sie müssen der Datenbank zusätzliche Tabellen hinzufügen. Die Lösung muss dieselbe Gruppierungsmethode wie die Vorlagentabellen verwenden.
„Welche Gruppierungsmethode sollten Sie verwenden?
Sie müssen der Datenbank zusätzliche Tabellen hinzufügen. Die Lösung muss dieselbe Gruppierungsmethode wie die Vorlagentabellen verwenden.
„Welche Gruppierungsmethode sollten Sie verwenden?
正解:D
解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Sie verfügen über ein Azure-Abonnement, das eine Azure Cosmos DB-Datenbank enthält. Azure Synapse Link ist in der Datenbank implementiert. Sie konfigurieren ein Schema mit voller Genauigkeit für den Analysespeicher. Sie führen die folgenden Aktionen aus:

Wie viele Spalten wird der Analysespeicher enthalten?

Wie viele Spalten wird der Analysespeicher enthalten?
正解:D
解答を投票する
Sie verwenden Azure Data Factory, um Datenpipelines zu erstellen.
Sie prüfen, ob Sie Data Factory und GitHub zur Quell- und Versionskontrolle integrieren sollen. Welche zwei Vorteile bietet die Integration? Jede richtige Antwort stellt eine vollständige Lösung dar. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie prüfen, ob Sie Data Factory und GitHub zur Quell- und Versionskontrolle integrieren sollen. Welche zwei Vorteile bietet die Integration? Jede richtige Antwort stellt eine vollständige Lösung dar. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:C、D
解答を投票する
Sie haben ein Azure-Abonnement.
Sie planen, ein Data Warehouse in einem dedizierten Azure Synapse Analytics-SQL-Pool namens „pool1“ zu erstellen, der Stagingtabellen und ein Dimensionsmodell enthält. Pool1 enthält die folgenden Tabellen.

Sie müssen den Tabellenspeicher für Pool1 entwerfen. Die Lösung muss folgende Anforderungen erfüllen:
* Maximieren Sie die Leistung von Datenladevorgängen in Staging.WebSessions.
* Minimieren Sie die Abfragezeiten für Berichtsabfragen anhand des Dimensionsmodells.
Welche Art der Tabellenverteilung sollten Sie für jede Tabelle verwenden? Um zu antworten, ziehen Sie die entsprechenden Tabellenverteilungstypen auf die richtigen Tabellen. Jeder Tabellenverteilungstyp kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

Sie planen, ein Data Warehouse in einem dedizierten Azure Synapse Analytics-SQL-Pool namens „pool1“ zu erstellen, der Stagingtabellen und ein Dimensionsmodell enthält. Pool1 enthält die folgenden Tabellen.

Sie müssen den Tabellenspeicher für Pool1 entwerfen. Die Lösung muss folgende Anforderungen erfüllen:
* Maximieren Sie die Leistung von Datenladevorgängen in Staging.WebSessions.
* Minimieren Sie die Abfragezeiten für Berichtsabfragen anhand des Dimensionsmodells.
Welche Art der Tabellenverteilung sollten Sie für jede Tabelle verwenden? Um zu antworten, ziehen Sie die entsprechenden Tabellenverteilungstypen auf die richtigen Tabellen. Jeder Tabellenverteilungstyp kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

正解:

Explanation:
Box 1: Replicated
The best table storage option for a small table is to replicate it across all the Compute nodes.
Box 2: Hash
Hash-distribution improves query performance on large fact tables.
Box 3: Round-robin
Round-robin distribution is useful for improving loading speed.
Reference: https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse- tables-distribute