DP-100日本語 無料問題集「Microsoft Designing and Implementing a Data Science Solution on Azure (DP-100日本語版)」

Workspace1 という名前の Azure Machine Learning ワークスペースを管理します。
ワークスペース1にコンピューティングインスタンスを追加するには、Python SDK v2コードを開発する必要があります。このコードでは、必要なすべてのモジュールをインポートし、コンピューティングインスタンスクラスのコンストラクターを呼び出す必要があります。
インスタンス化されたコンピューティング インスタンスをワークスペース 1 に追加する必要があります。
何を使うべきでしょうか?

Azure Machine Learning ワークスペースを管理します。
MLflow モデルは既に登録されています。デプロイメントでの推論方法をカスタマイズする予定です。バッチ推論のために、MLflow モデルをバッチ エンドポイントにデプロイする必要があります。最初に何を作成する必要がありますか?

Workspace 1 Workspace! という名前の Azure Machine Learning ワークスペースがあり、これには PyFunc フレーバーを持つ model 1 という名前の登録済み Mlflow モデルがあります。Azure Machine Learning Python SDK vl を使用して、出力接続なしで、endpoint1 という名前のオンライン エンドポイントに model1 をデプロイする予定です。次のコードがあります。

モデルが正常にデプロイされるようにするには、ManagedOnlineDeployment オブジェクトにパラメータを追加する必要があります。解決策: 環境パラメータを追加します。
ソリューションは目標を満たしていますか?

Azure Machine Learning Studio を使用して、コンピューティングインスタンスを含むワークスペースを作成します。このワークスペースで Python SDK v2 ノートブックを開発しています。ノートブックで Intellisense を使用する必要があります。どうすればよいでしょうか?

Aunt Machine Learning を使用して機械学習モデルをトレーニングします。
精度値をログに記録するには、Python の次のトレーニング スクリプトを使用します。

スイープ ジョブを定義するには、Python スクリプトを使用する必要があります。
ハイパーパラメータチューニングで最適化したい主要なメトリックと目標を指定する必要があります。
Python スクリプトをどのように完成させる必要がありますか? 回答するには、回答エリアで適切なオプションを選択してください。注: 正しい選択ごとに 1 ポイントが加算されます。
正解:

Explanation:
デザイナーを使用して新しい Azure Machine Learning パイプラインを作成しています。
パイプラインは、ウェブサイトで公開されているカンマ区切り値(CSV)ファイルのデータを使用してモデルをトレーニングする必要があります。このファイルのデータセットが作成されていません。
最小限の管理作業で、CSV ファイルからデザイナー パイプラインにデータを取り込む必要があります。
Designer のパイプラインに追加するモジュールはどれですか?

解説: (JPNTest メンバーにのみ表示されます)
Azure Machine Learning の Hyperdrive 機能を使用してモデルをトレーニングしています。
次のコードを実行して、Hyperdrive 実験を構成します。

以下の各文について、正しい場合は「はい」を選択してください。そうでない場合は「いいえ」を選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Explanation:

Box 1: Yes
In random sampling, hyperparameter values are randomly selected from the defined search space. Random sampling allows the search space to include both discrete and continuous hyperparameters.
Box 2: Yes
learning_rate has a normal distribution with mean value 10 and a standard deviation of 3.
Box 3: No
keep_probability has a uniform distribution with a minimum value of 0.05 and a maximum value of 0.1.
Box 4: No
number_of_hidden_layers takes on one of the values [3, 4, 5].
Reference:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-tune-hyperparameters
オープンソースの深層学習フレームワークCaffe2およびTheanoでData Science Virtual Machine(DSVM)を使用する予定です。フレームワークをサポートするには、事前構成済みのDSVMを選択する必要があります。
何を作成する必要がありますか?

注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
機械学習モデルをトレーニングして登録します。
モデルをリアルタイムWebサービスとしてデプロイすることを計画しています。モデルを使用するには、アプリケーションでキーベースの認証を使用する必要があります。
Webサービスをデプロイする必要があります。
解決:
AksWebserviceインスタンスを作成します。
auth_enabledプロパティの値をTrueに設定します。
モデルをサービスにデプロイします。
ソリューションは目標を達成していますか?

解説: (JPNTest メンバーにのみ表示されます)
Azure Machine Learning ワークスペースを使用します。
トレーニング済みのモデルを Web サービスとしてデプロイする必要があります。ユーザーは Azure Active Directory を使用して認証する必要があります。
何をすべきでしょうか?

解説: (JPNTest メンバーにのみ表示されます)
次のコードがあります。このコードは、スクリプトを実行するための実験を準備します。

実験は、デフォルトの環境を使用してローカルコンピューターで実行する必要があります。
実験を開始してスクリプトを実行するには、コードを追加する必要があります。
どのコードセグメントを使用する必要がありますか?

解説: (JPNTest メンバーにのみ表示されます)
Azure Machine Learning ワークスペースを管理します。
ジョブの実行環境を定義し、コードの依存関係をカプセル化する必要があります。
Docker ビルド コンテキストから環境を構成する必要があります。
乗車セグメントをどのように完了する必要がありますか? 回答するには、回答エリアで適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Explanation:

実験の実行完了後、Runオブジェクトのget_metricsメソッドを使用して返されるrow_countという指標として行数を記録する必要があります。どのコードを使用すればよいですか?

解説: (JPNTest メンバーにのみ表示されます)
Azure Machine Learning ワークスペースを管理します。マシンチーミングモデルを開発します。
ペーシング割引を使用して、ポイント数の少ない VM を使用するモデルをデプロイしています。
モデルをデプロイする必要があります。
どの大規模コンピューティングを使用すべきでしょうか?

参加者にDocker for Windowsを紹介するための実践的なワークショップを開発しています。
ワークショップの参加者がデバイスにDockerをインストールできることを確認する必要があります。
出席者がデバイスにインストールする必要がある2つの前提条件コンポーネントはどれですか?それぞれの正解はソリューションの一部を示しています。
注:それぞれの正しい選択には1ポイントの価値があります。

正解:A、B 解答を投票する
解説: (JPNTest メンバーにのみ表示されます)
Python SDK v2 を使用して Azure Machine Learning ソリューションを設計しています。
ソリューションのトレーニングとデプロイには、コンピューティング先を使用する必要があります。コンピューティング先は、以下の要件を満たしている必要があります。
* オンプレミスのコンピューティング リソースの使用を有効にします。
* 自動呼び出しをサポートします。
トレーニングと推論のためにコンピューティング ターゲットを構成する必要があります。
どのコンピューティング ターゲットを構成する必要がありますか?
回答するには、回答エリアで適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Explanation:
Azure Machine Learning ワークスペースを管理しています。Azure Machine Learning Python SDK v2 と MLflow を使用して、experiment1 という実験を作成します。次のコードセグメントを使用して、experiment1 の結果を確認します。

次の各文について、正しい場合は「はい」を選択し、そうでない場合は「いいえ」を選択します。
正解:

Explanation:
機械学習モデルを使用してインテリジェントなソリューションを構築しています。
環境は次の要件をサポートする必要があります。
データサイエンティストはクラウド環境でノートブックを構築する必要がある
データ サイエンティストは、機械学習パイプラインで自動特徴エンジニアリングとモデル構築を使用する必要があります。
動的なワーカー割り当てを備えた Spark インスタンスを使用して再トレーニングするには、ノートブックをデプロイする必要があります。
ノートブックは、ローカルでバージョン管理するためにエクスポート可能である必要があります。
環境を整える必要があります。
どの 4 つのアクションを順番に実行する必要がありますか? 回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。
正解:

Explanation:

Step 1: Create an Azure HDInsight cluster to include the Apache Spark Mlib library Step 2: Install Microsot Machine Learning for Apache Spark You install AzureML on your Azure HDInsight cluster.
Microsoft Machine Learning for Apache Spark (MMLSpark) provides a number of deep learning and data science tools for Apache Spark, including seamless integration of Spark Machine Learning pipelines with Microsoft Cognitive Toolkit (CNTK) and OpenCV, enabling you to quickly create powerful, highly-scalable predictive and analytical models for large image and text datasets.
Step 3: Create and execute the Zeppelin notebooks on the cluster
Step 4: When the cluster is ready, export Zeppelin notebooks to a local environment.
Notebooks must be exportable to be version controlled locally.
References:
https://docs.microsoft.com/en-us/azure/hdinsight/spark/apache-spark-zeppelin-notebook
https://azuremlbuild.blob.core.windows.net/pysparkapi/intro.html

弊社を連絡する

我々は12時間以内ですべてのお問い合わせを答えます。

オンラインサポート時間:( UTC+9 ) 9:00-24:00
月曜日から土曜日まで

サポート:現在連絡