AZ-305 Microsoft Azure Infrastructure Solutions 取得学習会 第11回

>100 Views

March 26, 25

スライド概要

AZ-305 取得勉強会資料です

profile-image

Microsoft MVP for Microsoft Azure.

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

AZ-305: Microsoft Azure Infrastructure Solutions 試験問題サンプル © Techpit,inc All Rights Reserved.

2.

1問目 問題 © Techpit,inc All Rights Reserved.

3.

試験問題サンプル 1 あなたは、Azure でデータ分析ソリューションを設計しています。 このソリューションでは、一連の車両のGPS 位置を含むデータをAzure Event Hubs インスタンスから取得し、特定の車両のライブデータを Microsoft Power BI ダッシュボードに送信します。 このデータを処理して Power BI に送信するには、何を使用する必要がありますか ? A. Azure Data Factory B. Azure Event Grid C. Azure SQL Database D. Azure Stream Analytics © Techpit,inc All Rights Reserved.

4.

試験問題サンプル 1(ヒント) あなたは、Azure でデータ分析ソリューションを設計しています。 このソリューションでは、一連の車両のGPS 位置を含むデータをAzure Event Hubs インスタンスから取得し、特定の車両のライブ データを Microsoft Power BI ダッシュボードに送信します。 このデータを処理して Power BI に送信するには、何を使用する必要がありますか ? A. Azure Data Factory B. Azure Event Grid C. Azure SQL Database D. Azure Stream Analytics © Techpit,inc All Rights Reserved.

5.

1問目 解答 © Techpit,inc All Rights Reserved.

6.

【回答】 D 【解説】 Stream Analytics では、ライブストリームを処理してフィルター処理が出来ます。 Azure SQL Database では、データの格納は出来ますが、リアルタイムなデータストリーミングは 出来ません。 解答 Data Factory では、データの変換は出来ますが、継続的なライブジョブは実行されません。 Event Grid は、データの通知等で使用できますが、フィルター処理や、 Power BI への直接の データ受け渡しはサポートされていません。 その為回答は、D になります。 © Techpit,inc All Rights Reserved.

7.

1問目 解説 © Techpit,inc All Rights Reserved.

8.

試験問題サンプル 1 あなたは、Azure でデータ分析ソリューションを設計しています。 このソリューションでは、一連の車両のGPS 位置を含むデータをAzure Event Hubs インスタンスから取得し、特定の車両のライブデータを Microsoft Power BI ダッシュボードに送信します。 このデータを処理して Power BI に送信するには、何を使用する必要がありますか ? A. Azure Data Factory 継続的なジョブを実行するのは難しい B. Azure Event Grid データのフィルタ処理等をサポートしていない C. Azure SQL Database D. Azure Stream Analytics © Techpit,inc All Rights Reserved. データのストリーミングは出来ない

9.

試験問題サンプル 1 Stream Analytics について リソースモデル Stream Analytics ジョブ ストリーム処理ロジックを定義して実行する基本単位 3つのコンポーネントで構成される コンポーネント 入力 出力 クエリ Stream Analytics クラスター ジョブを実行する為の環境 マルチテナンシーな環境(Standard)と、クラスター全体を管理できる環境(Dedicated)の二種類がある © Techpit,inc All Rights Reserved.

10.

試験問題サンプル 1 Stream Analytics について データソース Azure Event Hubs Azure Iot Hub Azure Blob Storage Azure Data Lake Storage Gen 2 SQL Database データの入力方法 データストリーム入力 時間を掛けて受け取る、制約のない一連のイベント Event Hubs、IoT Hub、Blob、Data Lake Storage Gen 2 がサポートされる SNS のフィード、株式取引情報、IoT センサのイベントデータ等を処理する用途で利用可能 参照データ入力 完全に静的 or ゆっくりと変化しているデータ Blob、Data Lake Storage Gen 2、SQL Database がサポートされる データストリーム入力のデータを、参照データと結合する事が出来る イベントデータに、SQL Database 内のマスタデータを統合して出力するような用途で利用可能 1ストリーミングユニット辺り、300 MB までのデータセットが利用可能 © Techpit,inc All Rights Reserved.

11.

試験問題サンプル 1 Stream Analytics について 出力 Azure Data Lake Storage Gen 1 Azure Data Explorer Azure Database for PostgresSQL Azure SQL Database Azure Synapse Analytics Blob Storage Data Lake Storage Gen 2 Azure Event Hubs Power BI Azure Table Storage Azure Service Bus キュー Azure Service Bus トピック Azure Cosmos DB Azure Functions © Techpit,inc All Rights Reserved.

12.

試験問題サンプル 1 Stream Analytics について クエリ SQL ライクなクエリ言語 このクエリを使って、リアルタイムな分析ロジックを実装する 入出力先も、クエリを書いて指定する ユーザ定義関数を利用して拡張も可能 サポートされているユーザ定義関数の種類 JavaScript ユーザ定義関数 JavaScript を利用したステートレスな計算処理 JavaScript ユーザ定義集計 タイムウィンドウを利用して、そのウィンドウ内のイベントを集計、結果を生成するのに利用 C# ユーザ定義関数 C# を利用したステートレスな計算処理 Azure Machine Learning Azure ML で学習済みのモデルに対してデータを流し、リアルタイムなスコアリングと予測に利用 SELECT UDF.sampleFunction(InputStream) AS sampleResult INTO output FROM InputStream © Techpit,inc All Rights Reserved.

13.

2問目 問題 © Techpit,inc All Rights Reserved.

14.

試験問題サンプル 2 あなたは、次の要件を満たすデータ分析ソリューションをAzure で設計する必要があります。 - データを変換できる データを Microsoft Power BI にリンクする 凖リアルタイムのログ分析を実行する 何を使用する必要がありますか? A. Azure Cosmos DB B. Azure Data Factory C. Azure SQL Managed Instance D. Azure Synapse Analytics © Techpit,inc All Rights Reserved.

15.

試験問題サンプル 2(ヒント) あなたは、次の要件を満たすデータ分析ソリューションをAzure で設計する必要があります。 - データを変換できる データを Microsoft Power BI にリンクする 凖リアルタイムのログ分析を実行する 何を使用する必要がありますか? A. Azure Cosmos DB B. Azure Data Factory C. Azure SQL Managed Instance D. Azure Synapse Analytics © Techpit,inc All Rights Reserved.

16.

2問目 解答 © Techpit,inc All Rights Reserved.

17.

【回答】 D 【解説】 Azure Synapse Analytics を使用すると、 解答 データの変換、Power BI へのデータリンク、準リアルタイムなログ分析を実行できます。 Data Factory、Azure Cosmos DB、SQL Managed Instance では、準リアルタイムの分析を 実行できません。 その為回答は、D になります。 © Techpit,inc All Rights Reserved.

18.

2問目 解説 © Techpit,inc All Rights Reserved.

19.

試験問題サンプル 2 あなたは、次の要件を満たすデータ分析ソリューションをAzure で設計する必要があります。 - データを変換できる データを Microsoft Power BI にリンクする 凖リアルタイムのログ分析を実行する 何を使用する必要がありますか? A. Azure Cosmos DB 準リアルタイムな分析は出来ない B. Azure Data Factory 準リアルタイムな分析は出来ない C. Azure SQL Managed Instance D. Azure Synapse Analytics © Techpit,inc All Rights Reserved. 準リアルタイムな分析は出来ない

20.

試験問題サンプル 1 Azure Synapse Analytics について Data Warehouse (構造化データ)や、ビッグデータなシステム(非構造化データ)を統合して分析をする為の基盤(データハブ) データの収集・蓄積 データの分析、加工 Data Warehouse への加工したデータの保存 BI ツール、ML ツールとの統合 といったデータ分析基盤に必要な機能を一つにまとめて提供してくれるサービス © Techpit,inc All Rights Reserved.

21.

試験問題サンプル 1 Synapse SQL T-SQL を用いた分散クエリシステム Event Hubs や IoT Hub といったストリーミングデータソースから、SQL データストアへ直接データを取り込み、分析が出来る 機械学習モデルを利用し、SQL と AI の統合を行う(格納されているデータを基にしたスコアリングや予測等 ) Apache Spark for Azure Synapse Apache Spark の Azure 実装 標準的な Apache Spark と同じように使用でき、ビッグデータ分析を行える Data Expolorer ログ、テレメトリーデータを分析する為の対話型クエリを用いた分析基盤 オンプレミス、クラウド、その他のデータソース間でログとイベントのデータを統合し、関連付ける パターン認識、異常検知、予測などのAI Ops と統合 IoT データ用の分析ソリューションにもなる 分析 SaaS ソリューションといった形で3rd party への提供も可能 © Techpit,inc All Rights Reserved.

22.

試験問題サンプル 1 Synapse Studio Azure Synapse Analytics を操作する為の UI ツール ソリューションの構築、保守、セキュリティ保護を一つのUX で行える(ブラウザから利用) - 主要なタスクの実行サポート 取り込み、調査、準備、調整、可視化等 SQL 、Spark、Data Explorer 全体でリソース、使用状況、ユーザの監視を行う ロールベースのアクセス制御で分析リソースへのアクセスを単純化する SQL、Spark、KQL を記述し、CI/CD プロセスと統合する Azure Pipelines、GitHub Actions 等と統合可能 CI/CD を構築する場合は、別途エージェント用のマシンが必要なので注意 © Techpit,inc All Rights Reserved.

23.

3問目 問題 © Techpit,inc All Rights Reserved.

24.

試験問題サンプル 3 あなたは、Log Analytics ワークスペースを使用してAzure Monitor のログを保持する予定です。 ログは分析とアラートに使用します。 1 つのクエリですべてのログのデータを関連付ける必要があります。 ワークスペースには 1 日あたり約 8 TB のログを取り込むことを見込んでいます。 最初に何をする必要がありますか? A. 基本ログのみを使用するようにLog Analytics を構成する。 B. 専用クラスターを作成する。 C. 追加のワークスペースを作成する。 D. 最も多くのログを生成するリソースを別のサブスクリプションに移動する。 © Techpit,inc All Rights Reserved.

25.

試験問題サンプル 3(ヒント) あなたは、Log Analytics ワークスペースを使用してAzure Monitor のログを保持する予定です。 ログは分析とアラートに使用します。 1 つのクエリですべてのログのデータを関連付ける必要があります。 ワークスペースには 1 日あたり約 8 TB のログを取り込むことを見込んでいます。 最初に何をする必要がありますか? A. 基本ログのみを使用するようにLog Analytics を構成する。 B. 専用クラスターを作成する。 C. 追加のワークスペースを作成する。 D. 最も多くのログを生成するリソースを別のサブスクリプションに移動する。 © Techpit,inc All Rights Reserved.

26.

3問目 解答 © Techpit,inc All Rights Reserved.

27.

【回答】 B 【解説】 1日辺り 4 TB を超えるログを取り込む場合、理想的には、監視対象のリソースと同じリージョンに 専用クラスタを作成する必要があります。 同一リージョンに配置されている場合、送信データに対して発生する可能性のある料金を最小限 に抑えられます。 最も多くのログを生成するリソースを移動すると、全てのログを関連付けすることは出来なくなりま 解答 す。 基本ログは、分析とアラートでの使用を目的としたものではありません。 追加のワークスペースでログを分散させると、 1つのクエリで全てのログを読み取ることが出来なく なります。 その為回答は、B になります。 Azure Monitor ログ (Log Analytics) ワークスペースの設計 - Training | Microsoft Learn © Techpit,inc All Rights Reserved.

28.

3問目 解説 © Techpit,inc All Rights Reserved.

29.

試験問題サンプル 3 あなたは、Log Analytics ワークスペースを使用してAzure Monitor のログを保持する予定です。 ログは分析とアラートに使用します。 1 つのクエリですべてのログのデータを関連付ける必要があります。 ワークスペースには 1 日あたり約 8 TB のログを取り込むことを見込んでいます。 最初に何をする必要がありますか? 分析、アラートの目的のログではない A. 基本ログのみを使用するようにLog Analytics を構成する。 B. 専用クラスターを作成する。 C. 追加のワークスペースを作成する。 D. 最も多くのログを生成するリソースを別のサブスクリプションに移動する。 ログを分散させると、 1つのクエリで全てを読み取れなくなる ログを分散させると、 1つのクエリで全てを読み取れなくなる © Techpit,inc All Rights Reserved.

30.

試験問題サンプル 3 Log Analytics ワークスペースについて Azure Monitor 、Microsoft Sentinel、Microsoft Defender for Cloud 等のサービスからのログデータを収集できるサービス 複数サービスのデータを結合して、分析する為に利用する © Techpit,inc All Rights Reserved.

31.

試験問題サンプル 3 Log Analytics ワークスペースについて Log の種別 対話型 Analytics ログ Basic ログ アーカイブ 対話型ログ カテゴリ Analytics ログ Basic ログ データの取り込み 通常 少し少ない ログクエリ フル機能 追加機能無し 基本的な機能のみ 従量課金 保持期間 30日 ~ 2年間 8日固定 既存のテーブルを Basic に変更すると、既 存の保持期間内でも8日以上経過している 場合は、アーカイブされる アラート © Techpit,inc All Rights Reserved. サポート サポートされない

32.

試験問題サンプル 3 Log Analytics ワークスペースについて Basic ログを利用するシナリオ 保持期間が8日以上ない場合 基本的なクエリしか使わない場合 データ取り込みで削減されるコストが、他の機能制限のコストよりも上回ると予想される場合 利用するテーブルが基本ログをサポートしている場合 テーブルのログ データプランを基本ログまたは Analytics ログに設定する - Azure Monitor | Microsoft Learn © Techpit,inc All Rights Reserved.

33.

試験問題サンプル 3 Log Analytics ワークスペースについて アーカイブログ コンプライアンス上の理由や、不定期な調査等の為に長期間保持されるログを保持する場合に利用する 対話型保持期間よりも長い合計保持期間を設定すると、保持期間終了後に自動的にアーカイブへ移動される ログの復元機能 or 検索ジョブを利用してアクセスする 現在は、最大7年間保持される 今後数カ月以内に 12年間保存できるように拡張される予定 即座にクエリを書いて結果を得ることは出来ないので、安いからこっちを多用するというモノではない © Techpit,inc All Rights Reserved.

34.

ありがとうございました © Techpit,inc All Rights Reserved.