AI-900_試験対策

nanakottchi 2025年10月05日 カード123 いいね0

暗記

ビューア設定

[Enter]でカードをめくります。キーボードショートカット暗記ビューア設定

AI-900_試験対策
  • はい、では主要なAIのワークロードについて確認していきましょう。 この「主要なワークロード」は以前テキストでも学習しましたが、覚えていますか? まずは 予測分析 です。 これは、過去のデータに基づいて将来を予測する分析手法ですね。 次に コンピュータービジョン。 人間の“目”の機能をコンピューターで再現し、画像や映像から情報を読み取る技術です。 続いて 自然言語処理(NLP)。 人間の言葉を理解したり生成したりするための技術です。 ドキュメントインテリジェンス は、キーと値のペアでデータを取得し、大量の非構造化データを整理・抽出して活用できる形にします。 ナレッジマイニング は、抽出したデータに対してクエリ処理を行い、知識を発見する仕組みです。 さらに 異常検知。 これは通常のデータとは異なるパターンを検知して、たとえば不正や異常な動きを見つける際に使われます。 そして最近注目されているのが 生成AI(ジェネレーティブAI)。 AIが自ら学習していない内容をもとに、新しいテキストや画像などを生成することができます。 これらがAIの主要なワークロードになります。 では、この中で今から見るシナリオはどれに当てはまるか、考えてみましょう。 たとえば、 手書き文字を認識する → 「目で見る」処理なので、コンピュータービジョン。 悪い評判(レビュー)を分析する → 文章の意味を理解するので、自然言語処理。 不正なクレジットカード支払いを検知する → 異常検知。 来月のおもちゃの販売個数を予測する → 数値の予測なので、機械学習(回帰分析) に該当します。 なお、数値ではなくカテゴリを予測する場合は「分類」でしたね。 このようにシナリオごとに対応するワークロードを整理していくと理解が深まります。
  • 「音声録音を聞いて文字に起こす」——これはどのワークロードに分類されるでしょうか? 音声を文字に変換するということは、人間の言葉を理解・処理しているということです。 したがって、これは 自然言語処理(NLP) のグループに属します。 ここで、「会話型AI」という言葉が選択肢にあった場合、少し迷うかもしれません。 会話型AIというのは、いわゆる チャットボット のことですね。 「チャットボットも自然言語処理を使っているから同じじゃないの?」と思うかもしれませんが、Azure(アジュール)上でチャットボットを構築する場合には、 Azure AI Language(言語理解)と Azure Bot Service(チャットボットサービス)を組み合わせて使用します。 つまり、音声認識自体は自然言語処理の範囲に含まれますが、 対話を実現するチャットボットを作るときには、複数のAzureサービスを連携させる必要があるということです。
  • 「ビデオ映像に基づいて、あるエリアにいる動物の数を数えるには、どのサービスを使用すればよいでしょうか?」 少し考えてみてください。 はい、これは少し難しく感じるかもしれませんが、ポイントは「ビデオ映像から情報を検出する」という部分です。 つまり、映像の中に何が映っているのかを認識する必要があります。 このように、カメラ映像や画像から物体を識別・検出するには、人間の目の機能をコンピューターで再現する技術 が必要です。 したがって、ここでは コンピュータービジョン(Computer Vision) を選択するのが正解です。
  • これは、いわゆる 対話型AI(会話型AI) に関する問題ですね。 このような仕組みを実現するには、AIが人間の言葉を理解する 自然言語処理(NLP) の機能に加えて、 実際に対話をやり取りするための Botサービス が必要になります。 つまり、Azure上で対話型AIを構築する場合は、 「自然言語処理」+「Azure Bot Service」 を組み合わせて利用します。
  • 「テキストとして保存された保険金請求レポートがあります。
    このレポートから重要な用語を抽出する処理は、次のうちどれでしょうか?」

    これは、自然言語処理(NLP) のワークロードに該当しますね。

    では続いて次の章、「責任あるAI(Responsible AI)」に進みましょう。
    この内容、覚えていますか?
    もう何度も出てきて「さすがに分かったよ」と感じる方もいるかもしれませんが、
    実は今、ニュースなどでも頻繁に取り上げられている非常に重要なテーマです。

    AIを活用するうえで避けて通れない考え方ですので、しっかり押さえておきましょう。
  • では、責任あるAIの原則をもう一度思い出してみましょう。

    マイクロソフトでは、AI開発や利用において、以下の六つの原則を重視しています。

    公平性(Fairness)

    信頼性と安全性(Reliability & Safety)

    プライバシーとセキュリティ(Privacy & Security)

    包括性(Inclusiveness)

    透明性(Transparency)

    説明責任(Accountability)

    これらの原則は、AIが正しく安全に使われるための指針となっています。
    たとえば、サービスの利用に制限をかけたり、事前に申請や同意を求めたりする工夫もされています。

    開発者だけでなく利用者側も、倫理観を持ってAIを扱うことが重要です。
    つまり、開発者と利用者の双方が責任ある行動を取ることが、この原則の大切なポイントとなります。
  • 答えは 包括性(Inclusiveness) です。
    開発の過程で、特定の人々やグループが不当に排除されないよう配慮することが、この原則の趣旨になります。
  • 自動車運転システムにおいて、予期しない状況でもシステム全体が適切に動作するように設計することが求められます。

    この場合、重視すべき責任あるAIの原則は 信頼性と安全性(Reliability & Safety) です。

    こうした判断は少し悩ましい場合もありますが、車両の運転システムのように人命に関わる場合は、信頼性と安全性を最優先に考えるのが妥当です。
  • 「公平性」という言葉が出てきたら、責任あるAIの原則として公平性を意識してください。
    また、**バイアス(偏り)**という言葉が出てきた場合も、同じく 公平性 を選ぶのが適切です。
  • 「許可なく取得したデータを使用して予測モデルを作成した場合、責任あるAIの基本原則のどれに違反するでしょうか?」

    ポイントは、許可のないデータを使用していることです。
    この場合、違反している原則は プライバシーとセキュリティ(Privacy & Security) になります
  • では、順番に見ていきましょう。

    A. すべての部署に平等に機会が割り当てられるようにする

    一見すると透明性に関係しそうですが、「平等に機会を与える」という観点から考えると、公平性(Fairness) が適切です。

    B. ユーザーがAIシステムによって行われた決定を理解できるように支援する

    これは、システムの意思決定プロセスを明確にすることに関わるため、透明性(Transparency) に該当します。

    C. 開発者が作成したソリューションに対して責任を負うことを保証する

    これは、説明責任(Accountability) に関する原則です。

    D. ユーザーのデータが安全な方法で確実に保存されるようにする

    これは、プライバシーとセキュリティ(Privacy & Security) に該当します。
  • 次のケースを考えてみましょう。
    「回帰・分類・クラスタリングのうち、どれに該当しますか?」
    ――積雪によってフライトが何分遅れるのかを予測する場合です。

    ここで予測したいのは「分(数値)」ですよね。
    数値を予測する場合は、回帰(Regression) に該当します。
  • 次に、「住宅ローンが返済されるかどうかを予測する」というケースを考えましょう。
    この場合は、「返済される」か「返済されないか」の 二択 です。
    したがって、これは 分類(Classification) の問題になります。
  • 次の問題です。
    「購買行動の似ているユーザーをグループ化しました。」

    ここで少し惑わされやすい点があります。
    たとえば、「Recency・Frequency・Monetary(RFM分析)」などの言葉が出てくると、別の分析手法と混同しがちですが、
    この問題では「似ているユーザーをグループ化する」とあります。

    したがって、これは クラスタリング(Clustering) に該当します。
  • 医学研究プロジェクトでは、事前に定義された脳出血の種類に分類された脳スキャン画像の、大規模な匿名化データセットが使用されています。
    この研究では、人が画像を確認する前に、機械学習を使って画像内のさまざまな脳出血の種類を早期に検出・分類することが求められています。

    ここで注目すべき点は、「事前に定義された種類」が存在するということです。
    つまり、答え(正解ラベル)がすでに用意されている状態で学習を行うため、これは 教師あり学習(Supervised Learning) の一種になります。
    そして、目的が「出血の種類を分類する」ことなので、ワークロードとしては 分類(Classification) が該当します。
  • 「回帰モデルはラベルのないデータを使用してトレーニングされます。」
    ラベルとは「正解データ(答え)」のことでしたね。
    回帰モデルは、正解データを与えて学習させる教師あり学習の一種です。
    したがって、これは 誤り(×) です。

    「分類モデルは連続する数値データを予測するために使用されます。」
    分類モデルは、データをカテゴリ(例:AかBか)に分けるために使われるもので、
    数値を予測するのは 回帰モデル です。
    よって、これも 誤り(×) です。

    「共通の特性に基づいてアイテムをグループ化することはクラスタリングの例です。」
    この説明は正しいですね。
    クラスタリングは、ラベル(正解データ)がなくても、共通点をもとにデータをグループ化する手法です。
    したがって、これは 正解(〇) です。
  • では次の問題です。
    「機械学習において、学習用データと評価用データはどのように分けるべきでしょうか?」

    この内容は、形を変えて頻繁に出題されます。
    たとえば、「トレーニングデータはどのように学習用と評価用に分けますか?」と問われることもあります。
    機械学習の試験では、ほぼ必ず出る重要なポイントです。

    答えは B:データを訓練用と評価用に行単位でランダムに分割する です。

    ポイントとして覚えておくべきことは以下です。

    データは 特徴量やラベルで分けるのではない

    データは 列(カラム)で分けるのではない

    分割は 行単位(レコード単位)で行う
  • たとえば、Azure Machine Learning で結果のある製品を特定する分類モデルを作成する場合、まず何をすべきでしょうか?
    この問題は少し難しいかもしれませんので、順を追って確認していきます。

    選択肢としては次のようなものがあります。

    データセットをロードする

    クラスタリングモデルを作成する

    データをトレーニングデータセットとテストデータセットに分割する

    分類モデルを作成する

    この中で まず最初に行うべきは「データセットをロードする」 です。
    その後に、データの分割や分類モデルの作成といったステップを行います。

    また、Azure Machine Learning Designer を使用すると、簡単に 機械学習モデルを作成することができます。
  • Azure Machine Learning では、正確なモデルを構築するためのアルゴリズムを自動的に選択する機能があります。
    これは 自動ML(Automated ML) に該当します。

    次に、「Code-first ノートブックエクスペリエンス」についてです。
    これは、いわゆる ノートブック で、コードを記述して機械学習を行う形式です。
    チュートリアル形式で順番に手を動かしながら学習できるのが特徴です。

    一方、Azure Machine Learning Designer は、ドラッグアンドドロップでコンポーネントを配置してモデルを作成できるビジュアルインターフェースです。
    ビジュアルキャンパス上で、モジュールを追加し、接続することでモデルを構築できます。

    つまり、作成方法としては以下のように整理できます。

    自動ML:アルゴリズムを自動で選択

    ノートブック:コードベースで順に実行

    Designer:ドラッグ&ドロップでビジュアルにモデル作成
  • 次に、Azure Machine Learning Designer を使用してモデルパイプラインを構築する場合について考えましょう。

    問題としては、
    「パイプラインを実行する前に、何を作成・準備する必要がありますか?」
    という内容です。

    まず、モデルパイプラインとは簡単に言うと、モデルを作成してトレーニングし、最終的にデプロイする一連の流れのことです。
    パイプラインの構築前には、まず モデルを作成 し、ジョブを作成してトレーニングを実行する必要があります。

    ここで重要なのは、モデルをトレーニングするためには必ずコンピューター上で計算を行うという点です。
    モデルの学習には、統計学や数学に基づく計算が必要であり、これを実行するコンピューティングリソースが必須です。

    したがって、パイプラインを実行する前に準備すべきものは次の2つです。

    データ:モデルの学習に使用するデータセット

    コンピューター(計算リソース):トレーニングを実行するための環境

    簡単にまとめると、「データを準備して、コンピューター上でトレーニングを実行する」 これがパイプライン実行前の基本ステップです。
  • では次に、**データ分割モジュール(Split Data モジュール)**について説明します。

    Split Data モジュールは、データをトレーニング用と検証用に分割するためのモジュールです。
    名前の通り「Split(分割)」の機能を持っており、モデルをトレーニングする前に必ず行う処理として使用されます。

    Azure Machine Learning Designer では、以下の流れで利用します。

    入力データを準備する

    Split Data モジュールを使用して、トレーニングデータと検証データに分割

    必要に応じて、分割割合(例:トレーニング 80%、検証 20%) を設定

    さらに、データを分割する前に ノーマライズ(正規化) を行うこともできます。

    例えば、Min-Max スケーリングを使うと、数値を 0〜1 の範囲に変換できます。

    この処理は、学習が安定するようにデータを調整するために便利です。

    まとめると、モデルを作成する前にデータを正しく準備し、必要に応じてノーマライズや分割を行うことが、Designer 上での基本ステップになります。
  • 次に、以下の各説明について、**正しい説明には〇、誤りの説明には×**を選択してください。

    ここで扱うのは、Azure Machine Learning Designer(アジュールマシンラーニングデザイナー) に関する問題です。

    「モデルを構築・テスト・デプロイするためのドラッグ&ドロップのビジュアルキャンパスを提供する」

    これはその通りです。Designer は、モデル作成からデプロイまでの作業をビジュアルに行えるキャンパスを提供します。

    → 〇(正しい)

    「Designer を使用すると、作成中のパイプラインをドラフトとして保存できる」

    これも正しいです。作業中でもパイプラインを保存しながら進めることが可能です。

    → 〇(正しい)

    「Designer では、JavaScript を使用できる」

    Designer では、JavaScript は使用できません。

    → ×(誤り)

    補足として、ノートブックで使用できる言語は Python と R です。
    Designer とノートブックでは利用可能な言語や操作方法が異なるので覚えておきましょう。
  • 「Azure Machine Learning Designer で、自動車の価格を予測するモデルを構築する場合、一番と二番に含めるべきモジュールは何でしょうか?」

    ポイントを順番に確認します。

    データの取り込みと正規化

    最初に データをロード します。

    次に ノーマライズデータ(正規化)モジュール を使って、データのスケーリングや正規化を行います。

    トレーニング用データと評価用データの分割

    正規化したデータを トレーニング用と評価用に分割 します。

    これに使用するのが Split Data モジュール です。

    → つまり、二番のモジュールは Split Data と予測できます。

    モデルのトレーニング

    トレーニング用データを接続して、モデルを学習させます。

    自動車の価格予測は数値予測(回帰問題)なので、使用するアルゴリズムは 線形回帰(Linear Regression) です。

    → 一番のモジュールは Linear Regression になります。

    補足:

    他の選択肢について

    CSV 変換:データ形式の変換用

    K-Means(ケイミーニング):クラスタリング用のアルゴリズム

    このように整理すると、データの取り込み → 正規化 → 分割 → トレーニング → 評価 の順でパイプラインを構築する流れが明確になります。
  • 「Azure Machine Learning Designer を使用してモデルパイプラインを公開した場合、ウェブサービスにアクセスするには、どの二つのパラメータを使用する必要がありますか?」
    (二つ選択してください)

    ポイントを整理します。

    ここで「公開」という言葉が出てきた場合、モデルをデプロイしたことを意味します。

    デプロイしたモデルにアクセスするには、外部からリクエストを送るための情報が必要です。

    具体的には、必要なパラメータは以下の二つです。

    エンドポイント URL(Endpoint)

    認証キー(Authentication Key)

    つまり、公開したモデルにアクセスするためには、エンドポイントと認証キーを使用することになります。
  • クマの位置を特定する場合について考えます。

    画像内のクマの位置を、バウンディングボックス(X・Y 座標)で示す場合、これは 物体検知(Object Detection) に該当します。

    「物体検知」「オブジェクト検出」という言い方はほぼ同じですが、教材や試験では 物体検出(Object Detection) という表現が多いです。

    次に、画像内の各ピクセル単位で分類する場合は、セマンティックセグメンテーション(Semantic Segmentation) を選びます。

    一方、写真ごとに一枚ずつ分類する場合は、画像分類(Image Classification) になります。

    まとめると、状況に応じて以下を選択します。

    クマの位置を特定する → 物体検知(Object Detection)

    ピクセル単位で分類する → セマンティックセグメンテーション

    写真単位で分類する → 画像分類(Image Classification)
  • 車間距離を推定する場合、画像内の車の位置を特定する必要があります。

    この場合は、画像内の対象物の位置を特定することになるので、物体検知(Object Detection / オブジェクト検出) が該当します。

    試験や教材では、「物体検知」や「オブジェクト検出」という表現で出題されることが多いです。

    まとめると、車間距離推定のために画像内の車の位置を決定する → 物体検知(Object Detection)を選択、となります。
  • 次の問題です。

    「歴史家が新聞写真をデジタル化するために使用できる技術は何でしょうか?」

    ポイント:

    「新聞記事をデジタル化」ということは、紙媒体の文字情報をデータ化することを意味します。

    この場合に使用する技術は OCR(Optical Character Recognition:光学文字認識) です。

    → よって、正解は OCR となります。
  • 「ドローンを使用して作物の列の間にある雑草の位置を特定し、雑草の除去指示を送信する場合、どのワークロードが適切でしょうか?」

    ポイント:

    ここでは 一枚の画像から複数の雑草の位置を特定 する必要があります。

    画像内の対象物の位置を、バウンディングボックスで示す場合は 物体検出(Object Detection) が適切です。

    「ここに雑草がある」「あそこにも雑草がある」と検出できるのが特徴です。

    補足:

    OCR(文字認識) ではありません。

    セマンティックセグメンテーション(ピクセル単位の分類) ではなく、この例では対象物の位置を検出するだけなので物体検出が正解です。

    ビデオから対象を検出する場合は、Azure Video Indexer などのサービスを使用できますが、この例は単一画像の物体検出です。

    → したがって、正解は 物体検出(Object Detection) です。
  • 「一つの画像内から複数の種類のアイテムを識別するには、どのサービスを使用しますか?」

    ポイント:

    画像内の 複数の対象物の位置や種類を特定する場合は、物体検出(Object Detection / オブジェクト検出) を使用します。

    一枚の画像から複数のアイテムを識別するケースでは、常に物体検出が適切です。

    → 正解は 物体検出(Object Detection) です。
  • 「画像内の鳥を識別するアプリがあります。このアプリは以下のタスクを実行します。」

    ポイントは2つです。

    画像内の鳥の位置を特定する場合

    この場合は、物体検出(Object Detection / オブジェクト検出) が該当します。

    画像内のどこに鳥がいるか、バウンディングボックスで示すことができます。

    画像内の鳥の種類を特定する場合

    この場合は、画像分類(Image Classification) が該当します。

    事前に学習させたモデルにより、「鳩」「ツバメ」など、種類まで識別できます。

    まとめると、

    位置を特定 → 物体検出

    種類を特定 → 画像分類

    という使い分けになります。
  • 「どのサービスを使用すると、独自の画像を使用して物体検出モデルをトレーニングできますか?」

    ポイント:

    「独自の画像」や「自社の製品」といった表現が出てきた場合、カスタムビジョン(Custom Vision) を選ぶのが基本です。

    Custom Vision を使用すると、自分で用意した画像データを使って 独自の物体検出や分類モデルを作成できます。

    Azure Vision でも一部カスタマイズは可能ですが、試験では「独自の画像」「自社の製品」などの文言が出たら、Custom Vision を選択すると覚えておくと安全です。
  • 「小売店からの画像を処理し、競合他社の製品を識別するツールを構築しています。このソリューションではカスタムモデルを使用します。どの AI ビジョンサービスを使用する必要がありますか?」

    ポイント:

    この場合、Custom Vision(カスタムビジョン) が適切です。

    「独自の製品」や「自社・競合製品」といった固有の対象を識別する場合は、カスタムモデルを用意できる Custom Vision を使用します。

    一方で、世界的に有名なブランドなど、既存の一般的なオブジェクトを識別する場合は Computer Vision(コンピュータービジョン) でも対応可能です。

    試験では「独自」「自社」「特定の製品」などの文言が出てきたら、Custom Vision を選択すると良いでしょう。
  • 次の問題です。

    「FSAI で露出やノイズ、オクルージョンに関するフィードバックを提供することにより、写真家がより良いポートレート写真を撮るのに役立つ機能はどれですか?」

    ポイント:

    ここで扱うのは 顔検出(Face Detection) です。

    顔認識(Face Recognition)は 個人を特定する 技術であるのに対して、顔検出は 顔の位置や向き、露出やノイズ、遮蔽物(オクルージョン)などのフィードバックを提供 します。

    写真の品質向上のために使われるのは、まさにこの顔検出の機能です。

    → 正解は 顔検出(Face Detection) です。
  • 「ドキュメントインテリジェンスサービスで実現できるシナリオはどれですか?」

    ポイント:

    翻訳は対象外です。

    製品の画像検索や 販売店の特定も、基本的にはドキュメントインテリジェンスの主用途ではありません。

    製品画像の検索は AI サーチやコンピュータービジョンのほうが適しています。

    ドキュメントインテリジェンスは ドキュメントからテキストや情報を抽出して処理するサービスです。

    例えば、販売伝票や請求書から 住所や金額、商品名などを読み取り、構造化データとして抽出 することができます。

    → よって、正解は ドキュメントから情報を抽出するシナリオ です。
  • 次の問題です。

    「スーパーマーケットの棚の画像から商品のブランド名を識別するボットがあります。どのサービスを利用しますか?」

    ポイント:

    「スーパーマーケットの棚の画像」とありますが、商品のブランドは 世界的に有名なブランドだけとは限らず、ローカルブランドも含まれる 可能性があります。

    このように 独自の画像やブランドを識別する場合 は、Custom Vision(カスタムビジョン) が適切です。

    選択肢に小難しい言葉や Azure の他のサービス名(例:Enrichment など)が出てきても、惑わされないようにしましょう。

    文章や単語で迷ったら、一旦見直すボタンを押して次に進むことも試験対策として有効です。

    → 正解は カスタムビジョン(Custom Vision) です。
  • 次の問題です。

    「ソーシャルメディアの投稿を分析して、その論調を特定するアプリは、自然言語処理のどのタイプの例にあたりますか?」

    ポイント:

    「論調を特定する」とある場合、これは投稿の 感情やトーンを分析する タスクです。

    したがって、該当するのは 感情分析(Sentiment Analysis) です。

    注意点:

    音声認識 ではありません。

    キーフレーズ抽出 ではありません。

    → 正解は 感情分析(Sentiment Analysis) です。
  • 次の説明について、**正しい説明には丸(○)、誤りの説明にはバツ(×)**を選択してください。

    オンラインサービスのレビューに批判的な表現がないかを監視することは、自然言語処理の一例である。

    ✅ 丸(○)

    解説:批判的な表現を検出するのは、文章の論調や感情を分析する 感情分析(Sentiment Analysis) の例です。

    画像内のブランドロゴの識別は、自然言語処理の一例である。

    ❌ バツ(×)

    解説:画像内のブランドロゴを識別するのは、文章ではなく視覚情報の処理なので コンピュータービジョン(Computer Vision) の例です。

    公開ニュースサイトで製品に関する否定的な言及がないかを監視することは、自然言語処理の一例である。

    ✅ 丸(○)

    解説:否定的な言及を検出するのも 感情分析 に該当します。
  • 次の問題です。

    「あなたは Azure で自然言語処理ソリューションを開発しています。顧客レビューを分析し、各レビューがどの程度肯定的か、または批判的かを判断するような処理は、どのような処理ですか?」

    ポイント:

    ここで行うのは レビューが肯定的か否定的かを判断する処理 です。

    これは文章の感情や論調を分析するタスクなので、該当するのは 感情分析(Sentiment Analysis) です。

    → 正解は 感情分析(Sentiment Analysis) です。
  • 次の問題です。

    「ニュース原稿からテキストを抽出するような処理は何と呼ばれますか?」

    ポイント:

    選択肢には エンティティ認識(Entity Recognition)、キーフレーズ抽出(Key Phrase Extraction)、感情分析(Sentiment Analysis)、言語認識(Language Detection) があります。

    まず違うものを消していきます:

    言語認識:文章がどの言語かを判定するだけなので、今回のタスクには該当しません。

    感情分析:文章の論調や感情を分析するもので、テキストから項目を抽出する処理ではありません。

    エンティティ認識とキーフレーズ抽出の違い

    エンティティ認識:文章中の固有名詞や特定項目を分類して抽出します。

    例:数字 → Number、神奈川 → Location、車 → Product

    キーフレーズ抽出:文章から重要なフレーズを抽出するタスクです。

    → この場合は、ニュース原稿から 固有情報や分類可能な項目を抽出する ので、正解は エンティティ認識(Entity Recognition) です。
  • 「アプリケーションを様々な言語で利用できるようにする必要があります。自然言語処理のどの機能を使用する必要がありますか?」

    ポイント:

    「様々な言語で利用できるようにする」という点が重要です。

    この場合、文章を別の言語に変換する処理が必要なので、該当するのは 翻訳(Translation) です。

    → 正解は 翻訳(Translation) です。
  • 「ソーシャルメディアの投稿から、日付や人名などのデータを取得するには、どの Azure AI 言語機能を使用できますか?」

    ポイント:

    「日付」や「人名」といった情報を 抽出して分類する 処理が必要です。

    この場合、該当するのは エンティティ認識(Named Entity Recognition, NER) です。

    エンティティ認識は、文章中の固有名詞や特定項目をカテゴリごとに抽出する機能です。

    → 正解は エンティティ認識(Named Entity Recognition) です。
  • 「下記のシナリオを関連するサービスと対応させてください。

    ユーザーの音声をテキストに変換する

    ユーザーの意図を識別して応答を提供する」

    ポイント:

    「ユーザーの音声をテキストに変換する」は Azure Speech(音声サービス) に該当します。

    「ユーザーの意図を識別して応答を提供する」は Azure Language Service(言語サービス) に該当します。

    よって、対応は A(音声サービス)+B(言語サービス) です。

    補足:

    Azure Translator(翻訳サービス)は翻訳用なので、このシナリオでは使用しません。
  • 「右図にはどのタイプの Azure ソリューションが表示されていますか?」

    ポイント:

    図にはすでに トリガー(Trigger) や リクエスト/レスポンス のフローが書かれている場合があります。

    このような構造は ボット(Bot) の典型的なフローです。

    よって、正解は ボット(Bot) です。

    補足:

    リクエストを受け取り、レスポンスを返す対話型の仕組みがある場合は、ボットとして認識してください。
  • 次の問題です。

    「顧客が情報にアクセスできるようにするカスタマーサポートソリューションを作成する必要があります。ソリューションは、電子メール、電話、ライブチャットなど複数のチャネルをサポートする必要があります。下記のどのようなソリューションが必要ですか?」

    ポイント:

    複数のチャネル(メール、電話、ライブチャット)をサポートするカスタマーサポート向けのソリューションです。

    こうした機能は チャットボット(Bot) で実現できます。

    → 正解は チャットボット(Bot) です。
  • 次の問題について考えます。

    チャットボットは、ユーザーが訪れるウェブページを案内することができる。

    ✅ 丸(○)

    解説:チャットボットは、ユーザーの操作を補助したり、ウェブページ内で案内を提供することが可能です。

    ビデオから自動的にキャプションを生成する機能は、対話型AIの一例である。

    ❌ バツ(×)

    解説:ビデオから自動でキャプションを生成するのは、自然言語処理や音声認識の例であり、対話型AI(チャットボット)の例ではありません。

    スマートデバイスが「今日の天気はどうなりますか?」という質問に応答するのは、対話型AIの一例である。

    ✅ 丸(○)

    解説:ユーザーの質問に応答する機能は、典型的な対話型AIの用途です。
  • Azure Translator サービス を使用すると、異なる言語間でテキストを翻訳できます。

    例:英語 → 日本語、日本語 → フランス語 など

    また、指定されたテキストの 言語を自動検出することも可能です。

    言語コードで返され、ISO 形式で表示されます。

    例:英語 → en、日本語 → ja

    → このサービスを利用することで、翻訳や言語検出の両方を実現できます。
  • 次の問題です。

    「トランスフォーマーモデルのステージとして適切な選択肢を三つ選択してください。」

    ポイント:

    トークン化(Tokenization)

    テキストを単語やサブワード単位に分割し、それぞれを数値 ID に変換します。

    埋め込み(Embedding)

    トークンをベクトル化し、意味空間上で数値的に表現します。

    意味の近い単語は近いベクトルで表されます。

    次のトークン予測(Next Token Prediction)

    アテンションレイヤーを用いて、文脈に基づき次のトークンを予測します。

    これを繰り返すことで文章を生成します。

    補足:

    トランスフォーマーモデルは エンコーダーとデコーダー から構成されることがあります。

    エンコーダー:入力を受け取る

    デコーダー:次のトークンを予測して出力を生成

    問題として出る場合は、トークン化・埋め込み・次のトークン予測を押さえておくとよいです。

    → 正解は トークン化(Tokenization)、埋め込み(Embedding)、次のトークン予測(Next Token Prediction) です。
  • 「パンフレットに使用する漫画を作成する必要があります。各漫画はテキストの説明に基づいています。どの Azure AI モデルを使うべきですか?」

    ポイント:

    「漫画」はイラストや画像を作成することを意味します。

    テキストの説明から画像を生成するため、該当するのは 画像生成モデル(例:DALL·E、Azure OpenAI Image モデル) です。

    → 正解は 画像生成モデル(B) です。
  • 「大規模言語モデル(LLM)のプロセスを適切なタスクに対応させてください。」

    タスク例と対応

    小説作品のジャンルを検出する

    入力テキストに基づきジャンルを判断するので、分類(Classification) に該当します。

    入力されたテキストに基づいた箇条書きのリストを作成する

    テキスト内容を整理して箇条書きにまとめるので、生成(Generation) に該当します。

    商品説明から広告スローガンを作成する

    与えられたテキストから新しい文章(スローガン)を生成するので、これも 生成(Generation) です。

    ポイント:

    分類:既存のカテゴリに分類するタスク

    生成:テキストから新しい内容を作り出すタスク

    → この考え方を押さえておくと、大規模言語モデルの利用ケースを整理しやすくなります。
  • 「OpenAI Codex の機能を、Visual Studio Code などの開発環境に統合する場合、どのサービスを使用しますか?」

    正解は GitHub Copilot です。

    ポイント:

    GitHub Copilot は OpenAI Codex を活用したコード生成ツールです。

    Visual Studio Code などの開発環境にプラグインとして統合でき、開発中にコード補完や自動生成を行えます。

    覚えておく関連用語:

    OpenAI Codex:コード生成 AI の本体

    GitHub Copilot:開発環境用プラグインとしての実装

    → 出題される場合は、Codex の機能を IDE に統合するプラグイン=GitHub Copilot と覚えておくとよいです。
  • マイクロソフトの 責任ある AI 原則 の一環として、Azure AI サービスを利用する際、利用者は サービスを使用する前に以下を行う必要があります。

    使用目的に基づいて承認を得ること

    サービスの利用が適切であることを確認するため、事前に承認を取得することが重要です。

    ポイント:

    前払い金や最低利用額の支払いは不要

    クレジットカード情報の提供も不要

    → 試験や確認問題では、「責任ある AI の原則に沿って、承認を得ること」が正解の選択肢となります。
  • 「テキストの文面に基づいて、追加の段落を作成することを計画しています。どの Azure AI サービスを使用すべきですか?」

    ポイント:

    「追加の段落を作成する」ということは、与えられた情報をもとに新しいテキストを生成するタスクです。

    そのため、Azure OpenAI の生成 AI(Generative AI)サービス を使用します。

    一方、Azure Language Service(自然言語サービス) は既存の情報の分析や要約は可能ですが、自ら新しいテキストを生成することはできません。

    → 正解は 生成 AI(Generative AI)サービス です。
  • テストする
よく頑張りました
暗記スタート