理論上、生成AIが生成できるメディア形式として、最も適切な選択肢を1つ選べ。 A ) 画像・テキストデータ B ) 音声データ C ) 3Dデータ D ) 生成AIという概念は、特定のメディア形式に依存しない
D
より高い価値を生み出す生成AIのユースケースを見つける際の考え方として、適切な選択肢をすべて選べ。 A )生成AIは人間を模して作られているので、活用は必ず人員の削減につながる。 B )生成AIが人間のあらゆる作業を置き換えてくれるわけではないため、役割分担を検討する必要がある。 C )生成AIは人間と同等ないしそれ以上の結果を、人間よりも早く導き出せる場合がある。 D )生成AIのアプリケーションは、基本的にチャット型のインターフェースを持つという前提で使用方法を検討するのが良い。
B/C
一般的に自社で生成AI を利用する際に、外部のサービス(例:ChatGPT)のモデルを使うか、オープンソースのモデルをカスタマイズして使うかを決定する上で評価すべき事項として、適切な選択肢をすべて選べ。 A ) 自社における秘匿性の高いデータの利用方針 B ) モデル利用に伴うコスト C ) モデルがリリースされてからの経過時間 D ) 生成AI サービスの利用規約の内容 E ) 利用する言語に対するモデルの性能
A ,B ,D,E
生成AIが孕む公平性のリスクやバイアスに起因すると考えられる事象として、最も適切な選択肢を1つ選べ。 A) 入力言語により生成AIの出力の正確性が異なる。 B ) 生成AIのサービスにより利用規約が異なる。 C ) 利用者により生成AIの利用頻度が異なる。 D ) 生成AIのアルゴリズムにより計算速度が異なる。
A
自社が秘密保持契約(NDA)を締結した上で他者から提供を受けた機密情報を、生成AI に入力する場合に留意するべき点について、適切な選択肢をすべて選べ。 A ) 生成AI の利用に関する自社のルールに従うこと B ) NDA に定められた利用目的の範囲内で生成AI を利用すること C ) NDA 上の例外規定として、生成AI サービスに秘密情報を入力することが NDA 違反にならないことが明記されているかを確認すること D ) 如何なる場合においても他社の機密情報を生成AI に入力することは NDA 違反になる
A ,B ,C
生成AIに関するリスクと規制の特徴について、適切な選択肢をすべて選べ。 A ) 生成AIが孕む法的リスクは、サービスの処理内容や利用者の使い方には依存しない。 B ) 生成AIの新たな活用方法が見出されることにより、新たなリスクが出現する可能性がある。 C ) 生成AIにおいて認識すべきリスクや規制について把握するためには、継続的な情報収集が必要である。 D ) 生成AIの利用について、法令で制限される可能性がある。
より高い価値を生み出す生成AIのユースケースを見つける際の考え方として、適切な選択肢をすべて選べ。 A )生成AIは人間を模して作られているので、活用は必ず人員の削減につながる。 B )生成AIが人間のあらゆる作業を置き換えてくれるわけではないため、役割分担を検討する必要がある。 C )生成AIは人間と同等ないしそれ以上の結果を、人間よりも早く導き出せる場合がある。 D )生成AIのアプリケーションは、基本的にチャット型のインターフェースを持つという前提で使用方法を検討するのが良い。
一般的に自社で生成AI を利用する際に、外部のサービス(例:ChatGPT)のモデルを使うか、オープンソースのモデルをカスタマイズして使うかを決定する上で評価すべき事項として、適切な選択肢をすべて選べ。 A ) 自社における秘匿性の高いデータの利用方針 B ) モデル利用に伴うコスト C ) モデルがリリースされてからの経過時間 D ) 生成AI サービスの利用規約の内容 E ) 利用する言語に対するモデルの性能
生成AIが孕む公平性のリスクやバイアスに起因すると考えられる事象として、最も適切な選択肢を1つ選べ。 A) 入力言語により生成AIの出力の正確性が異なる。 B ) 生成AIのサービスにより利用規約が異なる。 C ) 利用者により生成AIの利用頻度が異なる。 D ) 生成AIのアルゴリズムにより計算速度が異なる。
生成AIに関するリスクと規制の特徴について、適切な選択肢をすべて選べ。 A ) 生成AIが孕む法的リスクは、サービスの処理内容や利用者の使い方には依存しない。 B ) 生成AIの新たな活用方法が見出されることにより、新たなリスクが出現する可能性がある。 C ) 生成AIにおいて認識すべきリスクや規制について把握するためには、継続的な情報収集が必要である。 D ) 生成AIの利用について、法令で制限される可能性がある。
AIに本来の指示を忘れさせ、攻撃者の悪意ある指示を注入することで、AIに意図しない動作をさせる攻撃手法を何と呼びますか。最も適切なものを一つ選べ。 A ) ハルシネーション B ) プロンプトインジェクション C ) RAG(検索拡張生成) D ) ファインチューニング
B
生成AIを用いて、特定の個人の顔にそっくりな画像を本人の許可なく生成し、SNSで公開した場合、主に侵害する可能性が高い権利として最も適切なものを一つ選べ。 A ) 著作権 B ) 特許権 C ) 商標権 D ) 肖像権
D
生成AIのリスクやそれに関する法規制は、技術の進化とともに常に変化し続けるため、企業や個人には継続的な情報収集が求められます。その理由として最も適切なものを一つ選べ。 A ) AIモデルのパラメータ数は、情報収集をしないと把握できないため。 B ) 新しいプロンプトエンジニアリングの技術が次々と登場するため。 C ) 新たなAIの活用法が見出されることで、これまで認識されていなかったリスクが出現し、それに対応する形で社会のルールも変わっていくため。 D ) 多くのAIサービスが海外製であり、利用規約が頻繁に英語で更新されるため。
C
企業が、生成AIの利用に伴う様々なリスクを自主的に低減するための対策として、適切でないものを一つ選べ。 A ) AIの利用に関する社内ガイドラインを策定し、全従業員に周知する。 B ) どのような情報であればAIに入力しても良いか、明確な基準を設ける。 C ) 従業員のリテラシー向上のため、AIのリスクに関する研修を定期的に実施する。 D ) 常に最新の性能を追求するため、セキュリティ審査を経ずに最新のAIサービスを全部門で即座に導入する。
D
企業が生成AIを導入・活用する上で、そのリスクを管理するために構築する自主的な対策(AIガバナンス)として、有効と考えられるものを以下の選択肢からすべて選べ。 A ) AIの利用に関する社内ガイドラインを策定し、従業員に研修を行う。 B ) AIの利用目的や入力するデータについて、人間の目による承認・監査プロセスを導入する。 C ) 従業員の自由な発想を最大限に尊重するため、AIの利用に関するルールは一切設けない方針を貫く。 D ) 顧客の個人情報や取引先の機密情報を扱う場合は、外部にデータが送信されないプライベートな環境でAIを運用する体制を検討する。
A, B, D 解説: A, B, Dはいずれもリスクを管理し、統制するための有効な自主対策です。Cはルールを設けないことで、むしろリスクを増大させる行為であり、ガバナンスとは正反対の考え方です。
あるユーザーが生成AIを用いて作成した画像について、発生しうる法的・権利上のリスクとして、適切な記述を以下の選択肢からすべて選べ。 A ) 生成した画像が、特定の個人の顔に酷似していた場合、その個人の肖像権を侵害する可能性がある。 B ) AIの学習データに含まれていた既存のイラストと酷似した画像が生成され、意図せず著作権を侵害してしまう可能性がある。 C ) AIが生成した画像は、いかなる場合でも著作権保護の対象とはならないため、他者に模倣されても法的に対抗する手段はない。 D ) 利用しているAIサービスの利用規約で商用利用が禁止されているにもかかわらず、その画像を自社製品の広告に使用し、契約違反となる可能性がある。
A, B, D 解説: A(肖像権)、B(著作権侵害)、D(利用規約違反)は、いずれも生成物の利用時に発生しうる典型的なリスクです。Cの「いかなる場合でも著作権保護の対象とはならない」は言い過ぎです。国や、生成過程における人間の創作的寄与の度合いによって判断が分かれるため、絶対に対象外とは断定できません。
生成AIにおける「公平性のリスク」や「バイアス」について、その発生原因や事象として適切な記述を以下の選択肢からすべて選べ。 A ) AIの学習に用いた過去の採用データにおいて、特定の性別の採用実績が多かったため、AIが作成する採用候補者の評価レポートが性別によって偏ってしまう。 B ) 英語のデータを中心に学習したLLMは、日本語での応答精度が英語に比べて低くなる。 C ) AIのアルゴリズムは非常に複雑なため、なぜその出力に至ったのかを人間が完全に説明することが難しい。 D ) 特定の国の文化や価値観を反映したデータで学習したAIが、他の文化圏では不適切とされる内容を生成してしまう。
A, B, D 解説: A(データに基づく社会的バイアス)、B(言語による性能差=データ量のバイアス)、D(文化的バイアス)は、すべて学習データの偏りに起因する「公平性のリスク」「バイアス」の具体例です。Cは「透明性・説明責任」のリスクに関する記述であり、「公平性・バイアス」とは異なる種類のリスクです。