理論上、生成AIが生成できるメディア形式として、最も適切な選択肢を1つ選べ。 A ) 画像・テキストデータ B ) 音声データ C ) 3Dデータ D ) 生成AIという概念は、特定のメディア形式に依存しない
D
より高い価値を生み出す生成AIのユースケースを見つける際の考え方として、適切な選択肢をすべて選べ。 A )生成AIは人間を模して作られているので、活用は必ず人員の削減につながる。 B )生成AIが人間のあらゆる作業を置き換えてくれるわけではないため、役割分担を検討する必要がある。 C )生成AIは人間と同等ないしそれ以上の結果を、人間よりも早く導き出せる場合がある。 D )生成AIのアプリケーションは、基本的にチャット型のインターフェースを持つという前提で使用方法を検討するのが良い。
B/C
一般的に自社で生成AI を利用する際に、外部のサービス(例:ChatGPT)のモデルを使うか、オープンソースのモデルをカスタマイズして使うかを決定する上で評価すべき事項として、適切な選択肢をすべて選べ。 A ) 自社における秘匿性の高いデータの利用方針 B ) モデル利用に伴うコスト C ) モデルがリリースされてからの経過時間 D ) 生成AI サービスの利用規約の内容 E ) 利用する言語に対するモデルの性能
A ,B ,D,E
生成AIが孕む公平性のリスクやバイアスに起因すると考えられる事象として、最も適切な選択肢を1つ選べ。 A) 入力言語により生成AIの出力の正確性が異なる。 B ) 生成AIのサービスにより利用規約が異なる。 C ) 利用者により生成AIの利用頻度が異なる。 D ) 生成AIのアルゴリズムにより計算速度が異なる。
A
自社が秘密保持契約(NDA)を締結した上で他者から提供を受けた機密情報を、生成AI に入力する場合に留意するべき点について、適切な選択肢をすべて選べ。 A ) 生成AI の利用に関する自社のルールに従うこと B ) NDA に定められた利用目的の範囲内で生成AI を利用すること C ) NDA 上の例外規定として、生成AI サービスに秘密情報を入力することが NDA 違反にならないことが明記されているかを確認すること D ) 如何なる場合においても他社の機密情報を生成AI に入力することは NDA 違反になる
A ,B ,C
生成AIに関するリスクと規制の特徴について、適切な選択肢をすべて選べ。 A ) 生成AIが孕む法的リスクは、サービスの処理内容や利用者の使い方には依存しない。 B ) 生成AIの新たな活用方法が見出されることにより、新たなリスクが出現する可能性がある。 C ) 生成AIにおいて認識すべきリスクや規制について把握するためには、継続的な情報収集が必要である。 D ) 生成AIの利用について、法令で制限される可能性がある。
B ,C ,D
ノイズを加えた画像から元の画像を復元する過程を学習することで、非常に高品質な画像を生成するモデルとして、最も適切なものを一つ選びなさい。 (ア) トランスフォーマー (Transformer) (イ) 拡散モデル (Diffusion Model) (ウ) LoRA (Low-Rank Adaptation) (エ) Mixture of Experts (MoE)
イ
以下の文章は、LLMの技術動向に関する説明です。文章が正しければ「正」、誤っていれば「誤」を選びなさい。 「マルチモーダル化とは、LLMがより多くの言語を扱えるようになるための技術動向を指す。」 (ア) 正 (イ) 誤
(イ) (解説: マルチモーダル化は、テキスト、画像、音声など、複数の異なる**種類の情報(モダリティ)**を扱う技術動向を指します。多言語対応とは異なります。)
人間が遂行できるあらゆる知的タスクを、人間と同等レベルで実行できるAIを指す用語として、最も適切なものを一つ選びなさい。 (ア) AGI (汎用人工知能) (イ) ASI (人工超知能) (ウ) シンギュラリティ (エ) LLM (大規模言語モデル)
ア
AIから望ましい出力を得るために、指示の出し方を工夫する技術やスキルのことを何と呼びますか。最も適切なものを一つ選びなさい。 (ア) ファインチューニング (イ) アラインメント (ウ) プロンプトエンジニアリング (エ) RAG (検索拡張生成)
ウ
LLMの知識カットオフの問題を緩和し、社内文書のような外部の特定知識に基づいた回答を生成させるために有効な技術として、最も適切なものを一つ選びなさい。 (ア) RAG (検索拡張生成) (イ) 量子化 (ウ) 拡散モデル (エ) プロンプトインジェクション
ア
生成AIの活用を制限する要因として、適切でないものを一つ選びなさい。 (ア) モデルの学習データに含まれるバイアス (イ) モデルのパラメータ数の多さ (ウ) 期待する性能が出ているかを客観的に評価することの難しさ (エ) 特定の専門用語や業界用語に対する理解度の低さ
(イ) (解説: パラメータ数の多さはモデルの性能や規模を示す要素であり、直接的な「活用の制限要因」というよりは、コストや運用環境の制約に関わる背景要素です。他の選択肢は、出力の質や信頼性という活用上の直接的な制限要因を指しています。)
目標達成のために、AIが自律的に計画を立て、Web検索やツールの利用といったアクションを能動的に実行するシステムを何と呼びますか。最も適切なものを一つ選びなさい。 (ア) LLMサービス (イ) AIエージェント (ウ) マルチモーダルAI (エ) ドメイン固有AI
イ
以下の文章は、生成AIの活用事例に関する説明です。文章が正しければ「正」、誤っていれば「誤」を選びなさい。 「生成AIのケイパビリティとは、主に文章の要約と翻訳の能力のみを指す。」 (ア) 正 (イ) 誤
(イ) (解説: 生成AIのケイパビリティは、要約や翻訳に加え、文章生成、アイデア発想、コード生成、画像生成など非常に多岐にわたります。)
大規模言語モデル (LLM) において用いられている深層学習モデルのアーキテクチャとして、最も適切な選択肢を1つ選べ。 A ) SentencePiece B ) トランスフォーマー (Transformer) C ) N-gram言語モデル D ) Skip-gramモデル
(Q1)B【解説】 [ 大規模言語モデル (LLM) のアーキテクチャ ] ほとんどの大規模言語モデルにおいて、アーキテクチャとしてトランスフォーマー (Transformer) が用いられています。トランスフォーマーはアテンション (Attention) を用いて、入力テキスト中のすべてのトークン (トランスフォーマーにおける処理の単位) から情報を集めることができ、長い範囲の依存関係を捉えることが可能です。 なお、大規模言語モデルに入力するテキストをトークン化するために、SentencePieceというツールが用いられることがあります。トランスフォーマー以前の深層学習手法として、Skip-gramモデルがあり、これは単語のベクトル表現を学習する手法です。また、従来の言語モデルの一つとしてN-gram言語モデルがあります。これは、「直前のN-1個の単語に基づいて次の単語を予測する」モデルで、深層学習に基づくものではありません。
(記述式)Zero-ShotプロンプトとFew-Shotプロンプトの違いを説明してください。
Zero-Shotプロンプトでは、例示を入れることなくタスクや回答内容の説明をプロンプト内に記述します。これに対してFew-Shotプロンプトでは、回答の精度を向上させることを狙ってタスクのインプットとアウトプットのペアをプロンプト内で例示します。【解説】 [ Zero-ShotプロンプトとFew-Shotプロンプトの違い ] Few-Shotプロンプトには、タスクのインプットとアウトプットのペアをプロンプト内で例示することで回答の精度を向上させる狙いがあります。 GPT-3ではこのFew-Shotプロンプトによる回答精度が高いことや例示の数を増やすほど精度が向上する傾向にあることが示されています。 これに対して、Zero-Shotプロンプトでは、例示を入れることなくタスクや回答内容の説明をプロンプト内に記述します。
大規模言語モデル (LLM) の技術開発の潮流として、適切な選択肢をすべて選べ。 A ) スケーリング則 (Scaling Laws) に基づき、パラメーター数を増加させる競争が続いている。 B ) スケーリング則 (Scaling Laws) の発見により、学習や推論において計算量を削減するための技術開発は不要となった。 C ) テキスト以外にも画像などを入力とする技術改良も進められている。 D ) 強化学習の手法などを用いて、ユーザーにとってより有益な結果が出力されるようにする試みが進められている。
(Q3)A, C, D【解説】 [ 大規模言語モデル (LLM) の技術開発の潮流 ] モデルのパラメーター数を増加させることでより高い精度の出力を得ることができるというスケーリング則 (Scaling Laws) に後押しされる形で、言語モデルの巨大化、すなわち言語モデルのパラメーター数を増加させる方針の競争が続いています。一方で、計算量が大きすぎるという課題もあるため、言語モデルのパラメーター数を抑えつつ高い精度を出すための手法が提案されています。加えて、強化学習の手法などを用いて、人間にとってより有益な情報が出力されるようにする研究や、テキスト以外にも画像などを入力とするようなマルチモーダル化の研究も進められています。
理論上、生成AIが生成できるメディア形式として、最も適切な選択肢を1つ選べ。 A ) 画像・テキストデータ B ) 音声データ C ) 3Dデータ D ) 生成AIという概念は、特定のメディア形式に依存しない
(Q4)D【解説】 [ 生成AIのメディア形式 ] 生成AIのコンセプトの適用範囲は、特定のメディア形式に限定されません。テキスト、画像、音声、3Dなど、さまざまなメディア形式に適用が可能です。 現時点では、テキストと画像の生成が主流であり、音声や3Dに関してはまだ研究段階でその実用化には時間がかかる可能性があります。しかし、生成AIの進化に伴い、より多くのメディア形式への適応が期待されています。生成AIの真の力は、学習データのパターンや特徴を把握し、それに基づいて新たなデータを生成する能力にあるためです。
より高い価値を生み出す生成AIのユースケースを見つける際の考え方として、適切な選択肢をすべて選べ。 A )生成AIは人間を模して作られているので、活用は必ず人員の削減につながる。 B )生成AIが人間のあらゆる作業を置き換えてくれるわけではないため、役割分担を検討する必要がある。 C )生成AIは人間と同等ないしそれ以上の結果を、人間よりも早く導き出せる場合がある。 D )生成AIのアプリケーションは、基本的にチャット型のインターフェースを持つという前提で使用方法を検討するのが良い。
(Q5)B, C【解説】 [ 生成AIが高い価値を生み出すユースケースの導き出し方 ] 生成AIが人間に置き換わる可能性についての警鐘が多く聞かれますが、生成AIの活用の影響は人員の削減のみにとどまりません。特定の作業を生成AIに肩代わりしてもらうことで、人間のアウトプットの質を高めることができたり、これまで人間が実現できなかった製品やサービス、そして新しい雇用が生み出される可能性も示唆されています。 人間とAIの優れた部分とそうでない部分を理解するように努め、両者が共同して新しいユースケースを作り出していけることを認識することが重要です。 また、現時点において生成AIのアプリケーションはプロンプトを用いたチャット型のインターフェースを持つものが多いですが、そうではないアプリケーションも多く考えられます。例えば、ファイルをインターフェースとして内容を自動的に翻訳するアプリケーションなどが考えられます。
一般的に自社で生成AI を利用する際に、外部のサービス(例:ChatGPT)のモデルを使うか、オープンソースのモデルをカスタマイズして使うかを決定する上で評価すべき事項として、適切な選択肢をすべて選べ。 A ) 自社における秘匿性の高いデータの利用方針 B ) モデル利用に伴うコスト C ) モデルがリリースされてからの経過時間 D ) 生成AI サービスの利用規約の内容 E ) 利用する言語に対するモデルの性能
(Q6)A, B, C, D, E【解説】 [ 生成AI 導入時の評価・検討事項 ] 企業が生成AI を導入する際に、外部のサービス(例:ChatGPT)を利用するか、オープンソースのモデルをカスタマイズして使用するかの決定においては、いくつか重要な評価ポイントがあります。まず、自社で取り扱う秘匿性の高いデータのセキュリティとプライバシーを確保するため、データの利用方針を厳密に検討する必要があります。外部サービスを利用するとデータが外部に送信されるリスクがありますが、オープンソースのモデルを自社で管理することで、これらのリスクを軽減できます。次に、モデルの利用に関連するコストを考慮し、外部サービスの利用料金や、オープンソースモデルの運用コストを比較して選択する必要があります。利用する言語や想定される用途に対しモデルが十分な精度を発揮できるのかなど、モデルの性能面での評価も重要です。モデルがリリースされてからの経過時間も考慮に入れるべきで、新しいモデルは最新の技術を利用して性能が良い可能性がありますが、安定性や互換性の問題があるかもしれません。逆に古いモデルは安定している可能性がありますが、性能が劣るかもしれません。最後に、法的な問題を避けるために、利用する AI の利用規約をしっかりと確認し、理解する必要があります。これらのポイントを総合的に考慮して、企業のニーズに最も適した選択を行うことが重要です。
生成AIが孕む公平性のリスクやバイアスに起因すると考えられる事象として、最も適切な選択肢を1つ選べ。 A) 入力言語により生成AIの出力の正確性が異なる。 B ) 生成AIのサービスにより利用規約が異なる。 C ) 利用者により生成AIの利用頻度が異なる。 D ) 生成AIのアルゴリズムにより計算速度が異なる。
(Q7)A【解説】 [ 生成AIの公平性リスク ] 生成AIは学習データに含まれるデータの偏りを学習してしまう可能性があるため、生成AIの出力の精度や内容に偏りが含まれる場合があります。これは生成AIの公平性のリスクやバイアスの問題として知られています。 例えば、生成AIに入力される言語やトピックによって、生成AIから出力される内容や正確性が異なったり、特定の性別や年齢、人種、職業などのグループに対して、偏りのある結果が生成される可能性があります。このような問題は、生成AIが個人に関する情報を基に判断や予測を行う用途 (例えば、人事採用やローンの承認など) において特に問題になり得ます。 生成AIを利用する際は、生成AIがこれら公平性のリスクやバイアスの問題を孕むことを踏まえ、適切な対策を講じることが必要です。
自社が秘密保持契約(NDA)を締結した上で他者から提供を受けた機密情報を、生成AI に入力する場合に留意するべき点について、適切な選択肢をすべて選べ。 A ) 生成AI の利用に関する自社のルールに従うこと B ) NDA に定められた利用目的の範囲内で生成AI を利用すること C ) NDA 上の例外規定として、生成AI サービスに秘密情報を入力することが NDA 違反にならないことが明記されているかを確認すること D ) 如何なる場合においても他社の機密情報を生成AI に入力することは NDA 違反になる
(Q8)A, B, C【解説】 [ 生成AI への機密情報入力時のリスク対策 ] 生成AI に機密情報を入力することは多くのリスクを伴いますが、正しいリスク対策を行うことでリスクを抑えながら機密情報を生成AI に入力して利用できる可能性があります。リスク対策の主な方法を以下に挙げます。まず、企業における生成AI の利用については、自社が策定する生成AI の利用に関するルールがある場合にはこれに従うことが求められます。他社と秘密保持契約(NDA)を結んで提供を受けた機密情報については、①当該 NDA に定められている利用目的の範囲内で生成AI を利用すること、及び②当該 NDA において、例外規定として生成AI サービスに秘密情報を入力することが NDA 違反にならないことが明記されていることを確認してください。②については、今後はそのような例外規定を含んだ NDA が増加していくことが予想されますが、現時点ではまだそのような内容が明記されている NDA はほとんどないことに注意が必要です。
生成AIに関するリスクと規制の特徴について、適切な選択肢をすべて選べ。 A ) 生成AIが孕む法的リスクは、サービスの処理内容や利用者の使い方には依存しない。 B ) 生成AIの新たな活用方法が見出されることにより、新たなリスクが出現する可能性がある。 C ) 生成AIにおいて認識すべきリスクや規制について把握するためには、継続的な情報収集が必要である。 D ) 生成AIの利用について、法令で制限される可能性がある。
(Q9)B, C, D【解説】 [ 生成AIのリスクと規制の動向 ] 生成AIの技術は急速に進歩しており、またその高い汎用性から、今後新たな活用方法が見出され、現時点では認識されていない新たなリスクが出現する可能性があります。 生成AIが孕む多様なリスクや社会への影響の懸念から、生成AIについての規制化の議論も進んでおり、生成AIの活用において認識すべきリスクや規制を適切に把握するためには、継続的に情報収集を行う必要があります。 また、生成AIのサービスはそれぞれ異なる目的や処理内容を持っており、様々な用途で活用できる側面も持つため、法的なリスクの性質や程度は生成AIのサービス、及び利用者の使い方によっても異なることが考えられます。
AIに本来の指示を忘れさせ、攻撃者の悪意ある指示を注入することで、AIに意図しない動作をさせる攻撃手法を何と呼びますか。最も適切なものを一つ選べ。 A ) ハルシネーション B ) プロンプトインジェクション C ) RAG(検索拡張生成) D ) ファインチューニング
B
生成AIを用いて、特定の個人の顔にそっくりな画像を本人の許可なく生成し、SNSで公開した場合、主に侵害する可能性が高い権利として最も適切なものを一つ選べ。 A ) 著作権 B ) 特許権 C ) 商標権 D ) 肖像権
D
生成AIのリスクやそれに関する法規制は、技術の進化とともに常に変化し続けるため、企業や個人には継続的な情報収集が求められます。その理由として最も適切なものを一つ選べ。 A ) AIモデルのパラメータ数は、情報収集をしないと把握できないため。 B ) 新しいプロンプトエンジニアリングの技術が次々と登場するため。 C ) 新たなAIの活用法が見出されることで、これまで認識されていなかったリスクが出現し、それに対応する形で社会のルールも変わっていくため。 D ) 多くのAIサービスが海外製であり、利用規約が頻繁に英語で更新されるため。
C
企業が、生成AIの利用に伴う様々なリスクを自主的に低減するための対策として、適切でないものを一つ選べ。 A ) AIの利用に関する社内ガイドラインを策定し、全従業員に周知する。 B ) どのような情報であればAIに入力しても良いか、明確な基準を設ける。 C ) 従業員のリテラシー向上のため、AIのリスクに関する研修を定期的に実施する。 D ) 常に最新の性能を追求するため、セキュリティ審査を経ずに最新のAIサービスを全部門で即座に導入する。
D
企業が生成AIを導入・活用する上で、そのリスクを管理するために構築する自主的な対策(AIガバナンス)として、有効と考えられるものを以下の選択肢からすべて選べ。 A ) AIの利用に関する社内ガイドラインを策定し、従業員に研修を行う。 B ) AIの利用目的や入力するデータについて、人間の目による承認・監査プロセスを導入する。 C ) 従業員の自由な発想を最大限に尊重するため、AIの利用に関するルールは一切設けない方針を貫く。 D ) 顧客の個人情報や取引先の機密情報を扱う場合は、外部にデータが送信されないプライベートな環境でAIを運用する体制を検討する。
A, B, D 解説: A, B, Dはいずれもリスクを管理し、統制するための有効な自主対策です。Cはルールを設けないことで、むしろリスクを増大させる行為であり、ガバナンスとは正反対の考え方です。
あるユーザーが生成AIを用いて作成した画像について、発生しうる法的・権利上のリスクとして、適切な記述を以下の選択肢からすべて選べ。 A ) 生成した画像が、特定の個人の顔に酷似していた場合、その個人の肖像権を侵害する可能性がある。 B ) AIの学習データに含まれていた既存のイラストと酷似した画像が生成され、意図せず著作権を侵害してしまう可能性がある。 C ) AIが生成した画像は、いかなる場合でも著作権保護の対象とはならないため、他者に模倣されても法的に対抗する手段はない。 D ) 利用しているAIサービスの利用規約で商用利用が禁止されているにもかかわらず、その画像を自社製品の広告に使用し、契約違反となる可能性がある。
A, B, D 解説: A(肖像権)、B(著作権侵害)、D(利用規約違反)は、いずれも生成物の利用時に発生しうる典型的なリスクです。Cの「いかなる場合でも著作権保護の対象とはならない」は言い過ぎです。国や、生成過程における人間の創作的寄与の度合いによって判断が分かれるため、絶対に対象外とは断定できません。
生成AIにおける「公平性のリスク」や「バイアス」について、その発生原因や事象として適切な記述を以下の選択肢からすべて選べ。 A ) AIの学習に用いた過去の採用データにおいて、特定の性別の採用実績が多かったため、AIが作成する採用候補者の評価レポートが性別によって偏ってしまう。 B ) 英語のデータを中心に学習したLLMは、日本語での応答精度が英語に比べて低くなる。 C ) AIのアルゴリズムは非常に複雑なため、なぜその出力に至ったのかを人間が完全に説明することが難しい。 D ) 特定の国の文化や価値観を反映したデータで学習したAIが、他の文化圏では不適切とされる内容を生成してしまう。
A, B, D 解説: A(データに基づく社会的バイアス)、B(言語による性能差=データ量のバイアス)、D(文化的バイアス)は、すべて学習データの偏りに起因する「公平性のリスク」「バイアス」の具体例です。Cは「透明性・説明責任」のリスクに関する記述であり、「公平性・バイアス」とは異なる種類のリスクです。
深層学習における確率モデルは、どのような性質を持つモデルか。 1. 入出力が直線的関係にあるモデル 2. データの生成に、ランダム性を数式で定義するモデル 3. 観測データに基づいて関係性を導き出すモデル 4. 変数の値が特定の確率で固定されるモデル
(2)深層学習における確率モデルは、データの生成にランダム性を数式で定義するモデル。
AIサービスを使用する上で注意すべきハルシネーションとは何か。 以下の選択肢から正しいものを全て選べ。 1. 入力された個人情報をAIが学習してしまうこと 2. 論文などで、AIによって出力された情報を参考文献としてしまうこと 3. AIが、本当であるかのようなもっともらしい嘘を出力すること 4. AIが、誤った情報を学習してしまうこと 5. AIが出力する情報が、実際には存在しないデータや事実に基づいていること
3.5
基盤モデルについての次の記述のうち、正しいものを全て選べ。 1. 大量のラベルなしデータを用いて学習される。 2. 特定のタスクに特化して設計されている。 3. 多様なタスクに対応できるように設計されている。 4. 他のタスクに応用する前に再学習する必要がある。 5. 少量のデータで学習したものである。
(1,3)基盤モデルは通常、大規模なラベルデータなしセットを用いて学習される、これにより、モデルは言語や画像などの広範なパターンを学習することができる。再学習の部分が間違い、基盤モデルは追加学習(ファインチューニング)を行うことで新しいタスクに適応することができるけど、 ゼロから再学習する必要はないわね。
言語モデルに関する以下の記述のうち、正しいものをすべて選べ 1. 言語モデルは、ある単語の後に続く単語の出現確率を予測するために使用される。 2. すべての言語モデルは、ニューラルネットワークを使用して構築される。 3. 言語モデルは、テキスト生成において重要な役割を果たすことがある。 4. 言語モデルは、単語の意味を理解するために、辞書として機能する。
(1,3)言語モデルは、与えられた単語のシーケンスに基づいて、次に来る単語やフレーズの確率を計算する。 これは、自然言語処理(NLP)において、 テキスト生成や音声認識などのタスクで重要な役割を果たすわね。 テキスト生成においては、文章の補完、詩や物語の生成、コードの自動生成などに使用されるわ。 そして、言語モデルはニューラルネットワークを使用した言語モデルが一般的だけど、 N-gramのように、そうでないものも多いわ。 そして、4番も一見すると正しいのだけど、単語の意味を理解しているわけではないわ。 あくまで、文脈に基づいて単語の出現確率を予測するもの。 単語の意味を理解するためには、意味論的な分析が必要になるわね。
以下のうち、データのどこに注目すればいいかを重み付けしていく機構であり、画像認識や時系列予測など、様々なタスクに用いることができるものを全て選べ。 1. Attention 2.Convolutional Neural Network(CNN) 3.Recurrent Neural Network(RNN) 4.Long Short-term Memory(LSTM)
(1)Attention機構は、モデルが入力データの中で重要な部分に焦点を当てることを可能にする。 これは、特定の情報が他の情報よりも関連性が高い場合に、その情報に「注意」を払うことを意味する。 主に、自然言語処理(NLP)や画像認識タスクで使用され、モデルが文脈をより良く理解するのに役立つわね。 CNNは、主に画像データの処理に使用されるわね。 ずんだもんの言ったように1D-CNNやWaveNetなどは音声などの時系列データを扱えるものはあるわ。 でも、データに注目して重みづけをしていくモデルでは無いわね。 RNN、LSTMは時系列データを扱うもので、一般的に画像認識には使用されないわ。
トランスフォーマー 問題。 トランスフォーマーに関する以下の記述のうち、正しいものを全て選べ。 1. 自己注意(Self-Attention)メカニズムを使用している。 2. 位置エンコーディングを利用して、単語の順序情報をネットワークに組み込んでいる。 3. RNNやCNNを使用せずに、並列処理を可能にする。 4. エンコーダーとデコーダーのブロックから構成されている。 5. Global Average Poolingを用いて代表値を抽出し、重要な部分に焦点を当てることを可能にする。
(1,2,3,4)5番は、CNNの一種であるSENetのSEブロックの説明になるわ。 SEブロックもAttention機構の一種ではあるのだけど、 トランスフォーマーに関連するものではないわね。
LLMに関する次の記述のうち、正しいものを全て選べ。 1. 大量の学習データとパラメータを使用して、多様なタスクをこなすことができる言語モデル。 2. テキスト生成の速度を重視したモデルであり、他のタスクは行えない。 3. 特定のタスクにのみ適用可能であり、汎用性は低い。 4. 大規模なデータセットから学習することで、より複雑なタスクを実行できるように設計されている。
(1,4)LLMは、膨大なテキストデータから学習し、その知識を使って様々な言語タスクを実行できる。 これには、文章生成、質問応答、要約、翻訳などが含まれる。 よって、テキスト生成において高速であることが多いけど、それだけではないということになるわね。 また、大規模なデータセットを用いて訓練され、複雑な言語理解やタスク実行が可能となっているわ。