暗記

Tomoya 2025年06月16日 カード89 いいね0

ビューア設定

[Enter]でカードをめくります。キーボードショートカット

G検定Chapter3
  • データの中で予測の手がかりとなる変数
    特徴量
  • 予測変数として採用する列の選別や欠損値の処理、文字列の数値化などデータの前処理を行うこと
    特徴量エンジニアリング
  • ニューラルネットワーク構成要素の最小単位
    単純パーセプトロン
  • 各ニューロン間の結合の強さ
    重み
  • 入力層、出力層の他に隠れ層をもつ3層以上のパーセプトロンのこと
    多層パーセプトロン
  • ニューラルネットワークの学習における重みの値を最適化する手法
    勾配降下法
  • 入力層にデータを入れて各層で重みを乗じながら出力層に向けてデータを伝搬していくこと
    順伝搬
  • 誤差を出力層から入力層に向かって逆方向に伝搬し重みの更新も出力層側から行うこと
    誤差逆伝播法
  • ネットワークが深くなるにつれて重みの更新に必要な情報がうまく伝搬できなくなる問題
    勾配消失問題
  • 勾配降下法を用いた最適解において局所最適解に陥る問題
    局所最適解問題
  • 入力値が小さいほど出力値が0に漸近し入力値が大きいほど出力値が1に漸近する関数
    シグモイド関数
  • シグモイド関数、Tanh関数の性質は(A)の原因
    勾配消失
  • 入力値が負の場合は0、入力値が正の場合は入力値そのまま返す活性化関数
    ReLU関数
  • 確率的勾配降下法ではデータを(A)と呼ばれるグループに分け(A)ごとに損失関数を計算し少しずつパラメータを更新する
    ミニバッチ
  • 勾配降下法の学習で毎回データサンプルを1つずつ入力しそれらを使ってパラメータを更新する。
    オンライン学習
  • 勾配降下法の学習で全データを一気に使って損失関数の変化を評価しているため学習の結果が安定しやすい
    バッチ学習
  • 勾配がゼロにちかい平坦領域で学習が停滞しやすくなる場所
    プラトー
  • 分類問題において出力層で使用される、あるクラスにデータが分類される確率を出力する関数
    ソフトマックス関数
  • ニューラルネットワークの一種で入力されたデータに次元削減を施し、データを表現するための特徴を抽出する
    オートエンコーダー
  • オートエンコーダーを用いてニューラルネットワークの重みの初期値をあらかじめ推定すること
    事前学習
  • 事前学習はランダムにNNの重みの初期値をを設定した場合とに比べて(A)を抑えられる
    勾配消失問題
  • 積層オートエンコーダの終端に特定のタスクにあった出力をするためにもう一つの層を追加しその層の重みを学習すること
    ファインチューニング
  • 1965年「半導体集積率は18ヶ月で二倍になる」という法則
    ムーア
  • リアルタイム画像処理向けに設計され並列演算処理を得意とする演算処理装置
    GPU
  • NVIDIAのGPGPUで並列演算を行う開発環境
    CUDA
  • GOOGLEの開発したテンサー計算に特化したUnit
    TPU
  • 中央処理演算装置
    CPU
  • 画像認識に用いられるニューラルネット
    CNN
  • CNNのレイヤーであり入力画像から特徴を抽出する層
    畳み込み層
  • CNN内畳み込み層で生成する
    特徴マップ
  • 特徴マップにおける重要な特徴を残しつつ画像の情報量を圧縮するCNNレイヤー
    プーリング層
  • 出力層の手前にある抽出された特徴に基づいて分類の結果を出力するCNNレイヤー
    全結合層
  • 畳み込み層+プーリング層
    特徴抽出器
  • 全結合層+出力層
    分類器
  • 一部のニューロンをランダムに無効化し過学習を抑え汎化性能をあげる
    ドロップアウト
  • ミニバッチごとに各層への入力データを標準化
    バッチ正規化
  • 回転や並行移動を通じ人工的に訓練画像のバリエーションを増やす
    データ拡張
  • 膨大なデータで訓練した学習済みモデルを別のタスクに転用・応用する
    転移学習
  • 量子化、プルーニング、蒸留を通じてモデルを小さくする
    モデルの軽量化
  • パラメータをより小さなビット数で表現することでモデルの軽量化を図る手法
    量子化
  • ネットワークの比較的重要度の低いニューロンを選定することで、モデルのパラメータ数と計算コストを低減する手法
    プルーニング
  • 大きくて複雑なモデルやアンサンブル学習器を教師モデルとし、その入力や予測出力を小さく単純なモデル(生徒モデル)に継承しその学習に利用する手法
    蒸留
  • 1982年に発表されたCNNの先駆けとなるモデルで「特徴抽出を行うS細胞層」と「位置ズレを許容するC細胞層」を交互に重ねた多層構造を持つ神経回路モデル
    ネオコグニトロン
  • 1998年CNNの第一号と言える、畳み込み層とプーリング層を交互に重ねたネットワーク
    LeNet
  • ILSVRC2012で飛躍的な成績を残した8層のネットワーク
    AlexNet
  • オックスフォード大学が開発しILSVRC2014で2位となったモデルで小さいフィルタを多数畳み込む
    VGG
  • ILSVRC2014にて1位となった異なるサイズの畳み込み層を並列に並べたInceptionモジュールを組み合わせた構造
    GoogLeNet
  • ILSVRC2015で優勝し始めて人の認識精度の誤差5%を超えた
    ResNet
  • 時系列データを扱うニューラルネットワークで、一度処理した情報を同じセルに記憶できるので値の順序を解析できる
    RNN
  • RNNのセル内には以前処理した情報を現時刻に(A)する仕組みが特徴
    フィードバック
  • RNNは時系列データのほかに(A)の入出力に対応可能
    可変長
  • RNNの障壁として勾配消失問題と(A)問題がある
    重み衝突
  • RNNにおける時間軸にそって誤差を伝搬する仕組みであり勾配消失問題の原因になりうる
    BPTT
  • 従来のRNNの改良版、長い系列の学習が困難である問題を軽減
    LSTM
  • 誤差が過剰にセルに停留することを防止しリセットを行うゲート構造
    忘却ゲート
  • 入力重み衝突問題を防止するためのゲート機構
    入力ゲート
  • 出力重み衝突問題を防止するためのゲート機構
    出力ゲート
  • RNNの拡張モデルであるLSTMにおける過去のデータを保存するユニット
    CEC
  • RNNを用いた自然言語処理において入力系列長と出力系列長が一致しなくても良いようにBlankを加えて処理することで形式的に系列長を揃える技術
    CTC
  • LSTMを簡略したモデル
    GRU
  • GRUではリセットゲートと(A)ゲートの二種類が用いられる
    更新
  • ある特定の状況下で最大限の報酬を得られるようにどう行動すべきかを学習する機械学習手法
    強化学習
  • 強化学習の主体で、現在置かれている状況を「状態」として認知し取るべき「行動」を判断し実行する
    エージェント
  • エージェントの各行動に対し、事前に定められた確率に基づいて次の状態と「報酬」を発生させる
    環境
  • 事前に定められた正解に出力が近づくように学習する
    教師あり学習
  • 一連の行動の結果としての報酬を最大化するように学習する
    強化学習
  • 将来もらえる報酬をどれくらい現在の価値として考慮するかを示すハイパーパラメータ
    割引率
  • 累積報酬の期待値が最大になるように関数のパラメータを勾配降下法を用いて逐次的に更新しながら直接的に方策を最適化する
    方策勾配法
  • Q学習は(A)を最適化することで最適な行動を選択する能力が間接的に得られる
    行動価値関数
  • 強化学習において一連の試行錯誤の後に報酬の高かった行動を積極的に選択しようとすること
    活用
  • 強化学習においてExploitationとは逆により高い報酬をもたらす別の行動がないか探すこと
    探索
  • 状態と行動のセットに対して価値を推定したのちその状態における最も価値の高い行動を最適行動とし常にそのような最適行動を選択する
    greedy法
  • 確率プロセスにおいて、未来の状態が現在の状態にのみ依存し過去の状態やどのように現在の状態に達したかには依存しないという性質
    マルコフ性
  • 初期の強化学習手法の一つでありモデルのパラメータに対してBellman最適方程式を解いて最適方策を得るアプローチ
    動的計画法
  • 報酬が得られるまでランダムに行動し報酬を得た段階で過去の価値関数を一気に更新
    モンテカルロ法
  • 実際にエージェントを行動させ次の時点の状態を確認しながらQ値を更新し続けることで行動を最適化し方策を間接的に改善していくアプローチ
    TD学習
  • エージェントが実際に撮った行動に基づいて行動価値関数を更新するTD学習の一種で実際の行動をQ値の更新に用いる
    SARSA
  • Q学習は(A)のTD学習
    off-policy
  • SARSAは(A)のTD学習
    on-policy
  • デープラーニングと消化学習を組み合わせた学習
    深層強化学習
  • 行動価値関数(特定の状態において特定の方策に従って撮った行動に対する価値を定義する関数)を近似するためにCNNを用いる深層強化学習
    Deep Q-Network
  • DQNに取り入れたサンプルバッファーから一度に複数のサンプルを取り出してミニバッチ学習を行う仕組み
    Experience Replay
  • DQNの初期有名事例に2015〜2017年にDeepMind社開発の(A)が世界トップ棋士との勝負に勝利
    AlphaGo
  • マルコフ性にもとづき現在の状態と行動だけから将来の状態に遷移する確率を導出するモデル
    マルコフ決定過程
  • ニューラルネットワークモデルの予測値を実際の値に近づけるように学習を行うため(A)を定義しその値を最小化するようにモデルのパラメータを更新する
    損失関数
  • ニューラルネットワークの最適解は解析的な手法で求めることができず(A)を用いて少しずつパラメーターを更新していく中で最適解を見つける
    勾配降下法
  • 学習の中で最適なパラメータ設定に近づくまでパラメータを何(A)分も繰り返し更新する必要がある。(A)はパラメータ更新回数を表す量
    イテレーション
  • ランダムに一部のニューロンを無効化しながら学習を進めること
    ドロップアウト
  • CNNでは元画像の上にフィルタを重ねて(A)を行いその結果を特徴マップに射影する
    畳み込み演算
  • 次の単語帳へ (4/6) テストする
よく頑張りました
暗記スタート