ディープラーニング (深層学習) において、過学習を抑制するために使われる方法として、最も不適切なものはどれか。
@ 大きな重みを持つことに対してペナルティを課す「Weight decay (荷重減衰)」を用いる。
A ニューロンをランダムに消去しながら学習するDropoutを用いる。
B 学習データ (訓練データ) の数を増やす。
C パラメータを大量に持ち、表現力の高いモデルに変更する。
D テスト誤差が増加し続ける傾向が見られた時点で学習を停止させる。
C
@ Weight decay (荷重減衰) は、過学習を抑制するために使われる。ただし、Weight decay を大きくし過ぎると学習を抑制しすぎてしまう。
A ニューロンをランダムに消去しながら学習するDropoutを用いると、過学習を抑制することができる。
B 学習データ (訓練データ) の数を増やすと、過学習を抑制できる。
C 不適切である。パラメータを大量に持ち、表現力の高いモデルに変更すると過学習となり、未知のデータに対して正解率が低くなる。(適合できなくなる)
D テスト誤差が増加し続ける傾向が見られた時点で学習を停止させると、過学習を抑制できる。
V−2 | 目次 | V−4 |