次のうち、ディープラーニング (深層学習) において、過学習を抑制するために使われる方法として、最も不適切なものはどれか。
@ 大きな重みを持つことに対してペナルティを課す「Weight decay (荷重減衰)」を用いる。
A パラメータを大量に持ち、表現力の高いモデルに変更する。
B ニューロンをランダムに消去しながら学習するDropoutを用いる。
C 学習データ (訓練データ) の数を増やす。
D テスト誤差が増加し続ける傾向が見られた時点で学習を停止させる。
A
@ Weight decay (荷重減衰) は、過学習を抑制するために使われる。ただし、Weight decay を大きくし過ぎると学習を抑制しすぎてしまう。
A 不適切である。パラメータを大量に持ち、表現力の高いモデルに変更すると過学習となり、未知のデータに対して正解率が低くなる。(適合できなくなる)
B ニューロンをランダムに消去しながら学習するDropoutを用いると、過学習を抑制することができる。
C 学習データ (訓練データ) の数を増やすと、過学習を抑制できる。
D テスト誤差が増加し続ける傾向が見られた時点で学習を停止させると、過学習を抑制できる。
V−12 | 目次 | V−14 |