Pytorchを使用する前に
以下の事前知識があれば、学習した際にスムーズになります。
説明 | チェック |
---|---|
ニューラルネットワークとは | 〇考え方 |
重み、バイアスの理解 | 〇考え方 |
入力層、隠れ層、出力層の理解 | 〇考え方 |
パーセプトロンとは | |
誤差逆伝播法とは | △概念のみ |
活性化関数とは | △概念のみ |
活性化関数(Sigmoid, tanh, ReLU, Softmax) | △概念のみ |
勾配降下法とは | △概念のみ |
SGD(確率的勾配降下)とは | △概念のみ |
SGD以外、AdaGrad、RMSProp、Adamなど、最適化手法の概要把握 (NNなら、現在は大体はAdamらしい) | △概念のみ |
過学習とは | △概念のみ |
MNIST データセットについて | 〇有難い |
重みの正則化 L1正則化、L2正則化とは | △概念のみ |
訓練、検証 の理解 | 〇 |
損失関数の平均二乗誤差とは クロスエントロピーとは | |
教師あり学習、教師無し学習 | 〇 |
初見から学習しているサイト管理人と同様の方は、脳味噌の前処理に時間がかかるかもしれません。
では学習をはじめていきたいと思います