Pytorchを使用する前に
以下の事前知識があれば、学習した際にスムーズになります。
| 説明 | チェック |
|---|---|
| ニューラルネットワークとは | 〇考え方 |
| 重み、バイアスの理解 | 〇考え方 |
| 入力層、隠れ層、出力層の理解 | 〇考え方 |
| パーセプトロンとは | |
| 誤差逆伝播法とは | △概念のみ |
| 活性化関数とは | △概念のみ |
| 活性化関数(Sigmoid, tanh, ReLU, Softmax) | △概念のみ |
| 勾配降下法とは | △概念のみ |
| SGD(確率的勾配降下)とは | △概念のみ |
| SGD以外、AdaGrad、RMSProp、Adamなど、最適化手法の概要把握 (NNなら、現在は大体はAdamらしい) | △概念のみ |
| 過学習とは | △概念のみ |
| MNIST データセットについて | 〇有難い |
| 重みの正則化 L1正則化、L2正則化とは | △概念のみ |
| 訓練、検証 の理解 | 〇 |
| 損失関数の平均二乗誤差とは クロスエントロピーとは | |
| 教師あり学習、教師無し学習 | 〇 |
初見から学習しているサイト管理人と同様の方は、脳味噌の前処理に時間がかかるかもしれません。
では学習をはじめていきたいと思います