目次
AI関連まとめ
1. モデルと学習に関する用語
【学習プロセス関連】
- バッチ
- バッチサイズ
- ミニバッチ
- イテレーション
- エポック
- 学習率
- 学習率スケジューリング
- オンライン学習
- バッチ学習
- 増分学習
- 終身学習
- シーケンシャル学習
- エンドツーエンド学習
- 自己回帰モデル
- マルチタスク学習
【損失関数・最適化手法】
- 損失関数
- コスト関数
- 最適化アルゴリズム
- 勾配降下法
- 確率的勾配降下法
- ミニバッチ勾配降下法
- モメンタム
- Nesterov Accelerated Gradient
- Adam
- RMSprop
- Adagrad
- Adadelta
【正則化・過学習対策】
- 正則化
- L1正則化
- L2正則化
- Elastic Net
- ドロップアウト
- バッチ正規化
- 層正規化
- 勾配消失
- 勾配爆発
- 過学習
- アンダーフィッティング
- 早期終了
- データオーグメンテーション
- データバランシング
【転移学習・モデルの改善】
- 転移学習
- ファインチューニング
- 蒸留学習
- 自己教師あり学習
- 半教師あり学習
- 教師なし学習
- 教師あり学習
- 強化学習
- メタ学習
【モデル評価・ハイパーパラメータ調整】
- 交差検証
- k分割交差検証
- グリッドサーチ
- ランダムサーチ
- ベイズ最適化
- ハイパーパラメータ
- パラメータチューニング
【重み・データ管理】
- 重み初期化
- Xavier初期化
- He初期化
- Orthogonal Initialization
- 重みのクリッピング
- 一般化
- 訓練データ
- 検証データ
- テストデータ
- データシャッフル
2. データと特徴量に関する用語
【特徴量関連】
- 特徴量
- 特徴量エンジニアリング
- 特徴選択
- 特徴抽出
- 特徴変換
- 特徴交互作用
- 特徴構築
- 合成特徴量
- 特徴量正則化
【次元削減・特徴抽出手法】
- 次元削減
- 主成分分析(PCA)
- 線形判別分析(LDA)
- t-SNE
- UMAP
- 自己符号化器(Autoencoder)
【データの前処理】
- 正規化
- 標準化
- 最小最大スケーリング(Min-Max Scaling)
- Zスコア正規化
- ロバストスケーリング
- ボックスコックス変換
- 分位数変換
- ノーマライゼーション
- スケーリング
- 変数変換
【ラベル・カテゴリ情報】
- ラベル
- クラス
- ターゲット変数
- カテゴリ変数
- 数値変数
- バイナリ分類
- 多クラス分類
【エンコーディング手法】
- ラベルエンコーディング
- ワンホットエンコーディング
- ターゲットエンコーディング
- 頻度エンコーディング
- バイナリーエンコーディング
- 平均エンコーディング
- エンティティエンベディング
- ターゲットバリューエンコーディング
- エンコーディング手法
【特徴選択・評価手法】
- 特徴選択手法
- フィルターメソッド
- ラッパーメソッド
- 埋め込み手法
- 相関分析
- 情報ゲイン
- シャノンエントロピー
- 相互情報量
- 分散閾値法
- 主成分負荷量
- 変数重要度
- ツリーベース特徴選択
【データ品質管理】
- 欠損値処理
- データ補完
- 外れ値検出
- クレンジング
【ドメイン別特徴量】
- 時間系列特徴量
- テキスト特徴量
- 画像特徴量
- 音声特徴量
- 信号処理特徴量
- 波形特徴量
- スペクトル特徴量
【音声特徴量】
- MFCC
- ゼロ交差率
- スペクトルセントロイド
- RMSエネルギー
【データ拡張・バランス調整】
- データ拡張
- データバランス調整
- SMOTE
- オーバーサンプリング
- アンダーサンプリング
3. ニューラルネットワーク関連
【基本概念】
- ニューラルネットワーク(Neural Network / NN)
- パーセプトロン(Perceptron)
- 多層パーセプトロン(MLP, Multi-Layer Perceptron)
- 隠れ層(Hidden Layer)
- 入力層(Input Layer)
- 出力層(Output Layer)
- 重み(Weight)
- バイアス(Bias)
- 前向き伝播(Forward Propagation)
- 逆伝播(Backpropagation)
- 誤差逆伝播法(BP, Backpropagation Algorithm)
- 損失関数(Loss Function)
- 最適化(Optimization)
【活性化関数】
- 活性化関数(Activation Function)
- シグモイド関数(Sigmoid)
- ハイパボリックタンジェント(Tanh)
- ReLU(Rectified Linear Unit)
- Leaky ReLU
- ELU(Exponential Linear Unit)
- Swish
- ソフトマックス関数(Softmax)
【畳み込みニューラルネットワーク(CNN)】
- 畳み込みニューラルネットワーク(CNN, Convolutional Neural Network)
- 畳み込み(Convolution)
- 畳み込みフィルタ(カーネル, Kernel)
- プーリング(Pooling)
- 最大プーリング(Max Pooling)
- 平均プーリング(Average Pooling)
- パディング(Padding)
- ストライド(Stride)
- チャネル(Channel)
- トランスポーズ畳み込み(Transposed Convolution)
【リカレントニューラルネットワーク(RNN)】
- リカレントニューラルネットワーク(RNN, Recurrent Neural Network)
- 長短期記憶(LSTM, Long Short-Term Memory)
- ゲート付きリカレントユニット(GRU, Gated Recurrent Unit)
- 双方向RNN(BiRNN, Bidirectional RNN)
- 双方向LSTM(BiLSTM, Bidirectional LSTM)
- 双方向GRU(BiGRU, Bidirectional GRU)
【注意機構・Transformer系】
- アテンション機構(Attention Mechanism)
- 自己注意(Self-Attention)
- Transformer
- エンコーダ(Encoder)
- デコーダ(Decoder)
- BERT(Bidirectional Encoder Representations from Transformers)
- GPT(Generative Pre-trained Transformer)
- ViT(Vision Transformer)
【畳み込み・深層ネットワークアーキテクチャ】
- ResNet(Residual Network)
- DenseNet(Densely Connected Convolutional Networks)
- U-Net
【生成モデル・自己符号化器】
- GAN(Generative Adversarial Network, 敵対的生成ネットワーク)
- オートエンコーダ(Autoencoder)
- 変分オートエンコーダ(VAE, Variational Autoencoder)
- ディープビリーフネットワーク(DBN, Deep Belief Network)
- ボルツマンマシン(Boltzmann Machine)
- スパースコーディング(Sparse Coding)
【正則化・正規化】
- バッチ正規化(Batch Normalization)
- 層正規化(Layer Normalization)
- グループ正規化(Group Normalization)
- 重み正則化(Weight Regularization)
- ドロップアウト(Dropout)
【アンサンブル学習】
- アンサンブル学習(Ensemble Learning)
- バギング(Bagging)
- ブースティング(Boosting)
- スタッキング(Stacking)
【特殊なニューラルネットワーク】
- 蒸留学習(Knowledge Distillation)
- グラフニューラルネットワーク(GNN, Graph Neural Network)
- メモリネットワーク(Memory Networks)
- カプセルネットワーク(Capsule Network)
- スパイキングニューラルネットワーク(Spiking Neural Network, SNN)
4. モデル評価と指標
【分類モデルの評価指標】
- 精度(Accuracy)
- 適合率(Precision)
- 再現率(Recall)
- F1スコア(F1 Score)
- バランス精度(Balanced Accuracy)
- 混同行列(Confusion Matrix)
- 真陽性(TP, True Positive)
- 偽陽性(FP, False Positive)
- 真陰性(TN, True Negative)
- 偽陰性(FN, False Negative)
- ROC曲線(Receiver Operating Characteristic Curve)
- AUC(Area Under the Curve)
- PR曲線(Precision-Recall Curve)
- 平均適合率(MAP, Mean Average Precision)
- トップ-k精度(Top-k Accuracy)
- ヒット率(Hit Rate)
- Jaccard係数(Jaccard Index)
- コーエンのカッパ係数(Cohen’s Kappa)
- Matthews相関係数(MCC, Matthews Correlation Coefficient)
- ハミング損失(Hamming Loss)
- ログ損失(Log Loss)
【回帰モデルの評価指標】
- 二乗平均平方誤差(RMSE, Root Mean Square Error)
- 平均絶対誤差(MAE, Mean Absolute Error)
- 平均二乗誤差(MSE, Mean Squared Error)
- 決定係数(R², Coefficient of Determination)
【確率・情報理論に基づく評価指標】
- KLDivergence(Kullback-Leibler Divergence)
- JSDivergence(Jensen-Shannon Divergence)
- ペアワイズ損失(Pairwise Loss)
【モデルの最適化・評価手法】
- ハイパーパラメータ最適化(Hyperparameter Optimization)
- 交差検証(Cross Validation)
- K分割交差検証(K-Fold Cross Validation)
- リーブワンアウト交差検証(LOOCV, Leave-One-Out Cross Validation)
- リーブPアウト交差検証(LPOCV, Leave-P-Out Cross Validation)
- ストラティファイドK分割交差検証(Stratified K-Fold Cross Validation)
- ホールドアウト検証(Holdout Validation)
- ブートストラップ法(Bootstrap Method)
【情報理論・統計に基づく評価手法】
- 情報ゲイン(Information Gain)
- シャノンエントロピー(Shannon Entropy)
- 相互情報量(Mutual Information)
- 偏相関係数(Partial Correlation Coefficient)
5. 学習手法とアルゴリズム
【学習手法】
- 教師あり学習(Supervised Learning)
- 教師なし学習(Unsupervised Learning)
- 強化学習(Reinforcement Learning)
- 半教師あり学習(Semi-Supervised Learning)
- 自己教師あり学習(Self-Supervised Learning)
- オンライン学習(Online Learning)
- バッチ学習(Batch Learning)
- 転移学習(Transfer Learning)
- ファインチューニング(Fine-Tuning)
- 蒸留学習(Knowledge Distillation)
- マルチタスク学習(Multi-Task Learning)
- メタ学習(Meta Learning)
- エンドツーエンド学習(End-to-End Learning)
【強化学習関連】
- オンライン強化学習(Online Reinforcement Learning)
- 深層強化学習(Deep Reinforcement Learning, DRL)
- マルコフ決定過程(Markov Decision Process, MDP)
- Q学習(Q-Learning)
- SARSA(State-Action-Reward-State-Action)
- 方策勾配法(Policy Gradient Methods)
- アクター・クリティック法(Actor-Critic Methods)
- 逆強化学習(Inverse Reinforcement Learning, IRL)
【回帰(Regression)】
- 回帰(Regression)
- 線形回帰(Linear Regression)
- 重回帰分析(Multiple Linear Regression)
- リッジ回帰(Ridge Regression)
- ラッソ回帰(Lasso Regression)
- Elastic Net回帰
- ロジスティック回帰(Logistic Regression)
【分類(Classification)】
- 分類(Classification)
- バイナリ分類(Binary Classification)
- 多クラス分類(Multi-Class Classification)
- 多ラベル分類(Multi-Label Classification)
- 決定木(Decision Tree)
- ランダムフォレスト(Random Forest)
- ブースティング(Boosting)
- 勾配ブースティング(Gradient Boosting)
- XGBoost
- LightGBM
- CatBoost
- サポートベクターマシン(SVM, Support Vector Machine)
- カーネルSVM(Kernel SVM)
- k近傍法(k-Nearest Neighbors, k-NN)
- ナイーブベイズ(Naive Bayes)
- 確率的勾配降下法(Stochastic Gradient Descent, SGD)
【クラスタリング(Clustering)】
- クラスタリング(Clustering)
- k-means法(k-Means Clustering)
- 階層的クラスタリング(Hierarchical Clustering)
- DBSCAN(Density-Based Spatial Clustering of Applications with Noise)
- Gaussian Mixture Model(GMM)
- 自己組織化マップ(Self-Organizing Map, SOM)
- スペクトラルクラスタリング(Spectral Clustering)
【次元削減・特徴抽出】
- 主成分分析(PCA, Principal Component Analysis)
- 線形判別分析(LDA, Linear Discriminant Analysis)
- 独立成分分析(ICA, Independent Component Analysis)
- 因子分析(Factor Analysis)
【異常検知(Anomaly Detection)】
- 異常検知(Anomaly Detection)
- ロバスト異常検知(Robust Anomaly Detection)
- 一級SVM(One-Class SVM)
- アイソレーションフォレスト(Isolation Forest)
- 局所外れ値因子(Local Outlier Factor, LOF)
- 自己符号化器(Autoencoder)
【時間系列分析(Time Series Analysis)】
- 時間系列分析(Time Series Analysis)
- ARIMA(AutoRegressive Integrated Moving Average)
- SARIMA(Seasonal ARIMA)
- LSTMによる時系列予測
【因果推論(Causal Inference)】
- 因果推論(Causal Inference)
【ディープラーニング・ニューラルネットワーク】
- グラフニューラルネットワーク(Graph Neural Network, GNN)
- リカレントニューラルネットワーク(Recurrent Neural Network, RNN)
- 変分オートエンコーダ(VAE, Variational Autoencoder)
- 敵対的生成ネットワーク(GAN, Generative Adversarial Network)
6. 実装関連
【プログラミング言語】
- Python
【機械学習・ディープラーニングフレームワーク】
- PyTorch
- TensorFlow
- Scikit-learn
- Keras
【音声認識ライブラリ】
- Whisper
- OpenAI Whisper
- Azure Speech SDK
- Google Cloud Speech-to-Text
- IBM Watson Speech to Text
- VOSK
- Kaldi
- DeepSpeech
【音声合成ライブラリ】
- Coqui TTS
- Azure Text-to-Speech
- Google Cloud Text-to-Speech
- Amazon Polly
- IBM Watson Text to Speech
- Tacotron2
- WaveNet
- FastSpeech2
- VITS(Variational Inference Text-to-Speech)
- Glow-TTS
【自然言語処理・翻訳ライブラリ】
- Hugging Face Transformers
- OpenNMT
- MarianMT
- Google Translate API
- Azure Translator API
- DeepL API
- Fairseq Sequence-to-Sequence
- mBART(Multilingual BART)
- NLLB(No Language Left Behind)
- BERT
- GPTシリーズ(GPT-3, GPT-4)
- T5(Text-to-Text Transfer Transformer)
- Transformers.js
【音声処理ライブラリ】
- SpeechBrain
- ESPnet
- Fairseq
- SpeechRecognition(Pythonライブラリ)
- pydub
- librosa
- torchaudio
【推論最適化ライブラリ】
- onnxruntime
- Triton Inference Server
- CUDA
- cuDNN
- TensorRT
【データ処理・分析ライブラリ】
- OpenCV
- Kaggle
- NLTK(Natural Language Toolkit)
【開発環境(IDE, Notebook, APIサーバー)】
- Jupyter Notebook
- Google Colab
- VS Code(Visual Studio Code)
- PyCharm
- Anaconda
【API・Web関連】
- FastAPI
- Flask
- Django
- REST API
- WebRTC
- Docker
7. 学習済みモデル
【画像認識モデル】
- AlexNet
- VGG(Visual Geometry Group)
- ResNet(Residual Network)
- DenseNet(Densely Connected Convolutional Networks)
- EfficientNet
- MobileNet
- Inception(GoogLeNet)
- RegNet
- ConvNeXt
- Vision Transformer(ViT)
- Swin Transformer
- YOLO(You Only Look Once)
- Faster R-CNN
- Mask R-CNN
- DETR(DEtection TRansformer)
- SAM(Segment Anything Model)
【自然言語処理(NLP)モデル】
- BERT(Bidirectional Encoder Representations from Transformers)
- RoBERTa(Robustly Optimized BERT Approach)
- DistilBERT(Distilled BERT)
- ALBERT(A Lite BERT)
- XLNet
- GPT-3(Generative Pre-trained Transformer 3)
- GPT-4
- T5(Text-to-Text Transfer Transformer)
- mT5(Multilingual T5)
- BART(Bidirectional and Auto-Regressive Transformer)
- mBART(Multilingual BART)
- XLM-R(Cross-lingual Language Model – RoBERTa)
- NLLB(No Language Left Behind)
【音声認識・音声合成モデル】
- Whisper(OpenAI)
- DeepSpeech
- Wav2Vec 2.0(Facebook AI)
- HuBERT(Hidden-Unit BERT)
- Conformer
- Tacotron2
- WaveNet
- FastSpeech2
- VITS(Variational Inference Text-to-Speech)
【機械翻訳モデル】
- MarianMT
- M2M-100(Facebook AI)
- Fairseq Sequence-to-Sequence
- Google Translate API(T5ベース)
- DeepL API
【拡張・生成AIモデル】
- StyleGAN(Generative Adversarial Network for Images)
- BigGAN
- Stable Diffusion
- DALL·E
- Midjourney
- Imagen(Google)
- CLIP(Contrastive Language-Image Pretraining)
- GLIDE(Guided Diffusion for Image Generation)
【強化学習・ゲームAIモデル】
- AlphaGo
- AlphaZero
- MuZero
- DQN(Deep Q-Network)
- PPO(Proximal Policy Optimization)
- SAC(Soft Actor-Critic)
- A3C(Asynchronous Advantage Actor-Critic)
【時系列・異常検知モデル】
- LSTM(Long Short-Term Memory)
- GRU(Gated Recurrent Unit)
- TFT(Temporal Fusion Transformer)
- Anomaly Transformer
- Isolation Forest(異常検知)
- One-Class SVM(異常検知)
8. メモ・その他
9. 参考になりそうなリンク集