基础
Machine Learning 机器学习:
- Classical Learning
- Supervised Learning
- Classification
- Regression
- Unsupervised Learning
- Clustering
- Pattern Search
- Dimension Reduction
- Supervised Learning
- Ensemble Methods
- Bagging
- Boosting
- Stacking
- Reinforcement Learning
- Neural Networks and Deep Learning
Classical Learning 分类
-
Supervised Learning
- Classification
- Regression
- Unsupervised Learning
- Clustering
- Pattern Search
- Dimension Reduction
Supervised Learning 有监督学习
Classification
主要分类算法:
相关文章:
从使用的主要技术上看,可以把分类方法归结为4种类型:
- 基于距离的分类方法
- 最邻近方法
- 决策树分类方法
- ID3
- C4.5
- VFDT
- 贝叶斯分类方法
- 朴素贝叶斯
- EM算法
- 规则归纳方法
- AQ算法
- CN2算法
- FOIL算法
Regression
主要回归算法:
- Linear Regression 线性回归
- Ridge Regression 岭回归
- Lasso Regression
Unsupervised Learning
Clustering
- 分割聚类算法:
- K-Means K均值聚类
- K-Medoids
- CLARANS
- 层次聚类算法:
- Mean-Shift
- Agglomerative
- Fuzzy C-Means
相关文章:
表:各种聚类算法对比
算法 | 算法效率 | 适合的数据类型 | 能够发现的聚类类型 | 对异常值的敏感性 | 对数据输入顺序的敏感性 |
---|---|---|---|---|---|
CLARANS | 较低 | 数值 | 凸形/球形 | 不敏感 | 非常敏感 |
BIRCH | 高 | 数值 | 凸形/球形 | 不敏感 | 不太敏感 |
DBSCAN | 一般 | 数值 | 任意形状 | 敏感 | 敏感 |
CURE | 较高 | 数值 | 任意形状 | 不敏感 | 不太敏感 |
K-poto | 一般 | 数值/符号 | 凸形/球形 | 敏感 | 一般 |
CUQUE | 较低 | 数值 | 凸形/球形 | 一般 | 不敏感 |
Pattern Search
- Euclat
- Apriori
- FP-Growth
Dimension Reduction
- t-SNE
- PCA
- LSA
- SVD
- LDA
Ensemble Methods
集成方法- Bagging
- Boosting
- Stacking
Bagging
Boosting
- AdaBoost
- XGBoost
- LightGBM
- CatBoost
- Boosting Tree 提升树
Boosting is a method of converting a set of weak learners into strong learners.
Boosting是一种将弱学习器转化成强学习器的方法。
假设进行的是二分类任务:
- 弱学习器的分类错误率仅略小于0.5(分类效果只比扔硬币好一点)
- 强学习器的分类错误率接近0
将弱学习器转化为强学习器——将多个弱学习器[1]联合起来,通过投票得到最后分类结果
为实现弱学习器互补,则需要解决两个问题:
- 怎样获得不同的弱学习器?
- 怎样组合弱学习器?
Stacking
Reinforcement Learning
- Genetic Algorithm
- A3C
- SARSA
- Q-Learning
- DQN
Neural Nets and Deep Learning
- CNN
- RNN
- GAN
- Autoencoders
- MLP
其他:
CNN
RNN
- LSM
- LSTM
- GRU
LSM
LSTM
GRU
- GAN
- Autoencoders
- Perceptrons (MLP)
GAN
Generative Adversarial Nerworks
Autoencoders
seq2seq
Perceptrons (MLP)
参考资料
这里的弱学习器之间相关性要小 ↩︎