0%

Machine Learning | 汇总 Summary

基础

Machine Learning 机器学习

  1. Classical Learning
    1. Supervised Learning
      1. Classification
      2. Regression
    2. Unsupervised Learning
      1. Clustering
      2. Pattern Search
      3. Dimension Reduction
  2. Ensemble Methods
    1. Bagging
    2. Boosting
    3. Stacking
  3. Reinforcement Learning
  4. Neural Networks and Deep Learning

Classical Learning 分类

  • Supervised Learning
    • Classification
    • Regression
  • Unsupervised Learning
    • Clustering
    • Pattern Search
    • Dimension Reduction

Supervised Learning 有监督学习

Classification

主要分类算法:

相关文章:

使用的主要技术上看,可以把分类方法归结为4种类型:

  1. 基于距离的分类方法
    • 最邻近方法
  2. 决策树分类方法
    • ID3
    • C4.5
    • VFDT
  3. 贝叶斯分类方法
    • 朴素贝叶斯
    • EM算法
  4. 规则归纳方法
    • AQ算法
    • CN2算法
    • FOIL算法

Regression

主要回归算法:

Unsupervised Learning

Clustering

相关文章:

表:各种聚类算法对比

算法 算法效率 适合的数据类型 能够发现的聚类类型 对异常值的敏感性 对数据输入顺序的敏感性
CLARANS 较低 数值 凸形/球形 不敏感 非常敏感
BIRCH 数值 凸形/球形 不敏感 不太敏感
DBSCAN 一般 数值 任意形状 敏感 敏感
CURE 较高 数值 任意形状 不敏感 不太敏感
K-poto 一般 数值/符号 凸形/球形 敏感 一般
CUQUE 较低 数值 凸形/球形 一般 不敏感

Dimension Reduction

  • t-SNE
  • PCA
  • LSA
  • SVD
  • LDA

Ensemble Methods

集成方法
  • Bagging
  • Boosting
  • Stacking

Bagging

Boosting

Boosting is a method of converting a set of weak learners into strong learners.

Boosting是一种将弱学习器转化成强学习器的方法。

假设进行的是二分类任务:

  • 弱学习器的分类错误率仅略小于0.5(分类效果只比扔硬币好一点)
  • 强学习器的分类错误率接近0
    将弱学习器转化为强学习器——将多个弱学习器[1]联合起来,通过投票得到最后分类结果

为实现弱学习器互补,则需要解决两个问题:

  1. 怎样获得不同的弱学习器?
  2. 怎样组合弱学习器?

Stacking

Reinforcement Learning

  • Genetic Algorithm
  • A3C
  • SARSA
  • Q-Learning
  • DQN

Neural Nets and Deep Learning

  • CNN
  • RNN
  • GAN
  • Autoencoders
  • MLP

其他:

CNN

RNN

  • LSM
  • LSTM
  • GRU

LSM

LSTM

GRU

  • GAN
  • Autoencoders
  • Perceptrons (MLP)

GAN

Generative Adversarial Nerworks

Autoencoders

seq2seq

Perceptrons (MLP)

参考资料


  1. 这里的弱学习器之间相关性要小 ↩︎

Thank you for your approval.

欢迎关注我的其它发布渠道