0
点赞
收藏
分享

微信扫一扫

《统计学习方法》中每一章的算法实现一遍


大数据挖掘DT机器学习  公众号: datayx



目录  · · · · · ·

第1章 统计学习方法概论

1.1 统计学习

1.2 监督学习

1.3 统计学习三要素

1.4 模型评估与模型选择

1.5 i~则化与交叉验证

1.6 泛化能力

1.7 生成模型与判别模型

1.8 分类问题

1.9 标注问题

1.10 回归问题



第2章 感知机

2.1 感知机模型

2.2 感知机学习策略

2.3 感知机学习算法



第3章 众近邻法

3.1 k近邻算法

3.2 k近邻模型

3.3 k近邻法的实现:kd树



第4章 朴素贝叶斯法

4.1 朴素贝叶斯法的学习与分类

4.2 朴素贝叶斯法的参数估计


第5章 决策树

第6章 逻辑斯谛回归与最大熵模型

第7章 支持向量机

第8章 提升方法

第9章 em算法及其推广

第10章 隐马尔可夫模型

第11章 条件随机场

第12章 统计学习方法总结

附录a 梯度下降法

附录b 牛顿法和拟牛顿法

附录c 拉格朗日对偶性


统计学习  十二章PPT 

算法源码  获取


关注微信公众号 datayx  然后回复 统计学习 即可获取。


《统计学习方法》中每一章的算法实现一遍_python实现



将《统计学习方法》中每一章的算法用我自己的方式实现一遍。 除了李航书上的算法外,还实现了一些其他机器学习的算法。


第二章 感知器模型

博客:李航《统计学习方法》第二章——用Python实现感知器模型(MNIST数据集) 

代码:perceptron/binary_perceptron.py

第三章 K近邻法

博客:李航《统计学习方法》第三章——用Python实现KNN算法(MNIST数据集) 

代码:knn/knn.py

第四章 朴素贝叶斯

博客:李航《统计学习方法》第四章——用Python实现朴素贝叶斯分类器(MNIST数据集) 

代码:naive_bayes/naive_bayes.py

第五章 决策树

博客:李航《统计学习方法》第五章——用Python实现决策树(MNIST数据集) 

代码:decision_tree/decision_tree.py

第六章 逻辑斯提回归

博客:李航《统计学习方法》第六章——用Python实现逻辑斯谛回归(MNIST数据集) 

代码:logistic_regression/logistic_regression.py

第六章 最大熵模型

博客:李航《统计学习方法》第六章——用Python实现最大熵模型(MNIST数据集) 

代码:maxENT/maxENT.py

第七章 支持向量机

博客:李航《统计学习方法》第七章——用Python实现支持向量机模型(伪造数据集) 

代码:svm/svm.py

第八章 提升方法

博客:李航《统计学习方法》第八章——用Python+Cpp实现AdaBoost算法(MNIST数据集) 

纯Python代码:AdaBoost/adaboost.py 

Python C++代码:AdaBoost/adaboost_cpp.py,AdaBoost/Sign/Sign/sign.h,AdaBoost/Sign/Sign/sign.cpp

第十章 隐马尔科夫模型

博客:李航《统计学习方法》第十章——用Python实现隐马尔科夫模型 

代码:hmm/hmm.py

额外章节

###softmax分类器 博客:python 实现 softmax分类器(MNIST数据集) 

代码:softmax/softmax.py







不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  

《统计学习方法》中每一章的算法实现一遍_python实现_02

长按图片,识别二维码,点关注

举报

相关推荐

0 条评论