博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
sklearn学习笔记
阅读量:7033 次
发布时间:2019-06-28

本文共 1048 字,大约阅读时间需要 3 分钟。

 

用Bagging优化模型的过程:

1、对于要使用的弱模型(比如线性分类器、岭回归),通过交叉验证的方式找到弱模型本身的最好超参数;
2、然后用这个带着最好超参数的弱模型去构建强模型;
3、对强模型也是通过交叉验证的方式找到强模型的最好超参数(比如弱模型的数量)

对于Bagging、RandomForest、Boosting这些组合算法,默认是用的弱模型是决策树,但是可以通过base_estimator参数调整。

 

np.linspace() 创建等比数列,生成(start,stop)区间指定元素个数num的list,均匀分布

np.logspace() log分布间距生成list
np.arange() 生成(start,stop)区间指定步长step的list

 

numpy库:常用基本

https://www.cnblogs.com/smallpi/p/4550361.html

scikit-learn 中文文档

http://cwiki.apachecn.org/display/sklearn/Index
http://sklearn.apachecn.org/#/ (需要FQ)

模型评估: 量化预测的质量
https://blog.csdn.net/marsjhao/article/details/78678276

 

30分钟学会用scikit-learn的基本回归方法(线性、决策树、SVM、KNN)和集成方法(随机森林,Adaboost和GBRT)

https://blog.csdn.net/u010900574/article/details/52666291

 

很值得看的特征选择 方法

https://www.cnblogs.com/stevenlk/p/6543628.html

XGboost数据比赛实战之调参篇
https://blog.csdn.net/sinat_35512245/article/details/79700029

Scikit中的特征选择,XGboost进行回归预测,模型优化的完整过程

https://blog.csdn.net/sinat_35512245/article/details/79668363

 

  make_classification,make_circles和make_moons

 常用算法 的基本sklearn命令: 

转载于:https://www.cnblogs.com/andylhc/p/10314273.html

你可能感兴趣的文章
tab 切换下划线跟随实现
查看>>
20+个很棒的Android开源项目
查看>>
跨域、vue双向绑定相关面试题
查看>>
Web Components(一)入门
查看>>
mpvue打包没有app.json等配置文件的解决方法
查看>>
树莓派配置swoole环境
查看>>
JavaScript 工作原理之十二-网络层探秘及如何提高其性能和安全性
查看>>
搭建基于react项目的心得
查看>>
react-native踩坑记录
查看>>
HTTP API 设计入坑指南(一)
查看>>
OkHttp源码分析
查看>>
【挖坑系列】跨域问题相关
查看>>
使用cronolog切割nginx访问日志,定时清理旧日志
查看>>
PHP最常用函数TOP100(翻译)
查看>>
大数据科学新发展展望:不得不知的四大趋势
查看>>
python多线程、锁、event事件机制的简单使用
查看>>
ES6系列之解构赋值
查看>>
goLang 文件操作之二
查看>>
7大维度看国外企业为啥选择gRPC打造高性能微服务?
查看>>
HTTP协议类
查看>>