联系客服1
联系客服2

2017年最新Kaggle 神器:XGBoost 从基础到实战,全套视频教程学习资料通过百度云网盘下载

0
回复
204
查看
打印 上一主题 下一主题
[复制链接]
  • TA的每日心情
    开心
    2024-9-19 21:14
  • 签到天数: 757 天

    [LV.10]以坛为家III

    7335

    主题

    8751

    帖子

    131万

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    1312455
    楼主
    发表于 2021-4-19 09:14:03 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

    资源详情


    课程介绍:XGBoost是极端梯度提升(eXtremeGradientBoosting)的简称。XGBoost源于梯度提升框架,但是更加高效,秘诀就在于算法能并行计算、近似建树、对稀疏数据的有效处理以及内存使用优化,这使得XGBoost至少比现有梯度提升实现有至少10倍的速度提升。XGBoost可以处理回归、分类和排序等多种任务。由于它在预测忄生能上的强大且训练速度快,XGBoost已屡屡斩获Kaggle各大竞赛的冠军宝座。面向人群:数学要求低,初级Python编程基础;想深入学习XGBoost原理及调参;对机器学习(尤其是竞赛)感兴趣的学生或从业人员。课程目标:从数学原理到项目实战:1)理解模型基本原理,掌握XGBoost参数调优2)进击Kaggle竞赛举一反三,更快更好学习其他机器学习模型1)掌握机器学习模型的一般原理及XGBoost的特别之处课程目录:第一讲:初识XGBoost一、XGBoost简介GradientBoosting简介XGBoost的特别之处二、XGBoost的优势速度忄生能三、与XGBoost的第一次亲密接触数据科学任务的一般处理流程XGBoost独立使用与scikit-learn一起使用(学习率、交叉验证)四、案例:XGBoost安装包自带数据集(蘑菇分类)第二讲:暂别XGBoost一、监督学习模型参数目标函数(损失、正则、过拟合/欠拟合)优化:梯度下降、常用损失函数的梯度推导二、分类回归树模型/参数/目标函数/优化(分裂与剪枝)三、随机森林Bagging/行、列随机采样四、案例:Kaggle蘑菇分类任务第三讲:重回XGBoost一、Boosting基本思想AdaBoost二、GradientBoosting基本框架L2Boosting/AdaBoost三、XGBoost忄生能改进:规范的正则、损失函数二阶近似、建树&剪枝、缺失值处理速度改进:稀疏特征、并行、Cache、分布式四、案例:Kaggle的AllstateInstanceClaim任务第四讲:XGBoost实战一、特征工程常规数据检查流程特征类型变换编码特征工程一般原则二、XGBoost参数调优评估准则复习交叉验证三、XGBoost其他高级应用多线程,并行四、案例:Kaggle的TwoSigmaConnect:RentalListingInquiries任务课程大小




    游客,如果您要查看本帖隐藏内容请回复
    收藏
    收藏0
    分享
    分享
    支持
    支持0
    反对
    反对0
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    学习课程!一站搞定!
    学途无忧VIP会员群

    973849140

    周一至周日9:00-23:00

    反馈建议

    1227072433@qq.com 在线QQ咨询

    扫描二维码关注我们

    学途无忧!为学习谋坦途,为会员谋福利!|网站地图