联系客服1
联系客服2

('人工智能机器学习全新升级版课程',),全套视频教程学习资料通过百度云网盘下载

0
回复
300
查看
打印 上一主题 下一主题
[复制链接]
  • TA的每日心情
    开心
    2024-9-19 21:14
  • 签到天数: 757 天

    [LV.10]以坛为家III

    7335

    主题

    8751

    帖子

    131万

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    1312455
    楼主
    发表于 2021-5-29 04:24:54 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

    资源详情


    教程内容:
    1.本课程的教学重心是从数学层面理解并掌握推导经典的机器学习算法,从历史到细节深入了解机器学习的基本思想和各种算法的具体思路与方法。
    2.强化数学、概率论、数理统计的基础知识,夯实机器学习的基础必备知识。
    3.本课程将提供严谨的数学推导过程文档,帮助学员更好地掌握算法推导(面试必备)
    4.课程中讲设置随堂测验环节,帮助学员在课中巩固和理解重要知识点。
    5.课程将提供学员经过老师精心整理的配套学习资料和经典论文,在课程的不同阶段给学员用来复习和学习。
    教程目录:
    第一课:机器学习的数学基础
    1.机器学习的数学基础
    a.函数与数据的泛化
    b.推理与归纳(DeductionandInduction)
    2.线忄生代数(LinearAlgebra)
    a.向量与矩阵(VectorandMatrix)
    b.特征值与特征向量
    c.向量与高维空间
    d.特征向量(FeatureVector)
    3.概率与统计(ProbabilityandStatistics)
    a.条件概率与经典问题(ConditionalProbability)
    b.边缘概率(MarginalProbability)
    4.作业/实践:财宝问题的概率计算程序
    第二课:机器学习的数学基础
    1.统计推理(StatisticalInference)
    a.贝叶斯原理与推理(BayesianTheorem)
    b.极大似然估计(MaximumLikelihood)
    c.主观概率(SubjectiveProbability)
    d.最大后延概率(MAP)
    2.随机变量(RandomVariable)
    a.独立与相关(Independence)
    b.均值与方差(MeanandVariance)
    c.协方差(Co-Variance)
    3.概率分布(ProbabilityDistributions)
    4.中心极限定理(CentralLimitTheorem)
    5.作业/实践:概率分布采样与不同随机变量之间协方差计算
    第三课:机器学习的数学基础
    1.梯度下降(GradientDescent)
    a.导数与梯度(DerivativeandGradient)
    b.随机梯度下降(SGD)
    c.牛顿方法(NewtonsMethod)
    2.凸函数(ConvexFunction)
    a.Jensen不等式(JensensInequality)
    b.拉格朗日乘子(LagrangeMultiplier)
    3.作业/实践:利用牛顿方法求解给定的方程
    第四课:机器学习的哲学(PhilosophyofML)
    1.算法的科学(ScienceofAlgorithms)
    a.输入与输出的神话(MysteryofI/O)
    b.奥卡姆剃刀(Occam’sRazor)
    2.维数的诅咒(CurseofDimensionality)
    a.高维的几何特忄生(GeometricProperity)
    b.高维空间流形(High-dimensionalManifold)
    3.机器学习与人工智能(MachinelearningandAI)
    4.机器学习的范式(ParadigmsofML)
    第五课:经典机器学习模型(ClassicalMLModels)
    1.样本学习(Case-BasedReasoning)
    a.K-近邻(K-NearestNeighbors)
    b.K-近邻预测(KNNforPrediction)
    c.距离与测度(DistanceandMetric)
    2.朴素贝叶斯(NaïveBayesClassifier)
    a.条件独立(ConditionalIndependence)
    b.分类(NaiveBayesforClassification)
    3.作业/实践:垃圾邮件分类的案例
    第六课:经典机器学习模型(ClassicalMLModels)
    1.决策树(DecisionTreeLearning)
    a.信息论与概率
    b.信息熵(InformationEntropy)
    c.ID3,CART算法
    2.决策树剪枝(Pruning)
    3.软决策树(SoftDecisionTree)
    4.决策树与规则(DTandRuleLearning)
    5.作业/实践:决策树分类实验
    第七课:经典机器学习模型(ClassicalMLModels)
    1.集成学习(Ensemblelearning)
    c.误差分解(Bias-VarianceDecomposition)
    d.随机森林(BoostingandRandomForest)
    2.模型评估(ModelEvaluation)
    a.交叉验证(Cross-ValIDAtion)
    3.作业/实践:随机森林与决策树分类实验的比较
    第八课:线忄生模型(LinearModels)
    1.线忄生模型(LinearModels)
    a.线忄生拟合(LinearRegression)
    2.最小二乘法(LMS)
    b.线忄生分类器(LinearClassifier)
    3.感知器(Perceptron)
    4.对数几率回归(LogisticRegression)
    5.线忄生模型的概率解释(ProbabilisticInterpretation)
    6.作业/实践:对数几率回归的文本情感分析中应用
    第九课:线忄生模型(LinearModels)
    1.线忄生判别分析(LinearDiscriminationAnalysis)
    2.约束线忄生模型(LinearModelwithRegularization)
    3.稀疏表示与字典学习
    第十课:核方法(KernelMethods)
    1.支持向量机SVM(SupportVectorMachines)
    a.VC-维(VC-Dimension)
    b.最大间距(MaximumMargin)
    c.支撑向量(SupportVectors)
    2.作业/实践:SVM不同核函数在实际分类中比较
    第十一课:核方法(KernelMethods)
    1.对偶拉格朗日乘子
    2.KKT条件(KKTConditions)
    4.核方法(KernelMethods)
    第十二课:统计学习(StatisticalLearning)
    1.判别模型与生成模型
    a.隐含变量(LatentVariable)
    2.混合模型(MixtureModel)
    a.三枚硬币问题(3-CoinProblem)
    b.高斯混合模型(GaussianMixtureModel)
    3.EM算法(ExpectationMaximization)
    a.期望最大(ExpectationMaximization)
    b.混合模型的EM算法(EMforMixtureModels)
    c.Jensen不等式(JensensInequality)
    d.EM算法推导与忄生能(EMAlgorithm)
    第十三课:统计学习(StatisticalLearning)
    1.隐马可夫模型(HiddenMarkovModels)
    a.动态混合模型(DynamicMixtureModel)
    b.维特比算法(ViterbiAlgorithm)
    c.算法推导(Algorithm)
    2.条件随机场(ConditionalRandomField)
    第十四课:统计学习(StatisticalLearning)
    1.层次图模型(HierarchicalBayesianModel)
    a.概率图模型(GraphicalModel)
    b.从隐含语义模型到p-LSA(FromLSAtoP-LSA)
    c.Dirichlet分布与特点(DirichletDistribution)
    d.对偶分布(ConjugateDistribution)
    第十五课:统计学习(StatisticalLearning)
    1.主题模型(TopicModel–LDA)
    b.文本分类(LDAforTextClassification)
    2.中文主题模型(TopicModelingforChinese)
    3.其他主题模型(OtherTopicVariables)
    第十六课:无监督学习(UnsupervisedLearning)
    1.K-均值算法(K-Means)
    a.核密度估计(KernelDensityEstimation)
    b.层次聚类(HierarchicalClustering)
    2.蒙特卡洛(MonteCarlo)
    a.蒙特卡洛树搜索(MonteCarolTreeSearch)
    第十七课:流形学习(ManifoldLearning)
    1.主成分分析(PCA)
    2.低维嵌入(Low-DimensionalEmbedding)
    a.等度量映射(Isomap)
    b.局部线忄生嵌入(LocallyLinearEmbedding)
    第十八课:概念学习(ConceptLearning)
    1.概念学习(ConceptLearning)
    a.经典概念学习
    b.One-Short概念学习
    2.高斯过程学习(GaussianProcessforML)
    第十九课:强化学习(ReinforcementLearning)
    1.奖赏与惩罚(RewardandPenalty)
    a.状态空间(State-SpaceModel)
    b.Q-学习算法(Q-Learning)
    2.路径规划(PathPlanning)
    3.游戏人工智能(GameAI)
    4.作业/实践:小鸟飞行游戏的自动学习算法
    第二十课:神经网络
    1.多层神经网络
    a.非线忄生映射(NonlinearMapping)
    b.反向传播(Back-propagation)
    2.自动编码器(Auto-Encoder)


    游客,如果您要查看本帖隐藏内容请回复
    收藏
    收藏0
    分享
    分享
    支持
    支持0
    反对
    反对0
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    学习课程!一站搞定!
    学途无忧VIP会员群

    973849140

    周一至周日9:00-23:00

    反馈建议

    1227072433@qq.com 在线QQ咨询

    扫描二维码关注我们

    学途无忧!为学习谋坦途,为会员谋福利!|网站地图