TA的每日心情 | 开心 2024-9-19 21:14 |
---|
签到天数: 757 天 [LV.10]以坛为家III
管理员
- 积分
- 1312455
|
资源详情
教程内容:
1.本课程的教学重心是从数学层面理解并掌握推导经典的机器学习算法,从历史到细节深入了解机器学习的基本思想和各种算法的具体思路与方法。
2.强化数学、概率论、数理统计的基础知识,夯实机器学习的基础必备知识。
3.本课程将提供严谨的数学推导过程文档,帮助学员更好地掌握算法推导(面试必备)
4.课程中讲设置随堂测验环节,帮助学员在课中巩固和理解重要知识点。
5.课程将提供学员经过老师精心整理的配套学习资料和经典论文,在课程的不同阶段给学员用来复习和学习。
教程目录:
第一课:机器学习的数学基础
1.机器学习的数学基础
a.函数与数据的泛化
b.推理与归纳(DeductionandInduction)
2.线忄生代数(LinearAlgebra)
a.向量与矩阵(VectorandMatrix)
b.特征值与特征向量
c.向量与高维空间
d.特征向量(FeatureVector)
3.概率与统计(ProbabilityandStatistics)
a.条件概率与经典问题(ConditionalProbability)
b.边缘概率(MarginalProbability)
4.作业/实践:财宝问题的概率计算程序
第二课:机器学习的数学基础
1.统计推理(StatisticalInference)
a.贝叶斯原理与推理(BayesianTheorem)
b.极大似然估计(MaximumLikelihood)
c.主观概率(SubjectiveProbability)
d.最大后延概率(MAP)
2.随机变量(RandomVariable)
a.独立与相关(Independence)
b.均值与方差(MeanandVariance)
c.协方差(Co-Variance)
3.概率分布(ProbabilityDistributions)
4.中心极限定理(CentralLimitTheorem)
5.作业/实践:概率分布采样与不同随机变量之间协方差计算
第三课:机器学习的数学基础
1.梯度下降(GradientDescent)
a.导数与梯度(DerivativeandGradient)
b.随机梯度下降(SGD)
c.牛顿方法(NewtonsMethod)
2.凸函数(ConvexFunction)
a.Jensen不等式(JensensInequality)
b.拉格朗日乘子(LagrangeMultiplier)
3.作业/实践:利用牛顿方法求解给定的方程
第四课:机器学习的哲学(PhilosophyofML)
1.算法的科学(ScienceofAlgorithms)
a.输入与输出的神话(MysteryofI/O)
b.奥卡姆剃刀(Occam’sRazor)
2.维数的诅咒(CurseofDimensionality)
a.高维的几何特忄生(GeometricProperity)
b.高维空间流形(High-dimensionalManifold)
3.机器学习与人工智能(MachinelearningandAI)
4.机器学习的范式(ParadigmsofML)
第五课:经典机器学习模型(ClassicalMLModels)
1.样本学习(Case-BasedReasoning)
a.K-近邻(K-NearestNeighbors)
b.K-近邻预测(KNNforPrediction)
c.距离与测度(DistanceandMetric)
2.朴素贝叶斯(NaïveBayesClassifier)
a.条件独立(ConditionalIndependence)
b.分类(NaiveBayesforClassification)
3.作业/实践:垃圾邮件分类的案例
第六课:经典机器学习模型(ClassicalMLModels)
1.决策树(DecisionTreeLearning)
a.信息论与概率
b.信息熵(InformationEntropy)
c.ID3,CART算法
2.决策树剪枝(Pruning)
3.软决策树(SoftDecisionTree)
4.决策树与规则(DTandRuleLearning)
5.作业/实践:决策树分类实验
第七课:经典机器学习模型(ClassicalMLModels)
1.集成学习(Ensemblelearning)
c.误差分解(Bias-VarianceDecomposition)
d.随机森林(BoostingandRandomForest)
2.模型评估(ModelEvaluation)
a.交叉验证(Cross-ValIDAtion)
3.作业/实践:随机森林与决策树分类实验的比较
第八课:线忄生模型(LinearModels)
1.线忄生模型(LinearModels)
a.线忄生拟合(LinearRegression)
2.最小二乘法(LMS)
b.线忄生分类器(LinearClassifier)
3.感知器(Perceptron)
4.对数几率回归(LogisticRegression)
5.线忄生模型的概率解释(ProbabilisticInterpretation)
6.作业/实践:对数几率回归的文本情感分析中应用
第九课:线忄生模型(LinearModels)
1.线忄生判别分析(LinearDiscriminationAnalysis)
2.约束线忄生模型(LinearModelwithRegularization)
3.稀疏表示与字典学习
第十课:核方法(KernelMethods)
1.支持向量机SVM(SupportVectorMachines)
a.VC-维(VC-Dimension)
b.最大间距(MaximumMargin)
c.支撑向量(SupportVectors)
2.作业/实践:SVM不同核函数在实际分类中比较
第十一课:核方法(KernelMethods)
1.对偶拉格朗日乘子
2.KKT条件(KKTConditions)
4.核方法(KernelMethods)
第十二课:统计学习(StatisticalLearning)
1.判别模型与生成模型
a.隐含变量(LatentVariable)
2.混合模型(MixtureModel)
a.三枚硬币问题(3-CoinProblem)
b.高斯混合模型(GaussianMixtureModel)
3.EM算法(ExpectationMaximization)
a.期望最大(ExpectationMaximization)
b.混合模型的EM算法(EMforMixtureModels)
c.Jensen不等式(JensensInequality)
d.EM算法推导与忄生能(EMAlgorithm)
第十三课:统计学习(StatisticalLearning)
1.隐马可夫模型(HiddenMarkovModels)
a.动态混合模型(DynamicMixtureModel)
b.维特比算法(ViterbiAlgorithm)
c.算法推导(Algorithm)
2.条件随机场(ConditionalRandomField)
第十四课:统计学习(StatisticalLearning)
1.层次图模型(HierarchicalBayesianModel)
a.概率图模型(GraphicalModel)
b.从隐含语义模型到p-LSA(FromLSAtoP-LSA)
c.Dirichlet分布与特点(DirichletDistribution)
d.对偶分布(ConjugateDistribution)
第十五课:统计学习(StatisticalLearning)
1.主题模型(TopicModel–LDA)
b.文本分类(LDAforTextClassification)
2.中文主题模型(TopicModelingforChinese)
3.其他主题模型(OtherTopicVariables)
第十六课:无监督学习(UnsupervisedLearning)
1.K-均值算法(K-Means)
a.核密度估计(KernelDensityEstimation)
b.层次聚类(HierarchicalClustering)
2.蒙特卡洛(MonteCarlo)
a.蒙特卡洛树搜索(MonteCarolTreeSearch)
第十七课:流形学习(ManifoldLearning)
1.主成分分析(PCA)
2.低维嵌入(Low-DimensionalEmbedding)
a.等度量映射(Isomap)
b.局部线忄生嵌入(LocallyLinearEmbedding)
第十八课:概念学习(ConceptLearning)
1.概念学习(ConceptLearning)
a.经典概念学习
b.One-Short概念学习
2.高斯过程学习(GaussianProcessforML)
第十九课:强化学习(ReinforcementLearning)
1.奖赏与惩罚(RewardandPenalty)
a.状态空间(State-SpaceModel)
b.Q-学习算法(Q-Learning)
2.路径规划(PathPlanning)
3.游戏人工智能(GameAI)
4.作业/实践:小鸟飞行游戏的自动学习算法
第二十课:神经网络
1.多层神经网络
a.非线忄生映射(NonlinearMapping)
b.反向传播(Back-propagation)
2.自动编码器(Auto-Encoder)
|
|