当前位置 博文首页 > AI浩:深度学习的开胃菜——常用的机器学习知识梳理

    AI浩:深度学习的开胃菜——常用的机器学习知识梳理

    作者:[db:作者] 时间:2021-08-12 15:04

    文章目录

      • 摘要
      • 1.1 常见概念
        • 1.1.1 机器学习本质
        • 1.1.2 什么是神经网络
        • 1.1.3 各种常见算法图示
        • 1.1.4 计算图的导数计算
        • 1.1.5 理解局部最优与全局最优
        • 1.1.6 大数据与深度学习之间的关系
      • 1.2 机器学习学习方式
        • 1.2.1 监督学习
        • 1.2.2 非监督式学习
        • 1.2.3 半监督式学习
        • 1.2.4 弱监督学习
        • 1.2.5 监督学习有哪些步骤
      • 1.3 分类算法
        • 1.3.1 常用分类算法的优缺点?
        • 1.3.2 分类算法的评估方法
        • 1.3.3 正确率能很好的评估分类算法吗
        • 1.3.4 什么样的分类器是最好的
      • 1.4 逻辑回归
        • 1.4.1 回归划分
        • 1.4.2 逻辑回归适用性
        • 1.4.3 生成模型和判别模型的区别
        • 1.4.4 逻辑回归与朴素贝叶斯有什么区别
        • 1.4.5 线性回归与逻辑回归的区别
      • 1.5 代价函数
        • 1.5.1 为什么需要代价函数
        • 1.5.2 代价函数作用原理
        • 1.5.3 为什么代价函数要非负
        • 1.5.4 常见代价函数
        • 1.5.5 为什么用交叉熵代替二次代价函数
      • 1.6 损失函数
        • 1.6.1 什么是损失函数
        • 1.6.2 常见的损失函数
        • 1.6.3 逻辑回归为什么使用对数损失函数
        • 1.6.4 对数损失函数是如何度量损失的
      • 1.7 梯度下降
        • 1.7.1 机器学习中为什么需要梯度下降
        • 1.7.2 梯度下降法缺点
        • 1.7.3 梯度下降法直观理解
        • 1.7.4 梯度下降法算法描述
        • 1.7.5 如何对梯度下降法进行调优
        • 1.7.6 随机梯度和批量梯度区别
        • 1.7.7 各种梯度下降法性能比较
      • 1.8 自然梯度法
        • 1.8.1 为什么我们需要自然梯度
        • 1.8.2 如何定义自然梯度
        • 1.8.3 Fisher信息矩阵的意义
      • 1.9 线性判别分析(LDA)
        • 1.9.1 LDA思想总结
        • 1.9.2 图解LDA核心思想
        • 1.9.3 二类LDA算法原理
        • 1.9.4 LDA算法流程总结
        • 1.9.5 LDA和PCA区别
        • 1.9.6 LDA优缺点
      • 1.10 主成分分析(PCA)
        • 1.10.1 主成分分析(PCA)思想总结
        • 1.10.2 图解PCA核心思想
        • 1.10.3 PCA算法推理
        • 1.10.4 PCA算法流程总结
        • 1.10.5 PCA算法主要优缺点
        • 1.10.6 降维的必要性及目的
        • 1.10.7 KPCA与PCA的区别
      • 1.11 模型评估
        • 1.11.1 模型评估常用方法?
        • 1.11.2 误差、偏差和方差有什么区别和联系
        • 1.11.3 经验误差与泛化误差
        • 1.11.4 图解欠拟合、过拟合
        • 1.11.5 如何解决过拟合与欠拟合
        • 1.11.6 交叉验证的主要作用
        • 1.11.7 理解k折交叉验证
        • 1.11.8 混淆矩阵
        • 1.11.9 错误率及精度
        • 1.11.10 查准率与查全率
        • 1.11.11 ROC与AUC
        • 1.11.12 如何画ROC曲线
        • 1.11.13 如何计算TPR,FPR
        • 1.11.14 如何计算AUC
        • 1.11.15 为什么使用Roc和Auc评价分类器
        • 1.11.16 直观理解AUC
        • 1.11.17 代价敏感错误率与代价曲线
        • 1.11.18 模型有哪些比较检验方法
        • 1.11.19 为什么使用标准差
        • 1.11.20 类别不平衡产生原因
        • 1.11.21 常见的类别不平衡问题解决方法
      • 1.12 决策树
        • 1.12.1 决策树的基本原理
        • 1.12.2 决策树的三要素?
        • 1.12.3 决策树学习基本算法
        • 1.12.4 决策树算法优缺点
        • 1.12.5 熵的概念以及理解
        • 1.12.6 信息增益的理解
        • 1.12.7 剪枝处理的作用及策略
      • 1.13 支持向量机
        • 1.13.1 什么是支持向量机
        • 1.13.2 支持向量机能解决哪些问题
        • 1.13.3 核函数特点及其作用
        • 1.13.4 SVM为什么引入对偶问题
        • 1.13.5 如何理解SVM中的对偶问题
        • 1.13.7 常见的核函数有哪些
        • 1.13.9 SVM主要特点
        • 1.13.10 SVM主要缺点
        • 1.13.11 逻辑回归与SVM的异同
      • 1.14 贝叶斯分类器
        • 1.14.1 图解极大似然估计
        • 1.14.2 极大似然估计原理
        • 1.14.3 贝叶斯分类器基本原理
        • 1.14.4 朴素贝叶斯分类器
        • 1.14.5 举例理解朴素贝叶斯分类器
        • 1.14.6 半朴素贝叶斯分类器
      • 1.15 EM算法
        • 1.15.1 EM算法基本思想
        • 1.15.2 EM算法推导
        • 1.15.3 图解EM算法
        • 1.15.4 EM算法流程
      • 1.16 降维和聚类
        • 1.16.1 图解为什么会产生维数灾难
        • 1.16.2 怎样避免维数灾难
        • 1.16.3 聚类和降维有什么区别与联系
        • 1.16.4 有哪些聚类算法优劣衡量标准
        • 1.16.5 聚类和分类有什么区别
        • 1.16.6 不同聚类算法特点性能比较
        • 1.16.7 四种常用聚类方法之比较
        • 1.16.8 k-means聚类算法
        • 1.16.9 层次聚类算法
        • 1.16.10 SOM聚类算法
        • 1.16.11 FCM聚类算法
        • 1.16.12 四种聚类算法试验
    cs