cartificial_intelligence
人工智能,机器学习
项目背景 学习redis源码中布隆过滤器时, 发现redis中建立伯努利数学模型来统计pfcount的次数。因此创建该项目学习人工智能的一些知识的记录。
一, 数学知识的学习
1, 高等数学
2, 概率论与数理统计
概率论与数理统计
二, 机器学习
| 算法或者理论 |
用到的数学知识点 |
| 贝叶斯分类器 |
随机变量, 贝叶斯公式, 随机变量独立性, 正态分布, 最大似然估计 |
| 决策树 |
概率, 熵, Gini系数 |
| KNN算法 |
距离函数 |
| 主成分分析 |
协方差矩阵, 散布矩阵, 拉格朗日乘数法, 特征值与特征向量 |
| 流行学习 |
流行, 最优化, 测地线, 测地距离, 图, 特征值与特征向量 |
| 线性判别分析 |
散度矩阵, 逆矩阵, 拉格朗日乘法数, 特征值与特征向量 |
| 支持向量机 |
点到平面的距离, Slater条件, 强对偶, 拉格朗日对偶, KKT条件, 凸优化, 核函数, Mercer条件 |
| logistic回归 |
概率, 随机变量, 最大似然估计, 梯度下降法, 凸优化, 牛顿法 |
| 随机树林 |
抽样, 方差 |
| AdaBoost算法 |
概率, 随机变量, 极值定理, 数学期望, 牛顿法 |
| 隐马尔可夫模型 |
概率, 离散型随机变量, 条件概率, 随机变量独立性, 拉格朗日乘数法, 最大似然估计 |
| 条件随机场 |
条件概率, 数学期望, 最大似然估计 |
| 高斯混合模型 |
正态分布, 最大似然估计, Jensen不等式 |
| 人工神经网络 |
梯度下降法, 链式法则 |
| 卷积神经网络 |
梯度下降法, 链式法则 |
| 循环神经网络 |
梯度下降法, 链式法则 |
| 生成对抗网络 |
梯度下降法, 链式法则, 极值定理, Kullback-Leibler散度, 测地距离, 条件分布, 互信息 |
| K-means算法 |
距离函数 |
| 强化学习 |
数学期望, 贝尔曼方程 |
| 贝叶斯网络 |
条件概率, 贝叶斯公式, 图 |
| VC维 |
Hoeffding不等式 |
cartificial_intelligence
人工智能,机器学习
项目背景 学习redis源码中布隆过滤器时, 发现redis中建立伯努利数学模型来统计pfcount的次数。因此创建该项目学习人工智能的一些知识的记录。
一, 数学知识的学习
1, 高等数学
2, 概率论与数理统计
概率论与数理统计
二, 机器学习
| 算法或者理论 |
用到的数学知识点 |
| 贝叶斯分类器 |
随机变量, 贝叶斯公式, 随机变量独立性, 正态分布, 最大似然估计 |
| 决策树 |
概率, 熵, Gini系数 |
| KNN算法 |
距离函数 |
| 主成分分析 |
协方差矩阵, 散布矩阵, 拉格朗日乘数法, 特征值与特征向量 |
| 流行学习 |
流行, 最优化, 测地线, 测地距离, 图, 特征值与特征向量 |
| 线性判别分析 |
散度矩阵, 逆矩阵, 拉格朗日乘法数, 特征值与特征向量 |
| 支持向量机 |
点到平面的距离, Slater条件, 强对偶, 拉格朗日对偶, KKT条件, 凸优化, 核函数, Mercer条件 |
| logistic回归 |
概率, 随机变量, 最大似然估计, 梯度下降法, 凸优化, 牛顿法 |
| 随机树林 |
抽样, 方差 |
| AdaBoost算法 |
概率, 随机变量, 极值定理, 数学期望, 牛顿法 |
| 隐马尔可夫模型 |
概率, 离散型随机变量, 条件概率, 随机变量独立性, 拉格朗日乘数法, 最大似然估计 |
| 条件随机场 |
条件概率, 数学期望, 最大似然估计 |
| 高斯混合模型 |
正态分布, 最大似然估计, Jensen不等式 |
| 人工神经网络 |
梯度下降法, 链式法则 |
| 卷积神经网络 |
梯度下降法, 链式法则 |
| 循环神经网络 |
梯度下降法, 链式法则 |
| 生成对抗网络 |
梯度下降法, 链式法则, 极值定理, Kullback-Leibler散度, 测地距离, 条件分布, 互信息 |
| K-means算法 |
距离函数 |
| 强化学习 |
数学期望, 贝尔曼方程 |
| 贝叶斯网络 |
条件概率, 贝叶斯公式, 图 |
| VC维 |
Hoeffding不等式 |