第一部分:凸优化与机器学习
第一周:凸优化介绍
- 从优化角度理解机器学习
- 优化技术的重要性
- 常见的凸优化问题
- 线性规划以及Simplex Method
- Two-Stage LP
-
第二周:凸函数讲解
凸集的判断
- First-Order Convexity
- Second-order Convexity
- Operations Preserve Convexity
- 二次规划问题(QP)
- 案例:最小二乘问题
- 项目作业:股票投资组合优化
第三周:凸优化问题
- 常见的凸优化问题类别
- 半定规划问题
- 几何规划问题
- 非凸函数的优化
- 松弛化(Relaxation)
- 整数规划(Integer Programming)
-
第四周:对偶(Duality)
拉格朗日对偶函数
- 对偶的几何意义
- Weak and Strong Duality
- KKT条件
- LP, QP, SDP的对偶问题
- 案例:经典模型的对偶推导及实现
- 对偶的其他应用
第五周:优化技术
- 一阶与二阶优化技术
- Gradient Descent
- Subgradient Method
- Proximal Gradient Descent
- Projected Gradient Descent
- SGD与收敛
- Newton’s Method
- Quasi-Newton’s Method
第二部分 图神经网络
第六周: 数学基础
- 向量空间和图论基础
- Inner Product, Hilbert Space
- Eigenfunctions, Eigenvalue
- 傅里叶变化
- 卷积操作
- Time Domain, Spectral Domain
-
第七周:谱域的图神经网络
卷积神经网络回归
- 卷积操作的数学意义
- Graph Convolution
- Graph Filter
- ChebNet
- CayleyNet
- GCN
- Graph Pooling
-
第八周:空间域的图神经网络
Spatial Convolution
- Mixture Model Network (MoNet)
- 注意力机制
- Graph Attention Network(GAT)
- Edge Convolution
- 空间域与谱域的比较
-
第九周:图神经网络改进与应用
拓展1: Relative Position与图神经网络
- 拓展2:融入Edge特征:Edge GCN
- 拓展3:图神经网络与知识图谱: Knowledge GCN
- 拓展4:姿势识别:ST-GCN
- 案例:基于图的文本分类
- 案例:基于图的阅读理解
第三部分 强化学习
第十周:强化学习基础
- Markov Decision Process
- Bellman Equation
- 三种方法:Value,Policy,Model-Based
- Value-Based Approach: Q-learning
- Policy-Based Approach: SARSA
第十一周:Multi-Armed Bandits
- Multi-Armed bandits
- Epsilon-Greedy
- Upper Confidence Bound (UCB)
- Contextual UCB
- LinUCB & Kernel UCB
-
第十二周:路径规划
Monte-Carlo Tree Search
- N-step learning
- Approximation
- Reward Shaping
- 结合深度学习:Deep RL
-
第十三周: 自然语言处理中的RL
Seq2seq模型的问题
- 结合Evaluation Metric的自定义loss
- 结合aspect的自定义loss
- 不同RL模型与seq2seq模型的结合
- 案例:基于RL的文本生成
第四部分 贝叶斯方法
第十四周:贝叶斯方法论简介
- 贝叶斯定理
- 从MLE, MAP到贝叶斯估计
- 集成模型与贝叶斯方法比较
- 计算上的Intractiblity
- MCMC与变分法简介
- 贝叶斯线性回归
- 贝叶斯神经网络
- 案例:基于Bayesian-LSTM的命名实体识别
第十五周:主题模型
- 生成模型与判别模型
- 隐变量模型
- 贝叶斯中Prior的重要性
- 狄利克雷分布、多项式分布
- LDA的生成过程
- LDA中的参数与隐变量
- Supervised LDA
- Dynamic LDA
- LDA的其他变种
- 项目作业:LDA的基础上修改并搭建无监督情感分析模型
