机器学习-学习笔记
白天
夜间
首页
下载
阅读记录
书签管理
我的书签
添加书签
移除书签
李宏毅-2022
浏览
90
扫码
分享
2022-07-22 22:58:11
Spatial Transformer Layer
CNN
seq2seq
self-attention
若有收获,就点个赞吧
0 人点赞
上一篇:
下一篇:
小方向
1-可解释性
AAAI 2020 Explainable Merchine Learning Tutorial
[book]-Interpretable Machine Learning
第六章 Example-Based Explanations
第五章 Model-Agnostic Methods
第四章 Interpretable Models-可解释性模型
第二章 可解释性-interpretability
[2015-CAM]Learning Deep Features for Discriminative Localization
总结
[2019-GradCAM]Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization
[2018-LIME]“Why Should I Trust You?” Explaining the Predictions of Any Classifier
2-对比学习
3-归纳偏置
4-Uplift算法
5-迁移学习
zero-shot learning
6-模型压缩
7-多模态
[2020-综述]Multimodal Intelligence: Representation Learning,Information Fusion, and Applications
[2017-综述]Multimodal Machine Learning: A Survey and Taxonomy
8、元学习
大方向
1-自然语言处理
2-计算机视觉
3-图神经网络
[2020-轻量级GCN-何向南]LightGCN: Simplifying and Powering Graph Convolution Network for RS
4-强化学习
周博磊-强化学习公开课
第二课-马尔科夫决定过程
第三课-无模型的价值函数估计和控制
基础理论
1-泛化理论
[2020-OpenAI]Scaling Laws for Neural Language Models
李宏毅2018-DL理论
[译文]Are Deep Neural Networks Dramatically Overfitted?
[2018-泛化性]Sensitivity and Generalization in Neural Networks: an Empirical Study
[2017-应用分析]An Analysis of Deep Neural Network Models for Practical Applications
[2019-不同层作用]Are All Layers Created Equal
[2017-泛化性理解]Understanding deep learning requires rethinking generalization
深度学习的泛化性
研究方法
2-网络结构
3-正则化
4-置信度
读书笔记
统计学习基础
第三章 Linear Methods for Regression
公开课学习
李宏毅-2022
Spatial Transformer Layer
CNN
seq2seq
Sequence to Sequence Learning with Neural Networks
self-attention
CS224
CS231
工业界方向
1-推荐
2-搜索
3-广告
4、量化投资
损失函数与评估指标
1-AUC
暂无相关搜索结果!
让时间为你证明
分享,让知识传承更久远
×
文章二维码
×
手机扫一扫,轻松掌上读
文档下载
×
请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
PDF
文档
EPUB
文档
MOBI
文档
书签列表
×
阅读记录
×
阅读进度:
0.00%
(
0/0
)
重置阅读进度
×
思维导图备注