Deep_Learning 深度学习学习笔记
白天
夜间
首页
下载
阅读记录
书签管理
我的书签
添加书签
移除书签
week2
浏览
93
扫码
分享
2022-07-25 05:20:10
Adam
RMSprop
Momentum-gradient descent
Exponentially weighted averages
mini-batch
若有收获,就点个赞吧
0 人点赞
上一篇:
下一篇:
Precision and Recall
ML-strategy
Train/dev/test
satisficing and optimizing metric
Single number evaluation metric
Orthogonalization
总览
神经网络流程图
Debug技巧
backward
course4-CNN
week1
Padding
Pooling 池化层
one layer CNN
course2
week3
Batch Normalization
optimization
week2
Adam
RMSprop
Momentum-gradient descent
Exponentially weighted averages
mini-batch
week1
notebook总结
解决梯度爆炸/消失 方法
其余regularization方法
Gradient Checking
Drop Out
Bias Variance
Train / Dev / Test sets
course1
week4
HyperParameter
week3
weight initialization
神经网络前向/后向传播过程图
神经网络搭建步骤
Activation Function
Activation
week2
Gradient Descent on m Examples
Logistic Regression Gradient Descent
Logistic Regression Loss Function
Logistic Regression
Binary classification
暂无相关搜索结果!
让时间为你证明
分享,让知识传承更久远
×
文章二维码
×
手机扫一扫,轻松掌上读
文档下载
×
请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
PDF
文档
EPUB
文档
MOBI
文档
书签列表
×
阅读记录
×
阅读进度:
0.00%
(
0/0
)
重置阅读进度
×
思维导图备注