Deep_Learning 深度学习学习笔记

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

optimization

浏览 202 扫码 分享 2022-09-23 00:18:55
  • hidden units
    mini batch size
  • layers
    learning rate decay
    1. learning rate
    2. beta(momemtum),常设为0.9

      hidden units
      mini batch size

    3. Adam(beta1 常设为0.9, beta2 常设为0.999, epsilon 常设为10)

      layers
      learning rate decay

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • Precision and Recall
    • ML-strategy
      • Train/dev/test
      • satisficing and optimizing metric
      • Single number evaluation metric
      • Orthogonalization
      • 总览
    • 神经网络流程图
    • Debug技巧
    • backward
    • course4-CNN
      • week1
        • Padding
        • Pooling 池化层
        • one layer CNN
    • course2
      • week3
        • Batch Normalization
        • optimization
      • week2
        • Adam
        • RMSprop
        • Momentum-gradient descent
        • Exponentially weighted averages
        • mini-batch
      • week1
        • notebook总结
        • 解决梯度爆炸/消失 方法
        • 其余regularization方法
        • Gradient Checking
        • Drop Out
        • Bias Variance
        • Train / Dev / Test sets
    • course1
      • week4
        • HyperParameter
      • week3
        • weight initialization
        • 神经网络前向/后向传播过程图
        • 神经网络搭建步骤
        • Activation Function
        • Activation
      • week2
        • Gradient Descent on m Examples
        • Logistic Regression Gradient Descent
        • Logistic Regression Loss Function
        • Logistic Regression
        • Binary classification
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注