动手学深度学习

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

sorted 排序

浏览 131 扫码 分享 2022-07-12 22:54:23

若有收获,就点个赞吧

0 人点赞

上一篇:
下一篇:
  • 书签
  • 添加书签 移除书签
  • 2.预备知识
    • 06 矩阵计算
    • 07 自动求导
  • 3.线性神经网络
    • 线性回归的简洁实现
  • 6. 卷积神经网络
    • 视频19 卷积层
    • 李沐动手学深度学习pytorch :问题:找不到d2l包,No module named ‘d2l’
    • 对torch.nn.Parameter()的理解
    • torch nn.Conv2d卷积的理解
    • 6.3. 填充和步幅
  • 8. 循环神经网络
    • 8.2 文本预处理
      • assert
      • Python split()方法
      • hashlib计算sha1
      • lambda函数
      • sorted 排序
      • Python 中的多层for in嵌套循环使用
      • Python collections.Counter()用法
    • 8.3.4 读取长序列数据
    • 8.4 循环神经网络
  • 9. 现代循环神经网络
    • 62 序列到序列学习(seq2seq)
  • 训练的套路
  • python中的“*”,“np.dot()” 和 “@” 的区别
  • pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization
  • net.apply
  • Pytorch model.train 与 model.eval
  • torch nn.Module模块了解
  • 10 注意力机制
    • 10.1. 注意力提示
    • 10.3. 注意力评分函数
    • 10.5. 多头注意力
    • 10.7. Transformer
  • 13. 计算机视觉
    • 13.10. 转置卷积
  • 14. 自然语言处理:预训练
    • 14.8. 来自Transformers的双向编码器表示(BERT)
暂无相关搜索结果!

    让时间为你证明

    展开/收起文章目录

    分享,让知识传承更久远

    文章二维码

    手机扫一扫,轻松掌上读

    文档下载

    请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
    PDF文档 EPUB文档 MOBI文档

    书签列表

      阅读记录

      阅读进度: 0.00% ( 0/0 ) 重置阅读进度

        思维导图备注