动手学深度学习

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

62 序列到序列学习(seq2seq)

浏览 167 扫码 分享 2022-07-12 22:54:24

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • 2.预备知识
      • 06 矩阵计算
      • 07 自动求导
    • 3.线性神经网络
      • 线性回归的简洁实现
    • 6. 卷积神经网络
      • 视频19 卷积层
      • 李沐动手学深度学习pytorch :问题:找不到d2l包,No module named ‘d2l’
      • 对torch.nn.Parameter()的理解
      • torch nn.Conv2d卷积的理解
      • 6.3. 填充和步幅
    • 8. 循环神经网络
      • 8.2 文本预处理
        • assert
        • Python split()方法
        • hashlib计算sha1
        • lambda函数
        • sorted 排序
        • Python 中的多层for in嵌套循环使用
        • Python collections.Counter()用法
      • 8.3.4 读取长序列数据
      • 8.4 循环神经网络
    • 9. 现代循环神经网络
      • 62 序列到序列学习(seq2seq)
    • 训练的套路
    • python中的“*”,“np.dot()” 和 “@” 的区别
    • pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization
    • net.apply
    • Pytorch model.train 与 model.eval
    • torch nn.Module模块了解
    • 10 注意力机制
      • 10.1. 注意力提示
      • 10.3. 注意力评分函数
      • 10.5. 多头注意力
      • 10.7. Transformer
    • 13. 计算机视觉
      • 13.10. 转置卷积
    • 14. 自然语言处理:预训练
      • 14.8. 来自Transformers的双向编码器表示(BERT)
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注