动手深度学习

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

五、自注意力机制

浏览 117 扫码 分享 2022-07-12 22:55:35
  • 5.1 注意力机制
  • 5.2 注意力分数
  • 5.3 使用注意力机制的seq2seq
  • 5.4 自注意力和位置编码
  • 5.5 Transformer

若有收获,就点个赞吧

0 人点赞

上一篇:
下一篇:
  • 书签
  • 添加书签 移除书签
  • 数学基础
  • 一、线性回归实现
    • 1.3 关于softmax输入输出细节
    • 1.1 线性回归实现
    • 1.2 SoftMax分类实现
  • 二、多层感知机
    • 2.1 多层感知机及实现
    • 2.2 欠拟合 过拟合 权重衰退 dropout
    • 2.3 前向传播反向传播
    • 2.4 梯度消失和梯度爆炸
  • 三、卷积神经网络
    • 3.4 批量归一化
    • 3.1 卷积基础与图像卷积
    • 3.2 卷积神经网络的一些配置
    • 3.3 LeNet 和 AlexNet
  • 四、循环神经网络
    • 4.1 文本 序列 数据 模型
    • 4.2 循环神经网络
    • 4.3 循环神经网络的实现
    • 4.4 门控循环单元GRU
    • 4.5 长短期记忆网络LSTM
    • 4.6 深度循环神经网络
    • 4.7 Seq2seq
  • 五、自注意力机制
    • 5.1 注意力机制
    • 5.2 注意力分数
    • 5.3 使用注意力机制的seq2seq
    • 5.4 自注意力和位置编码
    • 5.5 Transformer
暂无相关搜索结果!

    让时间为你证明

    展开/收起文章目录

    分享,让知识传承更久远

    文章二维码

    手机扫一扫,轻松掌上读

    文档下载

    请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
    PDF文档 EPUB文档 MOBI文档

    书签列表

      阅读记录

      阅读进度: 0.00% ( 0/0 ) 重置阅读进度

        思维导图备注