动手深度学习

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

4.7 Seq2seq

浏览 92 扫码 分享 2023-11-24 00:33:10

    https://www.cnblogs.com/mantch/p/11433829.html
    编码器和解码器分析
    https://blog.csdn.net/qq_38890412/article/details/120664674?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_title~default-0.pc_relevant_aa&spm=1001.2101.3001.4242.1&utm_relevant_index=3
    decoder有训练过程和预测过程是不一样的
    image.png
    下面是预测过程!

    4.7 Seq2seq - 图2

    理论:
    最早用来做机器翻译
    5071266fa9abe03084394f4317a5fae.png
    BLEU越大精度越好,最大为一。
    110151410e1496e7200cc9f28772d94.png

    代码实现:

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • 数学基础
    • 一、线性回归实现
      • 1.3 关于softmax输入输出细节
      • 1.1 线性回归实现
      • 1.2 SoftMax分类实现
    • 二、多层感知机
      • 2.1 多层感知机及实现
      • 2.2 欠拟合 过拟合 权重衰退 dropout
      • 2.3 前向传播反向传播
      • 2.4 梯度消失和梯度爆炸
    • 三、卷积神经网络
      • 3.4 批量归一化
      • 3.1 卷积基础与图像卷积
      • 3.2 卷积神经网络的一些配置
      • 3.3 LeNet 和 AlexNet
    • 四、循环神经网络
      • 4.1 文本 序列 数据 模型
      • 4.2 循环神经网络
      • 4.3 循环神经网络的实现
      • 4.4 门控循环单元GRU
      • 4.5 长短期记忆网络LSTM
      • 4.6 深度循环神经网络
      • 4.7 Seq2seq
    • 五、自注意力机制
      • 5.1 注意力机制
      • 5.2 注意力分数
      • 5.3 使用注意力机制的seq2seq
      • 5.4 自注意力和位置编码
      • 5.5 Transformer
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注