人工智能

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

[转]Sequence Modeling with CTC

浏览 87 扫码 分享 2023-11-22 01:07:55

    Sequence Modeling with CTC.pdf

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • 基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN - Madcola - 博客园
    • AI
      • 李沐-动手学深度学习v2
        • 深度学习介绍
      • 一文读懂机器学习:基本概念、五大流派与九种常见算法
      • 神经网络可视化——收集的一些常见的网络可视化方法
      • 图解深度学习
      • [转]神经网络主要类型及其应用
      • 量化
        • [转]模型量化了解一下
        • [转]Int8量化-介绍(一)
        • [转]Int8量化 - python实现以及代码分析(二)
    • BERT
      • 一文读懂BERT(原理篇)_忧郁的茄子博客
      • 一本读懂BERT(实践篇)_忧郁的茄子博客
    • CTC(Connectionist Temporal Classification)
      • CTC(Connectionist Temporal Classification)介绍
      • [转]CTC Loss原理及实现
      • [转]语音识别:深入理解CTC Loss原理
      • CTC Loss和Focal CTC Loss
      • AI 黑话大全
      • 深度学习ground truth 解释
      • [转]Sequence Modeling with CTC
      • [转]详解CTC - 知乎
      • [转]一文读懂CRNN CTC文字识别 - 知乎
    • CNN
      • CNN笔记:通俗理解卷积神经网络
      • 卷积有多少种?一文读懂深度学习中的各种卷积 - 知乎
      • [转]CNN系列模型发展简述(附github代码——已全部跑通)
      • [转]12 个常见 CNN 模型论文集锦与 PyTorch 实现
      • Batch Normalization原理与实战
      • [转]ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构
      • 一文读懂卷积神经网络中的1x1卷积核
      • 反卷积(Transposed Convolution)详细推导 - 知乎
      • 抽丝剥茧,带你理解转置卷积(反卷积)
      • 一文搞懂反卷积,转置卷积
      • Deconvolution and Checkerboard Artifacts(反卷积和重叠)
      • 对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解
      • 一文搞懂 deconvolution、transposed convolution、sub-­pixel or fractional convolutio
      • 怎样通俗易懂地解释反卷积?
      • A guide to convolution arithmetic for deep le
      • 卷积与解卷积详解:tf中conv2d和conv2d_transpose详解
      • [转]Top-1准确率和Top-5准确率
    • CUDA
      • CUDA编译问题
    • Compiler
      • LLVM
      • A Tour to LLVM IR
      • 手撸编译系统(一)
      • 浅析深究什么是中间件
      • 李沐等人开源NNVM:面向AI框架的新型端到端编译器
      • nvcc编译器参数
    • MXNet
      • MXNet设计和实现简介
    • ONNX
      • ONNX结构分析
      • ONNX Runtime 源码阅读:模型推理过程概览 - 简书
      • ONNX中的一些算子
      • ONNX--跨框架的模型中间表达框架
      • 我们来谈谈ONNX的日常
    • Pytorch
      • 用Pytorch做人脸识别
    • TensorFlow
      • conda 命令安装tensorflow(可选gpu版本,并指定版本号), keras
      • TensorFlow 张量相关操作
      • tf.nn.conv2d_transpose反卷积(转置卷积)
      • tf.layers.conv2d_transpose 反卷积
      • tensorflow初级必学算子
      • Tensorflow一些常用基本概念与函数(1)
      • Tensorflow: transpose与reshape的区别
    • Tools
      • 静态图和动态图
        • 深度学习框架:动态图 vs 静态图_Never-Giveup的博客
        • 动态图 vs. 静态图
        • 计算图,动态图与静态图_Sakura樱_子于的专栏
        • 静态图与动态图的优劣 - Manuel - 博客园
        • 深度学习中常见的动态图和静态图_我是天才很好
      • Google Protocol Buffer 的使用和原理
    • TVM
      • TVM官方资料(翻译)
        • 安装
          • [翻译]从源代码安装 — tvm 0.7.dev1文档
        • 开发者指南
          • [翻译]向Relay添加算子(operator)— tvm 0.6.0文档
          • [翻译]在Relay中添加编译器Pass— tvm 0.6.0文档
          • [翻译]在TVM中加入自己的Codegen — tvm 0.7.dev1文档
          • [翻译]TVM代码库演练示例— tvm 0.6.0文档
        • 入门教程
          • [翻译]深度学习模型编译快速入门教程
          • [翻译]交叉编译和RPC — tvm 0.7.dev1文档
          • [翻译]张量表达式入门 — tvm 0.7.dev1文档
        • 开发者教程
          • [翻译]编写自定义pass— tvm 0.7.dev0文档
          • [翻译]如何使用Relay Pass 基础结构 — tvm 0.7.dev1文档
        • Relay 介绍
          • [翻译]relay中的表达式— tvm 0.7.dev0文档
          • [翻译]relay的类型系统— tvm 0.7.dev0文档
          • [翻译]relay中的代数数据类型— tvm 0.7.dev0文档
          • [翻译]relay核心张量算子— tvm 0.7.dev0文档
        • 设计架构
          • [翻译]TVM运行时系统— tvm 0.6.0文档
          • [翻译]调试器— tvm 0.6.0文档
          • [翻译]混合前端开发人员指南— tvm 0.6.0文档
          • [翻译]Relay IR简介— tvm 0.6.0文档
          • [翻译]Relay算子策略 — tvm 0.7.dev1
          • [翻译]Relay Pass基础结构— tvm 0.6.0文档
          • [翻译]布局转换pass — tvm 0.7.dev1文档
          • [翻译]设计和架构 — tvm 0.7.dev1
          • [翻译]TVM 算子清单(TOPI)介绍 — tvm 0.7.dev1
        • C API
          • tvm 0.7: Namespace List
          • tvm 0.7: Class Hierarchy
          • tvm 0.7: Class List
          • tvm 0.7: File List
      • 学习笔记
        • TVM PackedFunc实现机制
        • 在relay中添加自定义Pass: VaccReorderConcatRelu
        • tvm compiler的版本分支开发模式
        • TVM常用的类和函数
        • ExprVisitor之visit_counter_源码学习
        • TVM relay判断某个CallNode是否是某种类型
        • DataType相关函数
        • [翻译]代码注释风格
        • 编译和运行之函数调用链
        • build and create函数
        • TVM build and run中的target和ctx的说明
        • tvm之create module, run用到的类和函数
        • TVM中的通用函数
        • 生成新的ExprNode(或其子类如CallNode)时的注意事项
        • tvm开发过程的常见错误和解决方案
        • python函数:max_value & min_value
        • expr.const函数的问题
        • 硬件,算子和pipeline
        • 使用testing.create_workload(f)
        • TVM开发过程中用到的函数汇总
        • 从各种Node获取shape
        • 用于Relay编译运行的一些函数(python)
        • tvm常用比较和判断的方法
        • 求表达式结果的方法
        • weigh-only quantization测试用例
        • pass的优化等级
        • 如何访问ConstantNode的数值
        • 打印relay.Expr,relay.Function,relay.Module
        • _expr.Bind——将参数值(expr)替换指定expr中的变量(var)
        • IndexedForwardGraph & DominatorTree
        • ExprVisitor之visit_counter_源码学习
        • 有关ForwardRewriter
        • TVM- ForwardRewriter
        • 在relay中添加自定义Pass: VaccReorderConcatRelu
        • How to add operators for frontend ONNX in TVM?
        • 在relay中添加自定义算子-tvm dev0.6
        • tvm模型编译和运行示例
        • TVM0.6-relay的编译和运行过程
        • tvm常用的pass
        • 自定义属性Attrs
        • 自定义Node和NodeRef的子类
        • tvm中的一些重要的宏
        • tvm中的一些全局类型
        • TVM常用的类和函数
        • tvm源码学习1:Object, ObjectPtr, ObjectRef
        • TVM类结构图-思维导图
      • TVM学习笔记--模型量化(int8)及其测试数据
      • 使用TVM优化深度学习GPU算子:深度卷积实例
      • [翻译]Relay : TVM的一种新的高级IR
      • 手把手带你遨游TVM
      • 如何学习TVM的代码?
      • 利用TVM优化ARM GPU上的移动深度学习
      • 初识TVM
      • 使用自动代码生成技术TVM优化深度学习算子的一些思考 - 知乎
      • 使用pdb与gdb调试TVM源码
      • 一步一步解读神经网络编译器TVM(二)——利用TVM完成C 端的部署
      • 一步一步解读神经网络编译器TVM(一)——一个简单的例子
      • 【TVM翻译】An Automated End-to-End Optimizing Compiler
      • tvm schedule详细举例
      • tvm api中,relay的conv2d和topi中的conv2d有什么区别吗?
      • Three Ways to add IR Pass
      • TVM(端到端的优化栈)概述
      • TVM调试指南
      • TVM设备添加以及代码生成
      • TVM编译器
      • TVM简介
      • TVM笔记(1) - 知乎
      • TVM笔记(0) - 知乎
      • TVM学习笔记-了解Relay和图优化
      • TVM学习笔记-target代码生成
      • TVM学习-刘波
      • TVM图编译器Relay简单探究
      • TVM图优化(以Op Fusion为例)
      • TVM:一个端到端的用于开发深度学习负载以适应多种硬件平台的IR栈
      • TVM/VTA代码生成流程
      • TVM relay判断某个CallNode是否是某种类型
      • TVM Relay中的一些常见的Pass
      • Relay : a new high level IR for TVM
      • NN编译栈之TVM适配缺陷与源码开发
      • NN编译栈之TVM研究报告
    • 人脸检测
      • 目前最好的人脸检测算法,RetinaFace论文精读 - 简书
    • 数据类型
      • [转]加速AI深度学习,BF16浮点格式应运而生
      • 深度学习与bfloat16(BF16)
      • BFLOAT16 (BFP16 / BF16) data format
    • 杂集
      • 各领域公开数据集下载
      • RetinaFace论文阅读笔记,简要总结
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注