PyTorch源码剖析

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

其他资料推荐

浏览 166 扫码 分享 2023-11-26 17:01:52
  • 论坛
    • https://pytorch.org/blog/a-tour-of-pytorch-internals-1/
    • https://pytorch.org/blog/a-tour-of-pytorch-internals-2/
    • http://blog.ezyang.com/2019/05/pytorch-internals/
    • http://blog.ezyang.com/2020/09/lets-talk-about-the-pytorch-dispatcher/
    • https://speakerdeck.com/perone/pytorch-under-the-hood
    • https://pytorch.org/tutorials/

    论坛

    https://discuss.pytorch.org/

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • TODO
    • 前言
      • What is PyTorch?
      • 本专栏的目的
      • 其他资料推荐
    • 前导知识
      • 如何用C宏命令支持泛型
      • 如何用C/C 拓展Python
    • PyTorch源码编译
      • windows环境下PyTorch源码编译
      • Linux环境下PyTorch源码编译
      • PyTorch目录结构
      • setup.py做了什么
      • torch/__init__.py
      • PyTorch初始化--initModule
      • 其他
    • 张量(Tensor)
      • 认识张量(Tensor)
      • Tensor的继承体系
      • Tensor的构建过程
    • 分发机制 Dispatcher
      • Dispatcher的设计与实现
      • 一个empty()方法的分发流程
    • 自动求导(Autograd)
      • 自动求导浅理解
      • 动态计算图之Node类(Function类)
      • 动态计算图之Engine类
      • 动态计算图之前向传播
      • 动态计算图之反向传播
      • torch/autograd分析
      • 自定义可求导的Function
      • 从零实现自动求导包
    • 参数(Parameter)
    • 模块(Module)
      • nn.Module
      • hook
      • nn.Linear
      • nn.Conv2d
      • nn.CrossEntropyLoss
    • 数据(Data)
      • Dataset、Sampler、DataLoader之间的关系
      • Dataset
      • Sampler
      • DataLoader
    • 优化器(Optimizer)
      • Optim
      • LRScheduler
    • 并行和分布式训练
      • DDP 原理
      • DDP 源码
    • 混合精度训练
    • 模型部署
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注