机器学习 | 神经网络 | 深度学习
白天
夜间
首页
下载
阅读记录
书签管理
我的书签
添加书签
移除书签
知乎:PyTorch 有哪些坑/bug?
浏览
105
扫码
分享
2023-02-17 07:29:05
参考来源:
知乎:PyTorch 有哪些坑/bug?
若有收获,就点个赞吧
0 人点赞
上一篇:
下一篇:
GPU 利用率低常见原因分析及优化
Pytorch 框架训练营
第六周
评估指标
ROC 及 AUC 计算方法及原理
机器学习常见的几种评价指标:精确率(Precision)、召回率(Recall)、准确率(Accuracy)、F值(F-measure)、ROC 曲线、AUC
交叉验证(cross validation) / 5-fold cross-validation
GNN/图神经网络
GCN/图卷积神经网络
【未完】GAT-图注意力网络,Graph Attention Networks
【未完】GIN
Encoder-Decoder、Seq2Seq 以及它们的升级方案Attention。
注意力机制(Attention Mechanism)
Transformer(Attention Is All You Need)
RNN-循环神经网络(Recurrent Neural Network, RNN)
LSTM-长短期记忆(Long short-term memory, LSTM)
GRU-门控循环单元
监督学习和无监督学习
PyTorch Geometric
PyTorch-Geometric/torch-geometric 的安装
PyG-使用 networkx 对 Graph 进行可视化
class MessagePassing()
torch_geometric\utils\scatter_ 方法源码解析及样例
Pytorch
torch.tensor.scatter() 和 torch.gather() 函数
masked_fill_() 和 masked_fill()
F.softmax() 和 F.log_softmax
Pytorch 矩阵乘法之 torch.mul() 、 torch.mm()、torch.bmm() 及 torch.matmul() 的区别
超平实版 Pytorch Self-Attention:参数详解(尤其是 mask)(使用 nn.MultiheadAttention)
torch.einsum()——爱因斯坦求和约定
知乎:PyTorch 有哪些坑/bug?
模型
【未完】PyTorch学习之归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)
torch.nn.LayerNorm
【未完】torch.nn.Module 类
torch.nn.Sequential 类
使用 torch.nn.Module 来自定义模型和网络层
模型创建 Module、模型容器 Containers 及 AlexNet 网络搭建
保存和加载模型
冻结特定层的参数
模型的保存与加载、模型微调、以及 GPU 的使用
torch.nn.Module 中的 training 属性以及 model.train() 和 model.eval()
权值初始化
优化器(Optimizer)
使用 ReduceLROnPlateau 来更新学习率——Pytorch
Optimizer/torch.optim.Optimizer
optimizer.zero_grad()、loss.backward()、optimizer.step() 的作用及原理
torch.max()
utils.dropout_adj()
torch.utils.data
划分数据集-torch.utils.data.random_split()
torch.utils.data - 自定义数据集
训练类别不均衡数据、重采样、权重采样器
Tensor 的类型转换
tensor torch 构造稀疏矩阵
Tensor.mean() 与 torch.mean()
维度变换与 tensor 拼接
torch.contiguous() 方法
reshape() 和 view()
tensor.permute() 和 torch.transpose()
repeat() 和 expand()
squeeze() 和 unsqueeze()
torch.cat() 与 torch.stack()
【未完】sklearn.decomposition.PCA
sklearn.metrics
classification_report
accuracy_score
nn 与 nn.functional
torch.nn.Embedding
torch.nn.parameter.Parameter
过拟合
mini batch(部分增量更新)
早停法(Early Stopping)
在 Pytorch 中实现 early stopping
梯度剪裁 - torch.nn.utils.clip_grad_norm_()
Pytorch 的常见报错
please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU
CUDA out of memory./CUDA 内存不足。
【未完】RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn
【未完】Gensim
【未完】Gensim 的 model.keyedvectors 模块——NLP 工具
【未完】基于 Gensim 的 Word2Vec 实践
缩放指数线性单元(scaled exponential linear units,selu)和自归一化网络(SNN)
损失函数Loss
情绪识别
面部表情识别
人脸识别-face_recognition库
学习计划
读书笔记
暂无相关搜索结果!
让时间为你证明
分享,让知识传承更久远
×
文章二维码
×
手机扫一扫,轻松掌上读
文档下载
×
请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
PDF
文档
EPUB
文档
MOBI
文档
书签列表
×
阅读记录
×
阅读进度:
0.00%
(
0/0
)
重置阅读进度
×
思维导图备注