会议纪要

1.写一下根据sequence长度划分bin,在bin内比较LSTM+Transformer的预测能力这个分析的目的
2.小提琴图x轴的数据顺序要改正一下
3.conv+tarnsformer 的模型结构可以尝试一下,因为这个configuration更加make sense(从而抛弃掉LSTM)
4.应该按照8:1确定的超参来重新按照之前同样的schedule去train全部数据,而不是比较随意的3个epochs在全部数据上去fine-tune
5.测试集和训练集的metric要保持一致,要算accuracy for 0-1 classification(数学上要讲通)
6.在分类层的时候不能把磷酸化和padding这两者混在一起,因为本身意义是不同的
7.对于transformer 结构,在大数据量和全长sequence上pretrain 是否effective。
8.加入磷酸化的原则是否有助于模型预测能力提升。

ToDo

1.将padding和磷酸化位点区分开来,重新使用Two-stage 的方法(未来第一周内)
2.使用Conv+Transformer的模型结构(未来第二周内)
3.对于transformer,使用大数据量和全长sequence去pretrain(未来第二周以后)