No 1. 《程序员面试金典》
No 2. 《Deep Learning with Python》
No 3. 一次,在咖啡馆,毕加索用餐巾纸画了幅画,有位女士认出了他,问多少钱可以买下这纸巾。“两万刀”
No 4. 《Life》
No 5. 一目了然:16年物理引擎的进展
No 6. MEISAI [迷彩]:人体AR滤镜App http://t.cn/AimZJwlu http:/…
No 7. 【TensorFlow 2.0.0 正式发布,换起来~】
No 8. 还真有模有样的 🤖
No 9. 【从包含表格的扫描图片中识别表格和文字】
No 10. 【搜索引擎强化:Elasticsearch 和 BERT 联合实战】
No 11. [笑而不语] //@visualstupid:一次,在实验室,研究员用GAN网络画了幅画,有位女士认出了风格,问多少钱可以买下这副画。“两万刀”
No 12. 【(Tensorflow)手机实时视频目标检测】
No 13. 【Kaggle比赛泰坦尼克手把手入门】
No 14. SpaceX 的 Raptor(猛禽) 全流量分级燃烧火箭发动机,由低温甲烷和液氧驱动 🚀 ht…
No 15. 【数据科学免费学习指南】
No 16. 很适合DIY的简单酷炫小玩具
No 17. 【如何撰写杰出的研究计划】
No 18. 【两分钟论文解读之AI必备的七种能力】
No 19. 《FCOS: Fully Convolutional One-Stage Object Detection》
No 20. 【(Keras)神经网络多标签分类】
No 21. 光速,快与慢:环球 vs. 地-月 vs. 地球-火星 vs. 地球-太阳 http://t.cn…
No 22. 【如何撰写出色的学术论文】
No 23. 【TensorFlow 2.0 新特性初体验(Colab Notebooks)】
No 24. 【常微分方程、动力系统、神经网络互动资源列表】
No 25. 《Rectified Adam (RAdam) optimizer with Keras | PyImageSearch》
No 26. 【端到端流模型大规模多语言语音识别】
No 27. 【Python信号处理包】
No 28. 【OpenPose训练代码】
No 29. 【Peter Norvig访谈:AI的现代方法】
No 30. 《TinyBERT: Distilling BERT for Natural Language Understanding》
No 31. 《DM M -Net: Differentiable Mask-Matching Network for Video Object Segmentation》
No 32. 《The Differentiable Cross-Entropy Method》
No 33. 【深度生成模型的偏差与泛化】
No 34. 感应淬火:电磁感应涡流加热 + 骤冷 ref:http://t.cn/Aim21wSY http:…
No 35.
No 36. 【Google的自然语言图书语义搜索引擎】
No 37. 【Carbon:代码高亮截图在线生成工具,前两天有人问起的 Transformers 2.0 示例截图应该就是用Carbon生成的】
No 38. ICLR 2020 投稿论文关键词变化趋势图:GNN、BERT、Transformer 涨势明显 v…
No 39. 【伯克利课程:深度强化学习(2019)】
No 40. 《Overparameterized Neural Networks Can Implement Associative Memory》
No 41. 【rx:rust实现的现代像素编辑器】
No 42. 别问我为啥在标题里插空格,想知道原因就自己用原标题发条试试 [允悲]…
No 43. 【用BERT增强高级搜索的Elasticsearch搜索引擎】
No 44. 开源一个业余时间写的小工具:bitcoin-bubble-index (地址:
No 45. 【想参加Kaggle脑出血检测比赛?可以看这条片子补补专业知识,讲得真好】
No 46. ‘IG-65M PyTorch - PyTorch 3D video classification …
No 47. 《Neural Scene Decomposition for Multi-Person Motion Capture》
No 48. 《Deep Gated Multi-modal Learning: In-hand Object Pose Estimation with Tactile and Image》
No 49. 【价值学习路径探究】
No 50. 《Extreme Language Model Compression with Optimal Subwords and Shared Projections》