No 1. Chip Huyen 总结的、适合按顺序依次学习 的机器学习课程清单
No 2. Ha
No 3. 添完搬运链接,有那么一瞬间被自己感动了…
No 4. 【ACL 2019 知识图谱神经网络自然语言处理总结】
No 5. 【机器学习特征工程技术资源列表】
No 6. 【简洁的静态页简历模板】
No 7. 媒体和吃瓜群众 vs. 苦逼调参的机器学习研究僧//Ha
No 8. 圣巴巴拉8月1日关闭了一个海滩,因为他们用Shark AI在儿童冲浪营前方发现了一个12英尺长的白色…
No 9. “AI和大脑运作机制一样”
No 10. ‘Hikyuu Quant Framework - 基于C++/Python的开源量化交易研究框架’…
No 11. 【如何撰写博士论文】
No 12. 【Google免费AI教育资源】
No 13. ‘CoupletAI - 基于CNN+Bi-LSTM+Attention 的自动对对联系统’ by …
No 14. 【LSTM-CRF命名实体识别(序列标记)】
No 15. 【(Colab)深度学习神经网络手把手实例入门】
No 16. ‘HumanPose - 人体骨骼14点调参心得’ by zuoqing1988 GitHub: h…
No 17. 【集成学习相关资源大列表】
No 18. 【BERT/XLNet 句向量表示】
No 19. 《Optimizing Multi-GPU Parallelization Strategies for Deep Learning Training》
No 20. 【PyOxidizer:Python应用打包发布工具,将Python代码打包成单个可执行程序】
No 21. 【为什么机器学习模型在产品化过程中会退化?】
No 22. 【基于PyTorch的迁移学习3D医学图像分析项目,提供了一系列3D-ResNet预训练模型和相关代码】
No 23. 【NLP之旅(NLP文章/代码集锦)】
No 24. 【数据科学专业是否会“被自动化”?】
No 25. 【伊利诺伊大学CS446机器学习课程资料】
No 26. ‘AbstractKnowledgeGraph, a systematic knowledge gr…
No 27. 晚安~ [月亮] http://t.cn/AiYRsjvo
No 28. 【IBM开放的预训练深度模型集】
No 29. 【水果/蔬菜图像数据集】
No 30. 【音乐音频标记预训练深度网络模型】
No 31. 【真正的高级开发者有哪些特征】
No 32. 【R语言快速实战教程】
No 33. ‘Visual Trackers for Single Object - 记录每天整理的视觉目标跟踪…
No 34. 《Fixup Initialization: Residual Learning Without Normalization》
No 35. ‘CS205A Mathematical Methods for Robotics, Vision,…
No 36. 【基于networkx/igraph的社区发现库】
No 37. 【BFE:基于百度统一前端技术框架开源的七层流量接入系统】
No 38. 【AquilaDB:用于存储特征向量和JSON元数据的向量数据库,可进行近似最近邻搜索,适合机器学习工程师和数据科学家】
No 39. 《Devil Is in the Edges: Learning Semantic Boundaries from Noisy Annotations》
No 40. 【NNI:微软发布的开源神经架构搜索/超参调优自动机器学习(AutoML)工具包,通过多种调优算法搜索最佳神经网络结构和(或)超参,支持单机、本地多机、云等不同的运行环境】
No 41. 《Composition-Aware Image Aesthetics Assessment》
No 42. 《Invariance reduces Variance: Understanding Data Augmentation in Deep Learning and Beyond》
No 43. 《Python机器学习手册:从数据预处理到深度学习》
No 44. 【基于PyTorch的Keras研究者框架】
No 45. 【在浏览器里运行的“大菠萝”Diablo I】
No 46. 【N样本学习:用更少的数据,学到更多】
No 47. 《Bringing Giant Neural Networks Down to Earth with Unlabeled Data》
No 48. 《Structured3D: A Large Photo-realistic Dataset for Structured 3D Modeling》
No 49. 《Autoencoder-Based Incremental Class Learning without Retraining on Old Data》
No 50. 《ERNIE 2.0: A Continual Pre-training Framework for Language Understanding》