历史发展
1956 年在达特茅斯学院组织的一个研讨会上,约翰 · 麦卡锡提出人工智能这个概念,一群数学家和科学家聚集在一起寻找如何让机器使用语言、形成抽象理解和概念、以解决现存的各种问题,当时研讨会参与者乐观地认为,在几个月的时间里这些问题能取得真正的进展。
在接下来的 50 年里,创建人工智能系统的各种方法开始流行,但后来又遭遇过时,包括基于逻辑的系统、基于规则的专家系统和神经网络。
直到 2011 年左右,人工智能才开始进入发展关键阶段,取得了巨大的进步。
近日,谷歌大牛 Jeff Dean 发表了一篇文章《 A Golden Decade of Deep Learning: Computing Systems & Applications 》,文章探索了深度学习在这黄金十年里,计算系统以及应用进步的原因都有哪些?本文重点关注三个方面:
- 促成这一进步的计算硬件和软件系统;
- CPU => GPU => TPU
- 过去十年在机器学习领域一些令人兴奋的应用示例;
- 随着计算硬件的改进,深度学习开始在图像识别、语音识别、语言理解等方面取得显著进步。
- 为了使深度学习和计算变得更容易,研究人员开发了开源软件框架:Tensorflow Pytorch
- JAX 于 2018 年发布,这是一个流行的面向 Python 的开源库,结合了复杂的自动微分和底层 XLA 编译器,TensorFlow 也使用它来有效地将机器学习计算映射到各种不同类型的硬件上。
- 应用领域:
- 神经科学
- 分子生物学
- 医疗健康
- 天气、环境和气候挑战
- 机器人
- 可访问性
- 个性化学习
- 计算机辅助的创造性
- 重要的构建块
- Transformers
- 计算机系统的 ML
- 如何创建更强大的机器学习系统,以真正实现创建智能机器的目标。
- 稀疏门控专家混合模型(Sparsely-Gated MoE)
- 自动化机器学习(AutoML):神经架构搜索(NAS)或进化架构搜索(EAS)等技术
- 以几个到几十个相关任务的适当规模进行多任务训练
构建一个能够处理数百万任务并学习自动完成新任务的单一机器学习是人工智能和计算机系统工程领域真正面临的巨大挑战。这需要
- 机器学习算法、
- 负责任的 AI(如公平性和可解释性)、
- 分布式系统和
- 计算机架构等很多领域的专业知识,从而通过构建一个能够泛化以在机器学习所有应用领域中独立解决新任务的系统,来推动人工智能领域的发展。
2018 年,谷歌发布了一套 AI 准则,用于指导企业与 AI 相关的工作和使用。
