思维周刊.png


摘要:本期聊一聊人工智能行业的过去、现在和未来。人工智能是当下和未来发展的必然趋势,本文主要基于头豹研究院和艾瑞咨询研究院的研报对该行业进行一个通识上的认知。


🌵 | 什么是人工智能

人工智能概念
什么是人工智能?人工智能(Artificial Intelligence)是研究、开发用于模拟、延伸和扩展人的智能和理论、方法、技术及应用系统的一门新的技术科学,强调像人一样思考和行动。4

如果是参加辩论赛,那么首先需要将概念逐字拆解。


🥦 “人工”与“智能”

“人工”
首先是“人工”,比较简单。也就是说是由设计、生产和制造的东西。

“智能”
其次是“智能”,相对复杂。智能,是智力能力的总称。2 涉及到诸如意识(CONSCIOUSNESS)、自我(SELF)、思维(MIND)(包括无意识的思维(UNCONSCIOUS_MIND))等等问题。

“智”与“能”
“智能”又可以拆分为“智”与“能”,中国古代思想家一般把智与能看做是两个相对独立的概念。
虽然用古代思想理解现代科技,我一直认为是生搬硬套,非常滑稽的行为,但是用中国古代思想拆解中国汉字,在一些情况下还是比较助于理解的。
《荀子·正名篇》:“所以知之在人者谓之知,知有所合谓之智。所以能之在人者谓之能,能有所合谓之能”。(在人身上所具有的用来认识事物的能力叫做知觉。知觉和所认识的事物有所符合叫做智慧。在人身上所具有的用来处置事物的能力叫做本能。本能和处置的事物相适合叫做才能。)其中,“智”指进行认识活动的某些心理特点,“能”则指进行实际活动的某些心理特点。3
那么我认为,“智”也就是认知“能”也就是行事

人工智能
故,人工智能则是:由人制造,像人一样思考与做事的机器


🥦 人类对智能的认知局限

人类对智能的认知局限
人类对于智能的理解具有很大的局限性,我们唯一可以了解的是人类本身的智能。

多元认知理论
根据霍华德·加德纳的多元智能理论,人类的智能可以分成七个范畴:

智能.png

  1. 语言 (Verbal/Linguistic)

是指有效的运用口头语言或及文字表达自己的思想并理解他人,灵活掌握语音、语义、语法,具备用言语思维、用言语表达和欣赏语言深层内涵的能力结合在一起并运用自如的能力。

  1. 逻辑 (Logical/Mathematical)

是指有效地计算、测量、推理、归纳、分类,并进行复杂数学运算的能力。
这项智能包括对逻辑的方式和关系,陈述和主张,功能及其他相关的抽象概念的敏感性。

  1. 空间 (Visual/Spatial)

是指准确感知视觉空间及周围一切事物,并且能把所感觉到的形象以图画的形式表现出来的能力。
这项智能包括对色彩、线条、形状、形式、空间关系很敏感。

  1. 肢体运作 (Bodily/Kinesthetic)

是指善于运用整个身体来表达思想和情感、灵巧地运用双手制作或操作物体的能力。
这项智能包括特殊的身体技巧,如平衡、协调、敏捷、力量、弹性和速度以及由触觉所引起的能力。

  1. 音乐 (Musical/Rhythmic)

是指人能够敏锐地感知音调、旋律、节奏、音色等能力。
这项智能对节奏、音调、旋律或音色的敏感性强,与生俱来就拥有音乐的天赋,具有较高的表演、创作及思考音乐的能力。

  1. 人际 (Inter-personal/Social)

是指能很好地理解别人和与人交往的能力。
这项智能善于察觉他人的情绪、情感,体会他人的感觉感受,辨别不同人际关系的暗示以及对这些暗示做出适当反应的能力。

  1. 内省 (Intra-personal/Introspective)

是指自我认识和善于自知之明并据此做出适当行为的能力。
这项智能能够认识自己的长处和短处,意识到自己的内在爱好、情绪、意向、脾气和自尊,喜欢独立思考的能力。


🌵 | 目前人工智能的三大流派

人工智能,目前有三大主流派系:

  1. 符号主义:基于逻辑推理的智能模拟方法(传统的人工智能方法)。
  2. 连接主义:通过模拟大脑的神经网络结构来实现智能模拟的方法。
  3. 行为主义:从生物体与环境互动的模式中寻找实现智能的方法。

🥦 符号主义

符号学派认为,任何能够将某些模式或符号进行操作并转化成另外一些模式或符号的系统就可能产生智能行为,它致力于用计算机的符号操作来模拟人的认知过程,其实质就是模拟人的大脑的抽象逻辑思维,并通过某种符号来描述人类的认知过程,从而实现人工智能。 符号主义主要集中在人类智能的高级行为,比如推理、规划、知识表示等。

🥦 连接主义

每个人的大脑都有万亿个神经元细胞,它们错综复杂的互相连接,也被认为是人类的智慧的来源。 所以人们很自然想到能否通过大量神经元来模拟大脑的智力。连接主义学派认为神经网络和神经网络间的连接机制和学习算法能够产生智能。

🥦 行为主义

行为学派出发点与其他两个学派完全不同,它是一种基于感知—行动的行为智能模拟方法。 该学派认为行为是个体用于适应环境变化的各种身体反应的组合,它的理论目标在于预见和控制行为。


🌵 | 人工智能产业历史

过去的五十年中,人工智能从理论基础与算法基础逐步走向应用,对计算力的要求也从数值计算转向智能推演,但在人工智能产业的漫漫征途中,这仅仅是迈出了第一步。

iShot_2022-06-17_15.21.55.png

人工智能的起源 1956 年的达特茅斯会议被称为是人工智能元年,同时也是人工智能诞生的标志。这一年,在美国汉诺斯小镇宁静的达特茅斯学院中,人工智能之父约翰·麦卡锡、人工智能奠基者马文·闵斯基、信息论创始人克劳德·香农、计算机科学家艾伦·纽厄尔、诺贝尔经济学奖得主赫伯特·西蒙等科学家聚到了一起,讨论如何用机器来模仿人类的智能。会议足足开了两个月的时间,虽然没有达成普遍的共识,却起了一个名字:人工智能。

第一个寒冬 达特茅斯会议过后人工智能开始井喷式发展,1957 年罗森布拉特发明了感知机,1959 年科学家亚瑟·塞缪尔创造了“机器学习”这个术语,并且给出了机器学习的定义。 1966 年和 1972 年分别诞生了第一个聊天机器人和智能机器人,而后随着人们对人工智能的兴趣下降并且资金枯竭,在 1974 年,人工智能开始进入第一个寒冬。

第二个寒冬 经历过寒冬后,1980 年人工智能以专家系统的身份重出江湖,专家系统能在特定领域提供决策能力。但很快,在 1987 年人工智能在耗尽了政府和投资人的资金后,开始进入第二次寒冬

逐步发展 1997 年,IBM 的深蓝击败了国际象棋世界冠军加里·卡斯帕罗夫,成为第一台击败国际象棋世界冠军的电脑。 2002 年人工智能开始以清洁机器人的身份走进人类家庭,直到 2006 年,Facebook、Twitter、Netflix 等公司开始将人工智能技术引入商业系统中。 到 2011 年时,IBM 的沃森系统已经能够在智力竞赛节目中与人类 PK 并赢得冠军了。

快速发展 最重要的是在 2006 年以后,大数据和深度学习爆发并得到了高速的发展,结合两者实现的人工智能在某些方面已经能够与人类相提并论。 随着 2016 年 AlphaGo 战胜人类棋手,开启了新一波人工智能浪潮,人工智能技术及产业进入加速发展期;2021 年 DeepMind 团队开源 AlphaFold2 数据集,其利用人工智能技术解决蛋白质结构预测问题,供全世界科研人员使用。AI 技术应用于生物领域取得的前瞻性进展有力推动了生命科学发展,也代表随着 AI 算力提升及算法的不断突破创新,AI 技术在各行业领域的增量式技术改进、系统性前瞻性研发等重要产业改造环节提供价值。 所以在新一轮技术浪潮的驱动下,人工智能在很多领域不断落地应用,其中包括人脸识别、语音识别、自动驾驶、精准营销、个性化推荐、智能客服、安防系统等等。

image.png


🌵 | 人工智能产业现状

🥦 | 不断发展

目前,数据源、软件框架、算力等基础设施正在不断地拓展着人工智能算法的开发场景。大部分传统行业都可以靠“AI+”进行升级。人工智能正在渗入人类生活的方方面面。4

新基建
人工智能技术已经被纳入新基建范畴。
2020 年,新基建的七大领域分别为:

  1. 5G 基建
  2. 特高压
  3. 城际高速铁路和城市轨道交通
  4. 新能源汽车充电桩
  5. 大数据中心
  6. 人工智能
  7. 工业互联网

老基建
传统基础设施建设主要指“铁公机”,包括铁路、公路、机场、港口、水利设施等建设项目。

基建范围变化的原因
新基建的前四项均为基础设施的建设,后三项则属于科技领域。可以看到与旧基建相比,曾经的前沿技术已被纳入国家基础设施建设。发生这种转变的前提有两个,一是科技已经发展到了可以被日常应用,并且能够切实改善生活和工作的地步,二是社会需要科技产物的助力来进一步提升生产效率抗风险能力。5

飞入寻常企业家
近年来,人工智能技术及产品在企业设计、生产、管理、营销、销售多个环节中均有渗透且成熟度不断提升。6 人工智能技术以人机协同模式为主导,推动传统行业效率变革、动能转换。人工智能应用已从消费、互联网等泛 C 端领域,向制造、能源、电力等传统行业辐射。
由此,人工智能作为创业企业标签的属性正在逐渐变弱,而越来越成为千行百业的经营主体都在积极尝试和运用的生产要素。6

iShot_2022-06-19_14.11.02.png


🥦 | 面对压力

在发展上,人工智能领域面临着硬件软件的双重压力:

硬件需要突破
在硬件需求上,传统芯片正在面临计算机硬件和架构的限制(具体解释可见下文)。摩尔定律仿佛已经失效,未来硬件性能从何提升?类脑芯片等新一代硬件设施跳出了冯·诺依曼架构的技术路线,或许可以成为未来大数据计算的基础设施。

算法也需发展
在软件上,目前的算法结构主要还是基于流程逻辑的演绎,即使是强大的阿尔法狗也只不过是存储了大量的对局信息,而不是真正地学会了围棋。量子计算人工智能进行深度交叉;遗传编程算法的发展可能会使得真正的人工智能在未来成为现实。


🥦 | 人工智能产业现状全景

人工智能的基础设施和技术能力不断发展,人工智能正在逐步进入到我们的日常生活中去。但是,目前的人工智能依旧是弱人工智能,或者说是“人工智障”阶段。从弱人工智能到强人工智能,不可能一蹴而就,需要长期的耕耘与发展。

人工智能全景概览.png


🌵 | 当下十年的发展

目前,人工智能的发展可以分为三个层次:基础层、技术层和应用层。

当下十年发展趋势.png


🥦 基础层

🥑 智能芯片

在计算需求的未来发展中,传统芯片已经面临计算机硬件和架构的限制。类脑芯片跳出了冯·诺依曼架构的技术路线,或将成为未来海量数据处理的基础硬件。

image.png

传统芯片的发展困境

随着人类精密制造领域遇到硅极限的挑战,集成电路上的晶体管数量每隔 18~24 个月就增加一倍(摩尔定律)已经愈发困难了。基于冯·诺依曼架构的计算机体系已经很久没有实质性变化了。

人工智能对芯片的要求越来越高
如今,随着人工智能的快速发展,数据的积累是前所未有的。全世界 2018 年创造出的数据总量为 33 ZB,相当于 33 万亿 GB,2020 年这一数字增长到了 59 ZB,2025 年将达到 175 GB。《国家数据资源调查报告(2020)》显示,2019 年,中国数据产量总和为 3.9 ZB(3.9 万亿 GB),这些数据可以装满 311 亿个 128G 的 IPad。
当前人工智能、深度学习的本质还是基于海量数据的多层次人工神经网络计算,需要对如此庞大的数据进行大量运算,对芯片质量的要求可想而知。

传统芯片瓶颈将至
GPU、FPGA 和 ASIC 是沿用传统冯·诺依曼架构,存储与计算在空间上分离,计算机每次进行运算时需要在 CPU 和内存之间反复调用数据,频繁的数据交换导致处理海量信息效率很低,且功耗很高,十年间将达到技术瓶颈

硅芯片的极限
目前硅芯片已经做到了 5nm 级别。5nm 是不是硅芯片的极限呢?
目前,芯片制造的原材料是硅。
晶体管可以简单地看作一个可控制的电子开关,其由源极(Source)、漏极(Drain)和位于它们之间的栅极(Gate)组成。电源从源极流入,栅极控制电流的通断,从而形成 0 或 1 的数字信号。
目前,制作栅极的材料就是硅。随着晶体管体积的不断缩小,源极和漏极之间的通道随之缩小,当这个缝隙小到一定程度时,量子的隧穿效应就会变得非常容易完成,也就是说,即使没有电压,源极和漏极之间可以认为是互通的,那么栅极也就失去了其“开关”的作用,因此失去了传递电信号的作用。

image.png

新的芯片材料
5nm 可能是硅芯片的极限,但是新的材料可能会在芯片制造上有新的突破。例如:石墨烯材料和碳纳米管材料。

类脑芯片
类脑芯片在架构上模拟人脑的神经突触传递结构,众多处理器类似于神经元,通讯系统类似于神经纤维,基于微电子技术新型神经形态器件的结合,突破了冯·诺依曼架构瓶颈,实现存储与计算的深度融合,大幅提升计算性能、提高集成度、降低能耗。相对于传统芯片,类脑芯片在功耗和集成度上具有明显优势,在后摩尔时代有非常广阔的应用场景。


🥑 智能传感器

未来的工业生产中将更加依赖智能传感器解析和处理信息的能力。
同时,智能传感器正逐步集成到日常物品中,与人不停地发生着交互,产生着数据,构建着新的智能社会。

智能传感器的发展脉络

  • 传统传感器:

将环境信息转变成电信号或其他所需形式的信息输出。

  • 目前的智能传感器

已能实现信息数据的持续收集和初步整理,且具备一定的自动编程能力,可以根据设备的状态同步更新。

  • 新一代智能传感器

结合知识的系统、模糊逻辑、自动知识收集、神经网络、遗传算法、基于案例推理和环境智能等技术不断完善功能,不仅能实现行为过程的实时检测和状态监控,还可以开展预先报警。具备自学习、自诊断、自补偿能力、复合感知能力和灵活的通信能力。

人工智能赋能智能芯片

人工智能结合了多种先进技术,赋予了机器学习、采纳、决策的能力,给予他们全新的功能。 依赖于神经网络专家系统自组织系统模糊逻辑遗传算法等技术,人工智能技术将传感器应用领域扩展到了很多其他领域,其中一些领域需要对传感器信息进行解析和处理,例如装配、生物传感器、建筑建模、计算机视觉、切割工具诊断、环境工程、力值传感、健康监控、人机交互、网络应用、激光铣削、维护和检查、动力辅助、机器人、传感器网络和遥控作业等。 凭借灵活性、可重新配置能力和可靠性,全新的系统设备在越来越多的任务中表现出超过人类的性能,将逐渐加速进入工业领域及其他生产工作的方方面面。

智能传感器加速人工智能的发展

人工智能技术具有最低的计算复杂度,可以应用于小型传感器系统、单一传感器或者采用低容量微型控制器阵列的系统。 由此,将许多微型电子处理器和传感器集成到日常物品中,使其智能化,共同构建出一个智能环境、与其他智能设备通信以及与人类互动。 人工智能凭借传感器带来的广泛数据来源将加速自身的优化和迭代。


🥦 技术层

🥑 机器学习

机器学习正在飞书发展,除了深度学习、强化学习还派生出了元学习等前沿技术,在趋势中向可解释的机器学习边缘计算量子机器学习发展。

机器学习现状
机器学习关注如何用计算的方法模拟类人的学习行为:从历史经验中获取规律(或模型),并将其应用到新的类似场景中。
机器学习的最新进展是由新的学习算法理论发展以及在线数据和低成本计算的持续爆发推动的。但机器学习领域还很年轻,它仍在迅速扩展。

机器学习的技术发展趋势

机器学习发展趋势.png

趋势一:环境资源的有效利用和突破

并行和分布式技术、通讯技术
一个主要趋势是关于机器学习算法运行的环境(计算体系结构)。经典机器学习系统涉及在一台机器上运行的单个程序,现在机器学习系统通常部署在包含数千或上万个处理器的体系结构中,而并行分布式技术以及通讯的限制成为了焦点技术难题。

建立数据之间的联系
机器学习研究员正越来越多地将环境中的不同数据间的关系形式化,旨在涉及在各种环境中都可证明有效的算法,明确正确的用户表达和资源控制之间的平衡。

迁移学习分布式学习沿着对环境资源的有效利用和突破进行开发。

迁移学习
迁移学习的目的是把为源任务训练好的模型迁移到目标任务中,帮助新任务解决训练样本不足等技术挑战。很多学习任务之间存在相关性,因此一个任务中总结出来的模型参数可以对解决另外一个人物有所帮助。迁移学习目前是机器学习的研究热点之一,还有很大的发展空间。

分布式技术
分布式技术是机器学习技术的加速器,能够显著提高机器学习的训练效率,进一步增大其应用范围。
趋势二:实现无监督机器学习

对偶学习
对偶学习是一种新的学习范式,其基本思想是利用机器学习任务之间的对偶属性获得更有效的反馈/正则化,引导、加强学习过程,从而降低深度学习对大规模人工标注数据和监督的依赖。

元学习
元学习(Meta Learning)是近年来机器学习领域的一个新的研究热点。从字面上理解,元学习就是学会如何学习,重点是对学习本身的理解和适应,而不仅仅是完成某个特定的学习任务。也就是说,一个元学习器需要能够评估自己的学习方法,并根据特定的学习任务对自己的学习方法进行调整,是自动化机器学习的重要构成。

对抗学习
传统的深度生成模型由于最大化概率似然,模型更倾向于生成偏极端的数据,影响生成的效果。对抗学习,通过产生对抗样本或者对抗模型来加强模型的鲁棒性,提高数据生成的效果。

可解释的机器学习
可解释的机器学习(Explaninable AI)是机器学习研究由线到面的关键一步,当前的机器学习仍然处于黑箱技术阶段,输入数据的关联性无法解释因果关系。尤其在医疗、核工业和航天领域应用中,机器学习的可解释性意味着可靠性和可用性。


🥑 智能语音和计算机视觉

智能语音与计算机视觉的技术发展都已进入商业化应用阶段,智能语音市场竞争激烈,而计算机视觉市场仍然在打开市场空间。 未来,语音与视觉等模态将相互融合发展。

image.png

趋势一:
语音与视觉等模态相互融合

融合
随着人工智能的智能化程度提升,语音、图像、视频等模态将趋于融合,语音可视化将成为可能。

深度学习神经网络的引进使语言模态、文字模态、图像模态、视频模态的编码和解码可在同一个深度学习框架下统一运行,不同模态的对象可被同一模式编码与解码,同一模式的编码与解码可使不同模态对象随意融合,语音分析结果可与图像分析结果结合应用。

语音助手将可模拟人类的语言认知过程,将语音和视觉同时作为语音理解源,不仅通过声音来获取信息,同时还用“眼睛”观察说话者口型、表情的变化,将数据多维度融合以实现人工智能从感知转变为认知。
趋势二:
模型压缩实现算法轻量化和低成本化部署

压缩调优
由于深度学习模型参数量、计算量大,模型在计算资源受限的端侧设备上的嵌入式系统部署难,故需要对传统深度学习的方法进行调优。

模型压缩包括网络剪枝、权值量化、共享权重、霍夫曼编码、知识迁移浅层网络等方式,对神经网络模型进行无精度损失的压缩。

在保证模型的高准确度后,如何用更少的硬件成本提供低时延、低功耗、低成本的模型服务决定了应用的未来。
趋势三:
端、边、云多方协同

多方协同
人工智能专用芯片与智能传感器的发展,大幅提高了端侧设备的计算资源容量。同时,模型压缩后的人工智能算法支持轻量化和低成本化部署。

终端设备开始内置嵌入深度学习算法,可以对采集的数据进行实时处理实时应用。边缘层作为智能终端最近的上层协同节点,实现对端侧上报的数据样本完成动态增量学习。边缘层按需将高质量结构化的数据及分析结果传回云端,通过全域知识模型作为协作模型,云端利用协作生成的软标签帮助模型建立旧类间的潜在关系,实现增量训练中对旧类识别任务的进一步巩固和精度提升,全面提高计算效率和反应速度。

总结
技术层-应用算法的发展趋势总结

  1. 模型压缩实现算法轻量化低成本化部署,支持算法嵌入终端系统
  2. 云、边、端协同计算将取代中心分析,成为未来智能化的主流选择;
  3. 不仅是智能语音与计算机视觉将结合,人工智能的各方面应用不是相互独立的,在未来人工智能将像人类大脑般同时接受并处理听觉、视 觉、触觉及嗅觉的感知信息,多模态融合赋予人工智能更高的智能化水平。
  4. 马太效应:人工智能算法依托算力和应用场景的支持持续获得数据蔓延人类社会,互联网巨头依托算力和应用的优势地位,将在人工智能领域越来越强。

🥦 应用层

🥑 行业解决方案

AI+ 行业正在聚焦多元化的应用场景,不同产业及领域的智能化转型将大规模提高人工智能的用户基数,为人工智能领域的发展提供巨大的空间,并逐渐向其他相关产业辐射。

image.png

当前应用层

金融服务、电信、汽车装配、能源等高科技领域是当前人工智能应用范围最为广泛和领先的,引领人工智能行业相关应用层产业迅速发展。
未来应用层

交通、医疗、金融、安防等领域的人工智能商业化应用正在加速落地,随之人工智能拥有大规模高质量的用户基础,给其余相关产业的智能化转型带来巨大空间。


🥑 自动驾驶

随着自动驾驶技术向完全自动化阶段发展,自动驾驶将对终端交互应用、保险行业、出行服务、物流行业、城市规划等领域产生破坏性影响。

自动驾驶

自动驾驶的终极目标是在目前的开放交通环境中完全可用,实现这个目标需要在车辆本身交通环境适应性改造方面同步进行。而在实现完全自动化的进程中,需要考虑四大问题来论证自动驾驶在开放交通环境应用的可行性:便利性、安全性、可靠性以及法律/道德责任
完全自动驾驶带来的行业变化

“车联网”将驱动汽车软件化的发展,随着汽车内饰部件的电子化,汽车将成为交互应用不可忽视的终端,包括办公和娱乐。自动驾驶技术在物流行业和出行服务行业的应用将大大降低运营成本,或将催生全新的产业模式。随着逐步过渡到完全由无人驾驶运载器构成的交通网络,期间传统的交通信号系统和城市道路规划将重新设计,最大化通行效率。

image.png


🌵 | 未来五十年的发展

🥦 基础层

🥑 量子人工智能

量子计算和人工智能技术各自经历了起起落落、螺旋上升的发展历程,而现在正迎来二者深度交叉的最好时机。

量子人工智能
量子人工智能(Quantum Artificial Intelligence,简称QAI)是量子力学与人工智能相结合的跨学科领域,分为两种不同的途径与方法:

  • 构建改善当前人工智能系统的量子算法;
  • 建立在量子计算机基础上的量子增强型人工智能算法。

image.png

量子计算与人工智能的相互促进
人工智能正在加速对量子力学理论和量子材料科学的深层次理解,进而发展出能够发挥量子特性的计算机,从效率和能耗上打破摩尔定律的掣肘,使算力的发展曲线迎来全新的高峰爬坡期。而具备更高性能的量子计算机能够充分满足人工智能的计算需求,将赋能人工智能持续迭代。

image.png


🥦 技术层

🥑 遗传编程

遗传编程用类似生物进化的方法开启计算机自动编码的尝试,目前十分小众且原始,但一步走到强人工智能并不现实,或许在未来五十年后会看到遗传算法走向应用的一天。

遗传编程的优势
遗传编程的基本思想借鉴了自然界生物进化理论和遗传的原理,是一种自动随机产生搜索程序的方法,是一种新的全局优化搜索算法,简单通用、鲁棒性强,并且对非线性复杂问题显示出很强的求解能力。
彭博和英特尔实验室提出了基于遗传算法的人工智能程序员(AI Programmer),是第一个可以在最低限度人类指导下完成编程任务的机器学习模型,而自动编程能力将是走向强人工智能的重要技术支撑。

image.png


🥦 应用层

🥑 虚实集成世界

虚实集成世界将极大促进并提升未来的生产效率与交互体验,从文娱业元宇宙开始,逐步过渡为全真互联网。

image.png

image.png


🌵 | 人工智能伦理

人工智能的发展现状亟需法律法规和伦理准则规范的成型,伦理问题是人工智能最大的发展阻力。

安全责任 目前人工智能法律法规尚处于探讨研究阶段,人工智能法律法规和伦理准则规范都未成型。人工智能算法的不透明性和不可解释性导致了其危险性决策结果对目前道德伦理和法律裁决提出了挑战。 人工智能逐渐具备自主决策能力,却不具备明确的法律地位,在无人驾驶、服务类机器人应用领域首当其冲。伦理问题是人工智能最大的发展阻力。

算法偏见与歧视

  • 自然语言处理像许多机器学习算法一样,都是基于统计数据的。这些统计数据是通过培训包含了性别偏见和其他反映在书面文本中现实存在的偏见的文本集而产生的。
  • 人脸识别中使用的最大基准之一为人脸识别数据集(LFW),包含了 13,000 多张从网络新闻中收集的人脸图片,但数据集中,男性占 77.5%,白人占 83.5%。很明显,新闻中的人并不能代表更广泛的人群。

若无采取确定的措施来限制算法偏差,那么过去的社会偏见将在人工智能的未来普遍存在。而除却由于训练样本的不均匀导致的无意偏见算法,大数据应用中对算法的偏见有意利用的例子比比皆是,根据性别、使用终端品牌等信息对不同客群差异动态定价,比如保险、消费等。

机器道德与企业道德 50 年后,社会是否会要求设定人工智能机器的道德标准比人类更高?毕竟机器比起人类更应该为了人类而牺牲。但在更多的价值观中难以统一,机器道德是建立在规则之上,其中来源于法律、道德、具体场景的规定和人类的指令。 企业是最有可能且最有责任为机器赋予价值观的执行者,企业的道德将决定机器道德何去何从。如今社会对企业道德的要求和企业实际表现出来的要求往往并不一致。在未来,对社会责任和道德使命认真对待的企业才是满足社会和科技未来发展的企业,企业道德标准将成为衡量其企业和技术发展潜力的重要指标。

自主武器与战争 50年后,机器人或许将代替人类进入战场遍布海陆空,而机器人或者称其为自主的致命武器,不需要食物供应或薪酬,可全天候作战,具有超人的准确性及反应能力,永远不需要从战场撤离,服从每一项命令。 但战争本身是反人性的,当本无人性的自主武器投放进战场后,战争的性质将变成工业化产线的持续消耗,战争道德作为停火协议的可能性约无。而战争武器作为最重要的人类资产之一,在全面自主化后,单人便可命令所有的作战单位,其失控的结果将可能导致社会秩序的巨变。自主武器的可靠性、不可破解性将是军事采购的最重要的指标。

人工智能威胁论 人工智能是否将会超越人类的争论衍生出人类对人工智能的恐惧,但这个争论本身不能盖棺定论。人类智商与机器智商的定义和定量分析尚且没有统一的标准和方法,虽然人机对弈中机器学习已能远超人类的表现,但仅仅是在固定的场景下由人工输入规则训练的狭义智能,人工智能威胁论言之尚早。

我认为,目前人工智能只是在执行上超越了人类,但是人工智能目前还没有创造性。 举一个例子:我们人类看见一个猫,就可以画出其它的猫的样子;但是人工智能需要学习成百上千只猫,才能理解猫的形态。

人工智能未来五十年的呼吁 好奇心是人类从猴子变成人类的第一步,人工智能的发展也将极大促进人类文明的发展进程。但从威胁论的视角,宙斯对普罗米修斯的恐惧,就在于普罗米修斯可以制造出比自身更强大的事物,考虑到人工智能在未来对人类可能产生的威胁,人类也不可以傲慢。 对待人工智能的未来,博观而约取,厚积而薄发。


🌵 | 名词解释

  1. 深蓝:美国 IBM 公司生产的一台超级国际象棋电脑,重 1270 公斤,有 32 个大脑(微处理器),每秒钟可以计算 2 亿步。“深蓝”输入了一百多年来优秀棋手的对局两百多万局。
  2. 沃森:超级电脑名称。超级电脑“沃森”由 IBM 公司和美国德克萨斯大学历时四年联合打造,电脑存储了海量的数据,而且拥有一套逻辑推理程序,可以推理出它认为最正确的答案。
  3. AlphaGo:阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人,由谷歌(Google)旗下 DeepMind 公司戴密斯·哈萨比斯领衔的团队开发。其主要工作原理是“深度学习”。
  4. AlphaFold 2:AlphaFold 2,英国人工智能。2020 年 11 月 30 日,该人工智能程序在蛋白质结构预测大赛CASP 14 中,对大部分蛋白质结构的预测与真实结构只差一个原子的宽度,达到了人类利用冷冻电镜等复杂仪器观察预测的水平,这是蛋白质结构预测史无前例的巨大进步。对这一重大成果,生物领域的科学家反应强烈。
  5. 人脸识别:基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。
  6. 语音识别:也被称为自动语音识别 Automatic Speech Recognition,(ASR),其目标是将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。
  7. 精准营销:精准营销(Precision Marketing)就是在精准定位的基础上,依托现代信息技术手段建立个性化的顾客沟通服务体系,对于每一个人或者每一类有着共同特性的会员,产生针对性的销售动作,从而让投入产出比最大化。
  8. 智能客服:狭义上,智能客服指的是在人工智能、大数据、云计算等技术赋能下,通过客服机器人协助人工进行会话、质检、业务处理,从而释放人力成本、提高响应效率的客户服务形式。
  9. 特高压:特高压英文缩写 UHV。在我国,特高压是指 ±800 千伏及以上的直流电和 1000 千伏及以上交流电的电压等级。
  10. 架构:又名软件架构,是有关软件整体结构与组件的抽象描述,用于指导大型软件系统各个方面的设计。
  11. 摩尔定律:摩尔定律是英特尔创始人之一戈登·摩尔的经验之谈,其核心内容为:集成电路上可以容纳的晶体管数目在大约每经过 18 个月便会增加一倍。
  12. 冯·诺依曼:约翰·冯·诺依曼(John von Neumann,1903年12月28日-1957年2月8日),美籍匈牙利数学家、计算机科学家、物理学家,是 20 世纪最重要的数学家之一。冯·诺依曼是罗兰大学数学博士,是现代计算机、博弈论、核武器和生化武器等领域内的科学全才之一,被后人称为“现代计算机之父”、“博弈论之父”。
  13. 冯·诺依曼结构:也称普林斯顿结构,是一种将程序指令存储器和数据存储器合并在一起的存储器结构。把程序本身当作数据来对待,程序和该程序处理的数据用同样的方式储存。 冯·诺依曼理论的要点是:① 程序、数据的最终形态都是二进制编码(可执行二进制文件:.bin文件);② 程序、数据和指令序列,都是事先存在主(内)存储器中;③ 确定了计算机的五个基本组成部分:运算器、控制器、存储器、输入设备、输出设备。
  14. 量子计算:量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,某些已知的量子算法在处理问题时速度要快于传统的通用计算机。
  15. 遗传编程:或称基因编程/GP ,是一种从生物进化过程得到灵感的自动化生成和选择计算机程序来完成用户定义的任务的技术。从理论上讲,人类用遗传编程只需要告诉计算机”需要完成什么”,而不用告诉它”如何去完成”,最终可能实现真正意义上的人工智能:自动化的发明机器。
  16. 使能:使能是负责控制信号的输入和输出的。通俗点说就是一个“允许”信号,进给使能也就是允许进给的信号,也就是说当进给使能信号有效的时候电机才能转动。一般的数控系统会将电机的进给使能信号跟急停开关和行程限位开关串联起来,当按下急停开关或者机床运转超出行程后,进给使能信号被断开,电机不能继续转动,从而保护机床在安全的行程内运行。
  17. 线性算法:线性回归模型是机器学习中最简单、最基础的一类有监督学习模型,虽然简单,却是很多复杂模型的基础,非常重要。线性回归要处理的一类问题是:给定一组输入样本,和每个样本对应的目标值,需要在某一损失准则下,找到(学习到)目标值和输入值的函数关系,这样,当有一个新的样本到达时,可以预测其对应的目标值是多少。
  18. 逻辑回归:简单来说, 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。 注意,这里用的是“可能性”,而非数学上的“概率”,logisitc 回归的结果并非数学定义中的概率值,不可以直接当做概率值来用。该结果往往用于和其他特征值加权求和,而非直接相乘。
  19. 随机森林:在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。
  20. 支持向量机:通俗来讲,所谓支持向量机是一种分类器,对于做出标记的两组向量,给出一个最优分割超曲面把这两组向量分割到两边,使得两组向量中离此超平面最近的向量(即所谓支持向量)到此超平面的距离都尽可能远。
  21. 决策树:决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。
  22. 反向传播算法:简称 BP 算法,适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。
  23. 贝叶斯派:贝叶斯决策理论,是主观贝叶斯派归纳理论的重要组成部分。 贝叶斯决策就是在不完全情报下,对部分未知的状态用主观概率估计,然后用贝叶斯公式对发生概率进行修正,最后再利用期望值和修正概率做出最优决策。
  24. 自然语言处理:自然语言处理(Natural Language Processing, NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。自然语言处理主要应用于机器翻译、舆情监测、自动摘要、观点提取、文本分类、问题回答、文本语义对比、语音识别、中文 OCR 等方面。
  25. 计算机视觉:计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。
  26. 机器学习:机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能核心,是使计算机具有智能的根本途径。
  27. 专家系统:是一个智能计算机程序系统,其内部含有大量的某个领域专家水平的知识与经验,它能够应用人工智能技术和计算机技术,根据系统中的知识与经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。
  28. 知识图谱:知识图谱(Knowledge Graph),在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。知识图谱,是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。
  29. GPU:图形处理器(Graphics Processing Unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。GPU 使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时 GPU 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,而硬件 T&L 技术可以说是 GPU 的标志。GPU 的生产商主要有 NVIDIA 和 ATI。
  30. CPU:中央处理器(central processing unit,简称CPU)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。CPU 自产生以来,在逻辑结构、运行效率以及功能外延上取得了巨大发展。
  31. FGPA:FPGA(Field Programmable Gate Array)是在 PAL (可编程阵列逻辑)、GAL(通用阵列逻辑)等可编程器件的基础上进一步发展的产物。它是作为专用集成电路(ASIC)领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点。
  32. ASIC:ASIC(Application Specific Integrated Circuit)即专用集成电路,是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。
  33. 集成电路:集成电路(Integrated Circuit)是一种微型电子器件或部件。采用一定的工艺,把一个电路中所需的晶体管、电阻、电容和电感等元件及布线互连一起,制作在一小块或几小块半导体晶片或介质基片上,然后封装在一个管壳内,成为具有所需电路功能的微型结构;其中所有元件在结构上已组成一个整体,使电子元件向着微小型化、低功耗、智能化和高可靠性方面迈进了一大步。
  34. 量子穿隧效应:量子穿隧效应或量子隧道效应(Quantum Tunnelling Effect)为一种量子特性,是如电子等微观粒子能够穿过它们本来无法通过的“墙壁”的现象。这是因为根据量子力学,微观粒子具有波的性质,而有不为零的机率穿过势障壁。
  35. 电信号:电信号是指随着时间而变化的电压或电流,因此在数学描述上可将它表示为时间的函数,并可画出其波形。由于非电的物理量可以通过各种传感器较容易地转换成电信号,而电信号又容易传送和控制,所以使其成为应用最广的信号。
  36. 石墨烯:二维碳材料。石墨烯(Graphene)是一种以 sp² 杂化连接的碳原子紧密堆积成单层二维蜂窝状晶格结构的新材料。石墨烯具有优异的光学、电学、力学特性,在材料学、微纳加工、能源、生物医学和药物传递等方面具有重要的应用前景,被认为是一种未来革命性的材料。
  37. 碳纳米管:碳纳米管,又名巴基管,是一种具有特殊结构(径向尺寸为纳米量级,轴向尺寸为微米量级,管子两端基本上都封口)的一维量子材料。碳纳米管主要由呈六边形排列的碳原子构成数层到数十层的同轴圆管。层与层之间保持固定的距离,约 0.34 nm,直径一般为 2~20 nm。碳纳米管作为一维纳米材料,重量轻,六边形结构连接完美,具有许多异常的力学、电学和化学性能。
  38. 神经突出:神经突触,1896年C.S.Sherrington 把神经元与神经元之间的机能接点命名为突触,有两类突触:电突触与化学突触。
  39. 神经元:神经元即神经元细胞,是神经系统最基本的结构和功能单位。分为细胞体和突起两部分。细胞体由细胞核、细胞膜、细胞质组成,具有联络和整合输入信息并传出信息的作用。突起有树突和轴突两种。树突短而分枝多,直接由细胞体扩张突出,形成树枝状,其作用是接受其他神经元轴突传来的冲动并传给细胞体。轴突长而分枝少,为粗细均匀的细长突起,常起于轴丘,其作用是接受外来刺激,再由细胞体传出。轴突除分出侧枝外,其末端形成树枝样的神经末梢。末梢分布于某些组织器官内,形成各种神经末梢装置。感觉神经末梢形成各种感受器;运动神经末梢分布于骨骼肌肉,形成运动终极。
  40. 微电子:微电子技术是随着集成电路,尤其是超大型规模集成电路而发展起来的一门新的技术。其发展的理论基础是19 世纪末到 20 世纪 30 年代期间建立起来的现代物理学。微电子技术包括系统电路设计、器件物理、工艺技术、材料制备、自动测试以及封装、组装等一系列专门的技术,微电子技术是微电子学中的各项工艺技术的总和。
  41. 模糊逻辑:模糊逻辑指模仿人脑的不确定性概念判断、推理思维方式,对于模型未知或不能确定的描述系统,以及强非线性、大滞后的控制对象,应用模糊集合和模糊规则进行推理,表达过渡性界限或定性知识经验,模拟人脑方式,实行模糊综合判断,推理解决常规方法难于对付的规则型模糊信息问题。模糊逻辑善于表达界限不清晰的定性知识与经验,它借助于隶属度函数概念,区分模糊集合,处理模糊关系,模拟人脑实施规则型推理,解决因“排中律”的逻辑破缺产生的种种不确定问题 。
  42. 深度学习:深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步
  43. 强化学习:强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习理论受到行为主义心理学启发,侧重在线学习并试图在探索-利用(exploration-exploitation)间保持平衡。不同于监督学习和非监督学习,强化学习不要求预先给定任何数据,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。
  44. 元学习:元学习(Meta-learning)是机器学习领域一个令人兴奋的研究趋势,它解决了学会学习(learning to learn)的问题。机器学习研究的传统模式是获取特定任务的庞大数据集,并利用该数据集从头开始训练模型。显然,这与人类如何利用过去的经验快速学习新任务相去甚远。那是因为人类学会了学习(learn to learn)。
  45. 迁移学习:一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。
  46. 分布式:分布式计算是计算机科学中一个研究方向,它研究如何把一个需要非常巨大的计算能力才能解决的问题分成许多小的部分,然后把这些部分分配给多个计算机进行处理,最后把这些计算结果综合起来得到最终的结果。分布式网络存储技术是将数据分散地存储于多台独立的机器设备上。分布式网络存储系统采用可扩展的系统结构,利用多台存储服务器分担存储负荷,利用位置服务器定位存储信息,不但解决了传统集中式存储系统中单存储服务器的瓶颈问题,还提高了系统的可靠性、可用性和扩展性。
  47. 对抗学习:对抗学习是一种很新的机器学习方法,由加拿大学者 Ian Goodfellow 首先提出。对抗学习实现的方法,是让两个网络相互竞争对抗,“玩一个游戏”。其中一个是生成器网络,它不断捕捉训练库里真实图片的概率分布,将输入的随机噪声转变成新的样本(也就是假数据)。另一个是判别器网络,它可以同时观察真实和假造的数据,判断这个数据到底是不是真的。通过反复对抗,生成器和判别器的能力都会不断增强,直到达成一个平衡,最后生成器可生成高质量的、以假乱真的图片。
  48. 可解释的机器学习:可解释的机器学习(Explaninable AI)是机器学习研究由线到面的关键一步,当前的机器学习仍然处于黑箱技术阶段,输入数据的关联性无法解释因果关系。尤其在医疗、核工业和航天领域应用中,机器学习的可解释性意味着可靠性和可用性。
  49. 编码:编码是信息从一种形式或格式转换为另一种形式的过程,也称为计算机编程语言的代码简称编码。用预先规定的方法将文字、数字或其它对象编成数码,或将信息、数据转换成规定的电脉冲信号。编码在电子计算机、电视、遥控和通讯等方面广泛使用。
  50. 解码:解码是一种用特定方法,把数码还原成它所代表的内容或将电脉冲信号、光信号、无线电波等转换成它所代表的信息、数据等的过程。解码是受传者将接受到的符号或代码还原为信息的过程,与编码过程相对应。
  51. 嵌入式系统:嵌入式系统由硬件和软件组成,是能够独立进行运作的器件。其软件内容只包括软件运行环境及其操作系统。硬件内容包括信号处理器、存储器、通信模块等在内的多方面的内容。
  52. 网络剪枝:一种通过删除隐节点使网络结构尽量简单且训练误差尽量小以提高网络泛化性能的学习方法。
  53. 权值量化:对神经网络的权值进行量化,使模型大小变小,运行速度变快,且准确率与原来相近。
  54. 卷积:在泛函分析中,卷积、旋积或褶积(英语:Convolution)是通过两个函数 f 和 g 生成第三个函数的一种数学运算,其本质是一种特殊的积分变换,表征函数 f 与 g 经过翻转和平移的重叠部分函数值乘积对重叠长度的积分。
  55. 共享权重:就是说,给一张输入图片,用一个卷积核去扫这张图,卷积核里面的数就叫权重,这张图每个位置是被同样的卷积核扫的,所以权重是一样的,也就是共享。
  56. 霍夫曼编码:霍夫曼编码(英语:Huffman Coding),又译为哈夫曼编码、赫夫曼编码,是一种用于无损数据压缩的熵编码(权编码)算法。由大卫·霍夫曼在 1952 年发明。
  57. 多模态:多模态即多模态生物识别是指整合或融合两种及两种以上生物识别技术,利用其多重生物识别技术的独特优势,并结合数据融合技术,使得认证和识别过程更加精准、安全。与传统的单一生物识别方式的主要区别在于,多模态生物识别技术可通过独立的或多种采集方式合而为一的采集器,采集不同的生物特征(如指纹、指静脉、人脸、虹膜图像等),并通过分析、判断多种生物识别方式的特征值进行识别和认证。
  58. 鲁棒性:鲁棒是 Robust 的音译,也就是健壮和强壮的意思。它也是在异常和危险情况下系统生存的能力。比如说,计算机软件在输入错误、磁盘故障、网络过载或有意攻击情况下,能否不死机、不崩溃,就是该软件的鲁棒性。所谓“鲁棒性”,也是指控制系统在一定(结构,大小)的参数摄动下,维持其它某些性能的特性。


参考资料:
[1] 百度百科.人工智能.[EB/OL].https://baike.baidu.com/item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/9180?fr=aladdin
[2] 百度百科.智能.[EB/OL].https://baike.baidu.com/item/%E6%99%BA%E8%83%BD/66637?fr=aladdin
[3] 林崇德,杨治良,黄希庭.心理学大辞典.[M].上海:上海出版社,2003:P1704
[4] 中国未来 50 年产业趋势洞察白皮书.[M].头豹.2021
[5] 唐国容.老基建是指哪些行业.[EB/OL].百度知道.http://zhidao.baidu.com/question/1955350200376946908/answer/3888505016
[6] 艾瑞咨询.2021年中国人工智能产业研究报告(Ⅳ).[M].艾瑞咨询研究院.2021
[7] 传统计算机芯片“算力”不足问题日益凸显 研究新一代计算机芯片成为当务之急.[EB/OL].半导体行业观察.https://www.elecfans.com/d/611742.html
[8] woniu.人工智能发展四个阶段(人工智能的基本概念)..[EB/OL].ChinaAI.https://www.chinaai.com/baike/11138.html