当人工智能使用者在没有深刻理解它的情况下就接受机器学习创造的算法所假定的因果关系,甚至根据这些认识来行动时,我就对人工智能的危险感觉到担忧。
在解释原因之前,我想先阐明我的用词。人们经常轻率地使用“人工智能”和“机器学习”,并将其作为同义词,但二者大不相同。我把当前的计算机辅助决策技术分为三大类:专家系统、模仿和数据开采(这是我的分类,不是科技界常用的分类)。
我们在桥水使用的专家系统,设计者根据自己对一系列因果关系的理性理解将决策标准表述出来,然后观察不同条件下会出现什么不同情况。
但计算机也能发现规律并将其应用于计算机决策,而不需理解这些规律背后的逻辑。我把这种决策技术称为“模仿”。当同样的情况以可靠的方式反复不变地发生时,例如在一场规则极其严格的游戏中,这一做法也许有效。但现实中事物不断变化,所以这样的系统很容易与现实脱节。
数据开采时今年来机器学习发展最快的领域,是指功能强大的计算机消化大量数据,从中寻找规律。尽管这种做法很常见,但在未来与历史不同的情况下,这是有风险的。在机器学习不包含对现实的深刻理解的情况下,以机器学习为基础构建的投资系统很危险,因为当人们广泛相信并应用某些决策规则时,价格会受到影响。换言之,一个深刻见解在总所周知之后,其价格会逐渐衰减。在没有深刻理解的情况下,你弄不清楚过去发生的情况是否真有价值,即使有价值,你也弄不清楚其价值是否已经消失,甚至走向负面。常见的情况时,一些决策规则变得非常流行,以至对价格产生很大影响,从而使反向操作成为更合理的做法。
谨记,计算机是没有常识的。例如,计算机很容易曲解事实,看到人早上睡醒后吃早饭,就认为睡醒导致人饥饿。与其下很多我拿不准的押注,还不如下较少的我拿得准的押注(最好是互不相关的押注),同时,无法说明任何决策背后的逻辑,对我而言都是无法容忍的做法。很多人因为发现机器学习化形成深刻理解容易得多,就盲目信任机器学习。而对我而言,深刻理解必不可少,尤其是对我做的事情而言。我的意思不是模仿系统、数据开采系统没有用。事实上我相信,在未来的事物发展范围和格局与过去相同的情况下,这些系统对决策很有帮助。有了足够强大的计算能力后,所有可能变量就都可以纳入考虑。例如,通过分析不同形势下国际象棋好手弈棋的数据,通过分析不同手术期间杰出外科医生的手术流程,人吗可以创造出很有价值的下棋程序或手术程序。早在1997年,计算机程序“深蓝”就用这种方式几百了全球排名最高的国际象棋棋手加里.卡斯帕罗夫。但当未来与过去不同、我们因理解不深而无法识别所有因果关系时,这一做法是行不通的。凭着理解这些因果关系,我没有像其他人一样犯错误,最明显的例子是2008年的金融危机,当时几乎所有人都以为未来会和过去一样。把全部注意力集中于符合逻辑的因果关系,我们将能看到事情的真相。
想想看,人脑其实就是以某种方式编程的计算机,处理数据,发出指令。我们可以编排人脑的逻辑和作为工具的计算机的逻辑,让它们彼此合作,甚至互相检验。这是一种美妙的做法。
例如,假设我们要归纳出能解释物种进化的普适规律。理论上,只要我们有足够的处理能力和时间,这就是可能的。当然,我们需要把计算机得出的公式弄明白,以确保这不是一堆从数据中提取的大杂烩,即不同因素只有相关性,没有因果性联系。我们可以不断简化这些规则,直到实现毫无疑问的精确度。
当然,鉴于人脑的处理能力和速度有限,要对进化过程中的所有变量形成丰富的理解,是一个永远无法完成的任务。那么,我们的专家系统采用的那些简化法和理解法真的是必需的吗?也许不是。在我们检验的数据之外还会发生其他情况,这样的风险肯定是存在的。尽管如此,我们仍然可以说,与某种看起来成立但机理不清晰的公式相比,我们把以数据开采为基础的公式视为解释物种进化的普适规律,并依赖这些公式预测未来10年、20年、50年的变化,是风险相对较低的做法(至少可能有助于科学家治疗基因疾病)。
事实上,我们对理解的强调也可能太过了,有意识的思考只是理解的一部分,也许我们导出一个公式并用它来预测未来变化也就足够了。在我个人看来,与依赖我不理解的算法相比,对因果关系形成深刻理解所产生的兴奋、安全性和教育的价值要有吸引力得多,所以我依然倾向于这种做法。然后,是我的逻辑和理性,还是我较低层次的偏好和习惯在促使我这么想?我不能确定。我希望就此问题询问人工智能领域最杰出的人才(并请他们向我提问)。
最有可能发生的情况是,人类酷爱竞争的天性将促使我们越来越信任计算机发现的、超出我们理解范围的因果关系。这种信任有时会带来成效,有时会适得其反。我想人工智能将带来极快、极了不起的进步,但也担心它会导致人类的毁灭。
人类正在走向一个既令人兴奋又危险的新世界。这就是我们眼前的现实。而我一如既往地相信,如果我们不是把头埋在沙子里,而是准备好应对之道的话,未来会美好得多。