一、ChatGPT怎么突然就火了?
1.山中方七日,世上几千年
GPT4的出现一下让人工智能成了最热门的话题。但GPT3的模型,实际上两年前就培训出来了,它底层的技术结构、技术原理也存在很多年了。
2023年1月,微软CEO Satya和Sam Altman(OpenAI CEO)的合照在网上很火,他们跟大家介绍了双方的合作和技术的进步。但其实在2016年,双方已经开始探讨了。
什么意思?ChatGPT是机器时代的冰山一角。当我们看到某些现象出现的时候,某种意义来讲,这件事已经结束了。所以,我们现在要做的是什么?
2.“我在讲给ChatGPT祛魅”
韦青老师说,我想特别强调一点,我们误以为机器能凭空学到知识,不需要人的参与。其实机器是不理解概念的,机器理解的是概率分布。
语言,每一个字的出现,都是有概率分布的。它的答案是基于概率的一种推理,不是概念的推理,这一点我们务必要明白,这是祛魅的一个必要条件。Sam Altman(OpenAI CEO)能够坚定信念,其实是因为他对语言的特征,有深刻的理解。
我们给ChatGPT披了一张画皮,呈现出一个智者的形象。想象一下,ChatGPT是一个狐仙。我问,它答,你会觉着它是一个神人。但把这画皮一揭开,原来你提出的问题,就是一段指令,你还会觉得很神奇吗?
二、你能做出一个ChatGPT吗?
3.冲着ChatGPT创新,等于拎包入住而没有自己的地基
所有人都在盯着技术,想再做一个ChatGPT。韦青老师说,我们其实忽略了最重要的一点,能够把技术开发出来,先得有一个思想。ChatGPT,实际上它只是一种提取已经被沉淀、被记忆的知识的一种交互方式,底下什么?是基础模型。像谷歌的BERT,Facebook的LLaMa。
为什么GPT现在那么火?它背后是OpenAI的技术信仰,再加上微软的Satya(微软CEO)、Kevin Scott(微软CTO)这些人的技术信仰的结合。这些人都相信,靠大量的语料和海量的计算,能够产生出对于知识的沉淀和应用。
4.我们有没有对于工具、对于数字化技术的技术信仰?
这才是我们应该问自己的。
认知达到信仰的层面,才能够选一条没有人走过的路。尽管今天还走不通,但你就认为这条路可以走,因为第一性原理告诉你,这样做是对的,只不过人类的技术还没有发展到那一步,还证明不出来。
另一个例子是SpaceX。它成功了,大家都觉得太牛了。但当马斯克后来接受媒体采访时,他哭了。他说当时我认为火箭可以回收,但NASA、所有大咖级人物、科学家都跟他讲,这条路是走不通的。
OpenAI是一样的,我们认为它在2023年1月忽然出名,怎么可能?它背后有太多的辛酸、坚持、疑惑、摇摆,只不过坚持下来了。
三、AI会不会代替掉人?
5.为什么OpenAI会提出UBI**(全民基本收入)**?
20年前谷歌刚成立的时候,只是个搜索引擎。你会感到很无厘头,一个搜索引擎,为什么把不做恶作为标准?现在大家明白了吧,在一个“比真还真的时代”,给你的信息当然可以作恶。
AI也一样。当就算在AGI上,大家的关注点,也都各有侧重,微软明确指出要做负责任的AI,谷歌说的叫不作恶。OpenAI提出UBI,全民基本收入(UBI,是指“无条件”地为所有个人定期发放一笔现金收入)。
Sam Altman在采访中说,需要新思想回答的三个问题是:如何分配通用人工智能产生的利润?如何分享通用人工智能的访问权?如何分担通用人工智能的治理权?
大家想一想,为什么Sam Altman想到了这三个问题?
6.人时常忽略何以为人
韦青老师说,你觉得机器像人对吧?其实我要说,是我们太不像人了,所以才认为机器像人。何以为人?尤其是当我们知道自己有那么多的误区、偏差之后,如何去弥补、防范思维误区和偏差,让我们做得像个人?这是远比AI会不会代替掉人,更核心、更本质的一句话。
越是纷纷扰扰,越要守住第一性原理。这个时代,门开了一道又一道,但外界其实一直这样,是有风险的,只是我们没有跳出舒适区。
7.“煤气灯下”、 知识“肥胖症”、知识“智子”
韦青老师说,知其雄,守其雌。怎么做到?有三个词可以供大家参考——“煤气灯下”、 知识“肥胖症”、知识“智子”。
煤气灯下Gas Lighting是2022年,韦伯字典的全球热词,是上一世纪40年代一部电影的名称。电影讲述了,一位先生想谋取他太太的财物,一直在给太太洗脑。
电影用蒙太奇的手法,煤气灯摇摇晃晃,让人感觉到晕眩,感觉到不确定。它为什么变成全球热词了呢?因为现在机器生成的虚假消息和错误消息,就如同摇晃的煤气灯,让我们失去了对什么是真实的客观判断。
我们都知道,吃垃圾食品会带来肥胖症,那知识“肥胖症”又是什么?《三体》里的智子,是一种源头上的约束,让新的知识无法产生。那人工智能又会如何反过来影响人类知识?