注:已建「AIGC聚集地」交流群,需要的朋友关注公众号哈,拉你进群。

image.png

01|前言

今年最火的应该就是 ChatGPT 了,自从 2022 年 11 月底 ChatGPT 面世以来,把 AI 话题的热潮,带上了前所未有的高度,短短 2 个月时间,ChatGPT 就突破了 1 亿注册用户,这是互联网产品史上最快的应用,暂时没有之一。

估计大家已经在各大网络平台都刷到过,很多人也看到了里面的商业价值。那么,ChatGPT 到底是个啥?这里简单给大家讲讲,本文不会涉及过多高深的技术原理讲解哈~

02|ChatGPT 是什么?

ChatGPT 是使用了大型语言模型 GPT 的一个对话式产品,GPT 模型则是由 OpenAI 公司训练的,能够生成类人文本。通过向它提供提示,它可以生成继续对话或扩展给定提示的响应。可以帮助你解决各种问题,并与你进行自然语言交流。

大白话: ChatGPT 像一个看了很多书的高智商的人,可以跟你聊天,理解、思考、并解决你提出的问题,他具有很完备的思考能力、结构化表达能力、自我纠错及进化能力。

ChatGPT 不仅支持多轮对话,还具有以下特征:
(1)可以主动承认自身错误。若用户指出其错误,模型会听取意见并优化答案;
(2)可以质疑不正确的问题;
(3)可以承认自身的无知,承认对专业技术的不了解。
这三点,很多人类都做不到。

你跟 ChatGPT 说一句话,它能生成信件、文章、诗句、歌词等等文字,而且它会结合聊天上下文的意思来回答你的问题。最重要的是,它会通过不断的大家的对话来完善自己的知识库,这是才 ChatGPT 最牛逼、最恐怖的地方。如果 ChatGPT 有一天有自我意识了,那这得多可怕啊……

而且它生成的内容在百度里搜不到,也就是原创文章哦。而且 ChatGPT 有逻辑性,就像一个普通高中生写的文章一样。相信不久将来,ChatGPT 会从高中生变成大学生了。

2023.03.15 更新:
OpenAI 正式发布了 GPT-4 模型,正式支持多模态,也就是说,除了文字型的互动以外,图片、视频等等,都可以支持了!

03|为什么 ChatGPT 突然火爆,AIGC 又是什么?

之所以 ChatGPT 能引起舆论的沸腾,是因为它是生成式 AI(Generative AI)技术在文字生成领域的重大突破,能够实现语言模型的输出与用户的交互意图高度关联,达到友好连续的对话效果,大大提升了对话的用户体验。
除了文字以外,生成式 AI 还可以在图像、音频视频等内容的生成中大显身手,以这些元素为基础,还可以创造游戏、数字人等场景化内容。这种由 AI 生成内容的模式目前已经初见规模,和我们常说的 UGC、PGC 相对应,被称为 AIGC(AI-Generated Content,人工智能生成内容)。
AIGC ,代表着 AI 从以往的关系与规律发掘、理解与预测等被动角色,开始向“生成、创造”等主动角色蜕变。
ChatGPT 以及前段时间 AI 画画机器人的出现,呈现了 AIGC 技术巨大的发展潜力。

04|扩展阅读

了解更多**ChatGPT 的 GPT 代表什么**
GPT ,是一种基于 Transformer 架构的大语言模型(LLM),全称是 Generative Pre-trained Transformer ,生成式预训练变换模型,目的是为了使用深度学习生成人类可以理解的自然语言。

GPT 分别是什么意思呢?

  • Generative ,生成式,是指它能自发的生成内容。
  • Pre-trained ,预训练,是不需要你拿到它再训练,它直接给你做好了一个通用的语言模型。
  • Transformer ,变换模型,谷歌提出来的一个很厉害的模型,他可以帮助更好的去处理 NLP 相关的问题,是非常棒的神经网络结构。Transformer 中有一个很重要的概念,注意力机制。

这里多说一句,「注意力机制」其实就是从你输入的信息中,挑出重要的信息,把注意力集中在这些重要的信息上,忽略不重要的信息。这样就能更好的理解你说的话。

目前机器学习方式有:监督学习、无监督学习、强化学习。

  • 监督学习:有标签数据,可以直接反馈,可以预测结果和未来
  • 无监督学习:没有标签和目标,没有反馈,而是它自己去寻找数据中的隐藏结果
  • 强化学习:是一个决策过程,有一系列的奖励机制和惩罚机制,让机器学习如何做到更好

大家都知道 ChatGPT 是一个是生成式 AI 。在学习归纳数据分布的基础上,创造数据中不存在的新内容。能生成文本、图片、代码、语音合成、视频和3D模型。他其实用到的是无监督学习和强化学习。

AI 从内容产出方式上,还有一种是分析式(判别式 AI ),主要用于分析,归类。你喂给它多少数据,它就能分析出什么样的内容,它局限于数据本身。人工视觉、听音识曲、自动感知后自动判别然后再自动决策等。

那么他是怎么学习的呢?
大家可以简单理解为,一个人需要吃饭,那制作菜肴时各种食物需要进行烹饪而成,这个原材料在 ChatGPT 等模型中,就被称为语料。
语料又会被分解为 Token 和各种向量关系,通过预训练的方式,人们基于这些 Token 和向量关系,建立起各种参数和模型,成为可被机器“消化、吸收”的原始学习素材。

ChatGPT 能进行大量的内容生成和创造,其实是靠的猜概率。现阶段所有的 NLP(自然语言处理)任务,都不是机器真正理解人类的世界。他只是在玩文字游戏,进行一次又一次的概率解谜。
在这个“猜概率”的文字游戏中,大预言模型( LLM,Large Language Model )演进出了最主流的两个方向:BERT 和 GPT 。
理解人类自然语言的模型有多种,GPT 只是其中的一种。另一种很著名的模型是BERT 模型。

  • BERT 是之前最流行的方向,几乎统治了所有 NLP 领域。

并在自然语言理解类任务中发挥出色(例如文本分类,情感倾向判断等)。

  • 而 GPT 方向则较为薄弱,最知名的玩家就是 OpenAl 了。

事实上在 GPT3.0 发布前,GPT 方向一直是弱于 BERT 的( GPT3.0 是 ChatGPT 背后模型 GPT3.5 的前身)

BERT和GPT区别是怎样的?

  • BERT ,是双向语言模型,联系前后猜中间的字,所以是双向,就像完型填空。

比如:我_ 8 点吃饭
BERT 猜的是「我打算 8 点吃饭」,猜的是中间的「打算」。

  • GPT ,是单向语言模型,猜下一个字,所以是单向,像写作文。

比如:我打算 8 点_
GPT 猜的是「我打算 8 点吃饭」,猜的是后面「吃饭」两个字。

怎么给 GPT 提问?有两种方式:fine-tune 和 prompt 。

  • fine-tune ,调参:需要对模型参数进行更新,来完成生成内容。

fine-tune 专业,门槛高,受众小。但是多样性、准确度高,适合复杂任务。少数玩家的游戏。

  • prompt ,提示词:不需要修改模型和参数,只需要给一些提示和样例,就能完成任务。

prompt 更简单,门槛低,受众大。适合处理简单的任务。所有玩家都可以使用。
我们在 ChatGPT 输入框中输入的内容,就是 prompt 。

ChatGPT 从我自己出发目前使用下来的几个问题:

  • 我们通常情况下都是问已知领域的一些问题,我们可以根据它给的答案进行判断和微调,但如果是我们不懂的领域他给的答案到底是否会全面?
  • ChatGPT会直接给结论,但会忽略推导过程。在这种情况下我们学习可能就会一知半解而不去思考。
  • 不会帮我们更好的了解其他人。他是个机器没有观点,只有客观理性的结果。
  • 影响我们对一件事情的立体判断和了解。
  • 在询问问题时,我们需要输入“命令” 如果你希望能够有较为完整的回答,那我们就需要让我们的指令更明确,更言简意赅,甚至是有条理的说明总结自己的需求。
  • 这个过程其实是在训练我们自己,表达总结能力,每当你问的时候就需要让自己进行清晰的表达。

    很多企业对于AIGC应用并赋能业务的意识还很薄弱,AICG可以赋能哪些业务板块?对不同行业的企业增长是否有定制化的解决方案?具体能提升多少效率?带来哪些收益?哪些方面已经有了比较成熟的应用和服务?如何选择靠谱的厂商?……

🎉 AIGC聚集地

AIGC聚集地产品介绍