AIGC

从某一天开始,我们突然发现AI可以帮忙生成文字、图片、音频、视频等等内容了,而且让人难以分清背后的创作者到底是人类还是AI。

这些AI生成的内容被叫做AIGC,它是AI Generated Content即“AI生成内容”的简写。像ChatGPT生成的文章,Github Copilot生成的代码,Midjourney生成的图片等等都属于AIGC。

而当AIGC这个词在国内火爆的同时,海外更流行的是另外一个词 —— Generative AI,即生成式AI。从字面上来看,生成式AI和AIGC之间的关系很好理解,生成式AI所生成的内容就是AIGC。所以ChatGPT,Github Copilot,Midjourney等都属于生成式AI。由此可见,AIGC和生成式AI的概念都是很简单直白的。

但因为AIGC这个词在国内比生成式AI更加流行。很多语境下,AIGC也被用于指代生成式AI。那么生成式AI和AI、机器学习、监督学习、无监督学习、强化学习、深度学习、大语言模型等等词汇之间又是什么关系呢?有没有一种剪不断理还乱的感觉,这个很难一言以蔽之,但通过一张图就可以直观理解他们之间的关系了。

AI

AI也叫人工智能,是计算机科学下的一个学科,旨在让计算机系统去模拟人类的智能,从而解决问题和完成任务。

早在1956年AI就被确立为了一个学科领域。在此后数十年间,经历过多轮低谷与繁荣。

我们认为,学习的每个方面或智能的任何其他特性原则上都可以被如此精确地描述,以至于可以制造一台机器来模拟它。我们将尝试找出如何使机器使用语言、形成抽象和概念、解决现在仅保留给人类的问题,并提高自己。我们认为,如果一个精心挑选的科学家团队在夏天一起工作,那么这一个或多个问题上都可以取得重大进展。

——《达特茅斯人工智能夏季研究项目提案》(McCarthy等,1955年)

机器学习

机器学习是AI的一个子集。它的核心在于不需要人类做显示编程,而是让计算机通过算法,自行学习和改进去识别模式,做出预测和决策。

比如,如果我们通过代码告诉电脑,图片里有红色说明是玫瑰,图片里有橙色说明是向日葵,那程序对花种类的判断,就是通过人类直接明确编写逻辑达成的,不属于机器学习,机器什么也没学。

但如果我们给电脑大量玫瑰和向日葵的图片,让电脑自行识别模式总结规律,从而能对没见过的图片进行预测和判断,这种就是机器学习。

机器学习领域下有多个分支,包括监督学习、无监督学习、强化学习。

监督学习

在监督学习里,机器学习算法会接受有标签的训练数据。标签就是期望的输出值,所以每个训练数据点都既包括输入特征,也包括期望的输出值。

算法的目标是学习输入和输出之间的映射关系,从而在给定新的输入特征后,能够准确预测出相应的输出值。

经典的监督学习任务,包括分类,也就是把数据划分为不同的类别;以及回归,也就是对数值进行预测。

比如拿一堆猫猫狗狗的照片和照片,对应的猫狗标签进行训练,然后让模型根据没见过的照片,预测是猫还是狗,这就属于分类。

拿一些房子特征的数据,比如面积卧室数是否带阳台等和相应的房价作为标签进行训练,然后让模型根据没见过的房子的特征预测房价,这就属于回归。

无监督学习

无监督学习和监督学习不同的是,它学习的数据是没有标签的。所以算法的任务是自主发现数据里的模式或规律。

经典的无监督学习任务,包括聚类,也就是把数据进行分组。比如拿一堆新闻文章,让模型根据主题或内容的特征,自动把相似文章进行组织。

强化学习

强化学习,则是让模型在环境里采取行动,获得结果反馈,从反馈里学习,从而能在给定情况下采取最佳行动来最大化奖励或是最小化损失。

所以就跟训小狗似的。刚开始的时候,小狗会随心所欲,做出很多动作。但随着和训犬师的互动,小狗会发现,某些动作能够获得零食,某些动作没有零食,某些动作甚至会遭受惩罚。通过观察动作和奖惩之间的联系。小狗的行为会逐渐接近训犬师的期望。

强化学习可以应用在很多任务上,比如说让模型下围棋,获得不同行动导致的奖励或损失反馈,从而在一局局游戏里优化策略学习如何采取行动达到高分。

深度学习

那么问题来了,深度学习属于这三类里的哪一类呢?它不属于里面的任何一类。深度学习是机器学习的一个方法。核心在于使用人工神经网络,模仿人脑处理信息的方式,通过层次化的方法提取和表示数据的特征。

神经网络是由许多基本的计算和储存单元组成,这些单元被称为神经元。这些神经元通过层层连接来处理数据,并且深度学习模型,通常有很多层,因此称为深度。

比如要让计算机识别小猫的照片,在深度学习中,数据首先被传递到一个输入层,就像人类的眼睛看到图片一样。然后数据通过多个隐藏层,每一层都会对数据进行一些复杂的数学运算,来帮助计算机理解图片中的特征,例如小猫的耳朵眼睛等等。

最后,计算机会输出一个答案,表明这是否是一张小猫的图片。

神经网络可以用于监督学习,无监督学习,强化学习。所以,深度学习不属于他们的子集。

生成式AI

生成式AI是深度学习的一种应用。它利用神经网络来识别现有内容的模式和结构,学习生成新的内容。内容形式可以是文本、图片、音频等等。

大语言模型

大语言模型也叫LLM,Large Language Model,也是深度学习的一种应用,专门用于进行自然语言处理任务。

大语言模型里面的大字说明模型的参数量非常大,可能有数十亿甚至到万亿个,而且训练过程中也需要海量文本数据集,所以能更好的理解自然语言以及生成高质量的文本。

大语言模型的例子有非常多,比如国外的GPT、LLaMA,国内的ERNIE、ChatGLM等,可以进行文本的理解和生成。以GPT-3这个模型为例子,它会根据输入提示以及前面生成过的词,通过概率计算逐步生成下一个词或Token来输出文本序列。

但不是所有的生成式AI都是大语言模型,而所有的大语言模型是否都是生成式AI这也存在些许争议。

前半句很好理解,生成图像的扩散模型就不是大语言模型,它并不输出文本。同时,有些人认为不是所有大语言模型都是生成式AI。这是因为有些大语言模型,由于其架构特点不适合进行文本生成。

谷歌的BERT模型就是一个例子,它的参数量和训练数据很大,属于大语言模型。应用方面,BERT理解上下文的能力很强。因此,被谷歌用在搜索上,用来提高搜索排名和信息摘要的准确性,它也被用于情感分析、文本分类等任务。但同时,BERT的不擅长文本生成,特别是连贯的长文本生成。所以有些人认为,此类模型不属于生成式AI的范畴。

这些概念共同构成了生成式AI的核心要素,希望能帮助你对时下热门的AIGC建立更多了解。