天翼云代理,天翼云代理商,北京代理商
天翼云2.5折专线:18510009100/18510009200(全国市话)

生成式AI景观:应用程序,模型,基础设施

2023-11-06 04:34:40


随着互联网、移动的设备和云计算的兴起,生成式人工智能代表了技术的重大进步。它的直接实际好处,特别是在提高生产力和效率方面,比其他新兴技术,如虚拟实境,自动驾驶,区块链和Web3更明显。生成式人工智能模型在许多领域都有应用,这些系统在写作、艺术、音乐等创新领域都有值得注意的例子和应用。

生成式人工智能是一种变革性技术,它利用神经网络来生成原创内容,包括文本、图像、视频等。ChatGPTBardDALL-E 2MidjourneyGitHub Copilot等知名应用程序展示了这一突破的早期前景和潜力。

深入了解不断发展的生成式人工智能世界,探索其机制、现实世界的示例、市场动态以及其多个(包括应用程序、平台、模型和基础设施层)的复杂性。继续阅读,了解这项技术的潜力,它如何塑造行业,以及使其对最终用户发挥作用和变革的层面。

什么是Generative AI?

生成式AI是人工智能的一个子集,它采用算法来创建新内容,例如文本、图像、视频、音频、软件代码、设计或其他形式的内容。

Generative AI是如何工作的?

生成式人工智能模型利用神经网络分析和识别训练数据中的模式和结构。利用这种理解,它们生成新的内容,既模仿类似人类的创作,又扩展了训练数据的模式。这些神经网络的功能根据所使用的特定技术或架构而有所不同。这包括但不限于变压器,生成对抗网络(GAN),变分自动编码器(VAE)和扩散模型。

· TransformersTransformers利用自我注意机制来处理和分析数据序列,比传统方法更有效率。与只关注单个句子的传统人工智能模型不同,transformers可以识别整个页面、章节或书籍中单词之间的联系。这使得它们非常适合在大量未标记的数据集上进行训练

· 生成对抗网络(GAN):GAN由两部分组成-这两个部分同时进行训练。如果生成器产生不切实际的样本,则会受到惩罚,而如果生成器错误地识别计算机生成的示例,则会受到惩罚

· 变分自动编码器(VAE):VAE由一组潜在变量连接的编码器解码器组成。这些无监督学习模型通过将数据集压缩为简化形式,努力使输入和输出尽可能相同。潜变量允许通过将随机集馈送到解码器来生成新数据,从而促进输出的创造性和多样性

· 扩散模型:这些模型是经过训练的算法,通过添加随机噪声然后巧妙地去除噪声来操纵数据。它们学习如何从噪声失真的版本中检索原始数据,使它们在图像生成应用中特别有用。通过剖析照片和艺术品的组成部分,扩散模型能够将随机噪声转换为具体和连贯的图像

领先的生成式模型架构比较

Transformer已经成为自然语言处理的基石,并且是目前最流行的生成式AI模型架构。其次是GAN-广泛用于图像合成和增强,VAE-通常用于数据生成和重建,以及扩散模型-由于其有效生成图像和文本的能力而获得吸引力。

生成式AI的例子

生成式AI模型能够以各种形式创建新内容,例如文本、图像、视频、音频、软件代码和设计。以下是每个类别的一些示例:

· 文本:生成式AI可以根据特定的提示生成类似人类的文本。突出的例子包括OpenAI

· 图片:这些模型可以生成从逼真的人脸和艺术创作到逼真场景的图像,所有这些都基于文本描述。该领域值得注意的应用包括OpenAI

· 视频:虽然目前仅限于短片,但生成式AI可以从文本描述中创建视频。早期的文本到视频生成平台包KaiberRunwayGenmoPika Labs

· 音频:生成式AI能够以音乐和语音的形式创建音频内容。这个创建过程可以由文本描述、音乐符号或种子音频文件来指导。对于音乐生成,诸如GoogleMusicLMOpenAIMuseNetMetaAudioCraft等模型在文本转语音领域,像谷歌DeepMindWaveNetElevenLabsTacotron这样的模型

· 软件代码:有生成式AI工具可以帮助开发人员在编写代码时建议整行或整块代码,从而提高生产力。这些工具与各种编程语言兼容,包括PythonJavaScriptJavaC++等。GitHub CopilotAmazon CodeWhisperer是流行的AI编码伴侣的例子

· 设计图:生成式AI用于创建和优化3D模型,促进原型设计,简化流程优化,并通过基于文本的提示增强游戏设计。NVIDIA

ChatGPT和LLM-生成式AI的一个重要例子

ChatGPT被地球仪数亿人使用,是生成式人工智能的一个突出例子。它可以利用Transformer体系结构,通过响应输入提示来生成类似于人类的文本。ChatGPT基于OpenAIGPTGenerative Pre-Trained Transformer)模型构建,是大型语言模型(LLM)家族的一部分,通常用于各种自然语言处理(NLP)任务。

LLM是一种深度学习算法,能够识别、总结、翻译、预测和生成文本沿着其他内容。这些能力是基于从广泛的数据集收集的知识。在GPT-4的情况下,被称为Transformer的神经网络架构托管了超过1万亿个作为训练基础的参数。GPT模型被设计为预测文本序列中的后续单词,而Transformer组件通过注意力机制为每个单词添加上下文。

Generative AI的市场规模

波士顿咨询集团(BCG预计,2025年,生成AI市场规模将达到600亿美元,到2027年将翻一番,达到1200亿美元。这一显著增长代表了2022年至202766%的复合年增长率(CAGR)。到2025年,生成AI预计将占整个AI市场的30%

这些强劲的增长数据得到了麦肯锡对生成式人工智能更广泛经济影响的估计的进一步支持根据他们的分析,生成型人工智能可以为发达经济体的GDP(国内生产总值)贡献2.6万亿至4.4万亿美元,占整体GDP4%7%

为了更全面地了解生成式人工智能的前景,我们分析了该技术的价值链,将其分为四个相互关联的层,这些层共同创造新的内容。这些层是应用程序层、平台层、模型层和基础设施层。其中每一个都在整个过程中发挥着独特的作用,增强了生成AI的强大功能。生成式AI的应用层

生成式AI中的应用层通过允许动态创建内容来简化人类与人工智能的交互。这是通过专门的算法来实现的,这些算法提供定制和自动化的企业对企业(B2B)和企业对消费者(B2C)应用程序和服务,而无需用户直接访问底层基础模型。这些应用程序的开发可以由基础模型的所有者(例如带有ChatGPTOpenAI)和包含生成式AI模型的第三方软件公司(例如碧玉AI)进行。

通用、特定领域和集成应用程序

生成式人工智能的应用层由三个不同的子组组成:广义应用,特定领域应用和集成应用。

· 一般应用:这一类别包括旨在执行广泛任务的软件,以各种形式生成新内容,包括文本,图像,视频,音频,软件代码和设计。这一类的例子包括ChatGPTDALL-E 2GitHub CopilotCharacter.ai(一个允许用户创建和与AI角色匡威的聊天机器人服务)和碧玉AI(一个AI驱动的写作工具)。

· 特定领域的应用:这些软件解决方案是为满足特定行业(如金融、医疗保健、制造业和教育)的特定需求和要求而定制的。这些应用程序在各自的领域中更加专业化和响应性更强,特别是当公司对它们进行高质量,独特和专有数据的培训时。例子包括BloombergGPT,彭博社开发的金融数据分析的法学硕士,和谷歌

· 综合应用:该子组由现有的软件解决方案组成,这些解决方案已纳入生成式AI功能,以增强其主流产品。主要参与者包括Microsoft 365Salesforce CRMAdobe Creative Cloud。集成的生成式AI工具的例子有Microsoft 365 Copilot(用于各种Microsoft产品的AI驱动助手),Salesforce

生成式AI的平台层

生成式AI的平台层专注于通过托管服务提供对大型语言模型(LLM)的访问。该服务简化了通用的、预训练的基础模型(如OpenAIGPT)的微调和自定义。虽然领先的LLM(如GPT-4)可以在部署后立即回答大多数问题,但仅使用它们已经训练过的锁定数据集,微调允许这些LLM的功能针对特定内容域进行显着增强。

微调涉及解锁现有的LLM神经网络,以使用新数据进行额外的训练层。最终用户或公司可以将自己的专有或客户特定数据无缝集成到这些模型中,以实现目标应用。

平台层的最终目标是简化最终用户或公司对LLM的使用,并降低相关成本。这种方法消除了投资数十亿美元和多年努力从头开始独立开发这些模型的必要性。相反,用户可以每月支付订阅费,或者将其与基础设施即服务(IaaS产品捆绑在一起。除此之外,用户还可以访问有价值的功能,如安全性,隐私和各种平台工具,所有这些都以简化的方式进行管理。

用于AI模型微调的云平台

云服务提供商(CSP已经开发了平台服务,允许公司访问必要的基础模型,并为特定应用程序训练和定制自己的模型。平台服务包括:

· Azure OpenAI服务:这项基于云的服务提供了对OpenAI基础模型的访问,允许用户在Azure门户中创建应用程序。包括用于文本生成的GPT系列LLM和用于代码生成的Codex

· 亚马逊基岩:一个支持构建和扩展生成式AI应用程序的平台,使用AnthropicClaudeStability AIStable DiffusionAmazon Titan等基础模型

· Google CloudVertex AI:托管ML平台,提供用于构建、训练和部署生成式AI模型的工具和服务,包括用于文本生成的PaLM和用于图像生成的Imagen

用于AI模型微调的开源平台

开源解决方案也可用于帮助微调和定制通用和预先训练的基础模型。这些措施包括:

· 拥抱脸:作为公认的模型中心Hugging Face赠款访问超过120000个预训练的Transformer模型,并提供工具来微调它们以用于NLP任务,如问题回答,文本分类和文本&生成

· TensorFlow:由Google创建,TensorFlow是一个用于深度学习的开源库。它促进了人工智能模型的构建,训练和部署,具有图像识别,机器翻译和各种决策应用程序的功能

· PyTorch:由Meta(以前的FacebookResearch开发,PyTorch是一个基于PythonML框架。它的独特之处在于强大的GPU支持以及通过反向模式自动微分实时修改模型的能力

生成式AI的模型层

生成式AI的模型层启动了所谓的基础模型。这种大规模机器学习模型通常通过使用Transformer算法在未标记的数据上进行训练。训练和微调过程使基础模型能够演变成一个多功能的工具,可以适应各种各样的任务,以支持各种生成AI应用程序的功能。

目前,市场上提供了数百种基础模型,能够理解语言、视觉、机器人、推理和搜索等各个方面。Gartner预测,到2027年,基础模型将支撑60%的自然语言处理(NLP)用例。这标志着从2022年的不到10%大幅增加。预计这一增长将主要来自特定领域的模型,这些模型将使用通用基础模型作为基础进行改进。

基础模型可以大致分为两大类:封闭源代码(或专有)模型和开放源代码模型。

1. 闭源模型:这些模型由OpenAI这样的特定组织拥有和控制,底层源代码、算法、训练数据和参数都是保密的

2. 开源模型:相反,这些模型对每个人都是无限制的。它们鼓励社区协作和开发,允许透明地检查和修改代码

封闭源代码基金会模型

封闭源代码(或专有)基础模型通过应用程序编程接口(API)向公众提供。第三方可以将此API用于其应用程序,查询和显示基础模型中的信息,而无需在训练、微调或运行模型方面花费额外的资源。

这些模型通常可以访问专有的训练数据,并优先访问云计算资源。大型云计算公司通常创建闭源基础模型,因为训练这些模型需要大量投资。闭源模型通过向客户收取API使用或基于订阅的访问的费用来产生收入。

OpenAIGPT-4GooglePaLM 2这样的大型语言模型(LLM)是专注于自然语言处理的特定闭源基础模型。它们已经针对聊天机器人等应用程序进行了微调,例如ChatGPTBard。一个非语言的例子是OpenAIDALL-E 2,这是一个识别和生成图像的视觉模型。

开源基金会模型

开源基金会模型是协作开发的。它们可以免费分发和修改,为训练数据和模型构建过程提供完全透明的信息。许多甚至免费分发,这取决于许可证和数据。

使用开源模型的好处包括:

· 对数据的完全控制和隐私;OpenAIGPT等闭源模型不同

· 通过特定的提示、微调和过滤来改进定制,以针对不同行业进行优化

· 特定领域模型的经济高效的训练和推理(较小的模型需要较少的计算)

生成式AI的基础架构层

生成式人工智能的基础设施层包括大规模基础模型的重要组件。这个过程中涉及的关键资源是半导体、网络、存储、数据库和云服务,所有这些都在生成AI模型的初始训练和持续微调、定制和推理中发挥着至关重要的作用。生成式AI模型的功能主要分为两个阶段:

1. 培训阶段:这是学习发生的地方,通常在加速计算集群中的云数据中心内。在这个计算密集型阶段,大型语言模型(LLM)从给定的数据集中学习。参数是模型调整以表示训练数据中的基础模式的内部变量。标记是指模型处理的单个文本片段,例如单词或子单词。例如,GPT-3是在3000亿个令牌上训练的,其中一个令牌等于1.33个单词,主要来源于互联网的Common CrawlWikipedia,书籍和文章

2. 推理阶段:这是实际使用经过训练的AI模型来生成用户响应的过程。在这里,新的文本输入被标记为单个单元,模型使用在训练期间学习的参数来解释这些标记并生成相应的输出。这些经过训练的AI模型需要强大的计算能力,并且必须部署在终端用户附近(在边缘数据中心),以最大限度地减少响应延迟(延迟),因为实时交互对于保持用户参与至关重要

总体而言,生成式AI的准确性取决于LLM的大小和使用的训练数据量。这些因素反过来又需要由半导体、网络、存储、数据库和云服务组成的强大基础设施。

半导体

半导体使底层硬件能够进行计算,促进生成AI模型所需的处理和复杂计算。它们是用于制造各种类型的加速计算处理单元的基本材料,即图形处理单元(GPU),专用集成电路(ASIC-包括张量处理单元(TPU-和现场可编程门阵列(FPGA)。

这些硬件加速器的关键示例-MicrosoftAmazonMetaGoogle使用-如下所示:

· GPUNVIDIAHopperH100GPU-微软大量使用

· ASICAmazonAWS TrainiumTrn1)和AWS InferentiaInf1ASIC,分别用于训练和推理。此外,Meta Training and Inference AcceleratorMTIA)是另一种定制ASIC

· TPUGoogle CloudTPU v4

· FPGA:亚马逊的AWS F1实例由FPGA驱动

这些硬件加速器特别适合那些可以分解为更小的并行任务的任务,例如生成式AI中的任务。

联网

网络在生成式AI中发挥着至关重要的作用,促进了AI系统之间的有效数据交换。这在处理加速计算集群中服务器到服务器通信(也称为东西流量)的高带宽需求时尤为重要。

用于AI工作负载的突出网络技术,如InfiniBand和以太网,由NVLink(由NVIDIA开发)等高带宽互连补充。这些技术共同提供了解决方案,使AI集群的内部和外部组件之间能够建立连接。它们的协调确保了云数据中心之间的高效数据传输,具有高吞吐量和最小延迟。

存储

存储在生成式AI模型的训练和推理阶段起着至关重要的作用,可以保留大量的训练数据、模型参数和中间计算。并行存储系统通过提供对多个数据路径或存储设备的同时访问来提高总体数据传输速率。此功能允许以比单路径快得多的速率读取或写入大量数据。

在生成式人工智能训练的背景下,需要以极高的速度读取源数据集,并尽可能快地写出参数检查点。在推理过程中,经过训练的模型响应用户请求,高度的读取性能至关重要。这种能力使LLM能够快速使用,利用数十亿存储的参数,生成最合适的响应。

数据库

数据库,特别是非关系型(NoSQL)类型,对于生成式AI至关重要。它们有助于高效存储和检索训练像Transformers这样的复杂模型所需的大型非结构化数据集。OpenAI使用Azure Cosmos DBAzure中的Microsoft NoSQL数据库)动态扩展ChatGPT服务,强调了在生成式AI领域对高性能和可扩展数据库的需求。

云服务

云服务提供商(CSP),如亚马逊网络服务(AWS微软Azure谷歌云提供计算资源(由半导体提供支持),网络,存储,数据库和各种其他服务,使复杂的生成AI模型的训练和部署成为可能。在他们的数据中心(分为云区域和可用性区域)内

这些CSP专注于提供基础设施即服务(IaaS)产品,为生成式AI模型的培训和部署量身定制。其具体产品的例子如下:

· AWSAmazon提供EC2 P5实例,由NVIDIA H100 Tensor Core GPU提供支持,可提供高达20 exaFLOPS的计算性能

· Microsoft Azure:他们提供NVIDIA A10G v5实例,这些实例由NVIDIA A10G Tensor Core GPU提供支持,可提供高达250 teraFLOPS的计算性能

· Google Cloud:通过G2虚拟机,他们提供NVIDIAL4 Tensor Core GPU,计算性能高达242 teraFLOPS

 


12年经验 · 提供上云保障

服务热线:132-6161-6125(手机) 400-150-1900(全国市话)

站内导航: 天翼云服务器价格| 天翼云购买流程| 天翼云代理| 北京天翼云代理商| 杭州天翼云代理| 深圳天翼云代理商| 钉钉代理商| 阿里云代理| 公司官网

我公司收款账号| 天翼云备案系统

CopyRight © 2019 天翼云代理商. All Rights Reserved 京ICP备2024071855号-7 管理-北京优胜智连科技有限公司