Chatgpt代表的生成AI的影响和响应对通信行业
2025-04-01 02:01:14发布 浏览26次 信息编号:202957
平台友情提醒:凡是以各种理由向你收取费用,均有骗子嫌疑,请提高警惕,不要轻易支付。
Chatgpt代表的生成AI的影响和响应对通信行业
张·西洪(Zhang ),张江
中兴公司,南京,江苏
【摘要】通用AI繁荣的释放导致了一般的AI浪潮,代表了通用人工智能的奇异时刻的到来,并且信息行业生态系统很可能被重建。国内行业已经加强了对智能计算领域的研究,并且作为计算网络基础架构建设的主要力量,运营商为开发智能计算的开发带来了新的机会。详细分析了生成AI的功能,开发状况和应用前景,以及生成AI背后的技术要素,计算网络资源的需求,对通信行业的影响以及经营者在生成AI开发浪潮中所面临的机遇和挑战。最后,讨论了操作员的定位和响应策略。
【关键字】;生成的AI;通信行业;智能计算
【报价格式】
Lu Kai,Qi bin,Zhong 等。 ROADM全光开关网络关键技术的开发和应用前景[J]。电信科学,2022,38(7):37-42。
LV K,Qi B,Zhong SQ等。钥匙和Roadm all- [J]。 ,2022,38(7):37-42。
0简介
在2022年11月底,公司根据人工智能对话应用程序的生成预培训的转换模型发布了对话计划(CHAT PRE,)。展示了其意图理解能力,语言流畅性和持续的对话能力,并扫除了传统自然语言处理(NLP)弱应用功能的形象,在2016年击败Lee Sedol后成为另一个爆炸性事件,引发了全球AI行业中的大型模型和生成的AI浪潮。截至2023年4月,在国内外,已经发布了十几个类似的大型模型。
通信行业从业人员还在思考如何基于大型模型查看生成AI,以及电信运营商的计算网络基础架构如何处理它。根据生成AI,关键技术要素以及未来应用程序方案分析的开发趋势,本文提出了生成AI对计算能力,网络和数据中心的关键需求,然后提出了有关电信运营商处理这一回合AI开发繁荣的建议。
由于生成的AI正处于快速发展的时期,因此颠覆人类认知的事件继续发生,基于当前情况的分析和判断也可能存在缺点,因此此阶段需要对任何可能性开放。本文的观点用于读者的参考。
1。生成AI的发展趋势是传统AI所面临的1.1问题以及生成AI带来的改进
近年来,深度学习已成为AI发展的重要驱动力,但是随着深度学习技术进入瓶颈时期,工业发展将面临多重挑战。首先,传统的深度学习有监督的培训,这高度依赖于标记的数据,这会消耗大量人工成本。其次,该模型具有强大的域特征,较弱的跨域迁移能力,并且不是很通用。此外,当前的深度学习对人情绪的理解仍处于语义的浅水水平,没有良好的逻辑推理技能,并且无法真正理解用户意图。
代表的生成AI具有大型计算能力,大数据和大型模型的典型特征。首先,它是基于大规模的未标记数据进行预训练的,然后用少量的标签对其进行微调,从而大大降低了数据标记要求;其次,预先训练的生成AI的大型模型具有多模式(文本,图片,程序,视频等),跨模式(“ ”,“ ”,“ ”,“ ”)内容产生能力,并且具有强大的多功能性和跨性别的用法。此外,与传统的AI相比,生成的AI可以更有效地捕获用户的意图来理解上下文,使对话更加顺畅,更自然,并具有更强的逻辑和组织能力。
1.2国内外生成AI的当前发展状态
2017年,提出了结构,并创建了一种自然语言预训练的新模型。 GPT-1于2018年发行,发布了Bert,然后将和()等巨人连续发布了一系列大型模型。 2022年11月,基于GPT-3.5的官方发布标志着从定量变化到生成AI定性变化的过渡。在2023年3月,在各种专业考试中,它进一步升级为GPT-4,超过70%甚至90%的人类候选人,例如美国统一的律师许可检查,研究生入学考试和医疗自我测试考试,表明他们能够超越普通的人类专业人士,使人们感到被生成生成的人,使人们感到震惊。
随着大型模型的潮流,国内制造商也效仿了,并又一次发布了自己的大型型号。 Baidu发布了模型,阿里巴巴推出了 模型,推出了模型,华为推出了Pangu模型,发行了日本新模型,发布了Spark认知模型...超过一个月的大型模型超过一个月。总体而言,当前的国内大型模型仍处于起步阶段,并且能力水平与其他外国领先水平之间仍然存在很大的差距,并且需要进一步的优化和改进。
2生成AI 2.1技术架构和生成AI的工业生态的技术要素和应用前景
生成AI技术架构如图1所示。从技术体系结构的角度来看,生成AI主要包括四个级别:基础架构层,算法模型层,人工智能生成的内容(AIGC)服务层和AIGC应用程序层。
图1生成AI技术架构
(1)基础架构层
基础架构层的大型模型培训和推理计算能力主要基于配备了图形处理器(大学,GPU)或智能计算加速芯片的智能计算服务器。同时,大型模型培训还需要远程直接数据访问(OVER,ROCE)通过网络切换网络连接或基于收敛的以太网的远程直接数据访问(Over,ROCE),以形成一个高性能的智能计算集群。在基本的计算网络硬件上,云提供商集成了各种硬件资源,然后包装它们并将其提供给高级模型,以培训和使用计算功率服务的形式。
(2)算法模型层
算法模型层基于基础架构层提供的计算能力,算法开发人员对一般大型模型或垂直字段大型模型进行培训和推断。大型模型提供商有两种主要类型:第一种类型是具有强大技术实力的技术公司,致力于建立一般的大型模型。第二种类型是致力于在专业领域建立大型模型的提供商。它们中的大多数基于开源算法框架,将较少的一般数据与高质量的专业数据结合在一起,并以较低的成本在专业领域中培训大型模型。
(3)AIGC服务层
AIGC服务层提供了基于算法模型的特定生成AI服务,例如聊天,文学和艺术图像,代码生成等。这种类型的服务主要由大型模型提供商提供。生成的AI服务还包括专业领域的内容生成功能,例如生成网络配置说明等。这种类型的服务通常由各个领域的专业制造商提供。
(4)AIGC应用程序层
AIGC应用程序层包括基于生成AI技术的创新应用以及整合生成AI功能的传统应用程序。随着各种AIGC服务功能的改进和开放,各行各业的应用程序开发人员都可以称呼AIGC服务能力来开发各个领域的应用程序,并且应用生态系统将处于开花鲜花的情况。
2.2大型模型的技术开发
大型模型的技术迭代路径如图2所示。代表的生成AI的技术迭代分为两个主要阶段。第一阶段刺激了模型的潜力,并专注于增加参数的规模。在此阶段,通过学习大量培训数据并以模型参数的形式存储来获得各种知识。通过不断增加模型参数并完全利用模型的电势,当参数数量达到一定水平时,会出现功能的出现,并且大量新功能将突然爆发。但是,该行业尚未明确结论参数量表将导致能力的出现。大多数观点认为,这是数十亿到数十亿个参数。第二阶段是人类反馈的增强学习阶段,重点是人类意图的一致性。此阶段包括三个步骤:(1)监督微调,收集代表性问题,标记标记与问题相对应的合理答案,并通过少量的带注释的问题和答案对模型进行微调; (2)设计一个模仿人类评分并为语言模型产生的答案的奖励模型,以便满足人类意图的答案可以获得很高的分数; (3)加强学习训练阶段,让语言模型和奖励模型进行互动培训,以便语言模型产生的内容继续接触人类的意图。
图2大型模型的技术迭代路径
2.3生成AI的应用前景
作为具有人类表达水平的自然语言生成系统,具有出色的知识整合和语言描述能力,它将进一步打破人与机器之间的界限,在各个领域具有巨大的发展潜力,并且可能会重塑许多工业生态学。从其生成的内容形式的角度来看,它可以大致分为六个类别:文本生成,代码生成,图像生成,音频生成,视频生成和其他内容。
在文本生成方面,主要的应用领域集中在商业办公室,文本写作,医学教育,智能搜索和个人应用中。在商业办公领域,微软宣布将植入整个家庭桶并正式发布365。就代码生成而言,它可以帮助开发人员快速生成程序代码,更快的写作速度,更清晰的注释,更方便的理解和更高的代码效率,这将带来重大提高R&D效率。就图像生成而言,可以根据输入文本提示来创建一些图像作品,而不是创建一些图像作品,例如广告海报,电影海报等,以及复杂的插图和场景,从而大大提高了娱乐领域的生产效率,例如电影和游戏。
生成的AI被该行业广泛认为是人工智能和内容领域深入整合的代表,并且是改变未来生活和工作模式的基本核心技术。尤其是在数字技术和传统行业集成的背景下,生成的AI将与数字技术(例如大数据,物联网,云计算,数字双胞胎和XR)一起工作,以建立数字技术基础,以推动行业的数字化转型和升级。
3分析生成AI对通信领域的影响3.1生成AI对计算能力的需求和影响
生成AI模型的培训和推断对计算能力有不同的要求。大型模型培训是一个计算密集的过程,需要高性能AI群。推理是多交易的并发处理,并且部署在数据中心或边缘DC中的GPU服务器可以满足要求。
以GPT-3为例,完成模型需要多轮培训。一轮训练所需的计算能力为3,640×天,并且需要高性能的AI群集(性能优化数据中心(POD))来确保计算能力。培训任务在豆荚内完成,通常不在豆荚范围内。
以 A100 POD为例,它包含140台服务器,1,120 A100 GPU,并且计算能力可以达到336。其中,GPU具有二次互连体系结构:在服务器中,8 GPUS使用总线互连,最高为600 GB/s;服务器使用网络连接到每个服务器的8 200 GBIT/S网络端口,该端口可以为服务器提供1.6 Tbit/s互连带宽。使用A100 POD在20天内完成一轮为GPT-3级型号的培训。
尽管高性能AI群集会大大提高计算能力,但它们也大大增加了AI芯片和服务器的功率。单个服务器的功率达到了5 kW以上,液冷服务器和液冷数据中心将逐渐成为必要。
生成的AI推理通常不需要专用的高性能AI集群。对于单个模型实例的推理要求,可以完成单个GPU服务器,甚至可以完成单个高性能GPU卡。但是,随着用户数量的增加和图片和视频内容的增加,对推理计算能力的需求将大大增加,并且需要多个普通的GPU服务器来完成它。
相比之下,自2016年以来,中小型模型已在各种方案中广泛使用。中小型模型的参数小于10亿,通常按数千万到1亿的顺序。随着GPU处理能力的增加,中小型模型不再需要并行处理多个GPU,并且推理计算能力需求较低。因此,中小型型号可以使用支持高速串行计算机扩展总线(PCIE)接口的GPU服务器来满足需求。
3.2生成AI对数据中心网络的影响
生成AI大型模型对数据中心网络的影响主要反映在模型训练中使用的高性能群集中。大型模型训练需要在传统数据中心网络中为远程直接数据访问(RDMA)数据传输在不同服务器上的GPU之间的传统数据中心网络中的每个POD的单独的高速数据交换平面。高速数据交换平面需要具有以下功能。
(1)高带宽
大型型号训练需要在数百或数千张GPU卡上拆分算法和数据,因此GPU卡之间需要高互连带宽。服务器内GPU之间的当前互连总线带宽已达到每秒2位。例如,A100总线带宽达到4.8 Tbit/s(600 GB/s),而单个服务器只能提供200 Gbit/s×8,总访问功能为1.6 TBIT/s。因此,服务器之间的网络带宽已成为一种瓶颈,限制了AI簇的性能。对于服务器之间的网络,大多数外国都使用网络。由于封闭的网络技术,ROCE无损以太网更倾向于在中国使用。目前,网络和ROCE都已经开始引入100 GBIT/S/200 GBIT/S访问端口和400 GBIT/S聚合端口,并开始发展到800 GBIT/S端口功能。
(2)低延迟
跨GPU的数据交换在大型模型的训练过程中经常发生。除了高带宽外,低潜伏期对于训练大型模型也非常重要。网络延迟至少可以为1μs。使用ROCE技术的无损以太网延迟目前为5至10μs,需要进一步优化。
(3)零包丢失
RDMA传输对数据包丢失的公差极低。一千分之一的数据包损耗率将导致传输效率急剧下降,而2%的数据包损耗率将导致RDMA吞吐量降低到0。
除了上述三个功能要求外,使用无损以太网来构建高性能数据交换平面时,设备和网络模式还将对网络规模和性能产生一定的影响。 Using a full-box two-layer CLOS can full of 1,000 GPU cards, while using a -layer CLOS to full of 1,000 GPU cards, and using a two-layer CLOS to full of 1,000-block GPU cards, using a two-layer CLOS to full of 10,000-block GPU cards, but the delay of two-layer is to the单层网络。
除了上述成熟的无损以太网设备网络模式外,还可以使用新的分布式去耦框架(DDC)网络模式。 DDC可以提供端到端的确定性流量控制,并具有基于单元格的超低延迟,其延迟和无损性能与网络相当。但是,技术和产品尚未成熟,需要进一步发展和改进。
为了训练中小型模型,不需要GPU之间的大型,中和小型数据交换的各种模型的推断。当前的数据中心网络技术和网络可以满足特殊网络设计的需求。
3.3生成AI对大型通信网络的影响
在TOH/TOC字段中,用户更多地依靠生成AI来进行网络上的内容生产和传输,从而进一步提高了用户的流量需求,带宽要求以及网络的网络质量;在TOB领域,AIGC进一步改善了办公室和生产链接在网络上的依赖性,在工作时间内增加了网络流量,并且对网络可靠性和服务质量的要求也更高。两种类型的方案不仅会促进互联网流量的增加,而且还会影响互联网流量的当前潮汐效应,从而使峰值和山谷之间的变化在交通周期中更加顺利。
本文使用以下参考模型来估计:用户提交问题并返回答案,并且假定平均互动为1,000个单词,根据数据包捕获结果,单向交互约为3 MB。根据每天每个用户提交的10个问题请求,每天的流量量在24小时内均匀分布。 2023年2月,每天访问的平均用户数量约为3500万,用户互动的南北流量约为(35×106×3×3×106×10×8)/(24×60×60)= 97.2 GBIT/S。即使使用强度将100倍放大以达到10 Tbit/s的水平,带宽也仅占全球 1,000 Tbit/s量的1%。由基于文本的问答产生的南北网络流量有限,几乎对互联网带宽没有影响。
大型模型对带宽增长的驾驶效果受大型模型产生的内容的类型和应用量表的影响。随着大型模型的多模式能力的成熟度,信息的交互式媒体形式已从文本升级到语音,图片,视频和全息图像的高阶形式,以及带宽增长将带来数量级变化的顺序。近年来,互联网骨干网络带宽的年度增长率下降到20%。当前,应跟踪,建模和评估大规模模型应用程序生成的流量变化,并及时做出响应。
当前,大规模模型培训需要集中部署,该部署已在数据中心内的POD中完成,而推论节点可以根据需要进行集中或分布式部署。在此培训/推理分离模式下,训练POD和推理节点仅需要通过训练有素的推理模型(文件大小在GB的顺序上),该模型与当前应用程序服务的当前分布式部署机制相同,并且对东西方流量没有重大影响。
4.对生成AI的发展和响应的定位和响应4.1关于操作员定位的讨论
生成AI产业链中运营商的定位和能力要求如图3所示。与AIGC技术架构相结合,大型AIGC工业链的参与者可以大致分为三类:基础架构服务提供商,提供培训和推断所需的计算能力和网络服务;算法模型提供商,完成大型模型的培训,部署和迭代,并通过应用程序计划界面(API)或其他方式提供服务; AIGC应用程序服务提供商称为前者提供的模型功能,以及针对特定领域的开发应用程序,例如自动代码生成应用程序,自动图像生成应用程序等,用于电信运营商,选择的角色类别或类别的角色具有不同的功能要求,未来的收益和风险也不同。他们需要将其与自己的优势和未来的战略定位结合在一起。
图3生成AI产业链中的操作员定位和功能要求
作者认为,提供基础架构服务是一种基本定位,这与当前电信运营商的云网络开发策略一致,并且也是运营商擅长的服务模型。目前,这三个主要运营商通过专业公司(例如 Cloud,移动云, Cloud等)提供了基本的云网络服务,以用于大型模型的培训和推理需求,并通过增强智能计算能力,他们可以为外界提供智能计算服务。
从考虑AIGC服务安全性的情况下,为政府或信息敏感单位提供服务的未来大型模型需要高安全性和高可靠性功能,电信运营商应积极进行安排。算法模型服务是技术驱动的,需要运营商的高研发功能。他们需要引入高级AI科学家来积累相关的技术能力。这种服务具有很高的技术阈值,其未来收入将高于基本计算网络服务。
对于AIGC顶级应用服务,这将是一个非常丰富的生态发展模型。运营商可以首先基于经过独立培训的大型模型来构建AIGC应用程序,然后结合自己的有利市场,例如智能家居领域,独立开发或共同开发或共同开发AIGC应用程序,与第三方公司一起服务于健康,教育,娱乐和其他需求,或者为政府和用户提供AI解决方案。
总体而言,操作员可以根据自己的能力和特征选择不同的角色定位。提供基础架构服务是起始模型。随着操作员在生成AI中提高其技术能力和生态整合能力,他们可以逐渐为基础架构 +模型 +应用程序提供全面的产品服务。
4.2运营商的智能计算和网络计划建议
大型模型培训所需的计算能力非常特别。由于模型参数大量,在培训过程中,需要高速传输中间数据在RDMA中。因此,大型模型训练需要高性能集群体系结构的计算能力。但是,大型模型推理对计算能力的需求很小,并且单个GPU服务器通常可以满足单个大型推理。将来,随着大型模型推断的进一步优化,预计单杆推理的计算功率需求将减少到GPU卡。因此,大型模型推断的过程不需要高性能AI计算功率簇。
(1)计划培训的建议副智能计算能力
从技术成熟度曲线来看,当前的生成AI处于炒作曲线的顶峰,首都市场引起了人们的关注,并且大量的互联网或AI初创公司都渴望尝试,显示出对大型模型训练计算能力的强烈需求。由Baidu,和代表的主流制造商已经独立建立了智能计算能力,基本上不会租用操作员来训练计算能力。随着生成AI技术达到炒作的顶峰,它将体验到气泡破裂的痛苦时期,而初创企业的计算功率需求可能会大大减少,因此有必要查看当前生成AI的价值和挑战[10]。因此,操作员需要全面考虑以下因素。
总体投资回报率和业务发展的可持续性。
IT产品具有快速的寿命迭代周期和短折旧周期。
由于需求激增, GPU通常具有很长的递送周期和高保费。
建议操作员级别考虑智能计算培训中心的布局计划,并以统一的方式建立1到2个培训群。首先,它满足了运营商内部场景的模型培训需求,例如网络操作和维护,视频AI等,其次,它考虑为省级科学研究机构,大学,大学,初创公司等提供培训计算电力服务,以便省级公司,您可以关注该省政府和培训型号的客户和培训量和中型服务和中型服务的客户业务需求。在某些热门省份,如果客户对大型模型培训的需求有更多要求,并且对投资的明确回报,他们可以考虑根据需要建造省级培训集群。
(2)有关推理端智能计算能力规划的建议
AIGC推理方面的计算能力没有特殊的体系结构要求,普通的GPU服务器可以满足它,并且随着用户数量的增加,他们的最终计算功率需求将逐渐增加。同时,大型模型推理计算能力还可以满足中小型模型的决策AI的培训要求。基于上述两种要求,推理端计算能力可以将GPU计算电源池添加到现有的云资源池中,并且可以将特定的部署位置视为省的计划。中小型模型培训基本上没有延迟约束,部署省主要考虑该省用户开发的便利性。但是,大规模模型推断的初始延迟要求不高,带宽使用率受到限制。可以考虑该省的集中规划。将来,随着AIGC应用程序的增加和用户数量,它将逐渐下沉。
(3)智能计算网络计划建议
大型模型培训集群需要一个高速网络来连接到所有服务器,并且有必要考虑构建支持ROCE或网络。但是,无需高速传输群集之间的大量数据,因此,只要它是群集之间的普通数据中心网络,它就可以满足需求,并且没有特殊的计划需求。
与普通的互联网服务相比,推理端交通模型没有明显的差异。将来,可以跟踪AIGC应用程序中视频内容比例的变化,并及时地计划广泛的网络。在未来三年内,AIGC不会对广阔的网络产生重大影响。
4.3运营商的大型模型和应用程序开发建议
GPT模型的演变指出了一般大型模型培训的两种重要技术途径:一个是预训练和人类反馈强化学习的训练模型,另一个是增加参数生成规模的能力,不断刺激模型的潜力。运营商的独立培训还将遵循以上两条重要的技术路线。
培训算法已经有大量的公共论文和一些开源代码,甚至是一些培训数据集作为基础。但是,完成可以达到GPT-3.5级别的大规模预训练仍然需要解决算法优化和数据集优化等问题,尤其是算法框架优化,可以充分利用GPU群集的功能。这个过程需要一组高级AI科学家作为团队的核心。根据预先训练的模型进行微调时,您可以选择开发通用模型方向或选择发展垂直行业的方向。
with big , big only focus on a field, and the is low. , it is that can pre-train based on some open big in the early stage, and their own data in the field to give to with big in the field. First, they can meet their own needs such as and . By big in the field, they can and large model . Then model in , for or . can use the of and to model to in and . In the long run, - big are still the goal. It is that after in big , on - big .
5
The craze swept the world, up a new round of in , new space to the of of , and new and to the . For , on the one hand, it is to to and up on the of -edge in the field of AI and basic . based on and key , new of AI+ multi-modal , and the and of AI . On the other hand, we also need to pay close to the risks by AI in data , , , etc., study , guide the of the , and seize the in the new round of .
作者个人资料
Zhang (1982-), male, chief of in China, ZTE , and his main are power , cloud , , big data, SDN/NFV, 5G and .
Zhang Jian (1979-), male, of of ZTE China, with his main in , power , cloud , big data, etc.
提醒:请联系我时一定说明是从茶后生活网上看到的!