ag百家乐老板 英伟达AI工场:东说念主类历史酝酿12000年的皆备势必

发布日期:2025-02-11 15:23    点击次数:137

新智元报说念ag百家乐老板

剪辑:定慧 好困

【新智元导读】东说念主类进化12000年,只为等AI醒觉?文书「AI工场时期」精致到来!从农业到工业再到AI改革,如何用算力激动历史巨轮?畴昔,每家公司都将有一个专属的超等智能工场。并全览目下来源进的GB200 NVL72的详备参数。

当谈到AI时,潦倒文(Context)即是一切;当谈到潦倒文时,数据即是一切。

当驳倒数据时,算力即是一切;而谈起算力,皮衣教主就会闪亮登场了。

老黄在2025 GTC大会上预言:

在这里,「AI工场」一词并非隐喻,而是对存在于当代AI超等计较机着实形貌的写真。

东说念主类智能需要潦倒文,需要数据,需要脑力,既然东说念主类按照自身的形象创造了AI(基于大模子),这个意思意思当然也延迟到了AI上。

英伟达准备打造的AI工场,是一种简略处理数PB数据并把柄需求给出智能谜底的超等计较机,是一种激动公共经济与文化剧变的新式工场。

数据的一天

你是否意思意思,咱们东说念主类是如何走到这一步的?AI工场的出现是科技发展的势必吗?

AI工场会把东说念主类变成某种数字超等智能的生物指令范例吗?

要是你想愈加潜入的归拢东说念主类如何走到这一步,让咱们先回到12000年前望望。

从石器,到汽车,再到GPU

苟简12000年前,东说念主类的先人厌倦了四处流浪寻找食品与住所,于是他们启动在一个场所假寓下来——主动教学作物、饲养畜生以满足食品需求。

农业(种田、耕耘)实质上即是一种食品工场,只不外主要在户外进行,因为植物和动物的滋长需要阳光、水和空气。

中叶纪时,firma一词指的是为了教学作物而支付的固定地皮房钱,因此也成为农业的同义词。

新石器改革

农业迫使东说念主类组织制品级分明的群体进行劳顿。

笔墨是为了惩办而创造的——纪录食品工场的进入与产出,以及惩办围绕农业造成的社会规矩(诚然,这些规矩在不同地区存在各别)。

东说念主类最终将笔墨的用途扩展到其他规模,直到今天,它依然是传递多半密集信息最快的方式。

从东说念主类放下弓箭和长矛,提起锄头、耙子、犁耕地,并在泥板上刻劣等一个标志的那一刻起,AI的出身就照旧弗成幸免——AI工场的出现也只是时刻问题。

工业改革

东说念主类消耗数千年才得以积贮满盈的食粮盈余,「剩余」催生出最早的商东说念主阶层——通过手工制造物品供其他东说念主使用。

制造业(manufacturing)一词的字面真义即是拉丁语中的「用手制造」。

有了买卖,随之出现了一种通用的交换序言——货币,加速了以物易物的历程,并逐渐演变成当今所熟习的经济体系。

更准确地说,是造成了「公共经济」,因为在地舆大发现之后的第一波公共化海浪将不同大陆重新计议到了一说念,使各个地区或国度的经济不再沉寂。

从那时起,公共化资格了屡次海浪,透顶改变了农业和制造业。

工场(标准化分娩的阵势)最大的和谐是将制造历程拆分红多个才略,以加速分娩速率并提高可叠加性。

这场工业改革碰巧与发蒙畅通同期发生,识字率赶紧提高,因为工场需要受过训诲的工东说念主来最大限度提高效用、减少浮滥。

训诲从来不是狡计,而是一种必要要求。随之而来的,则是财产权、东说念主身安全妥协脱,以及经受赶紧而刚正审判的权力。

福特汽车活水线工场

在21世纪,东说念主们照旧将这些权力视为理所诚然,但施行上应当感谢18世纪的孝敬。

工场将制造活动转变到室内。

通过蒸汽能源、随后电力的应用,以及活水线精益分娩等时间,以低成本分娩当代生存所需的商品,使闲居东说念主不仅能包袱得起基本生存,还能享受一定的散逸与便利。

制造业将东说念主们从农田中解放出来,创造了一个农业社会无法想象的纷乱中产阶层,使经济以前所未有的方式膨胀。

AI改革

然后互联网出现了。

互联网将统统东说念主说合在一说念的同期,创造了一种前所未有的新资源——数据。

数据信息即是新时期的「金矿」,各个巨头从数据中挖掘出你的一切需求。

而AI改革的发生,必须比及海量的文本、图像、视频和音频数据被计较机化,况兼比及大范围的计较才略能以可包袱的价钱用于处理这些数据时。

其中,大数据的实质即是满盈精准的信息量,运行在一组具有高内存带宽的大范围并行GPU上,而这些GPU又提供了满盈精准的计较才略,足以创建简略编码东说念主类对这个寰宇常识的神经收集,从而使AI真确理会作用。

统统这些要求必须同期满足。

在20世纪80年代,研究东说念主员领有神经收集的算法,但他们莫得满盈的计较才略来运行它们,也莫得满盈的数据来喂养它们。

其时,当今所知的AI在很猛进度上仍然停留在表面阶段,直到统统这三个要求都得到满足。

AI工场:并非隐喻,而是转变

AI工场这一办法并非比方——而是对着实存在的AI超等计较机的着实表情。

它不仅改变了企业计较的实质,也透顶重塑了数据分析的方式——数据的轮廓与索要,升沉为行径或非行径所需的信息。

AI工场的出现是势必的,就像农业工场(东说念主们谀媚服待互相)一样弗成幸免。

社会与文化围绕这种改革进行变革,为东说念主类带来了更多开脱时刻去念念考与创造。

如今,东说念主类领有了简略获取东说念主类全部常识并以对话方式检索的机器。更进攻的是,这些机器简略被反向运行,按照领导生成多样方式的新数据。

畴昔,每个企业和个东说念主都会领有我方的AI工场,或至少分享其中的一部分。这些AI工场将产生新主义、新视线,匡助东说念主类拓展自身的创造才略。

也许今天寰宇各地在许多问题上穷乏共鸣,但关心AI改革的东说念主都认可,AI日益增强的才略将改变东说念主类的一切融会和行径。

工作:洞见与行径的制造之地

AI工场有两项工作。第一项是训练基础模子,这些模子提供东说念主们都寻求的洞见,百家乐AG点杀以改善业务和生存。

第二项,亦然最终更进攻的工作,是将新数据和问题输入模子,让其推理出新谜底——生成新的Token——以提供进一步的洞见并驱动行径。

COLOSSUS:马斯克xAI的巨型计较工场,配备十万片H100 GPU

在昔日十年中,围绕AI的多半照拂都相聚在Scaling Law上,这些模子当今领独特千亿到越过万亿的参数(雷同于东说念主脑中突触的放电水平),以及处理的数据量(数万亿到数十万亿的Token,况兼还在增长)。

Token数目代表常识量有若干,而参数目则代表已知常识的念念考才略有多强。

在较大的Token集上使用较小的参数目会带来更快但更简单的谜底。

在较小的Token集上使用较大的参数目会让你对有限事物的归拢给出更好的谜底。

如今,念念维链推理模子(实质上亦然多模态的,不单是关心文本)正在将数百个专科模子整合在一说念协同工作,它们会酌量驱动其他输入的输出,消耗更多时刻来生成咱们东说念主类称之为谜底的更好的Token流。

有了AI工场,东说念主类创造的统统内容和AI模子生成的合成数据都成了原材料。

从这海量的历史数据宝库中获取的洞见是获利的后果,领有东说念主类颖悟的东说念主和具备AI的AI智能体期骗这些洞见来作念事。

这一次,东说念主类不再是去工场上班,而是将接入工场行为其工作的一部分,用我方的手段来增强模子平凡的常识和速率,从而更好更快地完成更多事情。

超卓的工程豪举

「寰宇正在竞相缔造来源进、大范围的AI工场」,英伟达合股首创东说念主兼首席实施官黄仁勋在最近于圣何塞举行的2025 NVIDIA GTC大会的主题演讲中诠释说念。

「缔造一个AI工场是一项超卓的工程豪举,需要来自供应商、架构师、承包商和工程师的数万名工东说念主来建造、运载和拼装近50亿个组件以及越过20万英里的光纤——确实是从地球到月球的距离。」

强盛的硬件加捏

缔造一个AI工场是一项紧要的老本投资。

一个AI工场的合理设置是基于8个DGX B200系统机架的DGX SuperPOD,它由GPU、CPU、节点间的Quantum-X InfiniBand或Spectrum-X Ethernet互连时间以及存储组成。

配备32个DGX B200系统后,这个SuperPOD提供了4.61 exaflops的FP4性能,领有48TB的HBM3内存和2PB/秒的总内存带宽。

每个DGX B200配8个Blackwell GPU,并通过第五代NVLink互连,DGX B200提供比上一代系统高3倍的训练性能和15倍的推感性能。

英伟达另一个AI工场的蓝图是基于GB200 NVL72平台,这是一个机架级系统,相同包含 GPU、CPU、DPU、SuperNIC、NVLink和NVSwitch,以及InfiniBand和Spectrum-X收集。

但它为AI模子提供了更大的分享GPU内存域(72个GPU插槽,比较之下DGX B200节点独一8个),况兼具有更高的计较密度,因此需要液冷。

GB200 NVL72于2024年3月发布,现已全面出货。

GB200 NVL72机架级系统确乎是一个完竣的系统——除了你的数据以外,它不需要任何其他东西就不错启动构建模子,然后回身启动以文本、图像、视频或声息方式输出数据 Token。

GB200 NVL72的基本构建模块是一个MGX服务器节点,该节点包含一个Grace CPU行为一双Blackwell GPU的主机处理器,而这对Blackwell GPU自己是位于单个SXM插槽中的一双Blackwell GPU晶粒。

两个这么的服务器节点组合成一个内置于NVL72机架中的计较托盘。机架中有18个计较托盘,共组成72个GPU(144个GPU晶粒)和36个CPU。

GB200 NVL72机架级系统将Grace CPU与一双Blackwell GPU相结合,CPU和GPU之间通过450GB/秒的NVLink说合。

1.8TB/秒的NVLink端口与NVSwitch芯片一说念使用,将统统72个GPU(144个GPU晶粒,每个900GB/秒)说合成一个全互联(all-to-all)、分享内存式的设置,这种设置十分适当基础模子训练(当它们为大范围互连时)以及念念维链推理。

由9个NVLink交换托盘(统共18个NVSwitch芯片)创建的NVLink互聚会构使得这144个GPU晶粒不错像一个巨大的GPU一样被拜谒。

GB200 NVL72系统治有2,592个用于主机处理的Arm中枢,并提供1.44 exaflops的FP4精度浮点处理才略,精度每提高2倍,蒙胧量减半。

GB200 NVL72系统治有说合到GPU的13.4TB HBM3e内存,总带宽高达576 TB/秒。那些 Grace CPU领有统共17.3 TB的LPDDR5X内存,与GPU仅相隔一个NVLink跨越,并提供另外18TB/秒的总带宽。

GB200 NVL72关于AI改革的真义,就像System/360关于五十年前的联机事务处理和批处理改革的真义一样。

IBM System/360是一个计较机系统眷属,由IBM于1964年4月7日文书

其时与当今的一个主要分手是,NVL72不错通过InfiniBand互连进行横向扩展,这恰是DGX SuperPOD中所收受的方式。

而一朝购买了最大的System/360,那即是它的极限了,必须恭候下一个升级周期才能获取更强盛的机器。

基于NVL72机架级系统的DGX SuperPOD设置需要近1 兆瓦的电力,但在8个计较机架上提供了11.5 exaflops的计较才略和240 TB的HBM3e内存。

要是需要更高的性能,就像任何SuperPOD一样,只需购买更多机架即可。

NVL72机架的计较密度需要专诚的液冷时间和扶助该时间的数据中心门径。

冷都不是一个新主义,在某种进度上,使用液冷是一种「倒退」。

回到20世纪60年代和70年代,那些改变了百行万企的大型主机也收受液冷的时期——以便它们简略理会其时可用的皆备最高性能。

跟着推理被镶嵌到多样应用范例中,一个AI工场确实确定需要比这多得多的计较才略,终点是要是想要合理的查询和AI智能体性能,况兼跟着弗成幸免地转向念念维链推理模子。

据规划,念念维链推理模子所需的计较量比早期大说话模子常见的那种一次性、简单回话多出100倍。

全面的软件生态

DGX GB200系统和计议的DGX SuperPODAI超等计较机需要进行惩办和建模,这就需要用到几种不同的用具。

NVIDIA Mission Control(包括Run.ai)负责在通盘基础门径中编排AI工作负载,并在出现问题时自动归附功课。

Mission Control对系统进行健康查验,并匡助把柄系统上运行的工作负载优化功耗。

在此之上是NVIDIA AI Enterprise,这是一个系统软件,包含了为在英伟达GPU和收集上加速而优化的库、模子和框架。

AI工场时间栈当今还包括NVIDIA Dynamo,这是一个用于在NVLink和DGX SuperPOD基础门径上运行推理的开源散布式框架。

DGX行家服务与扶助(DGX Expert Service and Support)匡助客户快速实施这些时间,并缩小其AI工场初度生成Token的时刻。

关于那些构建和扩展这些系统的东说念主,英伟达为其Omniverse「数字孪生」环境和遐想用具创建了AI工场蓝图,以模拟组成AI工场的通盘数据中心,从而确保其在初度构建时就能正确无误,并在弗成幸免的扩展历程中保捏正确。

也许AI工场最进攻的方面是它所催生的念念维和谐,以及英伟达在其刻下系统和路子图中所关心的重心,这向客户保证了机架级和系统有充足的增漫空间。

「我以为,AI工场之是以如斯令东说念主怡悦且需求繁华,是因为对许多公司而言,生成Token当今等同于创造营收」,英伟达收集高等副总裁Gilad Shainer示意。

「咱们不再将数据中心视为成本中心,而是视为简略产生收入的分娩性金钱」。

毕竟,这才是建造AI工场的全部真义所在。

参考府上:

https://www.nextplatform.com/2025/04/11/the-ai-factory-12000-years-in-the-making-and-absolutely-inevitable/?linkId=100000357151212