快捷搜索:  

英伟达操作ai时候“摩尔定律”,会加大中美ai公司差异么?

"英伟达操作ai时候“摩尔定律”,会加大中美ai公司差异么?,这篇新闻报道详尽,内容丰富,非常值得一读。 这篇报道的内容很有深度,让人看了之后有很多的感悟。 作者对于这个话题做了深入的调查和研究,呈现了很多有价值的信息。 这篇报道的观点独到,让人眼前一亮。 新闻的写作风格流畅,文笔优秀,让人容易理解。 " 账号设置我的关注我的收藏申请的报道退出登录登录搜索36氪Auto数字时氪将来消费智能涌现将来城市启动Power on36氪出海36氪研究院潮生TIDE36氪企服点评36氪财经(Finance)职场bonus36碳后浪研究所暗涌Waves硬氪媒体品牌企业号企服点评36Kr研究院36Kr创新咨询企业服务核心服务城市之窗行政部门服务创投发布LP源计划VClubVClub投资机构库投资机构职位推介投资人认证投资人服务寻求报道36氪Pro创投氪堂企业入驻创业者服务创投平台 首页快讯资讯推荐财经(Finance)科技(Technology)创新城市最新创投汽车(Car)企服专精特新直播视频专题活动搜索寻求报道我要入驻城市合作英伟达掌握AI时代“摩尔定律”,会加大中美AI公司差距么?阿尔法公社·2024-03-20 19:28关注8年时间,英伟达AI芯片的算力增长了1000倍。

当地时间3月18日,英伟达在2024 GTC大会上发布了多款芯片、软件产品。 

创始人黄仁勋表示:“通用计算已经失去动力,现在我们(We)需要更大的AI模型,更大的GPU,需要将更多GPU堆叠在一起。这不是为了降低成本,而是为了扩大规模。” 

作为GTC大会的核心,英伟达发布了Blackwell GPU,它分为B200和GB200系列,后者集成了1个Grace CPU和2个B200 GPU。 

NVIDIA GB200 NVL72大型机架系统使用GB200芯片,搭配NVIDIA BlueField-3数据处理单元、第五代NVLink互联等技术,对比相同数量H100 Tensor核心的系统,在推理上有高达30倍的性能提升,并将成本和能耗降低了25倍。 

在AI应用方面,英伟达推出Project GR00T机器人基础模型及Isaac机器人平台的重要更新。 

英伟达展示其AI芯片的算力在过去8年里达成了1000倍的增长,这代表AI时代的摩尔定律(算力快速增长,算力成本快速下降)正在形成。 

达成10万亿参数AI模型的训练和实时推理

在GTC大会上,英伟达不仅发布了算力方面的更新,也介绍了其在应用方面的进展。

1.更强的训练算力,更快、成本更低的推理

Blackwell不仅是一块芯片,也是一个平台。英伟达的目标是让规模达到10万亿参数的AI模型可以轻松训练和实时推理。 

它最小的单元是B200,内置2080亿个晶体管,使用定制的4NP TSMC工艺制造,采用Chiplet架构,两个GPU dies通过每秒10TB的芯片到芯片链接连接成一个统一的GPU。 

GB200超级芯片则将两个B200 Tensor核心GPU通过每秒900GB的超低功耗NVLink芯片到芯片互连技术与NVIDIA Grace CPU连接。 

再往上一层,则是NVIDIA GB200 NVL72,这是一个多节点、液冷的机架系统,它内含36个Grace Blackwell超级芯片,包括72个Blackwell GPU和36个Grace CPU,在NVIDIA BlueField-3数据处理单元的支持下,它能达成云网站加速、可组合存储、零信任安危性以及在超大规模AI云中的GPU计算弹性。 

这个系统可以被作为"单个GPU"工作,这时它能提供1.4 exaflops的AI性能和30TB的快速内存。据称,一个GB200 NVL72就最高支持27万亿参数的模型。 

最大规模的系统则是DGX SuperPOD,NVIDIA GB200 NVL72是DGX SuperPOD的构建单元,这些系统通过NVIDIA Quantum InfiniBand网站连接,可扩展到数万个GB200超级芯片。 

此外,NVIDIA还提供HGX B200服务器板,通过NVLink将八个B200 GPU连接起来,支持基于x86的生成式AI平台。HGX B200通过NVIDIA Quantum-2 InfiniBand和Spectrum-X以太网网站平台支持高达400Gb/s的网站速度。 

GB200还将在NVIDIA DGX云上提供给客户,这是一个与AWS、谷歌云和甲骨文云等领先的云服务提供商共同设计的AI平台,为企业开发者提供专用访问权限,以构建和部署先进的生成式AI模型所需的基础设施和软件。 

英伟达以实际的模型训练为例,训练一个GPT-MoE-1.8T模型(疑似指GPT-4),此前使用Hopper系列芯片需要8000块GPU训练90天,现在使用GB200训练同样的模型,只需要2000块GPU,能耗也只有之前的四分之一。 

由GB200组成的系统,相比相同数量的NVIDIA H100 Tensor核心GPU组成的系统,推理性能提升30倍,成本和能耗降低25倍。 

在背后支持这些AI芯片和AI算力系统的是一系列新技术,包括提升性能的第二代Transformer引擎(支持双倍的计算和模型大小)、第五代NVLink(提供了每个GPU1.8TB/s的双向吞吐量);提升可靠性的RAS引擎(使AI算力系统能够连续运行数周甚至数月);以及安危AI(保护AI模型和客户数据)等。 

在软件方面,Blackwell产品组合得到NVIDIA AI Enterprise的支持,这是一个端到端的企业级AI操作系统。NVIDIA AI Enterprise包括NVIDIA NIM推理微服务,以及企业可以在NVIDIA加速的云、数据中心和工作站上部署的AI框架、库和工具。NIM推理微服务可对来自英伟达及合作伙伴的数十个AI模型进行(Carry Out)优化推理。 

综合英伟达在算力方面的创新,我们(We)看到它在AI模型训练和推理方面的显著进步。 

在AI的模型训练方面,更强的芯片和更先进的芯片间通讯技术,让英伟达的算力基础设施能够以相对较低的成本训练更大的模型。GPT-4V和Sora代表了生成式AI的将来,即多模态模型和包括视频在内的视觉大模型,英伟达的进步让规模更大、更多模态和更先进的模型成为可能。 

在AI推理方面,目前(Currently)越来越大的模型规模和越来越高的实时性要求,对于推理算力的挑战十分严苛。英伟达的AI算力系统推理性能提升30倍,成本和能耗降低25倍。不仅让大型模型的实时推理成为可能,而且解决了以往的并不算优秀的能效和成本问题。 

2.着重发力具身智能

英伟达在GTC大会上公布了一系列应用方面的新成果,例如生物医疗、工业元宇宙、机器人、汽车(Car)等领域。其中机器人(具身智能)是它着重发力的方向。

它推出了针对仿生机器人的Project GR00T基础模型及Isaac机器人平台的重要更新。

Project GR00T是面向仿生机器人的通用多模态基础模型,充当机器人的“大脑”,使它们(They)能够学习解决各种任务的技能。 

Isaac机器人平台为开发者提供新型机器人训练模拟器、Jetson Thor机器人计算机、生成式AI基础模型,以及CUDA加速的感知与操控库 

Isaac机器人平台的客户包括1X、Agility Robotics、Apptronik、Boston Dynamics、Figure AI和XPENG Robotics等领先的仿生机器人公司。 

英伟达也涉足了工业机器人和物流机器人。Isaac Manipulator为机械臂提供了最先进的灵巧性和模块化AI能力。它在路径规划上提供了高达80倍的加速,并通过Zero Shot感知(代表成功(Success)率和可靠性)提高了效率和吞吐量。其早期生态系统合作伙伴包括安川电机、PickNik Robotics、Solomon、READY Robotics和Franka Robotics。 

Isaac Perceptor提供了多摄像头、3D环绕视觉能力,这些能力对于自动搬运机器人特别有用,它帮助ArcBest、比亚迪等在物料处理操作等方面达成新的自动化水平。 

英伟达算力井喷后,对创业公司有何影响?

在发展方式上,英伟达与OpenAI等公司有明显的不同。 

OpenAI以及Anthropic、Meta等公司是以AI模型为核心,然后运营平台和生态;英伟达则以算力为核心,并拓展到软件平台和AI的相关应用。并且在应用方面,它并没有表现出一家垄断的态势,而是与各种行业的合作伙伴共创,其目的是建立一个软硬件结合的庞大生态。 

此次英伟达在算力方面的进步,对于AI创业公司们也产生了深刻影响。 

对于大模型领域创业公司,例如OpenAI等,这显然是利好,因为他们(They)能以更快的频率,更低的成本训练规模更大,模态更多的模型,并且有机会进一步降低API的价格,扩展客户群体。 

对于AI应用领域的创业公司,英伟达不仅将推理算力性能提高了数十倍,而且降低了能耗和成本。这让AI应用公司们能在成本可承担的前提下,拓展业务规模,随着AI算力的进一步增长,将来AI应用公司的运营成本还可能进一步降低。 

对于AI芯片领域的创业公司,英伟达的大更新让他们(They)感受到了明显压力,而且英伟达提供的是一套完整的系统,包括算力芯片,芯片间通信技术,打破内存墙的网站芯片等。AI芯片创业公司必须找到自己真正能建立优势的方向,而不是因为英伟达这类巨头的一两次更新就失去存在价值。 

祖国的AI创业公司,因为各种各样的原因,很难使用最新最强的英伟达AI芯片,作为替代的国产AI芯片在算力和能效比上目前(Currently)仍有差距,这可能导致专注大模型领域的公司们在模型的规模扩展和迭代速度上与国外的差距拉大。 

对于祖国的AI应用公司,则仍有机会。因为它们(They)不仅可以用国内的基础模型,也可以用国外的先进开源模型。祖国拥有全球顶尖的AI工程师和产品经理,他们(They)打造的产品足可以参与全球竞争,这让AI应用公司们进可以开拓国外市场,还有足够庞大的国内市场做基本盘,AI时代的字节跳动、米哈游很可能在它们(They)中间产生。 

本文由阿尔法公社原创。

本文来自微信公众号“阿尔法公社”(ID:alphastartups),作者:发现非凡创业者的,36氪经授权发布。

该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。

+17

好文章,需要你的鼓励

阿尔法公社特邀作者0收  藏+10评  论打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮微  博沉浸阅读返回顶部参与评论评论千万条,友善第一条登录后参与讨论(Discuss)提交评论0/1000你可能也喜欢这些文章iOS 18是苹果AI的答卷?你可能许并不懂电话AI给机器人装上大模型大脑,「若愚科技(Technology)」获超5000万天使轮融资|36氪首发全球AI监管:欧盟《人工智能法案》的通过“不是欧盟AI立法终点”AI创新理念与路线之争:有效加速,还是超级对齐?挑战OpenAI大军中的第一个逃兵AI拯救美图背后:“九败一胜”的冒险左手AIGC,右手IP,阅文到了关键时刻让AI大模型“上床”,智能睡眠真能让人酣然安睡吗?AI科学家李飞飞:AI就像电力,给它设置单独监管机构没意义最新文章推荐iOS 18是苹果AI的答卷?你可能许并不懂电话AI2024年,广告主市场预算真的继续下滑?降价潮反倒劝退消费者,想买车可以再等等疯狂的近视神药,焦虑的祖我国长对话黄仁勋:英伟达难以放弃与祖国可能亚洲供应商合作快手(Kuaishou)2023年营收首破千亿元,电商带动广告收入大幅增长苹果CEO库克现身上海,在祖国首谈生成式AI五闯港交所,哈啰滴滴夹击下的嘀嗒出行如何突围?给机器人装上大模型大脑,「若愚科技(Technology)」获超5000万天使轮融资|36氪首发刚刚,腾讯发布全年财报:游戏(Game)Q4微降2%,小游戏(Game)流水增50%,将花1000亿回购阿尔法公社特邀作者

发现非凡创业者

发表文章156篇最近内容英伟达掌握AI时代“摩尔定律”,会加大中美AI公司差距么?32分钟前从“玩具”进化成生产力工具,企业级AI应用让大模型创业进入新阶段2024-03-14超越GPT-4后,更聪明更安危的Claude 3让企业级AI应用成为可能2024-03-06阅读更多内容,狠戳这里下一篇找钱找人找方向,这句话是不是错了?

自己造血,心里不慌。

40分钟前

热门标签跟读王树彤霸三国卧龙工作室针孔摄像头针孔摄像机王黎许银川南华早报计算机历史(History)沙利文沙特阿美汽车(Car)商城蛋白质粉汤臣倍健张亮麻辣烫韩雪少年堡垒sgd发布任务张志明摩托罗拉对讲机罗杰耳机排行小智lol黄粱一梦中老年时装淘汰郎王溢关于36氪城市合作寻求报道我要入驻投资者关系商务合作关于我们(We)联系我们(We)加入我们(We)网站谣言信息举报入口热门推荐热门资讯热门产品文章标签快讯标签合作伙伴阿里云火山引擎高德个推星球日报(Daily)鲸准氪空间富途牛牛企服点评人人都是产品经理领氪36氪APP下载iOS Android36氪本站由 阿里云 提供计算与安危服务 违法和不良信息、未成年人保护举报电话:010-89650707 举报邮箱:jubao@36kr.com 网上有害信息举报© 2011~2024 首都多氪信息科技(Technology)有限公司 | 京ICP备12031756号-6 | 京ICP证150143号 | 京公网安备11010502036099号意见反馈36氪APP让一部分人先看到将来36氪鲸准氪空间

推送和解读前沿、有料的科技(Technology)创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业

英伟达掌握AI时代“摩尔定律”,会加大中美AI公司差距么?

您可能还会对下面的文章感兴趣:

赞(358) 踩(2) 阅读数(1072) 最新评论 查看所有评论
加载中......
发表评论