AI奇点网5月30日报道丨当地时间5月29日上午,英伟达今天在 Computex2023 台北电脑展大会上发布了多项重磅消息,其中最引人注目的是其名为Grace Hopper(缩写 GH 系列)的超级算力芯片已经全面投产。英伟达创始人兼 CEO 黄仁勋在 NVIDIA 的演讲中宣布,生成式 AI 引擎NVIDIA DGX GH200 现已投入量产。
英伟达官网显示,NVIDIA DGX GH200 是将 256 个 NVIDIA Grace Hopper 超级芯片完全连接到单个 GPU 中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。“不需要把数据储存在很多个模块中,DGX GH200 更易训练大语言模型、深度学习推荐系统。”黄仁勋称。
据悉,Grace Hopper 超级芯片是英伟达开发的基于 ARM 架构开发的 CPU+GPU 集成方案,它将 72 核的 Grace CPU、Hopper GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装体系中,合计多达 2000 亿个晶体管。这种组合提供了 CPU 和 GPU 之间惊人的数据带宽,高达 1TB/s的吞吐量。英伟达称这种结构提供了比前一代系统高出 10 倍的 GPU 到 GPU 和 7 倍的 CPU 到 GPU 的带宽。它还设计了提供比竞争对手高出 5 倍的互连功耗效率和高达 128TB/s 的对分带宽。
NVIDIA 提供了 DGX GH200 的预计基准测试,其中 NVLink 交换机系统与与 InfiniBand 捆绑在一起的 DGX H100 集群正面交锋。NVIDIA 在上述工作负载计算中使用了不同数量的 GPU,范围从 32 到 256,但每个系统在每次测试中都使用了相同数量的 GPU。
DGX GH200 附带的优化的操作系统和集群管理器,使得管理大规模语言模型训练的复杂性大大降低。按照老黄的说法:花费 1000 万美金成本,你可以建置一个有 960 颗 CPU 核心的数据中心,但这个数据中心要 11GWh 的功率,处理 1X LMM 大语言模型的数据量。
DGX GH200 还具有非常灵活的扩展性和配置选项。用户可以根据自己的需求选择 GPU、内存、存储、网络等组件,并随时添加更多的资源,实现弹性扩展。
集成 256 个 GH200 芯片的 DGX GH200 超级计算机,内存扩大了 500 倍,超级算力提高了 7 倍,这个是相当了不起的成果,不出所料的话,英伟达的营收会随着超级计算机的诞生,获得更多的合同和利润,股价继突破万亿后,也会继续水涨船高。
上一篇:每秒钟100万亿次浮点运算!英伟达为AI大模型推出E级超级计算机
Grace Hopper 超级芯片是英伟达开发的基于 ARM 架构开发的 CPU+GPU 集成方案,它将 72 核的 Grace CPU、Hopper GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装体系中,合计多达 2000 亿个晶体管。
黄仁勋在主题演讲中表示,谷歌、Meta和微软将成为首批使用DGX GH200以探索其生成式AI功能的公司。据英伟达官方介绍,DGX GH200超级计算机的内存容量是2020年推出的上一代超级计算机DGX A100的近500倍。
黄仁勋5月30日在台北针对美国对华半导体出口限制再度发出警告,称不要低估中国企业的追赶能力,大批本土GPU初创公司正在冒头。
受推出超级计算机等多款AI产品消息提振,芯片巨头英伟达周二高开逾4%,市值首次突破1万亿美元,该公司也成为全球第九家“万亿市值俱乐部”成员,全球第一架市值超过万亿的半导体公司。
「ChatGPT 之父」Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。
“真假孙燕姿”让现实世界和AI世界的边界越来越模糊,知识产权和市场监管问题也接踵而至。
AI小聚
ZeroGPT
Aiundetect
WordfixerBot
Ai Sofiya
WriteAI.Tech
Cowriter
Seenapse AI
CreativAI
网站地图
性能是上一代10倍!!英伟达发布DGX GH200超级计算机
AI奇点网5月30日报道丨当地时间5月29日上午,英伟达今天在 Computex2023 台北电脑展大会上发布了多项重磅消息,其中最引人注目的是其名为Grace Hopper(缩写 GH 系列)的超级算力芯片已经全面投产。英伟达创始人兼 CEO 黄仁勋在 NVIDIA 的演讲中宣布,生成式 AI 引擎NVIDIA DGX GH200 现已投入量产。
英伟达官网显示,NVIDIA DGX GH200 是将 256 个 NVIDIA Grace Hopper 超级芯片完全连接到单个 GPU 中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。“不需要把数据储存在很多个模块中,DGX GH200 更易训练大语言模型、深度学习推荐系统。”黄仁勋称。
据悉,Grace Hopper 超级芯片是英伟达开发的基于 ARM 架构开发的 CPU+GPU 集成方案,它将 72 核的 Grace CPU、Hopper GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装体系中,合计多达 2000 亿个晶体管。这种组合提供了 CPU 和 GPU 之间惊人的数据带宽,高达 1TB/s的吞吐量。英伟达称这种结构提供了比前一代系统高出 10 倍的 GPU 到 GPU 和 7 倍的 CPU 到 GPU 的带宽。它还设计了提供比竞争对手高出 5 倍的互连功耗效率和高达 128TB/s 的对分带宽。
NVIDIA 提供了 DGX GH200 的预计基准测试,其中 NVLink 交换机系统与与 InfiniBand 捆绑在一起的 DGX H100 集群正面交锋。NVIDIA 在上述工作负载计算中使用了不同数量的 GPU,范围从 32 到 256,但每个系统在每次测试中都使用了相同数量的 GPU。
DGX GH200 附带的优化的操作系统和集群管理器,使得管理大规模语言模型训练的复杂性大大降低。按照老黄的说法:花费 1000 万美金成本,你可以建置一个有 960 颗 CPU 核心的数据中心,但这个数据中心要 11GWh 的功率,处理 1X LMM 大语言模型的数据量。
DGX GH200 还具有非常灵活的扩展性和配置选项。用户可以根据自己的需求选择 GPU、内存、存储、网络等组件,并随时添加更多的资源,实现弹性扩展。
集成 256 个 GH200 芯片的 DGX GH200 超级计算机,内存扩大了 500 倍,超级算力提高了 7 倍,这个是相当了不起的成果,不出所料的话,英伟达的营收会随着超级计算机的诞生,获得更多的合同和利润,股价继突破万亿后,也会继续水涨船高。
上一篇:每秒钟100万亿次浮点运算!英伟达为AI大模型推出E级超级计算机
性能是上一代10倍!!英伟达发布DGX GH200超级计算机
Grace Hopper 超级芯片是英伟达开发的基于 ARM 架构开发的 CPU+GPU 集成方案,它将 72 核的 Grace CPU、Hopper GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装体系中,合计多达 2000 亿个晶体管。
每秒钟100万亿次浮点运算!英伟达为AI大模型推出E级超级计算机
黄仁勋在主题演讲中表示,谷歌、Meta和微软将成为首批使用DGX GH200以探索其生成式AI功能的公司。据英伟达官方介绍,DGX GH200超级计算机的内存容量是2020年推出的上一代超级计算机DGX A100的近500倍。
英伟达黄仁勋警告:不要低估了中国在芯片领域的追赶能力
黄仁勋5月30日在台北针对美国对华半导体出口限制再度发出警告,称不要低估中国企业的追赶能力,大批本土GPU初创公司正在冒头。
半导体万亿市值第一家:英伟达用算力显卡缔造AI传说
受推出超级计算机等多款AI产品消息提振,芯片巨头英伟达周二高开逾4%,市值首次突破1万亿美元,该公司也成为全球第九家“万亿市值俱乐部”成员,全球第一架市值超过万亿的半导体公司。
“ChatGPT之父”奥特曼警告:AI的确可能毁灭人类
「ChatGPT 之父」Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。
官媒:AI翻唱泛滥,建议给“AI孙燕姿”们设三道监管门槛
“真假孙燕姿”让现实世界和AI世界的边界越来越模糊,知识产权和市场监管问题也接踵而至。
AI小聚
ZeroGPT
Aiundetect
WordfixerBot
Ai Sofiya
WriteAI.Tech
Cowriter
AI小聚
ZeroGPT
Aiundetect
WordfixerBot
Ai Sofiya
WriteAI.Tech
Cowriter
Seenapse AI
CreativAI