953

头条 热门 重磅原创 PPP 地方 教育 图片新闻 政府采购 权威公告

首页 > 宏观  > 文章详情页

AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM

感谢IT之家的朋友OC_Formula的线索传递!在CES2023上,AMD公开了面向下一代数据中心的APU加速卡产品InstinctMI300。该芯片将CPU...
AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM

感谢IT之家的朋友OC_Formula的线索传递!

在CES 2023上,AMD公开了面向下一代数据中心的APU加速卡产品Instinct MI300。该芯片将CPU、GPU、内存封装成一个整体,大大缩短了DDR内存冲程和CPU-GPU PCIe冲程,从而大大提高了其性能和效率。

这款加速卡采用小芯片设计,拥有13个小芯片,基于3D堆栈,包含24个Zen4 CPU内核,并集成了CDNA 3和8个HBM3内存堆栈,集成了5nm和6nm IP,共包含128GB HBM3内存和1460亿个晶体管。将于2023年下半年上市。

目前AMD InstinctMI300的晶体管数量已经超过了拥有1000亿个晶体管的英特尔Ponte Vecchio,是AMD投产的最大芯片。从苏丽莎女士手持Instinct MI300的照片中我们也可以看到,它的大小已经超过了半只人类的手,看起来比较夸张。

AMD表示,它有9个基于3D堆栈的5nm小芯片和4个基于6nm的小芯片,周围是封装的HBM内存芯片,共有1460亿个晶体管部件。AMD表示,这款加速卡的AI性能比上一代(MI250X)高很多。

目前AMD只发布了这个信息。量产芯片将于2023年下半年推出。届时可能会有NVIDIA Grace、Hopper GPU等竞品,但应该会比英特尔的猎鹰海岸(Falcon Shores)更早。

从AMD代表展示的MI300样品来看,这9个小芯片采用了主动式设计,不仅可以实现I/O tile之间的通信,还可以与HBM3栈接口的内存控制器通信,从而带来不可思议的数据吞吐量。同时,它还允许CPU和GPU同时处理内存中的相同数据,从而节省功耗,提高性能,简化流程。

IT之家了解到,AMD宣称InstinctMI300可以带来8倍的AI性能,MI250加速卡每瓦5倍的性能提升。它可以将ChatGPT和DALL-E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。

值得一提的是,Instinct MI300将应用于美国即将推出的200亿次超级计算机El Capitan,这也意味着El Capitan在2023年部署时将成为世界上最快的超级计算机。

【声明】 以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

【特别提醒】:如您不希望作品出现在本站,可联系我们要求撤下您的作品。邮箱:boss_11@teag.net

中国财经新闻网客户端推荐下载

个股排行
排名 名称 现价 涨跌幅
排名 名称 现价 涨跌幅
60秒后刷新
刷新
A股指数

上证指数

深证成指

创业板

--

-- -- --

3360.10

-- -- --

--

-- -- --

    • 两市总计资金流入: --
      两市总计资金流出: --
      净流入: --
    • 两市总计资金流入: --
      两市总计资金流出: --
      净流出: --