与非网 9 月 9 日讯,几个月前,SK Hynix 成为第二家发布基于 HBM2E 标准的存储的公司,就此加入存储市场竞争行列。

 

现在,公司宣布它们改进的高速高密度存储已投入量产,能提供高达 3.6Gbps/pin 的传输速率及高达 16GB/stack 的容量。早在 2019 年,SK Hynix 宣布已成功开发了新一代 DRAM 存储芯片。这些新芯片被标记为 HBM2E,现在终于可以进行批量生产了。

 

HBM2E 拥有超高速、高容量、低能耗等特性,是适合深度学习加速器(deep learning accelerator)、高性能计算机等需要高度计算能力的新一代人工智能(AI)系统的存储器解决方案。与此同时,HBM2E 将适用于在未来主导气候变化、生物医学、宇宙探索等下一代基础、应用科学领域研究的 Exascale 超级计算机(能够在一秒内执行一百亿亿次计算的计算机)。

 

 

官方称其 HBM2E 拥有每 pin 3.6Gbps 的性能、每秒 460GB 以上的带宽、 共 1024 个 I / O(输入 / 输出)。HBM2E 通过 TSV(Through Silicon Via)硅穿孔技术垂直堆叠八颗 16Gb DRAM 芯片,容量达 16GB,是上一代产品(HBM2)两倍以上的容量。

 

值得一提的是,SK 海力士也是第一个研发出 HBM 存储的厂商。首发于 2015 年的 AMD Radeon Fury 显卡中。

 

海力士还表示,HBM2E 是适合深度学习加速器(deep learning accelerator)、高性能计算机等新一代人工智能(AI)系统的存储器解决方案,将用于更多合作伙伴的产品。

 

吴钟勋 SK 海力士副社长兼首席营销官(Chief Marketing Officer, CMO)表示:“SK 海力士通过开发世界第一款 HBM(High Bandwidth Memory)等成果一直引领着有助于人类文明发展的新一代技术革新。公司将通过本次 HBM2E 量产强化高端存储器市场上的地位,并倡导第四次工业革命。”

 

SK Hynix 近日的声明意味着 HBM2E 生态系统的其他部分正在成型,芯片制造商很快就能拥有第二个快速存储器供应商。

 

在这样的最高速度下,单个 1024pin 的堆栈总共有 460GB/s 的内存带宽这可以和现在大多数显卡相媲美(甚至超过)。对于使用多个堆栈的更高级的设备(例如服务器 GPU),这意味着一个 6 栈的结构能达到 2.76TB/s 的内存带宽。

 

虽然 SK Hynix 现在没有公布任何客户,但公司期望这新内存能用于包括深度学习加速器和高性能计算的下一代 AI(人工智能)。即使英伟达并不是唯一使用 HBM2 的供应商,英伟达 A100 最终也会在新内存直接使用。SK Hynix 和 AMD 的产品线有些接近,后者将在明年推出一些新的服务器 GPU,用于超级计算机和其他 HPC 系统。所以,无论如何,HBM2E 的时代正在迅速崛起,因为越来越多的高端处理器需要引进并使用更快的内存。

 

对于那些不知道的人,HBM2 是 AMD 在 2015 年首次发布的前一代 Radeon Fury 显卡中使用的内存。尽管具有各种优势,但其高昂的成本和其他限制因素导致其最终在后代中停产。尽管现在,SK Hynix 推出了最新一代的内存解决方案,该解决方案随带有深度学习加速器的 AI 系统一起提供,这对于高性能计算机很有用。