HBM은 메모리 반도체인 D램을 여러 개 쌓아 올려 기존 D램보다 처리 속도를 올린 고성능 메모리다. 기존 HBM의 최대 용량은 3GB D램 칩 8개를 쌓아 만든 24GB였다. 이번 양산 제품은 3GB 제품을 12개 적층해 만들었다.
SK하이닉스는 양산 제품을 올해 안으로 엔비디아 등 고객사에 공급할 예정이다. 지난 3월 HBM3E 8단(24GB) 제품을 업계 최초로 고객사에 납품한 지 6개월 만에 만들어낸 성과다.
이미 SK하이닉스는 세계 최대 반도체 위탁생산 업체인 대만 TSMC가 25일(현지시간) 캘리포니아주 샌타클래라 컨벤션센터에서 개최한 '오픈 이노베이션 플랫폼(OIP) 포럼'에서 엔비디아 인공지능(AI) 칩에 탑재되는 HBM3E 12단을 전시했다. OIP는 TSMC가 반도체 생태계 기업과의 협업을 위해 운영 중인 개방형 혁신 플랫폼이다. 반도체 설계, 생산 등 다양한 기업이 참여하는 이 플랫폼에 SK하이닉스는 올해 처음 참석했다.
HBM3E 12단은 용량 뿐만 아니라 성능 면에서도 세계 최고 수준이라는 게 SK하이닉스 설명이다. 메모리의 경우 데이터를 인식하는 속도가 9.6기가비피에스(Gbps)에 달해 그래픽처리장치(GPU)로 메타의 인공지능(AI) 모델인 '라마3'을 구동할 경우 700억개의 파라미터 전체를 초당 35번 읽을 수 있다. 여기에 쌓아 올릴 D램칩 수량이 늘었음에도 두께는 기존 8단과 동일한 수준이다.
SK하이닉스 관계자는 “당사는 2013년 세계 최초로 HBM 1세대(HBM1)를 출시한 데 이어 HBM 5세대(HBM3E)까지 전 세대 라인업을 개발, 시장에 공급해 온 유일한 기업”이라며 "높아지고 있는 AI 기업들 눈높이에 맞춘 12단 신제품도 가장 먼저 양산에 성공해 AI 메모리 시장에서 독보적인 지위를 이어가고 있다”고 말했다.
Copyright © 이코노믹데일리, 무단전재·재배포 금지