HBM은 AI 칩의 필수 반도체로 현존 최고 사양의 D램
HBM 시장 2022년부터 2025년까지 연평균 109% 성장
HBM 시장 2022년부터 2025년까지 연평균 109% 성장
[이코노미21 이상훈] 이강욱 SK하이닉스 PKG(패키징)개발 담당 부사장은 "응용 제품에 따라 다르지만 고대역폭 메모리(HBM) 세대가 발전하면서 훈련, 추론 인공지능(AI) 서버에 탑재되는 평균 채택 숫자는 더 늘어날 것"이라고 밝혔다.
이 부사장은 타이완 타이베이 난강전시장에서 열린 '이종집적 글로벌 서밋 2024'에서 'AI 시대를 위한 HBM과 어드밴스드 패키징 기술'이란 주제로 발표하면서 이같이 말했다.
이 부사장은 HBM은 AI 칩의 필수 반도체로 늘어나는 데이터 트래픽과 이에 따른 메모리 시스템 병목 현상을 극복하기 위한 현존 최고 사양의 D램이라고 설명했다.
이 부사장은 현재 HBM3E 8단·12단은 초당 1.18TB(테라바이트) 이상의 데이터를 처리하고 최대 36GB(기가바이트)의 용량을 지원하는데, HBM4는 12·16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 발전한다고 말했다.
이 부사장은 HBM 성능 발전에 따라 HBM에 대한 수요는 AI 시장에서 더 늘어날 것으로 전망했다.
업계에서는 지난해부터 2032년까지 생성형 AI 시장은 연평균 27% 성장할 것으로 예상했으며 HBM 시장은 2022년부터 2025년까지 연평균 109% 성장할 것으로 예상한다.
SK하이닉스는 지난 3월 메모리업체 중 최초로 5세대 HBM인 HBM3E 8단 제품을 엔비디아에 납품했으며 맞춤형 HBM인 6세대 HBM4도 준비 중이다. [이코노미21]
저작권자 © 이코노미21 무단전재 및 재배포 금지