삼성은 ‘최초 12단’, 하이닉스·마이크론은 “양산 본격화”···막 오른 5세대 HBM 삼국지
페이지 정보
작성자 김지훈 작성일24-03-02 15:57 조회9회 댓글0건관련링크
본문
삼성전자가 세계 최초로 D램을 12단으로 쌓아 5세대 고대역폭메모리(HBM) ‘HBM3E’의 최대 용량을 달성했다고 27일 밝혔다. 경쟁사인 SK하이닉스는 다음달 8단 HBM3E 생산에 착수해 인공지능(AI) 반도체 1위 기업 엔비디아에 대량 납품할 예정이며, 미국 마이크론은 이미 양산에 들어갔다. 나날이 발전하는 생성형 AI 덕에 고성능 메모리인 HBM의 수요도 치솟으면서, 데이터를 ‘더 많이, 더 빨리’ 저장·전송하는 기술력을 확보하고 양산 시점을 앞당기려는 경쟁이 치열해지고 있다.
삼성전자는 36기가바이트(GB) HBM3E 개발에 성공했다고 이날 밝혔다. D램 칩을 TSV(실리콘 관통 전극) 기술로 12단까지 쌓았다. TSV는 수천개의 미세 구멍을 뚫은 D램 칩을 수직으로 쌓는 기술이다. 현재 메모리 업계에서 상용화 단계에 도달한 규격은 8단 적층 24GB 용량이다.
삼성전자의 12단 제품은 초당 최대 1280GB를 처리할 수 있다. 1초에 30GB 용량의 UHD 영화 40여편을 다운로드할 수 있는 속도다. 삼성전자는 서버 시스템에 HBM3E 12단을 적용하면 (4세대 제품인)HBM3 8단을 탑재할 때보다 평균 34% AI 학습 훈련 속도 향상이 가능하다고 밝혔다.
삼성전자는 HBM3E 12단 샘플을 고객사에게 제공하기 시작했다고 밝혔다. 실제 양산까지는 시간이 다소 걸릴 것으로 전망된다. 삼성전자는 아직 이전 단계인 HBM3E 8단 제품의 양산 일정도 확정하지 않은 상태다. 한 메모리 업계 관계자는 현재 시장에서 요구하는 것은 8단 제품이라며 삼성전자는 AI 반도체 시장의 관심이 12단으로 확대·전환되는 올 하반기를 타깃 삼아 기술적 성과를 먼저 홍보한 것으로 보인다고 말했다.
SK하이닉스는 8단 24GB HBM3E 제품의 양산을 곧 개시한다. 곽노정 SK하이닉스 대표는 전날 기자들에게 HBM3E는 저희가 계획한 일정대로 (양산 준비를)하고 있다고 밝혔다. 업계에서는 그 시점을 오는 3월로 점친다. SK하이닉스는 엔비디아의 AI 연산용 그래픽처리장치(GPU) ‘H100’에 4세대 HBM3를 공급하고 있다. HBM3E는 엔비디아가 2분기 출시할 ‘H200’에 탑재된다.
HBM은 생성형 AI 산업의 ‘필수재’로 꼽힌다. AI 학습에 필요한 수십~수백만건의 데이터 연산을 ‘동시다발적으로’ 해낼 수 있는 칩은 현재로서는 엔비디아 GPU가 유일하다시피 하며, 빠른 작업을 위해서는 메모리 속도가 중요하다. D램을 여러 개 쌓아올린 HBM은 마치 차선을 수직으로 쌓은 고속도로처럼 일반 D램보다 더 빠른 속도를 낼 수 있다.
엔비디아 GPU는 수요 대비 공급이 턱없이 부족한 상황이다. GPU와 함께 패키징되는 HBM 역시 몸값이 오르고 있다. HBM은 일반 D램보다 5~6배가량 비싸다. 범용 D램 시장에서는 삼성전자가 1위이지만, HBM 시장에서만큼은 SK하이닉스가 50% 점유율로 1위를 달리고 있다.
메모리 만년 3위였던 미국 마이크론도 지난 26일 HBM3E을 대량 양산하기 시작했다고 밝혔다. SK하이닉스처럼 8단 적층 24GB 제품이며 엔비디아 H200에 실리게 된다.
마이크론은 HBM 시장에 발을 들이기 위해 SK하이닉스·삼성전자가 먼저 깃발을 꽂은 HBM3을 건너뛰고 최신 세대인 HBM3E로 직행했다. 그러나 아직 완성도와 공정 효율성 면에서는 뒤처진다는 평가가 지배적이다. 고영민 다올투자증권 연구원은 마이크론의 인스타 팔로우 구매 제품 수율(양품 비율)은 이미 (공정이)안정화된 SK하이닉스 대비 큰 폭으로 밑돌 것이라고 분석했다.
삼성전자와 SK하이닉스는 2025년 연말~2026년 양산을 목표로 6세대 HBM4 주도권을 잡기 위한 기술 경쟁에도 이미 돌입한 상태다. HBM4는 D램을 16단까지 쌓아 올린다. 단수가 높아질수록 D램 두께가 얇아지고 발열과 신호 간섭 등 문제가 커지기 때문에 고난도 기술이 필요하다.
삼성전자는 36기가바이트(GB) HBM3E 개발에 성공했다고 이날 밝혔다. D램 칩을 TSV(실리콘 관통 전극) 기술로 12단까지 쌓았다. TSV는 수천개의 미세 구멍을 뚫은 D램 칩을 수직으로 쌓는 기술이다. 현재 메모리 업계에서 상용화 단계에 도달한 규격은 8단 적층 24GB 용량이다.
삼성전자의 12단 제품은 초당 최대 1280GB를 처리할 수 있다. 1초에 30GB 용량의 UHD 영화 40여편을 다운로드할 수 있는 속도다. 삼성전자는 서버 시스템에 HBM3E 12단을 적용하면 (4세대 제품인)HBM3 8단을 탑재할 때보다 평균 34% AI 학습 훈련 속도 향상이 가능하다고 밝혔다.
삼성전자는 HBM3E 12단 샘플을 고객사에게 제공하기 시작했다고 밝혔다. 실제 양산까지는 시간이 다소 걸릴 것으로 전망된다. 삼성전자는 아직 이전 단계인 HBM3E 8단 제품의 양산 일정도 확정하지 않은 상태다. 한 메모리 업계 관계자는 현재 시장에서 요구하는 것은 8단 제품이라며 삼성전자는 AI 반도체 시장의 관심이 12단으로 확대·전환되는 올 하반기를 타깃 삼아 기술적 성과를 먼저 홍보한 것으로 보인다고 말했다.
SK하이닉스는 8단 24GB HBM3E 제품의 양산을 곧 개시한다. 곽노정 SK하이닉스 대표는 전날 기자들에게 HBM3E는 저희가 계획한 일정대로 (양산 준비를)하고 있다고 밝혔다. 업계에서는 그 시점을 오는 3월로 점친다. SK하이닉스는 엔비디아의 AI 연산용 그래픽처리장치(GPU) ‘H100’에 4세대 HBM3를 공급하고 있다. HBM3E는 엔비디아가 2분기 출시할 ‘H200’에 탑재된다.
HBM은 생성형 AI 산업의 ‘필수재’로 꼽힌다. AI 학습에 필요한 수십~수백만건의 데이터 연산을 ‘동시다발적으로’ 해낼 수 있는 칩은 현재로서는 엔비디아 GPU가 유일하다시피 하며, 빠른 작업을 위해서는 메모리 속도가 중요하다. D램을 여러 개 쌓아올린 HBM은 마치 차선을 수직으로 쌓은 고속도로처럼 일반 D램보다 더 빠른 속도를 낼 수 있다.
엔비디아 GPU는 수요 대비 공급이 턱없이 부족한 상황이다. GPU와 함께 패키징되는 HBM 역시 몸값이 오르고 있다. HBM은 일반 D램보다 5~6배가량 비싸다. 범용 D램 시장에서는 삼성전자가 1위이지만, HBM 시장에서만큼은 SK하이닉스가 50% 점유율로 1위를 달리고 있다.
메모리 만년 3위였던 미국 마이크론도 지난 26일 HBM3E을 대량 양산하기 시작했다고 밝혔다. SK하이닉스처럼 8단 적층 24GB 제품이며 엔비디아 H200에 실리게 된다.
마이크론은 HBM 시장에 발을 들이기 위해 SK하이닉스·삼성전자가 먼저 깃발을 꽂은 HBM3을 건너뛰고 최신 세대인 HBM3E로 직행했다. 그러나 아직 완성도와 공정 효율성 면에서는 뒤처진다는 평가가 지배적이다. 고영민 다올투자증권 연구원은 마이크론의 인스타 팔로우 구매 제품 수율(양품 비율)은 이미 (공정이)안정화된 SK하이닉스 대비 큰 폭으로 밑돌 것이라고 분석했다.
삼성전자와 SK하이닉스는 2025년 연말~2026년 양산을 목표로 6세대 HBM4 주도권을 잡기 위한 기술 경쟁에도 이미 돌입한 상태다. HBM4는 D램을 16단까지 쌓아 올린다. 단수가 높아질수록 D램 두께가 얇아지고 발열과 신호 간섭 등 문제가 커지기 때문에 고난도 기술이 필요하다.
댓글목록
등록된 댓글이 없습니다.