AI반도체에 최적인 메모리반도체, HBM

요즘 메모리 반도체 업계의 가장 뜨거운 키워드는 단연 고대역폭 메모리(HBM·High Bandwidth Memory)죠. 한동안 메모리 불황으로 반도체 업계가 고전을 면치 못했었지만 AI기술이 확대되고 특히 HBM이 AI반도체에 최적인 기술로 인식되면서 반도체 업계의 주도권 경쟁도 치열해지고 있습니다. 오늘은 HBM이 무엇인지 알아보겠습니다.

 

왜 AI기술에 반도체가 중요할까

챗 GPT, 로봇 사물 인식, 자율 주행. 요즘 가장 주목받는 최신 기술을 관통하는 키워드는 AI입니다. IT 기기는 ‘인공지능(AI)’을 구현하기 위해 방대한 양의 데이터를 더하고, 빼고, 나누고, 곱하면서 학습을 한 뒤 스스로 추론하는 과정을 거치기 때문에 이것을 처리할 능력이 있는 반도체가 필요하게 되었습니다.

 

AI반도체

GPU

그러므로 AI기술은 반도체 시장을 대대적으로 개편하게 됩니다. 현존하는 칩 중에서 이 작업을 가장 잘 수행하는 반도체는 그래픽처리장치(GPU)인데요. GPU는 화면에 띄울 수만개 픽셀(화소) 색깔을 단번에 표현하면서 영상, 게임 등 각종 이미지를 구현하며 상대적으로 단순한 정보를 단번에 표시합니다. 이처럼 한꺼번에 연산하는 GPU  덕분에 AI가 시작되었다고 해도 과언이 아닐만큼 이 반도체는 AI반도체 시장에서 각광을 받게 됩니다. 1~4개의 일꾼이 순차적으로 연산하는 CPU보다 수천개의 일꾼이 일제히 움직이기 때문에 방대한 양의 간단한 정보를 연산하는데 더 효율적이기 때문이죠. 이 때문에 GPU 시장의 1위인 엔비디아가 AI 시장의 최강자로 떠오르게 된 것입니다.

 

메모리반도체: GDDR

이러한 흐름은 메모리 시장에도 영향을 미치게됩니다. 이렇게 방대한 양의 연산을 한번에 하려니 전통적인 구조였던 메모리 사이의 위치기 너무 멀어 메모리 모듈도 가깝고 더 빨라지기를 바랬던 거죠. GPU 주변에 그래픽용 D램 칩인 GDDR을 탑재하였는데 물론 GPU의 빠른 이미지 연산을 돕기 위해 제작된만큼 속도가 빠른 장점이 있었습니다. 하지만 정보가 오가는 통로인 핀의 수가 32개로 더 많은 정보를 빠른 속도로 옮기는 AI에서는 병목현상이 일어날 수 밖에 없게 됩니다. 또한 용량도 살짝 아쉽습니다. 최신 GDDR6 한개 칩 용량은 2GB로 통상 12개의 GDDR6가 놓인다고 생각하면 24GB밖에 안된다는 것이었죠.

GDDR vs HBM
출처: AMD

메모리반도체: HBM

이 때 등장한 것이 바로 HBM입니다. HBM은 대한민국의 SK하이닉스가 최초로 개발하고 양산하여 2013년에 발표한 적층형 메모리 규격을 말합니다. HBM은 여러 개 D램을 수직으로 쌓은 뒤, 곳곳에 1024개의 구멍을 뚫어서 마치 엘리베이터같은 정보 출입 통로를 만듭니다. 전통적인 I/O 설계 방식을 따른 GDDR 한 개 칩보다 32배 많습니다. GDDR 칩이 GPU 주변에 12개 정도 위치한다고 가정하면 총 핀 수는 384개입니다. HBM은 GPU 바로 옆에 통상 4개가 위치하는데요. 4개만 놓아도 통로 수가4,096개에 달합니다. GDDR이 아무리 데이터 전송 속도가 빨라도 384차선 도로와 4096차선 도로의 교통체증은 비교할 수가 없는 것이죠.

8HBM-PIM
출처: 삼성전자

 

또 HBM은 그림처럼 GPU 칩과의 거리가 GDDR보다 가깝습니다. HBM은 GDDR과 달리 GPU와 한 개 기판 위에서 마치 한 칩처럼 움직이는 이종결합 형태로 올린 패키징 기술이 구현됐기 때문인데요. 초근접 메모리인 셈이죠

또한 단연코 가장 큰 장점은 용량입니다. HBM의 정말 중요한 포인트는 적층입니다. 메모리를 수직으로 탑처럼 쌓는 것인데요. SK하이닉스는 2024년 2월 16단 HBM3E 기술을 선보입니다. 16단 48GB에 1.28TB/s의 대역폭을 처리할 수 있는 기술을 확보한 것이죠.

이렇게 GDDR6의 단점을 극복한 HBM은 엔비디아, AMD 등 굴지 시스템 반도체 설계 회사들을 유혹했고 이들은 여전히 큰 만족감을 나타냅니다. 각종 고급 칩에 HBM이 쓰이기 시작하면서 앞으로 AI반도체 분야에서 애플리케이션과 사용량은 더욱 늘어날 것으로 보입니다.

물론 기능, 용량 등을 놓고 보면 HBM이 파(Far) 메모리인 D램 모듈을 위협할 수는 없지만 AI 시장이 커가는 만큼 HBM 시장의 가능성도 점점 커지고 있습니다.

 

SK하이닉스 vs 삼성전자

2023년 전 세계 HBM 시장 점유율은 SK하이닉스(53%), 삼성전자(38%), 마이크론(9%) 순으로 국내기업으로는 SK하이닉스와 삼성전자가 시장 확대에 주력하고 있습니다. SK하이닉스는 2013년 HBM을 처음으로 개발한 뒤 이 시장에 ‘진심’으로 접근하고 있습니다. AI 시장의 성장, 세계 최초로 개발했다는 자신감과 기술 노하우 등으로 떠오르는 고대역폭 메모리 시장을 공격적으로 진입하는 분위기입니다. 올해는 경쟁사인 삼성전자도 엔비디아에 HBM을 납품을 할 것으로 예상되지만 차별화된 기술 경쟁력을 감안할 때 HBM 시장에서 SK하이닉스의 1위 지위는 굳건할 것으로 예상됩니다.

하지만 삼성전자의 반격도 만만치 않습니다.
24년 4월 14일 반도체 업계의 발표에 따르면 삼성전자도 12단 적층 HBM3E(5세대 고대역폭 메모리) D램이 올 2분기 미국 AMD 신형 AI반도체와 함께 시장에 처음 선을 보일 예정입니다.  AI 반도체에 HBM3E를 적용하면 HBM3를 활용할 때와 비교해 AI 학습 속도는 평균 34% 빨라지며, AI 추론 서비스 규모는 11.5배 확대될 것으로 기대되는데요. 이에 따라 엔비디아에 이어 AMD로 HBM 공급망을 확대함으로써 삼성전자는 SK하이닉스에 뒤처진 HBM 시장 점유율을 크게 만회할 수 있을 것으로 전망됩니다.

삼성전자 HBM
출처: 삼성전자

 

앞으로는 AI반도체 기업에 대해서도 포스팅할 예정입니다. 많이 기대해주세요.

 

 

 

Leave a Comment