오픈AI의 챗GPT 출연과 함께 전세계적으로 각 분야에 생성 AI 돌풍이 불어 닥치면서 그야말로 전 산업 분야에서 핫 이슈라고해도 과언이 아닐정도죠.
이런 저런 솔루션들이 AI를 적용한다고들 하고 특히 빅테크 기업들의 경우 생성 AI를 위한 시스템에 대한 투자에 여념이 없는 모습이구요. 심지어 한정된 예산에서 생성 AI 개발에 투자가 몰리다보니 상대적으로 서버 교체나 업그레이드 수요는 뒤로 밀리게 되어 메모리 반도체 수요가 동인되지 않는 상황도 전개되고 있습니다.
이러한 생성 AI를 위한 시스템 구축에 있어 AI를 학습 시키는데 있어 최적의 AI용 반도체로 GPU가 거론되고 있고, 그에 따라 엔비디아의 A100과 H100 같은 AI용 GPU에 대한 수요는 가히 폭발적이라 할만 합니다. 이를 구하기 위해 웃돈 거래까지 이루어지고 있다고 하죠.
지금 주문하면 딜리버리까지 최대 12개월이 걸린다는 이야기가 나올 정도네요.
그러다보니 엔비디아가 TSMC의 최신 공정을 통해 생산해 공급할 수 있는 여력의 한계로 인한 이 틈새를 파고 들기 위해 이 분야의 가장 큰 GPU 경쟁사인 AMD는 물론이고, 인텔이나 그 밖의 스타트업들까지 여러 기업들이 GPU나 GPU는 아니더라도 NPU 같은 다른 형태의 AI 가속기 솔루션을 통해 대체제로 자리 매김하기 위해 뛰어들고 있긴 합니다.
예를들어 구글의 TPU, 아마존의 트레이니엄과 인퍼런시아2, MS의 아테나 같은 글로벌 빅테이크 기업들의 솔루션은 물론이고, 우리나라의 퓨리오사, 리벨리온, 사피온 같은 스타트업들도 있죠.
하지만 이와 관련해 최근에 여러 자료들을 찾아보니 이들이 접근하려는 시도가 쉽지 않을 것이라고 하네요.
하드웨어적으로는 이들이 만드는 칩이 대체제로서 의미가 있을지 모르겠으나 엔비디아가 AI 업계에 자사의 GPU를 기반으로 형성해놓은 CUDA 생태계를 대체할 수 있는 수단이 마땅한게 없기 때문이라고 하네요.
AI 개발과 연구를 하는데 있어 가장 많이 활용되는 개발 프레임워크와 각종 라이브러리와 개발 도구들이 대부분 엔비디아의 GPU와 CUDA에 최적화 되어 있기 때문에 말이죠.
그러다보니 사실상 엔비디아를 벋어나 경쟁력 있는 생성 AI를 개발한다는게 쉽지 않다는거죠.
학습 기반의 생성 AI에서는 엔비디아의 CUDA 기반으로한 생태계 환경에서 개발을 해오거나 이를 공부한 인력들이 태반이다보니 더더욱이나 그런거 같네요.
그래서 이런 어떤 부분이나 플랫폼을 선점하고 지배력을 갔는다는것은 무척이나 큰 의미가 있는거 같습니다.
물론 인공지능의 영역이 학습에 기반한 요즘 최고의 관심사인 거대 LLM 모델을 바탕으로한 생성 AI만 있는것은 아니지만 이러한 지적은 일리 있는 이야기인거 같고 그러다보니 현재 엔비디아가 저렇게 배짱 튀기고 있는게 아닌가 싶네요.
그리고 다른 업체들이 그 틈새를 뚥고 들어간다는게 쉽지 않은거 같구요.