AI 인프라 스타트업 엔패브리카(Enfabrica)가 7월 30일, 대규모 AI 학습 및 추론 환경에서 가장 큰 제약 요인 중 하나인 메모리 병목 현상을 완화할 수 있는 신형 인터커넥트 및 메모리 확장 기술을 공개했다. 이 기술은 GPU 없이도 메모리 대역폭과 용량을 유연하게 확장할 수 있어, AI 인프라 운영비용 절감과 성능 향상을 동시에 노릴 수 있다는 평가를 받고 있다.
엔패브리카는 엔비디아가 투자한 유망 스타트업으로, 이번 발표에서 새롭게 공개한 제품군은 'AIM (Accelerated Interconnect and Memory)' 아키텍처 기반으로 구성된다. 이 솔루션은 GPU와 서버 간 인터커넥트를 최적화하고, DRAM 리소스를 여러 노드에 공유하는 기술을 통해, GPU 수를 늘리지 않고도 대규모 AI 연산에 필요한 메모리 자원을 확보할 수 있도록 한다.
기존의 AI 인프라는 GPU 수에 비례해 DRAM 용량이 결정되는데, 이는 비용 측면에서 큰 부담으로 작용해왔다. 특히 생성형 AI 모델의 파라미터 수가 기하급수적으로 증가하면서, 고비용 GPU 확장이 필수인 구조에 대한 불만이 꾸준히 제기되어왔다. 엔패브리카의 AIM 기술은 이 같은 구조적 제약을 풀 대안으로 부상하고 있다.
업계는 이 기술이 엔비디아 GPU의 보급을 전제로 한 설계인 만큼, 엔비디아 생태계 내에서 전략적으로 활용될 가능성에 주목하고 있다. 특히 수백 또는 수천 개의 GPU를 클러스터로 묶어 운용하는 AI 연구기관, 빅테크 기업들에게는 메모리 활용률 제고와 운영 효율성 확보 측면에서 중요한 의미를 가질 수 있다.
엔패브리카 측은 “AI 인프라의 한계는 컴퓨팅 파워보다 메모리와 네트워크 병목에서 기인하는 경우가 많다”며, “우리는 이러한 병목을 소프트웨어와 하드웨어 레벨에서 동시 해결하는 ‘새로운 AI 전용 컴퓨팅 계층’을 만들고 있다”고 설명했다.
이번 기술 공개는 메모리 비용과 서버 집적도 문제가 AI 확산의 걸림돌로 작용하는 상황에서, AI 인프라 시장의 판도를 바꿀 수 있는 핵심 변수로 주목받고 있다. OpenAI, 구글, 메타 등 대형 모델 개발 기업들이 병렬성과 확장성을 끊임없이 추구하는 가운데, 엔패브리카의 행보가 AI 생태계 전반에 어떤 영향을 미칠지 귀추가 주목된다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com