인텔 코리아에서, 국내 총선 기간 진행된 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024의 핵심 내용을 국내 소개하기 위한 자리를 마련했다. 이번 간담회에서는 행사 참여를 위해 미국 체류 중인 관계로 화상을 통해 인사말을 남긴 인텔 코리아 백남기 부사장은, 이번 행사에서 AI 프로젝트를 추진 중인 전세계 기업들이 대안이 필요하다는데 공감 중하고 있으며, 이번에 인텔이 발표한 가우디 3 같은 하드웨어 뿐 아니라 SW 생태계가 중요하다는 것을 느꼈다고 행사의 분위기를 전했다.
가우디 중심 국내 AI 생태계 확장을 위한 네이버x인텔 협력
이어서 지난해 부터 인텔과 협력 중인 네이버의 클라우드 하이퍼스케일 AI 담당 이동수 박사는 자신이 초거대 모델의 경량화, 최적화 담당 중이라며, 현재 네이버 서비스에 폭 넓게 사용 중인 AI를 위해 좋은 반도체를 골라 사용하는 것이 서비스 강화에 직결되는 문제라고 운을 띄웠다.
이어 필연적으로 많은 반도체들을 평가하고 분석하는 과정에서 인텔 가우디에서 놀라운 결과를 얻었으며, 인텔 또한 네이버의 AI 역량을 고평가해 좋은 협력 관계를 구축하게 되었다고 전했다.
양사의 협력 관계가 단기간에 그치지 않고 국내 스타트업 및 학계와 연계해 풍성한 AI 생태계 확장의 기회가 되길 바란다고 전했다.
인텔-네이버 MOU 협약식
현재 AI 생태계는 스타트업과 학계에서 주도 중이라는 현실을 상기시키며, GPU 기반 프로젝트에 어려움을 겪고 있는 관련 업계에 가우디라는 대안을 제시하면서 결과물을 오픈 소스 형태로 공개해 진입 장벽을 낮추고 생태계를 확대할 것이란 계획도 밝혔다.
이를 위해 국내 스타트업 및 학계와 협력해 AI 생태계 확장을 위해 관련 업체들과 접촉 중이며, 현재는 가우디 플랫폼의 다양한 활용을 위한 평가 단계인 만큼 네이버의 기존 AI 서비스 및 인프라를 대체 중인 것은 없고, 일부에서 이야기되는 별도의 사옥이나 연구소 구축은 아직 결정되지 않았다는 내용도 알렸다.
또한 칩이 바뀔 때마다 코드가 바뀌고 최적화도 다시해야하는 CUDA와 달리 가우디는 현재 안정된 2 버전과 3버전은 완전히 다른 칩이 아니라 자연스럽게 연결되기에 사실상 하나의 생태계로 볼 수 있다며, 가우디 2에 대한 평가 결과에 따라 가우디 3 도입도 충분히 고려할 수 있을 것이라고 언급했다.
기본 능력 평가는 완료되었지만 아직 가우디 2는 생소한 반도체인 만큼 여러 소프트웨어 운용에 대한 평가를 진행하며 어느 정도로 확대해 나갈지는 차차 결정할 일이고, 현재는 기본적인 인프라 구축과 함께 LLM을 중심으로 네이버 AI 사업 관련 평가에 집중한다는 방침이다.
인텔, 가우디 3 개방형 생태계로 생성형 AI 격차 해소
인텔은 2026년까지 기업의 80%가 생성형 AI, 엣지 컴퓨팅의 50% 이상이 머신 러닝(ML)을 사용할 계획이고, 이를 위해 올해 400억 달러 수준의 투자액이 2027년에는 1510억 달러로 세 배 이상 증가할 것으로 예상되는, 기업 입장에서 AI 변곡점에 도달한 상황으로 분석했다.
그러나 2023년 기준 10%의 기업만이 생성형 AI를 실무에 도입 중이며, 이처럼 도입이 지지부진한데는 인프라 부족, 개방성 및 선택권 제한, 투명성, 개인 정보 보호 및 신뢰에 대한 우려 등 다양한 걸림돌이 존재한다고 판단했다.
인텔은 기업용 AI 발전과 기업내 AI의 모든 부분을 다루기 위한 개방형 생태계로 확장 가능한 시스템 전략, 생성형 AI 솔루션에 대한 요구 사항을 충족하기 위한 가우디 3 AI 가속기, AI 워크로드용 엣지 플랫폼 및 이더넷 기반 네트워킹 연결 제품을 발표했다.
기업용 AI라면 오늘날은 공공 데이터와 기업 데이터가 분리된 'AI 코파일럿'의 시대지만 앞으로는 분야별 데이터를 통해 도메인 워크플로우를 자동화하는 'AI 에이전트'의 시대, AI 에이전트 끼리의 협력을 통해 전체 기업 데이트를 활용하는 'AI 기능'의 시대로 발전할 것으로 내다보고 있다.
오늘날 기업용 AI는 보안, 공용, 개방형, 폐쇄형 등 특성에 따라 기업 데이터와 AI 모델로 구분되는데, 기업용 AI 발전을 위해서는 어플리케이션/ 소프트웨어/ 인프라스트럭처/ 컴퓨팅 전체 생태계에 거쳐 개방형 생태계를 활용하는 것이 중요하다고 주장했다.
또한 개발자들을 위해 대규모 AI 구측 뭋 배포에 필요한 각종 자료 제공과 테스트 환경 등을 제공하는 '인텔 개발자 클라우드'를 발표했다. 최신 HW 및 SW 스텍 및 미래 출시 공개 예정인 제품들도 미리 테스트하고 검증하도록 지원한다.
가우디 3 AI 가속기는 가우디 2 대비 2배의 FP8, 4배의 BF16 성능, 네트워크 대역폭과 메모리 대역폭은 각각 2배와 1.5배 증가했으며, 엔비디아 H100 대비 학습 시간은 40%, 추론 성능은 50% 더 빠른 성능을 제공한다.
특히 특정 플랫폼에 종속되는 것을 저어하는 기업을 고려한 개방형 표준과 소프트웨어 플랫폼을 택하고, 이를 통한 레퍼런스 테스트와 인증을 통한 관리, 검증으로 선택권 및 가성비 향상을 추구한다.
가우디 3 플랫폼은 최대 128GB의 HBMe2 메모리, 3.7TB/s의 대역폭, 96MB 캐시가 탑재되며, 24개의 200Gb 이더넷 포트 통합, 기존 폼팩터 외에 PCIe 확장 카드 폼펙터가 추가되어 설계 유연성도 높여준다. 범용 베이스보드 및 개방형 가속기 모듈(OAM)은 2024년 2분기 OEM 제공될 예정이며, PCIe 확장 카드 폼펙터는 2024년 4분기 출시될 예정이다.
인텔은 제온 프로세서가 기업용 AI 시장에서 중요한 역할을 수행하며, '제온 6 프로세서'로 기존 브랜드(x세대 제온 스케일러블 프로세서)를 단순화 시키고, 고객 요구사양을 충족 시키기 위해 기존 P-코어 전용에 더해 E-코어 전용 모델을 선보인다.
코드네임 시에라 포레스트(E-코어 기반)는 2분기, 그래나이트 래피즈(P-코어 기반)는 2024년 하반기 출시 예정으로, 시에러 포레스트는 고집적 스케일 아웃 워크로드, 그래나이트 래피즈는 김퓨팅 집약적 AI 워크로드에 특화되며, 일반 목적 워크로드는 양 제품 모두 타겟팅 한다.
시에라 포레스트는 전세대 대비 전성비 2.4배, 랙당 성능 2.7배 향상이라는 결과를 끌어냈으며, 2세대 인텔 제온 프로세서 기반 200개의 서버 랙을 72개의 서버 랙으로 줄일 수 있다. 이를 통해 1300 가구 이상의 1년 전기 사용량에 해당하는 1메가와트 이상의 전력을 절감할 수 있다.
Copyrightⓒ 넥스젠리서치(주) 보드나라 미디어국. www.bodnara.co.kr