AMD가 AI 시대에 발맞춰 신경망 처리 유닛(NPU)인 라이젠 AI를 통합한 모바일 프로세서를 통해 이전 모델 대비 최대 1.6배 향상된 AI 처리 성능을 자랑하는 'AMD 라이젠 8040 시리즈'(코드네임 호크 포인트,Hawk Point)를 공식 발표했다.
이번 라이젠 8040 시리즈는 주요 OEM 사를 통해 2024년 1분기부터 시장에 본격 판매될 예정이다. 이번 발표는 타이밍 상 출시까지 약 1주일 남은, 동일 컨셉으로 NPU를 통합해 출시되는 인텔의 메테오 레이크 시리즈를 겨냥한 것으로 풀이된다.
라이젠 80'4'0 시리즈는 현재 라이젠 70'4'0 시리즈와 같이 Zen4 아키텍처 기반 CPU 코어와 RDNA3 아키텍처 기반 라데온 그래픽이 사용되며, 라이젠 3 8440U/ 라이젠 5 8540U 2종을 제외한 모든 제품군에 NPU가 통합된다. CPU 구성은 최대 8코어 16스레드, cTDP 35W~54W의 고성능 'HS' 모델과 cTDP 15W~30W의 저전력 모델인 U 시리즈로 총 9개 모델이 시장에 선보일 예정이다.
소비자들이 NPU 탑재 여부를 쉽게 구분할 수 있도록 노트북에 부착되는 배지에는 'AI' 접사를 이용하며, 라이젠 7040 시리즈 대비 생성형 AI 작업에서 최대 40% 더 높은 성능을 제공한다. AMD 자료에 따르면 현재 시장에 출시 중인 경쟁 모델 인텔 코어 i9-13900H와 비교시 멀티 스레드 성능은 최대 1.1배, 게이밍 성능은 최대 1.8배, 컨텐츠 제작 성능은 최대 1.4배에 달한다.
AMD는 이번에 발표한 라이젠 8040 시리즈에 이어 차세대 AI 아키텍처(XDNA2) 기반 NPU가 탑재된 스트릭스 포인트를 2024년 중에 선보일 예정이며, 세 배 이상의 생성형 AI 성능을 제공할 것이라고 첨언했다.
업게 표준 기반 AI 소프트웨어 배포
한편, 이번 라이젠 8040 프로세서는 윈도우 11의 보안을 포함한 전 기능을 지원하며, 호크 포인트를 탑재한 일부 제품에서는 MS의 윈도우 스튜디오 이펙트(Window Studio Effects)가 제공하는 배경 흐림, 시선 추적 및 노이즈 캔슬링 등 다양한 AI기능을 활용한 개인정보 보호 기능을 활용할 수 있다.
또한 라이젠 AI 소프트웨어 상용화에 따라 개발자들은 파이토치(PyTorch)나 텐서플로(TensorFlow) 같은 프레임워크에서 머신러닝 모델을 훈련시키고 일부 라이젠 AI 기반 노트북에서 해당 모델을 운용할 수 있게 되었다. AMD는 지난 7월 윈도우 스튜디오 이펙트 지원을 위해 라이젠 AI 소프트웨어의 얼리 액세스를 공개한 바 있다.
라이젠 AI 소프트웨어 1.0버전은 ONNX 런타임(ONNX Runtime) 애플리케이션을 지원하고 허깅 페이스 (Hugging Face)에서 최적화된 인공지능 샘플 모델(Model Zoo)을 지원한다. 라이젠 AI 탑재 노트북은 AI 모델을 NPU에 오프로드하여 CPU의 워크로드와 전력 소모를 줄이고 동시에 더 긴 배터리 수명을 제공할 수 있다.
앞으로 개발자들은 라이젠 AI를 활용해 보다 고도화된 제스처 인식, 생체 인증 및 기타 접근성 기능을 갖춘 AI 애플리케이션을 제작할 수 있으며, 위스퍼(Whisper) 같은 자동 음성 인식(Automatic Speech Recognition; ASR) 모델을 비롯해 OPT, 라마 2(Llama 2) 등 대형 언어 모델(Large Language Model; LLM)에 대한 얼리 액세스 권한을 부여 받아 애플리케이션 내 자연어 음성 인터페이스 구축이나 문서 요약, 이메일 지원 등의 기타 자연어 처리 기능도 사용 가능하다.
최대 5.8TB/s 대역폭 192GB HBM3로 최신 AI 환경에 대응, AMD 인스팅트 MI300X
AMD는 NPU가 통합된 라이젠 8040 시리즈에 이어 고도의 연산용 GPU 아키텍처인 CDNA3 기반 코어가 사용된 인스팅트 MI300 시리즈의 업데이트 소식도 전했다.
이번에 업데이트된 인스팅트 MI300 시리즈 중 AMD 인스팅트 MI300A는 Zen4 아키텍처 CPU 코어가 결합된 APU 방식의 모델이며, AMD 인스팅트 MI300X는 192GB의 HBM3 메모리를 바탕으로 생성형 AI에 적합한 최고 수준의 메모리 대역폭과 LLM(Large Language Model, 대형 언어 모델) 훈련 및 추론에 필요한 고도화된 성능 제공을 표방한 제품이다.
AMD CDNA 3 아키텍처 기반의 AMD 인스팅트 MI300X 가속기는 이전 세대 AMD 인스팅트 MI250X 대비 약 40% 더 많은 컴퓨팅 유닛과 1.5배에 달하는 용량의 메모리를 제공하며, 최대 메모리 대역폭 역시 1.7배 높은 5.3TB/s를 구현했다. 또한, FP8(8비트 부동 소수점) 및 희소성(sparsity) 같은 새로운 포맷을 지원하여 AI 및 HPC 워크로드에도 대비했다.
AMD 인스팅트 시리즈는 산업 표준 디자인을 채택해 기존AI 제품에 MI300X 가속기를 설치해 간편하게 운용할 수 있고, AMD 인스팅트 가속기 기반 서버도 더 빠르게 적용할 수 있다. 이를 활용해 블룸 176B(BLOOM 176B) 같은 대형 언어 모델에서 추론을 실행할 경우, 엔비디아 H100 HGX와 비교해 최대 1.6배 향상된 처리량을 제공한다.
24 Zen4 CPU 코어와 228 CDNA3 CU의 결합, AMD 인스팅트 MI300A
AMD 인스팅트 MI300A APU는 세계 최초의 HPC 및 AI용 데이터센터 APU로, 3D 패키징과 4세대 AMD 인피니티 아키텍처(AMD Infinity Architecture)를 활용해 높은 워크로드 처리 능력을 발휘한다. 고성능 AMD CDNA 3 GPU 코어와 최신 'Zen4' 아키텍처 기반 CPU 코어, 128GB용량의 차세대 HBM3 메모리를 결합하여, 기존 AMD 인스팅트 MI250X모델에 비해 FP32 연산HPC 및 AI 워크로드에서 와트당 성능이 약 1.9배 개선되었다.
AMD 인스팅트 MI300A APU는 CPU 와 GPU 코어를 단일 패키지에 결합해 효율성을 꾀한 플랫폼으로, 통합 메모리와 캐시 자원을 통해 고객이 쉽게 프로그래밍할 수 있는 GPU 플랫폼 경험을 제공한다. 고부하 HPC 및 AI 워크로드를 처리할 수 있는 고성능 컴퓨팅과 탁월한 AI 훈련 속도, 에너지 효율성 역시 보장한다.
Copyrightⓒ 넥스젠리서치(주) 보드나라 미디어국. www.bodnara.co.kr